Mac bilgisayarınıza en yeni Büyük Dil Modellerini (LLM'ler) yerel olarak nasıl yükleyebilirsiniz?

Son yıllarda, büyük dil modelleri (LLM'ler), insan benzeri metin üretme ve çeşitli görevlerde yardımcı olma yetenekleri nedeniyle giderek daha popüler hale geldi. Tüm modeller açık kaynaklı olmasa da, neredeyse her büyük teknoloji şirketinin kullanıcıların indirip çalıştırabileceği bir sürümü mevcuttur.

Bu modelleri Mac'inizde yerel olarak çalıştırmak hem gizlilik hem de maliyet açısından faydalı olabilir. Bu makalede, LLM'leri nasıl kurup çalıştıracağımızı inceleyeceğiz. OllamaGeliştiriciler ve yeni başlayan kullanıcılar için güçlü bir araçtır ve macOS Terminalini kullanmayı tercih etmeyenler için süreci basitleştirebilecek bazı grafiksel kullanıcı arayüzü araçlarını ele alacağız.

İçindekiler

Bu sayede [Google], [Microsoft], [Meta] ve [Mistral] ve [DeepSeek] gibi diğer yapay zeka şirketlerinin en yeni yapay zeka destekli metin şablonlarına erişebilirsiniz.

LLM'leri Anlamak: Parametreler Ne Anlama Geliyor?

Kurulum sürecine geçmeden önce, " gibi rakamların ne anlama geldiğini açıklığa kavuşturalım."7B"Ya da"14BLLM'lerden bahsederken, bu sayılar model boyutunu şu şekilde ifade eder: Parametreler (Milyarlarca) adeta eğitim sırasında hassas bir şekilde ayarlanan "kollar ve anahtarlar" olan bu mekanizmalar,

Daha fazla parametre, modelin dildeki daha karmaşık kalıpları ve ilişkileri yakalamasına olanak tanıyarak potansiyel olarak daha iyi performansa yol açabilir. Bununla birlikte, daha fazla parametreye sahip olmanın her zaman daha iyi sonuçları garanti etmediğini belirtmek önemlidir; eğitim verilerinin kalitesi ve modelin kullanımına sunulan hesaplama kaynakları da önemli roller oynar.

Sistem gereksinimleri

[Mac] bilgisayarınızın en az aşağıdaki özelliklere sahip olduğundan emin olmanız gerekecektir:

  • macOS 10.15 veya üzeri (macOS 13 veya üzeri önerilir)
  • En az 8 GB RAM (16 GB veya üzeri önerilir)
  • 10 GB boş depolama alanı (en küçük modeller için gereken minimum miktar; daha fazla parametreye sahip daha gelişmiş modeller yaklaşık 700 GB gerektirir)
  • [Intel] çok çekirdekli işlemci veya [Apple Silicon] işlemci (M2 veya üzeri tercih edilir)

Ollama'yı yükle

Ollama Bu, LLM'leri doğrudan yerel makinenizde çalıştırmanıza olanak tanıyan açık kaynaklı bir araçtır. İşte nasıl başlayacağınız:

  1. Ollama'yı İndir: Web sitesini ziyaret edin Ollama macOS sürümünü indirin. Ayrıca [Homebrew] kullanarak da yükleyebilirsiniz. brew install ollama Terminalinizde.
ollama indirme sayfası
  1. Ollama'yı yükleKurulum dosyasını indirdiyseniz, çift tıklayın ve kurulum sihirbazını takip edin. Homebrew kullanıyorsanız, 4. adıma geçin.
Ollama kurulum ekranında İleri'ye tıklayın.
  1. Kurulum programının bir sonraki adımı, düğmeye tıklamaktır. تثبيتBu işlem sizden yönetici parolanızı isteyecektir.
Ollama'nın yükleme düğmesi içeren grafiksel kullanıcı arayüzü.
  1. Ollama'yı çalıştırBir terminal penceresi açın ve aşağıdaki komutu kullanarak Ollama'yı bir servis olarak başlatın. brew services start ollamaBu sayede Ollama belirtilen adreste kullanılabilir hale gelecek. http://localhost:11434/.
  2. Modeli indirin ve çalıştırın.Komutu kullanın ollama pull <model-name> Şablonu indirmek için şu komutu kullanın. ollama run <model-name> Çalıştırmak için. Örneğin, bir modeli çalıştırmak için. DeepSeek-R1komutu kullanın ollama pull deepseek-r1 Ardından gelen emir ollama run deepseek-r1.
  3. Şablonun daha büyük bir sürümünü indirmek için, iki dikey nokta ve ardından boyutu eklemeniz yeterlidir. Örneğin, bir şablon indirmek için... 14B DeepSeekKomutu kullanacaksınız. ollama run deepseek-r1:14bOllama web sitesinde, formlardan herhangi birine tıklarsanız, her sürüm için farklı komutların tümü size gösterilecektir.
Ollama kullanarak Llama 3.2'yi başlatma
Metas llama 32 LLM'nin Kurulumu

Tam listeyi burada bulabilirsiniz. Ollama modelleri İşte burada. Yukarıda açıklandığı gibi ikinci komutu da kullanabilirsiniz ve eğer henüz kurulu değilse, önce formu indirecek ve ardından çalıştıracaktır.

Terminalde Llama 3.2 kurulumu

Şimdi üç dik açılı oku (>>>) gördüğünüze göre, forma komutlar yazmaya başlayabilirsiniz.

Ollama LLM'ye sorulan soru içeren terminal penceresi

İşte bu kadar! Artık maliyetler, aşırı kullanım veya başkalarının yazdıklarınızı okuyabilmesi konusunda endişelenmeden yapay zekâ destekli öğrenme modelinizle yerel olarak etkileşim kurabilirsiniz. Bu, yapay zekâ destekli öğrenme modeliyle tartışmak istediğiniz hassas veya kişisel konularınız varsa ancak büyük bir teknoloji şirketinin düşüncelerinizi okumasını istemiyorsanız harika bir özellik.

Ollama ile grafiksel kullanıcı arayüzü araçlarını kullanma

Ollama geliştiriciler için güçlü ve verimli olsa da, bazı kullanıcılar LLM'lerle etkileşim kurmak için grafiksel bir kullanıcı arayüzünü (GUI) tercih edebilir. İşte Ollama için bir GUI ön yüzü sağlayabilecek bazı araçlar:

      • Ollama GUIBu, SwiftUI kullanılarak geliştirilmiş, macOS kullanıcıları için ücretsiz ve açık kaynaklı bir uygulamadır. Güzel bir arayüz sunar ve terminal kullanmadan LLM formlarına yerel olarak erişmek isteyenler için mükemmel bir seçenektir.
      • Ollama UIBasit, HTML tabanlı bir web kullanıcı arayüzü olup, formları doğrudan tarayıcınızda tanımlamanıza ve bunlarla etkileşim kurmanıza olanak tanır. Kolay erişim için bir Chrome uzantısı da içerir.
      • Sohbet kutusu AIBu, yeni başlayanlar için en kolay seçenektir ve nasıl kullanılacağını aşağıda açıklayacağım. Ollama'yı kendiniz kurmak zorunda kalmadan tüm LLM şablonlarına erişebilmeniz için sundukları abonelik olan Chatbox AI hizmetini edinmenize gerek olmadığını unutmayın.

En iyi Chatbox yapay zeka arayüzünü kullanmak için şu adrese gidin: indirme sayfası Mac'iniz için uygun olan sürümü edinin.

chatbox ai ana sayfası

Ardından, yükleyiciyi açın ve programı çalıştırın. İlk ekranda, Chatbox AI'yı nasıl kullanacağınızı soran bir açılır pencere belirecektir.

chatbox ai use my own API key dialog

Düğmeye tıklamanız gerekecek. Kendi API Anahtarımı Kullan / Yerel Model.

Chatbox AI'yı kurarken Ollama'yı seçin.

Ardından, simgesine dokunun. Ollama API Yapay zeka modelleri sağlayıcısı olarak.

Chatbot yapay zekası Ollama API'sine bağlanıyor

Chatbox AI, Ollama'nın çalıştığını otomatik olarak algılamalı ve API ana bilgisayarını varsayılan değerine ayarlamalıdır. Döngü Dönüş IP Adresi ve bağlantı noktası numarası 11434Burada hiçbir şeyi değiştirmenize gerek yok. Formun içinde, Terminal kullanarak daha önce yüklediğiniz formları görmelisiniz. Benim durumumda bu, şu form: lamalar 3.2.

chatbox ai yeni sohbet penceresi llm ile

Uygulamanın ana sayfasına geri dönün ve tıklayın. Sadece sohbet أو Yeni sohbet Sağ alt köşede doğru şablonu seçtiğinizden emin olun. Şablonu istediğiniz zaman değiştirebilirsiniz, ancak farklılıkları kolayca görebilmeniz için kullandığınız her şablon için yeni bir sohbet oluşturmanızı öneririm.

LLM modellerini yerel olarak çalıştırmak için alternatif araçlar

Ollama'ya alternatif arıyorsanız veya baştan itibaren daha kullanıcı dostu bir deneyim tercih ediyorsanız, o zaman LM Stüdyosu Bu da mükemmel bir seçenek. Çeşitli yapay zeka modellerini keşfetmek ve kullanmak için kullanıcı dostu bir arayüz sunuyor ve bunları kolayca indirip çalıştırmanıza olanak tanıyor. LM Studio, Linux, Mac ve Windows için mevcut olup model parametrelerini ve sohbet geçmişini özelleştirme gibi özellikler sunuyor. Şu anda ücretsiz olduğu için Chatbox AI abonelik hizmetine göre bunu tavsiye ediyorum.

LM Studio for Mac ana sayfası

Sonuç

Mac'inizde büyük dil modellerini (LLM'ler) yerel olarak çalıştırmak, yapay zeka uygulamaları üzerinde daha fazla kontrol sahibi olmak ve veri gizliliğine öncelik vermek isteyen herkes için önemli olacaktır. Ollama ve yukarıda bahsedilen, LLM'leri iş akışınıza entegre etmeyi kolaylaştıran grafiksel arayüzler gibi araçlarla, yeni üretkenlik ve yaratıcılık potansiyelinin kilidini güvenli bir şekilde açabilirsiniz.

Ancak, yerel bir LLM dağıtımı başlatmak, parametreler ve bunların belirli makinenizde bu modellerin performansını nasıl etkilediği konusunda biraz bilgi sahibi olmayı gerektirir. Bunu öğrenmenin en iyi yolu, hangi modellerin size en iyi sonuçları verdiğini görmek için farklı modellerle denemeler yapmaktır. Bu kavramı anladığınızda, hangi modelleri kullanacağınıza ve performanslarını özel ihtiyaçlarınıza uyacak şekilde nasıl optimize edeceğinize dair daha iyi kararlar verebileceksiniz.

Yoruma kapalı.