Mac'te yerel yapay zeka uzun zamandır pratiktir - özellikle Apple-Silicon bilgisayarlarda (M serisi). Ollama ile birçok açık kaynak dil modeli (örneğin Llama 3.1/3.2, Mistral, Gemma, Qwen) için yalın bir çalışma zamanı ortamı elde edersiniz. Mevcut Ollama sürümü artık bir fare tıklamasıyla Mac'inizde yerel bir dil modeli kurmanıza olanak tanıyan kullanıcı dostu bir uygulama ile birlikte geliyor. Bu makalede kurulumdan ilk komut istemine kadar pragmatik bir rehber bulacaksınız - geleneksel olarak işlerin nerede yanlış gitme eğiliminde olduğuna dair pratik ipuçları ile birlikte.
Yerel yapay zekanın bulut sistemlerine göre avantajları
Mac'te Ollama gibi yerel bir dil modeli, özellikle şirketler, geliştiriciler ve veri koruma bilincine sahip kullanıcılar için aşılması zor avantajlar sunuyor.
Veri egemenliği ve veri koruma
Tüm sorular ve yanıtlar tamamen kendi bilgisayarınızda kalır. Hassas bilgiler - müşteri verileri, dahili strateji belgeleri veya tıbbi veriler - asla yerel sistemi terk etmez. Bir bulut sağlayıcısından yanlışlıkla veya kasıtlı olarak analiz edilebilecek hiçbir günlük dosyası veya analiz mekanizması yoktur.
Üçüncü taraf hizmetlerine bağımlılık yok
Bulut sistemleri fiyatlandırma modellerini değiştirebilir, erişim kısıtlamaları getirebilir veya bireysel özellikleri kapatabilir. Yerel bir kurulumla çalışma zamanı ortamı, sürümler ve model varyantları üzerinde tam kontrole sahip olursunuz. Güncellemeleri istediğiniz zaman yaparsınız - bir sağlayıcı dikte ettiğinde değil.
Hesaplanabilir maliyetler
İstek veya ay başına sürekli ücretler yerine, donanıma tek seferlik bir yatırım yaparsınız (örneğin yeterli RAM'e sahip bir Mac) ve ardından modelle süresiz olarak çalışırsınız. Yoğun bilgi işlem gerektiren görevler için, artan API faturaları konusunda endişelenmeden donanımı hedefli bir şekilde genişletebilirsiniz.
Çevrimdışı yetenek
Yerel bir model, internet bağlantısı olmadığında da çalışır - örneğin, seyahat ederken, şantiyelerde veya harici erişimi olmayan yüksek güvenlikli ağlarda.
Yüksek esneklik ve mevcut sistemlere entegrasyon
Yerel AI sistemlerinin bir diğer avantajı da entegrasyon kabiliyetidir. Ollama yerel bir API sunucusu sağladığından, basit komut dosyalarından karmaşık ERP sistemlerine kadar hemen hemen her uygulama bağlanabilir.
FileMaker bağlantı
Ollama API'sini kullanan FileMaker, istemleri doğrudan modele gönderebilir ve yanıtları yalnızca birkaç satırlık komut dosyası koduyla veya MBS eklenti çağrıları aracılığıyla alanlarda depolayabilir. Bu sayede otomatik metin analizleri, sınıflandırmalar, çeviriler veya içerik özetleri, bulut gecikmesi ve veri koruma riskleri olmadan tamamen FileMaker içinde uygulanabilir.
Otomatik iş akışları
Yerel API uç noktası ayrıca Zapier, n8n veya özelleştirilmiş Python/bash komut dosyaları gibi araçların entegre edilmesini sağlar. Bu, e-postalardan bilgi alma, rapor oluşturma veya belgeler için metin modülleri oluşturma gibi karmaşık süreçlerin otomatikleştirilmesine olanak tanır.
Model varyantları üzerinde tam kontrol
Birkaç modeli paralel olarak çalıştırabilir, bunlar arasında geçiş yapabilir veya projeniz için optimize edilmiş özel bölme modellerini yükleyebilirsiniz. İnce ayar veya LoRA modelleri gibi özelleştirmeler de yerel olarak gerçekleştirilebilir.
Pratik avantaj: tepki hızı ve gecikme süresi
Genellikle hafife alınan bir faktör de yanıt hızıdır. Bulut LLM'ler genellikle ağ yolları, API sınırları veya sunucu yükü nedeniyle gecikirken, yerel modeller - donanıma bağlı olarak - neredeyse gerçek zamanlı olarak yanıt verir. Özellikle tekrarlayan görevlerde veya etkileşimli süreçlerde (örneğin FileMaker'de bir sunum veya canlı veri analizi sırasında) bu, "sorunsuz çalışma" ile "hayal kırıklığı içinde bekleme" arasındaki farkı yaratabilir.
Yerel dil modellerini çalıştırmak için hangi donanımın uygun olduğu, hangi modellerin hangi avantajlara sahip olduğu ve Apple Silicon ve NVIDIA arasındaki karşılaştırma ayrı bir makalede ele alınmıştır.
1) Önkoşullar ve genel koşullar
macOS 12 "Monterey" veya daha yenisi (önerilen: en son Sonoma/Sequoia). Resmi macOS indirmesi Monterey+ gerektirir. ollama.com
Apple Silicon (M1-M4) tercih edilir. Intel Mac'lerde de çalışır, ancak Apple-Silicon çok daha verimlidir; büyük modeller çok fazla RAM / birleşik bellek gerektirir. (Kütüphane/model boyutları için Ollama kütüphanesine bakın.) ollama.com
API için yerel olarak 11434 numaralı bağlantı noktası kullanılır. Bağlantı noktasını not edin - daha sonra testler ve entegrasyonlar için önemlidir. GitHubollama.readthedocs.io
Eski geleneğe göre şüpheci tavsiye: "Kur ve çalıştır" genellikle işe yarar - darboğazlar RAM/disk alanı (büyük GGUF dosyaları), yanlış model varyantı veya bağlantı noktasını engelleyen paralel işlemlerdir.
2) Ollama installieren (Mac)
İki temiz yolunuz var - GUI yükleyici veya Homebrew. Her ikisi de doğrudur; günlük yaşamınıza uygun stili seçin.
SEÇENEK A: RESMI MACOS YÜKLEYICISI (DMG)
macOS için Ollama'yi indirin resmi siteden.
DMG'yi açın, uygulamayı "Programlar "a sürükleyin, başlatın.
(macOS 12+ gerektirir.) ollama.com
Bu 1TP12 varyantını kullanıyorsanız, modeli indirmek için doğrudan macOS yazılımını kullanabilirsiniz. Aşağıdaki terminal komutlarının tümü yalnızca dil modelini komut dosyası aracılığıyla otomatikleştirebilmekle ilgilidir.
VARYANT B: HOMEBREW (CLI, TEMIZ KODLANABILIR)
Terminali açın ve (gerekirse) Homebrew'yi güncelleyin:
brew update
Fıçı (Uygulama varyantı) 1TP12Hayvanlar:
brew install --cask ollama-app
(Genellikle geçerli masaüstü uygulamasını gösterir; bugün itibariyle 0.11.x.) Homebrew Formüller
Ya da formül (CLI paketi) installieren:
brew install ollama
(Apple-Silicon/Intel için ikili dosyalar mevcuttur.) Homebrew Formüller
Sürümü kontrol et:
ollama --version
(Temel komutlar ve varyantlar resmi belgelerde ve GitHub reposunda belgelenmiştir). GitHub
3) Hizmeti/sunucuyu başlatın ve test edin
Ollama yerel bir sunucu ile birlikte gelir. Gerekirse açıkça başlatın:
ollama serve
Hizmet zaten çalışıyorsa (örneğin uygulama aracılığıyla), kabuk 11434 numaralı bağlantı noktasının kullanımda olduğunu bildirebilir - o zaman her şey yolundadır.
Sunucu varsayılan olarak http://localhost:11434 adresini dinler.
Tarayıcıda fonksiyon testi:
Arayın http://localhost:11434/ - örnek yanıt vermelidir (bağlantı noktası varsayılan olarak etkin olduğu için bazı yönergeler bu kontrolü kullanır). Orta seviye
Geleneksel uyarı: Hiçbir şey yanıt vermiyorsa, eski bir işlem veya bir güvenlik paketi genellikle engelliyordur. İkinci bir terminalin ollama serve ile hala çalışıp çalışmadığını kontrol edin - veya uygulamadan çıkın/yeniden başlatın.
4) Birinci dil modelini yükleyin ve kullanın
4.1 MODELI ÇEKIN VEYA DOĞRUDAN BAŞLATIN (ÇALIŞTIRIN)
Doğrudan kullanın (çekme + çalıştırma bir arada):
ollama run llama3.1
Sadece indirin:
ollama pull llama3.1
Resmi repo, diğerlerinin yanı sıra Llama 3.2 ile ortak komutları (çalıştır, çek, listele, göster, ps, durdur, rm) ve örnekleri gösterir; Llama 3.1, Mistral, Gemma vb. için aynıdır. GitHubnotes.kodekloud.comglukhov.org
Daha fazla model sayfası / kütüphane:
Llama 3 / 3.1 / 3.2 farklı boyutlarda (1B-405B; tabii ki büyük versiyonlar yüksek miktarda mevcuttur). Basitçe arayın Ollama web sitesi diğer modelleri bulmak ve bunları Mac'inizde installiere etmek için.
4.2 INTERAKTIF SOHBET (TERMINAL)
Örneğin, Llama 3.1'i sohbet modunda başlatın:
ollama run llama3.1
Ardından doğrudan yazın:
Sen yardımcı bir asistansın. Bana bir veritabanındaki indeksin ne olduğunu iki cümleyle açıklayın.
Ctrl+D ile çıkın.
Mac'inizde Ollama uygulamasını başlattığınızda, doğrudan bir model seçebilir ve bir istem girebilirsiniz. Model henüz Mac'inizde mevcut değilse, otomatik olarak indirilecektir.

4.3 MODELLERİ YÖNETMEK
# Yerel olarak hangi modeller mevcuttur?
ollama list
# Detayları/ölçümü/etiketleri görüntüleyin:
ollama show llama3.1
# Çalışan model süreçlerini kontrol edin:
ollama ps
# Çalışmayı durdurma modeli:
ollama stop llama3.1
# Alanı temizleyin (modeli silin):
ollama rm llama3.1
(Komutlar çeşitli güncel genel bakışlarda aynıdır belgelenmiş.) notes.kodekloud.comGeshan's Blogglukhov.org
5) HTTP API'sini yerel olarak kullanın (örn. komut dosyaları, araçlar, entegrasyonlar için)
Ollama bir REST API sunar (varsayılan olarak http://localhost:11434). Örnek çağrılar:
Oluştur (basit istem):
curl http://localhost:11434/api/generate -d '{
"model": "llama3.1",
"prompt": "Erkläre kurz den Unterschied zwischen RAM und SSD.",
"stream": false
}'
Sohbet (rol tabanlı):
curl http://localhost:11434/api/chat -d '{
"model": "llama3.1",
"messages": [
{ "role": "system", "content": "Du antwortest knapp und sachlich." },
{ "role": "user", "content": "Was ist eine Normalisierung in Datenbanken?" }
],
"stream": false
}'
(Uç noktalar, akış davranışı ve alanlar resmi API belgeleri/GitHub açıklanmıştır).
Ulaşılabilirlik ipucu:
Yerel olarak, her şeye localhost üzerinden erişilebilir.
Mac'in LAN'dan erişilebilir olması isteniyorsa, Ollama'yi kasıtlı olarak bir ağ adresine bağlayın, örn:
export OLLAMA_HOST=0.0.0.0 ollama serve
(Sunucuya daha sonra ağdaki IP üzerinden erişilebilir. Güvenlik yönünü kontrol edin!) Reddit
Mixed-Content/HTTPS (yalnızca tarayıcı entegrasyonları çalışmıyorsa):
Bazı eklentiler/tarayıcılar (özellikle Safari) HTTPS bağlamlarından HTTP çağrılarını engeller. Bu gibi durumlarda, HTTPS'li yerel bir ters proxy yardımcı olur.
6) Mac için pratik ipuçları (deneyim ve muhafazakar bakım)
- Model seçimine muhafazakar bir şekilde başlayınDaha küçük miktarlarla başlayın (örn. 4 bitlik varyantlar), kaliteyi kontrol edin, ardından yavaşça anahtarlayın.
- Bellek ve diske göz kulak olun: Büyük modeller birkaç GB yer kaplar - ollama gösterisi kategorizasyona yardımcı olur. notes.kodekloud.com
- Apple-Silicon & MetalOllama, Mac'te Apple hızlandırmasını (Metal) kullanır. Çok yeni model yapılarında Sürücü/Metal hataları oluşabilir - Ollama'yi güncel tutun ve bilinen sorunlara göz atın. GitHub
- Liman çatışmalarıollama serve şikayet ederse, uygulama veya başka bir işlem zaten 11434'ü dinliyordur - ya uygulamayı kapatın ya da CLI sunucusunu durdurun. postman.com
7) Sık sık minimal iş akışları (kopyala ve yapıştır)
A) Newinstallation & ilk sohbet (Llama 3.1)
# Installation (eine Variante wählen) brew install --cask ollama-app # oder brew install ollama# Server starten (falls App nicht läuft) ollama serve # Erstes Modell testen ollama run llama3.1
("run" zaten mevcut değilse modeli yükler.) Homebrew Formulae+1GitHub
B) Modeli çevrimdışı hazırlayın (önce çekin, sonra kullanın)
ollama pull mistral ollama show mistral ollama run mistral
("mistral" yaygın, kompakt bir modeldir - ilk testler için iyidir).
C) Bir komut dosyasında/araçta API entegrasyonu
curl http://localhost:11434/api/generate -d '{
"model": "llama3.1",
"prompt": "Otomasyon yerine dokümantasyon için bana üç muhafazakar neden söyleyin."
}‘
(API örnekleri 1:1 resmi̇ referans 'den alınmıştır)
8) Modelleri nerede bulabilirim?
Ollama kütüphanesi, etiketlere/boyutlara sahip seçilmiş modeller içerir (Llama 3.1/3.2, Gemma, Qwen, vb.). Amaca (sohbet, araçlar, yerleştirmeler) ve boyuta göre kasıtlı olarak seçin. Yeni modelleri doğrudan Mac'teki Ollama uygulamasında veya Ollama web sitesi Bul.
9) İşler ters gittiğinde ne yapmalı?
- ollama listesi / ollama ps kontrol edin: İstenen model mevcut mu/aktif mi?
- ollama show Görünüm: Hangi nicelik/boyut yüklendi? Bu Mac RAM ile eşleşiyor mu? notes.kodekloud.com
Güncelleme:
brew upgrade ollama ollama-app
Sorunları görüntüle: Özellikle çok yeni modellerde/özelliklerde zaman zaman metal hataları meydana gelir; bir güncelleme veya model varyantının değiştirilmesi genellikle yardımcı olur.
10) Mac konforuna sahip alternatifler (GUI)
Daha fazla seçeneğe sahip bir grafik arayüz kullanmayı tercih ediyorsanız veya modellere göz atmak/değiştirmek istiyorsanız:
LM Stüdyo - Entegre indirici, sohbet arayüzü ve yerel API sunucusu ile popüler bir Mac ön ucu. İndirme sayfası ve sürüm notları bağlantılı. LM Studio+1Uptodown
(Ollama'ye bağlanabilen Open WebUI gibi üçüncü taraf kullanıcı arayüzleri de vardır - ancak çoğu Mac kurulumu için Ollama + Terminal veya LM Studio yeterlidir).
Ollama ile Mac'te sadece birkaç dakika içinde yerel bir LLM ortamı kurabilirsiniz - klasik, anlaşılır bir şekilde ve bulut bağımlılığı olmadan. Denenmiş ve test edilmiş adımları izleyin (Installer/Brew → ollama serve → ollama run), kaynakları kontrol edin ve küçükten büyüğe doğru ilerleyin. Tıklamayı yazmaya tercih ediyorsanız, LM Studio Mac'te sağlam bir alternatiftir. ollama.comGitHubLM Studio
İyi şanslar - ve bir sistemle kritik kalın: önce düzgün bir şekilde belgeleyin, sonra otomatikleştirin.


