ChatGPT, Claude veya Gemini gibi merkezi yapay zeka hizmetlerinin manşetlere çıktığı bir dönemde, birçok profesyonel kullanıcının yerel, kendi kendini kontrol edebilen bir yapay zeka altyapısı gibi bir alternatife olan ihtiyacı giderek artıyor. Özellikle yaratıcı süreçler, hassas veriler veya yinelenen iş akışları için yerel bir çözüm genellikle daha sürdürülebilir ve güvenli bir seçenektir.
Mac ile çalışan herkes - özellikle Apple Silicon (M1, M2, M3 veya M4) ile - artık kendi dil modellerini doğrudan cihaz üzerinde çalıştırmak için inanılmaz güçlü araçlar bulabilir. Bunun merkezinde büyük ölçüde bilinmeyen yeni bir bileşen var: MLX, Apple tarafından geliştirilen ve önümüzdeki yıllarda şirketin yapay zeka ekosisteminde giderek daha merkezi bir rol oynaması muhtemel bir makine öğrenimi çerçevesi.
MLX nedir ve yeni format ne anlama geliyor?
MLX, Apple Silicon'nin donanım mimarisine özel olarak uyarlanmış makine öğrenimi için Apple'nin açık kaynaklı bir çerçevesidir. PyTorch veya TensorFlow gibi diğer yapay zeka arka uçlarının aksine MLX, Apple'nin "birleşik bellek" olarak adlandırılan avantajlarından doğrudan yararlanır - yani CPU ve GPU'nun aynı RAM alanına ortak erişimi. Bu, özellikle birkaç gigabayttan oluşabilen büyük dil modelleri için verilerin ve modellerin önemli ölçüde daha verimli işlenmesini sağlar.
İlgili MLX formatı tipik olarak ağırlıkları sıkıştırılmış bir .npz dosya formatında (NumPy Zip) saklanan modelleri tanımlar. Mistral, Phi-2 veya LLaMA 3 gibi modeller uygun araçlar kullanılarak bu formata dönüştürülebilir ve doğrudan bir Mac üzerinde çalıştırılabilir - bulut olmadan, API olmadan, kısıtlama olmadan.
Mevcut durum: Apple'nin halihazırda sundukları
Duyurulmasıyla birlikte Apple Intelligence 2024 yılında Apple, sistem genelindeki yapay zeka işlevlerini doğrudan işletim sistemine entegre etmeye başladı. Yazı asistanları, görüntü işleme, semantik arama, akıllı posta işlevleri - bunların çoğu, özellikle M1 veya daha yeni bir çipe sahip cihazlarda tamamen yerel olarak çalışır. Ancak, yeni işlevlerin hiçbiri eski Intel Mac'lerde mevcut değil.
Aynı zamanda Apple, MLX çerçevesini daha da geliştirmiş ve açık bir lisans altında yayınlamıştır. mlx-lm veya yeni MLX Swift API gibi araçlarla birlikte, metin modellerini yerel olarak çalıştırmak, kendi iş akışlarınızı kurmak veya modelleri eğitmek - doğrudan kendi Mac'inizde, veriler cihazdan ayrılmadan - zaten mümkündür.
Özellikle profesyonel kullanıcılar - örneğin yazılım geliştirme, yayıncılık, pazarlama veya araştırma alanlarından - MLX onlara yapay zeka modellerini harici sağlayıcılara güvenmek zorunda kalmadan iş akışlarına entegre etmek için tamamen yeni fırsatlar sunduğundan bundan büyük ölçüde faydalanabilirler.
MLX pratikte nasıl çalışır?
MLX'i bugün kullanmak istiyorsanız, ihtiyacınız olan tek şey bir terminal, Python (ideal olarak ayrı bir sanal ortamda) ve gerekli tüm işlevleri bir araya getiren mlx-lm paketidir: Model indirme, niceleme, çıkarım ve sohbet. Kurulumdan sonra, Hugging Face topluluğundan hazır modeller başlatılabilir - örneğin:
mlx_lm.chat --model mlx-community/Mistral-7B-Instruct-v0.3-4bit
Alternatif olarak, bir Python betiği kullanarak da API'ye erişebilirsiniz. Modeller otomatik olarak yüklenir, önbelleğe alınır ve ilk indirmeden sonra internet bağlantısı olmadan yerel olarak çalıştırılır.
Kendi modellerinizi dönüştürmek de kolaydır. Tek bir komutla Hugging Face Hub'dan modelleri indirebilir, niceleyebilir ve MLX için kullanılabilir hale getirebilirsiniz:
python -m mlx_lm.convert --hf-path meta-llama/Llama-3-8B-Instruct -q
Ortaya çıkan .npz dosyaları daha sonra kalıcı olarak yerel olarak kaydedilebilir ve yeniden kullanılabilir.
Karşılaştırma: MLX vs. Ollama, Llama.cpp ve LM Studio
MLX'e ek olarak, Mac'te yerel AI kullanımı için birkaç yerleşik alternatif vardır - özellikle Ollama, Llama.cpp ve LM Studio. Bu araçların her birinin güçlü yönlerinin yanı sıra belirli sınırlamaları da vardır.
Ollama
Ollama özellikle geliştiriciler arasında popülerdir çünkü basit bir komut satırı ve REST API sunar. Modeller burada, yerel makinelerde hızlı yürütme için optimize edilmiş bir dosya formatı olan GGUF formatında mevcuttur. Ollama'nin kurulumu hızlıdır, esnektir ve çok çeşitli modelleri destekler. Bununla birlikte, Ollama şu anda MLX motoruyla Mac üzerinde çalışmamaktadır, ancak öncelikle llama.cpp aracılığıyla metal tabanlı bir arka uç kullanmaktadır.
Otomasyon veya başsız çalışma gerektiren iş akışları için (örn. arka planda çalışan işlemler), Ollama şu anda ilk tercihtir. Ancak, Apple'nin kendi optimizasyonlarını kullanmak istiyorsanız, gelecekteki MLX entegrasyonlarını beklemeniz gerekecektir.
Llama.cpp
Bu proje diğer birçok aracın (Ollama dahil) temelini oluşturur ve GGUF modelleri için çok yüksek performanslı bir çıkarım motoru sunar. Son derece esnektir, ancak kullanımı veya çalıştırılması her zaman kolay değildir - özellikle yeni başlayanlar için. En büyük avantajı: büyük bir topluluk, birçok uzantı ve istikrarlı bir gelişme var.
LM Stüdyo
Grafiksel bir kullanıcı arayüzü arayan herkes genellikle LM Studio'yu tercih eder. Araç, dil modellerinin indirilmesini, yönetilmesini ve yürütülmesini, sohbet arayüzü, yapılandırma ve model yönetimi de dahil olmak üzere yalın, Mac'e özgü bir uygulamada birleştiriyor. En önemlisi: LM Studio birkaç aydır MLX motorunu da destekliyor ve Apple'nin optimizasyonlarından bir M1 veya M2 Mac'te tam olarak yararlanmanıza olanak tanıyor - ve benzer araçlardan önemli ölçüde daha düşük RAM tüketimi ile.
LM Studio, özellikle terminal komutlarıyla uğraşmak istemeyen kullanıcılar için yerel yapay zeka dünyasına ideal bir giriş noktasıdır ve MLX ile birlikte gerçek bir yüksek performans sergiler.
Silicon üzerinde MLX daha iyi bir seçim olduğunda
GGUF tabanlı çözümler (Ollama, Llama.cpp) çok esnektir ve birçok platformda çalışabilirken, MLX Apple dünyasına derin entegrasyonuyla öne çıkmaktadır. Özellikle dikkate değer olanlar:
- Birleşik bellek sayesinde verimli bellek kullanımı
- Karmaşık yapılandırma olmadan Metal/GPU için optimizasyon
- Swift projelerine ve Apple çerçevelerine sorunsuz entegrasyon
- Apple aktif olarak çerçeveyi daha da geliştirdiği için geleceğe hazır
- Genişletilebilirlik, örneğin özelleştirilmiş modeller, ince ayar ve sistem entegrasyonu yoluyla
Uzun vadeli plan yapmak ve verileri üzerinde tam kontrol sahibi olmak isteyen Mac kullanıcıları için MLX, gelecekte standart haline gelme potansiyeline sahip yerel yapay zeka dünyasına şimdiden umut verici bir giriş.
Bir bakış açısı: Apple, MLX ve Apple Intelligence ile nereye gitmek istiyor?
WWDC 2025 ile Apple, MLX'in bir hile değil, yapay zeka etrafında büyüyen Apple ekosisteminde stratejik bir bileşen olduğunun sinyalini açıkça verdi. Yeni "Temel Modellerin" doğrudan macOS ve iOS'a entegrasyonu, yerel Swift desteği ve MLX'in eğitim, niceleme ve çıkarım yönünde daha da geliştirilmesi, Apple'nin dahil olmak istediğini açıkça gösteriyor - ancak kendi yolunda.
Apple, çizgisine sadık kalıyor: muhteşem vaatler yok, ancak uzun vadede kendini kanıtlayan sağlam, yerel olarak işleyen bir teknoloji. Profesyonel kullanıcılar için bu sadece cazip değil, aynı zamanda stratejik olarak da oldukça ilgi çekici.
MLX, Mac'te yerel yapay zeka için standart çözüm olma yolunda ilerliyor. İster yaratıcı, ister teknik veya analitik uygulamalar için olsun, MLX ile bugünden çalışmaya başlayanlar değerli bir avantaj elde ediyor. mlx-lm, LM Studio veya yeni Swift API gibi araçlarla birlikte, gelecekte giderek daha önemli hale gelecek olan kontrollü, veri egemen çalışma biçimine uygun, sağlam, güvenilir ve geleceğe dönük bir yapay zeka ortamı oluşturulabilir.
Mac'te MLX kullanımı - yeni başlayanlar için basit talimatlar
MLX ile Apple, yapay zekayı (AI) doğrudan kendi Mac'inizde kullanmanıza olanak tanıyan yeni bir sistem yarattı - internet bağlantısı olmadan, bulut olmadan, Google veya OpenAI'ye bağımlı olmadan. İşin en güzel yanı: M1, M2, M3 veya M4 işlemcili bir Mac'iniz varsa (yani Apple Silicon), MLX'i sadece birkaç adımda deneyebilirsiniz. Her şey yerel olarak çalışır - metinleriniz, sorularınız ve verileriniz asla bilgisayarınızdan ayrılmaz.
Burada MLX ile sözde bir dil modelinin nasıl indirileceğini ve kullanılacağını adım adım açıklıyorum. Kulağa teknik geliyor - ama yapmanın kolay olduğunu göreceksiniz.
Adım 1: Gereksinimleri kontrol edin
Önce ihtiyacın olan:
- Bir Apple Silicon Mac (M1 veya daha yeni). Bunu sistem ayarlarında "Bu Mac Hakkında" altında bulabilirsiniz.
- macOS 13 (Ventura) veya daha yeni bir sürüm.
- Çalışan bir internet bağlantısı - sadece modeli indirmek için, ondan sonra her şey çevrimdışı çalışır.
- Bir miktar depolama alanı, küçük bir model için en az yaklaşık 8-10 GB.
Ayrıca her Mac'te zaten yüklü olan "Terminal" adlı programa da ihtiyacınız var. Biz bunu birkaç komut girmek için kullanıyoruz. Mac'inizde "Applications/Utilities" altında bulabilir ya da sadece ve ardından "Terminal" yazıp "Enter" ile onaylayabilirsiniz. Endişelenmeyin - sadece kopyalayıp yapıştırmanız gerekiyor.
Adım 2: Python 1TP12 hayvanları (sadece gerekliyse)
MLX, Python programlama dili ile çalışır. Birçok Mac zaten Python installiert'e sahiptir. Terminalde aşağıdakileri girerek mevcut olup olmadığını kontrol edebilirsiniz:
python3 --version
Eğer bir sürüm numarası alırsanız (örneğin Python 3.10.6), doğrudan devam edebilirsiniz.
Eğer değilse, Homebrew to installieren (Mac'teki programlar için popüler bir araç) kullanmanızı tavsiye ederim. Bunu yapmak için terminale girin:
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
Sonra installier ile Python:
brew install python
Adım 3: MLX-Tool 1TP12Animal
Şimdi daha sonra dil modelini kullanabileceğiniz MLX aracını indiriyoruz. Bunu yapmak için, installier mlx-lm adında küçük bir program. Programı terminale girin:
pip3 install mlx-lm
Bu işlem birkaç saniye sürecektir. İşlem tamamlandığında, bir model yüklemeye hazırsınız demektir.
Adım 4: Bir model indirin ve başlatın
Şimdi heyecan verici kısım geliyor: Mac'inizde gerçek bir dil modeli elde edersiniz - örneğin, çok güçlü, ücretsiz olarak kullanılabilen bir AI modeli olan Mistral'nin bir sürümü. Basitçe terminale girin:
mlx_lm.chat --model mlx-community/Mistral-7B-Instruct-v0.3-4bit
Bu komut üç şey yapar:
- Model otomatik olarak indirilir (tek seferlik).
- Hazırlandı ve başlatıldı.
- Terminalde soru sorabileceğiniz bir sohbet penceresine girersiniz - ChatGPT'ye benzer.
İndirme işlemi tamamlandığında (internet hızınıza bağlı olarak birkaç dakika sürebilir) yanıp sönen bir imleç göreceksiniz. Şimdi örneğin yazabilirsiniz:
Bana Venedik'in tarihi hakkında bir şeyler anlatın.
...ve model doğrudan yanıt verir - tamamen çevrimdışı.
Adım 5: Model ile çalışmaya devam edin
İşiniz bittiğinde, exit yazarak veya pencereyi kapatarak sohbeti sonlandırabilirsiniz. Daha sonra, aynı komutu tekrar girerek aynı modeli tekrar indirmeden tekrar kullanabilirsiniz. Model artık Mac'inizde yerel olarak depolanır ve orada kalır.
Farklı modelleri denemek isterseniz, bunu şu yolla yapabilirsiniz Kucaklayan Yüz veya model adını doğrudan terminal satırında değiştirin - örn:
mlx_lm.chat --model mlx-community/Phi-2-4bit
Her modelin farklı bir tarzı vardır - bazıları gerçeklere dayanırken, diğerleri daha yaratıcı veya diyalog odaklıdır.
Daha da mı kolay? LM Studio'yu bir arayüz olarak kullanın
Eğer fare ve pencere ile çalışmayı tercih ediyorsanız, LM Studio programını da deneyebilirsiniz. Güzel bir arayüze sahiptir, MLX'i destekler (Apple Silicon'de) ve modelleri bir tıklamayla indirmenize ve kullanmanıza olanak tanır.
LM Studio'yu buradan edinebilirsiniz:
Kurulumdan sonra, ayarlarda motor olarak "MLX" seçebilirsiniz - program daha sonra yukarıdaki ile aynı teknolojiyi kullanır, ancak bir sohbet alanı ile güzel bir pencerede.
Başardınız - artık Mac'inizde herhangi bir bulut veya abonelik olmadan tamamen yerel olarak modern bir yapay zeka kullanıyorsunuz. Apple MLX, dil modellerini verimli, güvenli ve veri koruma dostu bir şekilde çalıştırmayı mümkün kılar.
Daha sonra daha da derine inmek isterseniz - örneğin, kendi modellerinizi eğitmek, metinlerinizle geliştirmek veya kendi yazılımınıza (FileMaker gibi) entegre etmek - o zaman MLX sizin için doğru seçimdir. Ancak ilk adım tamamlandı: kontrol sizde - ve doğrudan bilgisayarınızda güçlü bir yapay zeka.
Sıkça sorulan sorular
- MLX tam olarak nedir ve PyTorch veya TensorFlow'dan farkı nedir?
MLX, Apple tarafından geliştirilen ve Apple Silicon (M1-M4) için özel olarak optimize edilmiş bir makine öğrenimi çerçevesidir. Birçok platformu hedefleyen PyTorch veya TensorFlow'un aksine MLX, özellikle Apple yongalarının mimarisini kullanır - örneğin ortak bellek yapısı (birleşik bellek) ve metal GPU hızlandırması. Sonuç olarak, Mac'lerde bellek açısından daha verimli ve daha hızlı çalışır - ancak yalnızca Apple donanımında. - Neden Ollama veya Llama.cpp gibi bir araç yerine MLX'i seçmelisiniz?
Özellikle Apple Silicon üzerinde çalışıyorsanız ve cihazdan maksimum performans elde etmek istiyorsanız MLX'in bir avantajı vardır. Ollama ve Llama.cpp çok esnektir, ancak genellikle Mac'te daha az verimli çalışır. MLX ayrıca doğrudan Swift projelerine entegre edilebilir - Apple'ye yakın uygulamalar geliştiren geliştiriciler için idealdir. Ollama'ye rakip değildir - ancak profesyoneller için özel bir araçtır. - Hangi modeller MLX ile uyumludur?
Birçok açık dil modeli uyumludur - Mistral, LLaMA 2 ve 3, Phi-2 veya TinyLLaMA gibi - bunlar ya zaten dönüştürülmüştür ya da mlx-lm.convert aracı kullanılarak dönüştürülebilir. NumPy-ZIP formatında (.npz) mevcut olmaları ve MLX için hazırlanmış olmaları önemlidir. MLX uyumlu modeller için artık Hugging Face'de ayrı bir bölüm bulunmaktadır. - Başlamak ne kadar kolay? Bir geliştirici olmak zorunda mıyım?
Terminal, Python ortamları veya model adları gibi konularda biraz teknik bilgi sahibi olmak faydalı olacaktır. Ancak mlx-lm sayesinde başlamak nispeten kolaydır: bir kurulum komutu, başlatmak için bir komut, bitti. Bir kullanıcı arayüzü ile çalışmayı tercih ediyorsanız, LM Studio'yu kullanabilirsiniz - artık Mac'te MLX'i de destekliyor. - MLX'i kendi projelerim için de eğitebilir miyim - örneğin kendi metinlerimle?
Evet, yapabilirsiniz - ancak eğitim şu anda daha çok ileri düzey kullanıcılar için tasarlanmıştır. Çoğu kullanıcı MLX modellerini çıkarım için kullanır (yani cevaplar, metin oluşturma vb. için). Eğitim veya ince ayar için LoRA, veri formatları (JSONL) ve bellek gereksinimleri hakkında bilgi sahibi olmanız veya bu süreci basitleştiren FileMaker 2025 gibi araçları kullanmanız gerekir. - MLX'te güvenlik ve veri koruması ne durumda?
Çok iyi - çünkü MLX tamamen yerel olarak çalışır. Tüm veriler, girdiler ve model yanıtları kendi bilgisayarınızda kalır. Bulut aktarımı ve harici API yoktur - veri hassasiyeti olan projeler, dahili belgeler, korunan müşteri verileri veya gizli notlar için idealdir. - Apple'nin kendisi bu konuda nasıl bir rol oynuyor? MLX daha da geliştirilecek mi?
Apple, MLX'i açık bir lisans altında yayınladı ve özellikle macOS, iOS ve iPadOS için yapay zeka sistemi olan Apple Intelligence ile bağlantılı olarak aktif bir şekilde daha da geliştiriyor. WWDC 2025'te MLX, özel dil modellerinin Apple yazılımına entegre edilmesine yönelik resmi çerçeve olarak sunuldu. MLX'in Apple dünyasında önem kazanmaya devam edeceği varsayılabilir. - MLX'i Neo4j, n8n veya FileMaker gibi diğer araçlarla da birleştirebilir miyim?
Evet - MLX saf bir makine öğrenimi çerçevesidir, ancak REST API'leri, özel Python hizmetleri veya yerel sarmalayıcılar aracılığıyla diğer araçlara bağlanabilir. Örneğin, kendi otomasyonunuza (n8n), semantik bir veritabanına (Neo4j) veya FileMaker çözümlerine entegre edebilirsiniz - ikincisi artık FileMaker 2025 ile yerel olarak bile kullanılabilir
Resim (c) Monoar_CGI_Artist @ pixabay