MLX'in FileMaker 2025'e entegrasyonu: Yeni standart olarak yerel yapay zeka

MLX ve FileMaker ile Yerel Yapay Zeka

MLX başlangıçta Apple Research tarafından deneysel bir çerçeve olarak başlatılmış olsa da, son aylarda sessiz ama önemli bir gelişme yaşandı: FileMaker 2025'in piyasaya sürülmesiyle Claris, MLX'i Apple Silicon için yerel bir yapay zeka altyapısı olarak sunucuya sağlam bir şekilde entegre etti. Bu, Mac ile çalışan ve Apple Silicon kullanan herkesin MLX modellerini yalnızca yerel olarak çalıştırabileceği değil, aynı zamanda bunları herhangi bir ara katman olmadan yerel işlevlerle doğrudan FileMaker'de kullanabileceği anlamına geliyor.

Devamını oku

Ollama & Co. ile karşılaştırıldığında yerel AI olarak Apple Silicon üzerinde MLX.

MLX ile Mac'te Yerel Yapay Zeka

ChatGPT, Claude veya Gemini gibi merkezi yapay zeka hizmetlerinin manşetlere çıktığı bir dönemde, birçok profesyonel kullanıcının yerel, kendi kendini kontrol edebilen bir yapay zeka altyapısı gibi bir alternatife olan ihtiyacı giderek artıyor. Özellikle yaratıcı süreçler, hassas veriler veya yinelenen iş akışları için yerel bir çözüm genellikle daha sürdürülebilir ve güvenli bir seçenektir.

Mac ile çalışan herkes - özellikle Apple Silicon (M1, M2, M3 veya M4) ile - artık kendi dil modellerini doğrudan cihaz üzerinde çalıştırmak için inanılmaz güçlü araçlar bulabilir. Bunun merkezinde büyük ölçüde bilinmeyen yeni bir bileşen var: MLX, Apple tarafından geliştirilen ve önümüzdeki yıllarda şirketin yapay zeka ekosisteminde giderek daha merkezi bir rol oynaması muhtemel bir makine öğrenimi çerçevesi.

Devamını oku

Ollama Qdrant ile buluşuyor: Mac'te yapay zekanız için yerel bir bellek

Ollama ve Qdrant ile yerel yapay zeka için bellek

Hafızalı yerel yapay zeka - bulut olmadan, abonelik olmadan, saptırma olmadan

Bir önceki makaleler Mac install üzerinde Ollama'nin nasıl yapılandırılacağını anlattım. Bu adımı zaten tamamladıysanız, artık Mistral, LLaMA3 veya REST API aracılığıyla adreslenebilen başka bir uyumlu model gibi güçlü bir yerel dil modeline sahipsiniz demektir.

Ancak, model yalnızca mevcut istemde ne olduğunu "bilir". Önceki konuşmaları hatırlamaz. Eksik olan şey bir hafıza.

Devamını oku

Mac'te Yerel Yapay Zeka: Ollama ile bir dil modeli nasıl installiere edilir

Mac'te yerel yapay zeka uzun zamandır pratiktir - özellikle Apple-Silicon bilgisayarlarda (M serisi). Ollama ile birçok açık kaynak dil modeli (örneğin Llama 3.1/3.2, Mistral, Gemma, Qwen) için yalın bir çalışma zamanı ortamı elde edersiniz. Mevcut Ollama sürümü artık bir fare tıklamasıyla Mac'inizde yerel bir dil modeli kurmanıza olanak tanıyan kullanıcı dostu bir uygulama ile birlikte geliyor. Bu makalede kurulumdan ilk komut istemine kadar pragmatik bir rehber bulacaksınız - geleneksel olarak işlerin nerede yanlış gitme eğiliminde olduğuna dair pratik ipuçları ile birlikte.

Devamını oku