MLX başlangıçta Apple Research tarafından deneysel bir çerçeve olarak başlatılmış olsa da, son aylarda sessiz ama önemli bir gelişme yaşandı: FileMaker 2025'in piyasaya sürülmesiyle Claris, MLX'i Apple Silicon için yerel bir yapay zeka altyapısı olarak sunucuya sağlam bir şekilde entegre etti. Bu, Mac ile çalışan ve Apple Silicon kullanan herkesin MLX modellerini yalnızca yerel olarak çalıştırabileceği değil, aynı zamanda bunları herhangi bir ara katman olmadan yerel işlevlerle doğrudan FileMaker'de kullanabileceği anlamına geliyor.
Vektör veritabanı
Vektör veritabanları ve bunların yapay zeka destekli sistemler için önemi üzerine makaleler. Konular arasında veri organizasyonu, semantik arama ve iş uygulamalarında entegrasyon yer almaktadır.
Kendi verileri için evrensel bir arama motoru olarak Ollama ve Qdrant ile RAG
Giderek karmaşıklaşan bilgi dünyasında, kendi veritabanlarınızı hedefe yönelik bir şekilde aranabilir hale getirmek giderek daha önemli hale geliyor - klasik tam metin aramaları yoluyla değil, anlamsal olarak alakalı yanıtlar yoluyla. İşte tam da bu noktada RAG veritabanı prensibi devreye giriyor - iki temel bileşenden oluşan yapay zeka destekli bir arama çözümü:
Ollama Qdrant ile buluşuyor: Mac'te yapay zekanız için yerel bir bellek
Hafızalı yerel yapay zeka - bulut olmadan, abonelik olmadan, saptırma olmadan
Bir önceki makaleler Mac install üzerinde Ollama'nin nasıl yapılandırılacağını anlattım. Bu adımı zaten tamamladıysanız, artık Mistral, LLaMA3 veya REST API aracılığıyla adreslenebilen başka bir uyumlu model gibi güçlü bir yerel dil modeline sahipsiniz demektir.
Ancak, model yalnızca mevcut istemde ne olduğunu "bilir". Önceki konuşmaları hatırlamaz. Eksik olan şey bir hafıza.