MLX'in FileMaker 2025'e entegrasyonu: Yeni standart olarak yerel yapay zeka

MLX ve FileMaker ile Yerel Yapay Zeka

MLX başlangıçta Apple Research tarafından deneysel bir çerçeve olarak başlatılmış olsa da, son aylarda sessiz ama önemli bir gelişme yaşandı: FileMaker 2025'in piyasaya sürülmesiyle Claris, MLX'i Apple Silicon için yerel bir yapay zeka altyapısı olarak sunucuya sağlam bir şekilde entegre etti. Bu, Mac ile çalışan ve Apple Silicon kullanan herkesin MLX modellerini yalnızca yerel olarak çalıştırabileceği değil, aynı zamanda bunları herhangi bir ara katman olmadan yerel işlevlerle doğrudan FileMaker'de kullanabileceği anlamına geliyor.

Devamını oku

Kendi verileri için evrensel bir arama motoru olarak Ollama ve Qdrant ile RAG

RAG, Ollama ve Qdrant kullanarak yerel yapay zekayı veritabanlarıyla genişletin

Giderek karmaşıklaşan bilgi dünyasında, kendi veritabanlarınızı hedefe yönelik bir şekilde aranabilir hale getirmek giderek daha önemli hale geliyor - klasik tam metin aramaları yoluyla değil, anlamsal olarak alakalı yanıtlar yoluyla. İşte tam da bu noktada RAG veritabanı prensibi devreye giriyor - iki temel bileşenden oluşan yapay zeka destekli bir arama çözümü:

Devamını oku

Ollama Qdrant ile buluşuyor: Mac'te yapay zekanız için yerel bir bellek

Ollama ve Qdrant ile yerel yapay zeka için bellek

Hafızalı yerel yapay zeka - bulut olmadan, abonelik olmadan, saptırma olmadan

Bir önceki makaleler Mac install üzerinde Ollama'nin nasıl yapılandırılacağını anlattım. Bu adımı zaten tamamladıysanız, artık Mistral, LLaMA3 veya REST API aracılığıyla adreslenebilen başka bir uyumlu model gibi güçlü bir yerel dil modeline sahipsiniz demektir.

Ancak, model yalnızca mevcut istemde ne olduğunu "bilir". Önceki konuşmaları hatırlamaz. Eksik olan şey bir hafıza.

Devamını oku