Ollama Qdrant ile buluşuyor: Mac'te yapay zekanız için yerel bir bellek

Ollama ve Qdrant ile yerel yapay zeka için bellek

Hafızalı yerel yapay zeka - bulut olmadan, abonelik olmadan, saptırma olmadan

Bir önceki makaleler Mac install üzerinde Ollama'nin nasıl yapılandırılacağını anlattım. Bu adımı zaten tamamladıysanız, artık Mistral, LLaMA3 veya REST API aracılığıyla adreslenebilen başka bir uyumlu model gibi güçlü bir yerel dil modeline sahipsiniz demektir.

Ancak, model yalnızca mevcut istemde ne olduğunu "bilir". Önceki konuşmaları hatırlamaz. Eksik olan şey bir hafıza.

Devamını oku

Mac'te Yerel Yapay Zeka: Ollama ile bir dil modeli nasıl installiere edilir

Mac'te Ollama ile yerel AI installieren

Mac'te yerel yapay zeka uzun zamandır pratiktir - özellikle Apple-Silicon bilgisayarlarda (M serisi). Ollama ile birçok açık kaynak dil modeli (örneğin Llama 3.1/3.2, Mistral, Gemma, Qwen) için yalın bir çalışma zamanı ortamı elde edersiniz. Mevcut Ollama sürümü artık bir fare tıklamasıyla Mac'inizde yerel bir dil modeli kurmanıza olanak tanıyan kullanıcı dostu bir uygulama ile birlikte geliyor. Bu makalede kurulumdan ilk komut istemine kadar pragmatik bir rehber bulacaksınız - geleneksel olarak işlerin nerede yanlış gitme eğiliminde olduğuna dair pratik ipuçları ile birlikte.

Devamını oku