Yapay zeka: hangi işler risk altında ve şimdi kendimizi nasıl silahlandırabiliriz

Gelecekte hangi işler yapay zeka tarafından ortadan kaldırılacak?

Neredeyse hiçbir teknolojik değişim yapay zeka kadar hızlı bir şekilde günlük hayatımıza girmedi. Dün geleceğin vizyoner teknolojisi olarak görülen şey bugün artık bir gerçek - ister mesajlaşmada, ister programlamada, ister teşhis koymada, ister çeviride, hatta ister müzik, sanat ya da hukuk özetleri yaratmada olsun.

Devamını oku

Ollama & Co. ile karşılaştırıldığında yerel AI olarak Apple Silicon üzerinde MLX.

MLX ile Mac'te Yerel Yapay Zeka

ChatGPT, Claude veya Gemini gibi merkezi yapay zeka hizmetlerinin manşetlere çıktığı bir dönemde, birçok profesyonel kullanıcının yerel, kendi kendini kontrol edebilen bir yapay zeka altyapısı gibi bir alternatife olan ihtiyacı giderek artıyor. Özellikle yaratıcı süreçler, hassas veriler veya yinelenen iş akışları için yerel bir çözüm genellikle daha sürdürülebilir ve güvenli bir seçenektir.

Mac ile çalışan herkes - özellikle Apple Silicon (M1, M2, M3 veya M4) ile - artık kendi dil modellerini doğrudan cihaz üzerinde çalıştırmak için inanılmaz güçlü araçlar bulabilir. Bunun merkezinde büyük ölçüde bilinmeyen yeni bir bileşen var: MLX, Apple tarafından geliştirilen ve önümüzdeki yıllarda şirketin yapay zeka ekosisteminde giderek daha merkezi bir rol oynaması muhtemel bir makine öğrenimi çerçevesi.

Devamını oku

Kendi verileri için evrensel bir arama motoru olarak Ollama ve Qdrant ile RAG

RAG, Ollama ve Qdrant kullanarak yerel yapay zekayı veritabanlarıyla genişletin

Giderek karmaşıklaşan bilgi dünyasında, kendi veritabanlarınızı hedefe yönelik bir şekilde aranabilir hale getirmek giderek daha önemli hale geliyor - klasik tam metin aramaları yoluyla değil, anlamsal olarak alakalı yanıtlar yoluyla. İşte tam da bu noktada RAG veritabanı prensibi devreye giriyor - iki temel bileşenden oluşan yapay zeka destekli bir arama çözümü:

Devamını oku

Ollama Qdrant ile buluşuyor: Mac'te yapay zekanız için yerel bir bellek

Ollama ve Qdrant ile yerel yapay zeka için bellek

Hafızalı yerel yapay zeka - bulut olmadan, abonelik olmadan, saptırma olmadan

Bir önceki makaleler Mac install üzerinde Ollama'nin nasıl yapılandırılacağını anlattım. Bu adımı zaten tamamladıysanız, artık Mistral, LLaMA3 veya REST API aracılığıyla adreslenebilen başka bir uyumlu model gibi güçlü bir yerel dil modeline sahipsiniz demektir.

Ancak, model yalnızca mevcut istemde ne olduğunu "bilir". Önceki konuşmaları hatırlamaz. Eksik olan şey bir hafıza.

Devamını oku

Mac'te Yerel Yapay Zeka: Ollama ile bir dil modeli nasıl installiere edilir

Mac'te yerel yapay zeka uzun zamandır pratiktir - özellikle Apple-Silicon bilgisayarlarda (M serisi). Ollama ile birçok açık kaynak dil modeli (örneğin Llama 3.1/3.2, Mistral, Gemma, Qwen) için yalın bir çalışma zamanı ortamı elde edersiniz. Mevcut Ollama sürümü artık bir fare tıklamasıyla Mac'inizde yerel bir dil modeli kurmanıza olanak tanıyan kullanıcı dostu bir uygulama ile birlikte geliyor. Bu makalede kurulumdan ilk komut istemine kadar pragmatik bir rehber bulacaksınız - geleneksel olarak işlerin nerede yanlış gitme eğiliminde olduğuna dair pratik ipuçları ile birlikte.

Devamını oku