Integrace MLX do FileMaker 2025: Místní umělá inteligence jako nový standard

Místní AI s MLX a FileMaker

Zatímco MLX byl původně spuštěn jako experimentální rámec společností Apple Research, v posledních měsících došlo k tichému, ale významnému vývoji: S vydáním FileMaker 2025 společnost Claris pevně integrovala MLX do serveru jako nativní infrastrukturu AI pro Apple Silicon. To znamená, že každý, kdo pracuje s počítačem Mac a používá Apple Silicon, může nejen lokálně spouštět modely MLX, ale také je používat přímo v FileMaker - s nativními funkcemi, bez jakýchkoli mezivrstev.

Číst dál

RAG s Ollama a Qdrant jako univerzální vyhledávač vlastních dat

Rozšíření místní umělé inteligence o databáze pomocí RAG, Ollama a Qdrant

Ve stále nepřehlednějším světě informací je stále důležitější, aby bylo možné cíleně vyhledávat ve vlastních databázích - nikoli prostřednictvím klasického fulltextového vyhledávání, ale prostřednictvím sémanticky relevantních odpovědí. Právě zde vstupuje do hry princip databáze RAG - řešení pro vyhledávání s podporou umělé inteligence, které se skládá ze dvou ústředních komponent:

Číst dál

Ollama a Qdrant: Místní paměť pro vaši umělou inteligenci na Macu

Paměť pro místní umělou inteligenci s Ollama a Qdrant

Místní AI s pamětí - bez cloudu, bez předplatného, bez odklonů

V předchozí články Vysvětlil jsem, jak nakonfigurovat Ollama na Macu install. Pokud jste již tento krok dokončili, máte nyní k dispozici výkonný místní jazykový model - například Mistral, LLaMA3 nebo jiný kompatibilní model, který lze oslovit prostřednictvím rozhraní REST API.

Model však "ví" pouze to, co je v aktuální výzvě. Nepamatuje si předchozí konverzace. Chybí vzpomínka.

Číst dál