Ve stále nepřehlednějším světě informací je stále důležitější, aby bylo možné cíleně vyhledávat ve vlastních databázích - nikoli prostřednictvím klasického fulltextového vyhledávání, ale prostřednictvím sémanticky relevantních odpovědí. Právě zde vstupuje do hry princip databáze RAG - řešení pro vyhledávání s podporou umělé inteligence, které se skládá ze dvou ústředních komponent:
Docker
Článek na téma Docker. Zahrnuje základy, možné aplikace a praktické zkušenosti s kontejnery ve vývojovém a firemním prostředí.
Ollama a Qdrant: Místní paměť pro vaši umělou inteligenci na Macu
Místní AI s pamětí - bez cloudu, bez předplatného, bez odklonů
V předchozí články Vysvětlil jsem, jak nakonfigurovat Ollama na Macu install. Pokud jste již tento krok dokončili, máte nyní k dispozici výkonný místní jazykový model - například Mistral, LLaMA3 nebo jiný kompatibilní model, který lze oslovit prostřednictvím rozhraní REST API.
Model však "ví" pouze to, co je v aktuální výzvě. Nepamatuje si předchozí konverzace. Chybí vzpomínka.