W coraz bardziej zagmatwanym świecie informacji coraz ważniejsze staje się umożliwienie przeszukiwania własnych baz danych w ukierunkowany sposób - nie poprzez klasyczne wyszukiwanie pełnotekstowe, ale poprzez semantycznie istotne odpowiedzi. Właśnie w tym miejscu do gry wkracza baza danych RAG - rozwiązanie wyszukiwania wspierane przez sztuczną inteligencję, składające się z dwóch centralnych komponentów:
Docker
Artikel zum Thema Docker. Behandelt werden Grundlagen, Einsatzmöglichkeiten und praktische Erfahrungen mit Containern in Entwicklung und Business-Umgebungen.
Ollama spotyka Qdrant: lokalna pamięć dla sztucznej inteligencji na Macu
Lokalna sztuczna inteligencja z pamięcią - bez chmury, bez subskrypcji, bez przekierowań
W poprzednie artykuły Wyjaśniłem, jak skonfigurować Ollama na Macu install. Jeśli wykonałeś już ten krok, masz teraz potężny lokalny model językowy - taki jak Mistral, LLaMA3 lub inny kompatybilny model, do którego można się odwołać za pośrednictwem interfejsu API REST.
Model „wie“ jednak tylko to, co znajduje się w bieżącej podpowiedzi. Nie pamięta poprzednich rozmów. Brakuje tylko pamięci.