Podczas gdy MLX został pierwotnie uruchomiony jako eksperymentalny framework przez Apple Research, w ostatnich miesiącach nastąpił cichy, ale znaczący rozwój: Wraz z wydaniem FileMaker 2025, Claris mocno zintegrował MLX z serwerem jako natywną infrastrukturę AI dla Apple Silicon. Oznacza to, że każdy, kto pracuje z komputerem Mac i polega na Apple Silicon, może nie tylko uruchamiać modele MLX lokalnie, ale także używać ich bezpośrednio w FileMaker - z natywnymi funkcjami, bez żadnych warstw pośrednich.
Wektorowa baza danych
Beiträge über Vektordatenbanken und deren Bedeutung für KI-gestützte Systeme. Themen sind Datenorganisation, semantische Suche und Integration in Business-Anwendungen.
RAG z Ollama i Qdrant jako uniwersalna wyszukiwarka własnych danych
W coraz bardziej zagmatwanym świecie informacji coraz ważniejsze staje się umożliwienie przeszukiwania własnych baz danych w ukierunkowany sposób - nie poprzez klasyczne wyszukiwanie pełnotekstowe, ale poprzez semantycznie istotne odpowiedzi. Właśnie w tym miejscu do gry wkracza baza danych RAG - rozwiązanie wyszukiwania wspierane przez sztuczną inteligencję, składające się z dwóch centralnych komponentów:
Ollama spotyka Qdrant: lokalna pamięć dla sztucznej inteligencji na Macu
Lokalna sztuczna inteligencja z pamięcią - bez chmury, bez subskrypcji, bez przekierowań
W poprzednie artykuły Wyjaśniłem, jak skonfigurować Ollama na Macu install. Jeśli wykonałeś już ten krok, masz teraz potężny lokalny model językowy - taki jak Mistral, LLaMA3 lub inny kompatybilny model, do którego można się odwołać za pośrednictwem interfejsu API REST.
Model „wie“ jednak tylko to, co znajduje się w bieżącej podpowiedzi. Nie pamięta poprzednich rozmów. Brakuje tylko pamięci.