Hoewel MLX oorspronkelijk werd gelanceerd als een experimenteel framework door Apple Research, heeft er de afgelopen maanden een stille maar belangrijke ontwikkeling plaatsgevonden: Met de release van FileMaker 2025 heeft Claris MLX stevig geïntegreerd in de server als een native AI-infrastructuur voor Apple Silicon. Dit betekent dat iedereen die met een Mac werkt en Apple Silicon gebruikt, MLX-modellen niet alleen lokaal kan uitvoeren, maar ze ook direct in FileMaker kan gebruiken - met native functies, zonder tussenlagen.
Vector database
Artikelen over vectordatabases en hun belang voor AI-ondersteunde systemen. Onderwerpen zijn onder andere gegevensorganisatie, semantisch zoeken en integratie in bedrijfstoepassingen.
RAG met Ollama en Qdrant als universele zoekmachine voor eigen gegevens
In een steeds onoverzichtelijker wordende wereld van informatie wordt het steeds belangrijker om je eigen databases gericht doorzoekbaar te maken - niet via klassieke full-text zoekopdrachten, maar via semantisch relevante antwoorden. Dit is precies waar het principe van de RAG database om de hoek komt kijken - een AI-ondersteunde zoekoplossing die bestaat uit twee centrale componenten:
Ollama ontmoet Qdrant: Een lokaal geheugen voor je AI op de Mac
Lokale AI met geheugen - zonder cloud, zonder abonnement, zonder omleidingen
In een vorige artikelen Ik heb uitgelegd hoe je Ollama configureert op de Mac install. Als je deze stap al hebt voltooid, heb je nu een krachtig lokaal taalmodel - zoals Mistral, LLaMA3 of een ander compatibel model dat via REST API kan worden aangesproken.
Het model "weet" echter alleen wat er in de huidige prompt staat. Het herinnert zich geen eerdere gesprekken. Wat ontbreekt is een herinnering.