Alors que MLX a été initialement lancé en tant que cadre expérimental par Apple Research, une évolution silencieuse mais significative s'est produite ces derniers mois : Avec la sortie de FileMaker 2025, Claris a intégré MLX en tant qu'infrastructure d'IA native pour Apple Silicon de manière permanente dans le serveur. Cela signifie que ceux qui travaillent avec un Mac et misent sur Apple Silicon peuvent non seulement exécuter des modèles MLX en local, mais aussi les utiliser directement dans FileMaker - avec des fonctions natives, sans aucune couche intermédiaire.
Base de données de vecteurs
Contributions sur les bases de données vectorielles et leur importance pour les systèmes basés sur l'IA. Les thèmes abordés sont l'organisation des données, la recherche sémantique et l'intégration dans des applications commerciales.
RAG avec Ollama et Qdrant comme moteur de recherche universel pour ses propres données
Dans un monde de l'information de plus en plus confus, il est de plus en plus important de rendre ses propres bases de données consultables de manière ciblée - non pas par une recherche classique en plein texte, mais par des réponses sémantiquement pertinentes. C'est précisément là qu'intervient le principe de la base de données RAG, c'est-à-dire une solution de recherche assistée par l'IA, qui se compose de deux éléments centraux :
Ollama rencontre Qdrant : une mémoire locale pour ton IA sur Mac
IA locale avec mémoire - sans cloud, sans abonnement, sans détour
Dans un article précédent j'ai expliqué comment utiliser Ollama sur Mac install. Ceux qui ont déjà franchi cette étape disposent maintenant d'un modèle de langage local performant - par exemple Mistral, LLaMA3 ou un autre modèle compatible auquel il est possible de s'adresser via l'API REST.
Mais de lui-même, le modèle ne "sait" que ce qui est écrit dans le prompt actuel. Il ne se souvient pas des conversations précédentes. Ce qui manque, c'est la mémoire.