RAG avec Ollama et Qdrant comme moteur de recherche universel pour ses propres données

Étendre l'IA locale aux bases de données avec RAG, Ollama et Qdrant

Dans un monde de l'information de plus en plus confus, il est de plus en plus important de rendre ses propres bases de données consultables de manière ciblée - non pas par une recherche classique en plein texte, mais par des réponses sémantiquement pertinentes. C'est précisément là qu'intervient le principe de la base de données RAG, c'est-à-dire une solution de recherche assistée par l'IA, qui se compose de deux éléments centraux :

Lire la suite

Ollama rencontre Qdrant : une mémoire locale pour ton IA sur Mac

Mémoire pour l'IA locale avec Ollama et Qdrant

IA locale avec mémoire - sans cloud, sans abonnement, sans détour

Dans un article précédent j'ai expliqué comment utiliser Ollama sur Mac install. Ceux qui ont déjà franchi cette étape disposent maintenant d'un modèle de langage local performant - par exemple Mistral, LLaMA3 ou un autre modèle compatible auquel il est possible de s'adresser via l'API REST.

Mais de lui-même, le modèle ne "sait" que ce qui est écrit dans le prompt actuel. Il ne se souvient pas des conversations précédentes. Ce qui manque, c'est la mémoire.

Lire la suite