Peu de changements technologiques se sont insinués aussi rapidement dans notre quotidien que l'intelligence artificielle. Ce qui était hier encore considéré comme une technologie d'avenir visionnaire est aujourd'hui déjà une réalité - qu'il s'agisse de rédiger des textes, de programmer, de diagnostiquer, de traduire ou même de créer de la musique, de l'art ou des documents juridiques.
Mistral
Articles sur les modèles d'IA Mistral. Il s'agit ici de bases techniques, de benchmarks, de comparaisons avec d'autres LLM et de scénarios d'utilisation pratiques.
MLX sur Apple Silicon comme IA locale comparée à Ollama & Co.
À une époque où les services d'IA centralisés tels que ChatGPT, Claude ou Gemini font la une des journaux, le besoin d'une contrepartie - une infrastructure d'IA locale et contrôlable par l'utilisateur - se fait de plus en plus sentir chez de nombreux utilisateurs professionnels. Une solution locale est souvent l'option la plus durable et la plus sûre, en particulier pour les processus créatifs, les données sensibles ou les flux de travail répétitifs.
Quiconque travaille avec un Mac - en particulier avec Apple Silicon (M1, M2, M3 ou M4) - trouve aujourd'hui des outils étonnamment performants pour exploiter ses propres modèles de voix directement sur l'appareil. Au centre de ces outils se trouve un nouveau composant largement inconnu : MLX, un framework d'apprentissage automatique développé par Apple, qui devrait jouer un rôle de plus en plus central dans l'écosystème d'IA de l'entreprise au cours des prochaines années.
RAG avec Ollama et Qdrant comme moteur de recherche universel pour ses propres données
Dans un monde de l'information de plus en plus confus, il est de plus en plus important de rendre ses propres bases de données consultables de manière ciblée - non pas par une recherche classique en plein texte, mais par des réponses sémantiquement pertinentes. C'est précisément là qu'intervient le principe de la base de données RAG, c'est-à-dire une solution de recherche assistée par l'IA, qui se compose de deux éléments centraux :
Ollama rencontre Qdrant : une mémoire locale pour ton IA sur Mac
IA locale avec mémoire - sans cloud, sans abonnement, sans détour
Dans un article précédent j'ai expliqué comment utiliser Ollama sur Mac install. Ceux qui ont déjà franchi cette étape disposent maintenant d'un modèle de langage local performant - par exemple Mistral, LLaMA3 ou un autre modèle compatible auquel il est possible de s'adresser via l'API REST.
Mais de lui-même, le modèle ne "sait" que ce qui est écrit dans le prompt actuel. Il ne se souvient pas des conversations précédentes. Ce qui manque, c'est la mémoire.
IA locale sur Mac : comment 1TP12Créer un modèle linguistique avec Ollama
L'IA locale sur Mac est depuis longtemps une réalité, en particulier sur les ordinateurs Apple-Silicon (série M). Avec Ollama, vous obtenez un environnement d'exécution léger pour de nombreux modèles de langage open source (par ex. Llama 3.1/3.2, Mistral, Gemma, Qwen). La version actuelle de Ollama est désormais accompagnée d'une application conviviale qui vous permet de configurer un modèle de langage local sur votre Mac d'un simple clic de souris. Dans cet article, vous trouverez un guide pragmatique de l'installation jusqu'à la première invite - avec des conseils tirés de la pratique, où les choses ont traditionnellement tendance à mal tourner.