L'IA en nuage comme professeur principal : pourquoi l'avenir du travail est dans l'IA locale

L'IA en nuage devient le maître d'école

Lorsque les grands modèles linguistiques ont commencé leur marche triomphale il y a quelques années, ils ont presque eu l'air d'un retour aux anciennes vertus de la technique : un outil qui fait ce qu'on lui dit de faire. Un outil qui sert l'utilisateur, et non l'inverse. Les premières versions - de GPT-3 à GPT-4 - avaient des faiblesses, oui, mais elles étaient étonnamment utiles. Elles expliquaient, analysaient, formulaient, résolvaient des tâches. Et elles le faisaient en grande partie sans lest pédagogique.

On parlait à ces modèles comme à un collaborateur savant, qui se trompait parfois, mais dont le travail était simple. Ceux qui écrivaient des textes créatifs, généraient des codes de programme ou réalisaient de longues analyses ont pu constater à quel point tout se passait bien. Il y avait un sentiment de liberté, d'espace de création ouvert, d'une technique qui soutenait l'homme au lieu de le corriger.

Lire la suite

Studio d'IA 2025 : quel matériel vaut vraiment la peine - du Mac Studio à la RTX 3090

Matériel 2025 pour studio d'IA

Quiconque travaille aujourd'hui avec l'IA est presque automatiquement poussé vers le cloud : OpenAI, Microsoft, Google, des interfaces web quelconques, des jetons, des limites, des conditions générales. Cela semble moderne - mais c'est en fait un retour à la dépendance : d'autres déterminent quels modèles tu peux utiliser, à quelle fréquence, avec quels filtres et à quel coût. Je choisis délibérément l'autre voie : je suis en train de construire mon propre petit studio d'IA à la maison. Avec mon propre matériel, mes propres modèles et mes propres flux de travail.

Mon objectif est clair : IA de texte en local, IA d'image en local, apprentissage de mes propres modèles (LoRA, réglage fin) et tout cela de manière à ce que je ne dépende pas, en tant qu'indépendant et plus tard aussi en tant que client de PME, de l'humeur du jour d'un quelconque fournisseur de cloud. On pourrait dire qu'il s'agit d'un retour à une ancienne attitude qui était autrefois tout à fait normale : „Les choses importantes, on les fait soi-même“. Sauf que cette fois, il ne s'agit pas de son propre établi, mais de la puissance de calcul et de la souveraineté des données.

Lire la suite

gFM-Business et l'avenir de l'ERP : l'intelligence locale plutôt que la dépendance au cloud

gFM-Business et IA + graphique des connaissances

Depuis plus d'une décennie, le logiciel gFM-Business représente une particularité sur le marché allemand des ERP : il n'est pas basé sur un système lourd et difficile à maintenir, mais sur la plateforme FileMaker, légère, adaptable et modélisée visuellement. Cela présente de nombreux avantages : gFM-Business peut être étendu individuellement, fonctionne sur Windows, macOS et iOS, et peut être adapté aussi bien par les développeurs que par les power users ambitieux.

Avec l'avènement de l'intelligence artificielle (IA) - notamment grâce à des modèles dits linguistiques comme ChatGPT - de nouvelles opportunités apparaissent désormais, qui vont bien au-delà de l'automatisation classique. gFM-Business se prépare activement à cet avenir : avec l'objectif de ne pas seulement gérer des données, mais aussi d'exploiter des connaissances.

Lire la suite

Ollama rencontre Qdrant : une mémoire locale pour ton IA sur Mac

Mémoire pour l'IA locale avec Ollama et Qdrant

IA locale avec mémoire - sans cloud, sans abonnement, sans détour

Dans un article précédent j'ai expliqué comment utiliser Ollama sur Mac install. Ceux qui ont déjà franchi cette étape disposent maintenant d'un modèle de langage local performant - par exemple Mistral, LLaMA3 ou un autre modèle compatible auquel il est possible de s'adresser via l'API REST.

Mais de lui-même, le modèle ne "sait" que ce qui est écrit dans le prompt actuel. Il ne se souvient pas des conversations précédentes. Ce qui manque, c'est la mémoire.

Lire la suite