L'IA en nuage comme professeur principal : pourquoi l'avenir du travail est dans l'IA locale

L'IA en nuage devient le maître d'école

Lorsque les grands modèles linguistiques ont commencé leur marche triomphale il y a quelques années, ils ont presque eu l'air d'un retour aux anciennes vertus de la technique : un outil qui fait ce qu'on lui dit de faire. Un outil qui sert l'utilisateur, et non l'inverse. Les premières versions - de GPT-3 à GPT-4 - avaient des faiblesses, oui, mais elles étaient étonnamment utiles. Elles expliquaient, analysaient, formulaient, résolvaient des tâches. Et elles le faisaient en grande partie sans lest pédagogique.

On parlait à ces modèles comme à un collaborateur savant, qui se trompait parfois, mais dont le travail était simple. Ceux qui écrivaient des textes créatifs, généraient des codes de programme ou réalisaient de longues analyses ont pu constater à quel point tout se passait bien. Il y avait un sentiment de liberté, d'espace de création ouvert, d'une technique qui soutenait l'homme au lieu de le corriger.

Lire la suite

Studio d'IA 2025 : quel matériel vaut vraiment la peine - du Mac Studio à la RTX 3090

Matériel 2025 pour studio d'IA

Quiconque travaille aujourd'hui avec l'IA est presque automatiquement poussé vers le cloud : OpenAI, Microsoft, Google, des interfaces web quelconques, des jetons, des limites, des conditions générales. Cela semble moderne - mais c'est en fait un retour à la dépendance : d'autres déterminent quels modèles tu peux utiliser, à quelle fréquence, avec quels filtres et à quel coût. Je choisis délibérément l'autre voie : je suis en train de construire mon propre petit studio d'IA à la maison. Avec mon propre matériel, mes propres modèles et mes propres flux de travail.

Mon objectif est clair : IA de texte en local, IA d'image en local, apprentissage de mes propres modèles (LoRA, réglage fin) et tout cela de manière à ce que je ne dépende pas, en tant qu'indépendant et plus tard aussi en tant que client de PME, de l'humeur du jour d'un quelconque fournisseur de cloud. On pourrait dire qu'il s'agit d'un retour à une ancienne attitude qui était autrefois tout à fait normale : „Les choses importantes, on les fait soi-même“. Sauf que cette fois, il ne s'agit pas de son propre établi, mais de la puissance de calcul et de la souveraineté des données.

Lire la suite

La suite graphique Affinity devient gratuite : Ce que les utilisateurs professionnels doivent savoir maintenant

Affinity Suite graphique gratuite

Lorsque l'on travaille comme moi depuis des décennies avec des programmes de mise en page et de composition, on ressent généralement ces bouleversements plus nettement que ceux qui ne sont dans ce monde que depuis peu. J'ai vu beaucoup de choses venir et partir au fil des ans : Au début des années 90, je travaillais sur Atari ST avec Calamus SL et plus tard, sous Windows, avec CorelDraw ! Plus tard, j'ai suivi QuarkXPress, puis iCalamus, Adobe InDesign - et enfin, il y a quelques années, Affinity Publisher. Depuis, la suite Affinity m'accompagne dans presque tous mes projets de livres. Au fil des années, elle a été un outil fiable, agréablement dépouillé, clairement structuré et dépourvu de ce poids que de nombreuses grandes sociétés de logiciels se sont imposées au fil du temps.

Lire la suite

Apple MLX vs. NVIDIA : comment fonctionne l'inférence IA locale sur Mac

IA locale sur Silicon avec Apple Mac

Lorsqu'on travaille aujourd'hui avec l'intelligence artificielle, on pense souvent en premier lieu à ChatGPT ou à d'autres services en ligne similaires. On tape une question, on attend quelques secondes - et on obtient une réponse, comme si un interlocuteur très instruit et patient était assis à l'autre bout du fil. Mais ce que l'on oublie facilement : Chaque saisie, chaque phrase, chaque mot est transmis par Internet à des serveurs étrangers. C'est là que le véritable travail est effectué - sur d'énormes ordinateurs que l'on ne voit jamais soi-même.

Un modèle linguistique local fonctionne en principe de la même manière - mais sans Internet. Le modèle se trouve sous forme de fichier sur l'ordinateur personnel, est chargé dans la mémoire vive au démarrage et répond aux questions directement sur l'appareil. La technique sous-jacente est la même : un réseau neuronal qui comprend la langue, génère des textes et reconnaît des modèles. Sauf que tout le calcul reste en interne. On pourrait dire : ChatGPT sans cloud.

Lire la suite

Factures électroniques dans les PME : Factur-X, ZUGFeRD et ERP en un coup d'œil

Aperçu de l'obligation de facturation électronique

L'Allemagne n'a pas inventé l'e-facture du jour au lendemain - elle est le résultat d'années de travail de normalisation (EN 16931), de règlements fédéraux et régionaux (B2G) et maintenant, via la loi sur les opportunités de croissance, d'une extension progressive dans le quotidien B2B. Depuis le 1er janvier 2025, une nouvelle situation de départ légale est en vigueur : une "facture électronique" n'est une e-facture que si elle est structurée et lisible par une machine - selon la définition, les simples annexes PDF envoyées par e-mail ne sont plus des e-factures. Cela semble technique, mais cela a des conséquences opérationnelles, de la réception de la facture à l'archivage en passant par la comptabilité.

Lire la suite

Dépendance numérique : comment nous avons perdu notre autodétermination au profit du cloud

Dépendance numérique avec les systèmes en nuage

J'ai toujours considéré que c'était une erreur de laisser les gens s'approprier leurs données, que ce soit dans le cloud, via des applications ou avec n'importe quel service "gratuit". Pour moi, la souveraineté des données n'a jamais été un mot à la mode, mais une question de respect de soi. Celui qui utilise la technique sans réfléchir aux conséquences s'engage dans une dépendance qui ne se fait souvent sentir que des années plus tard - mais qui est alors d'autant plus profonde.

Lire la suite

gFM-Business et l'avenir de l'ERP : l'intelligence locale plutôt que la dépendance au cloud

gFM-Business et IA + graphique des connaissances

Depuis plus d'une décennie, le logiciel gFM-Business représente une particularité sur le marché allemand des ERP : il n'est pas basé sur un système lourd et difficile à maintenir, mais sur la plateforme FileMaker, légère, adaptable et modélisée visuellement. Cela présente de nombreux avantages : gFM-Business peut être étendu individuellement, fonctionne sur Windows, macOS et iOS, et peut être adapté aussi bien par les développeurs que par les power users ambitieux.

Avec l'avènement de l'intelligence artificielle (IA) - notamment grâce à des modèles dits linguistiques comme ChatGPT - de nouvelles opportunités apparaissent désormais, qui vont bien au-delà de l'automatisation classique. gFM-Business se prépare activement à cet avenir : avec l'objectif de ne pas seulement gérer des données, mais aussi d'exploiter des connaissances.

Lire la suite

MLX sur Apple Silicon comme IA locale comparée à Ollama & Co.

L'IA locale sur Mac avec MLX

À une époque où les services d'IA centralisés tels que ChatGPT, Claude ou Gemini font la une des journaux, le besoin d'une contrepartie - une infrastructure d'IA locale et contrôlable par l'utilisateur - se fait de plus en plus sentir chez de nombreux utilisateurs professionnels. Une solution locale est souvent l'option la plus durable et la plus sûre, en particulier pour les processus créatifs, les données sensibles ou les flux de travail répétitifs.

Quiconque travaille avec un Mac - en particulier avec Apple Silicon (M1, M2, M3 ou M4) - trouve aujourd'hui des outils étonnamment performants pour exploiter ses propres modèles de voix directement sur l'appareil. Au centre de ces outils se trouve un nouveau composant largement inconnu : MLX, un framework d'apprentissage automatique développé par Apple, qui devrait jouer un rôle de plus en plus central dans l'écosystème d'IA de l'entreprise au cours des prochaines années.

Lire la suite