Apple MLX vs. NVIDIA : comment fonctionne l'inférence IA locale sur Mac

IA locale sur Silicon avec Apple Mac

Lorsqu'on travaille aujourd'hui avec l'intelligence artificielle, on pense souvent en premier lieu à ChatGPT ou à d'autres services en ligne similaires. On tape une question, on attend quelques secondes - et on obtient une réponse, comme si un interlocuteur très instruit et patient était assis à l'autre bout du fil. Mais ce que l'on oublie facilement : Chaque saisie, chaque phrase, chaque mot est transmis par Internet à des serveurs étrangers. C'est là que le véritable travail est effectué - sur d'énormes ordinateurs que l'on ne voit jamais soi-même.

Un modèle linguistique local fonctionne en principe de la même manière - mais sans Internet. Le modèle se trouve sous forme de fichier sur l'ordinateur personnel, est chargé dans la mémoire vive au démarrage et répond aux questions directement sur l'appareil. La technique sous-jacente est la même : un réseau neuronal qui comprend la langue, génère des textes et reconnaît des modèles. Sauf que tout le calcul reste en interne. On pourrait dire : ChatGPT sans cloud.

Lire la suite

Formation LoRA : comment FileMaker 2025 simplifie le réglage fin des grands modèles linguistiques

LoRA Fine tuning - FileMaker 2025

Le monde de l'intelligence artificielle est en pleine évolution. De nouveaux modèles, de nouvelles méthodes et surtout de nouvelles possibilités apparaissent aujourd'hui presque chaque semaine - et pourtant, un constat reste constant : toutes les nouveautés techniques ne conduisent pas automatiquement à une amélioration du quotidien. Beaucoup de choses restent expérimentales, complexes ou tout simplement trop coûteuses pour une utilisation productive. C'est particulièrement évident dans le cas de ce que l'on appelle le réglage fin de grands modèles linguistiques - une méthode permettant de spécialiser l'IA générative sur des contenus, des termes et des tonalités propres.

J'ai accompagné ce processus de manière intensive au cours des derniers mois - d'abord de manière classique, avec Python, terminal, messages d'erreur et boucles d'installation épuisantes pour les nerfs. Et puis : avec FileMaker 2025. Une étape qui m'a surpris - parce qu'elle n'était pas bruyante, mais claire. Et parce qu'il a montré qu'il était possible de faire autrement.

Lire la suite

Factures électroniques dans les PME : Factur-X, ZUGFeRD et ERP en un coup d'œil

Aperçu de l'obligation de facturation électronique

L'Allemagne n'a pas inventé l'e-facture du jour au lendemain - elle est le résultat d'années de travail de normalisation (EN 16931), de règlements fédéraux et régionaux (B2G) et maintenant, via la loi sur les opportunités de croissance, d'une extension progressive dans le quotidien B2B. Depuis le 1er janvier 2025, une nouvelle situation de départ légale est en vigueur : une "facture électronique" n'est une e-facture que si elle est structurée et lisible par une machine - selon la définition, les simples annexes PDF envoyées par e-mail ne sont plus des e-factures. Cela semble technique, mais cela a des conséquences opérationnelles, de la réception de la facture à l'archivage en passant par la comptabilité.

Lire la suite

gFM-Business et l'avenir de l'ERP : l'intelligence locale plutôt que la dépendance au cloud

gFM-Business et IA + graphique des connaissances

Depuis plus d'une décennie, le logiciel gFM-Business représente une particularité sur le marché allemand des ERP : il n'est pas basé sur un système lourd et difficile à maintenir, mais sur la plateforme FileMaker, légère, adaptable et modélisée visuellement. Cela présente de nombreux avantages : gFM-Business peut être étendu individuellement, fonctionne sur Windows, macOS et iOS, et peut être adapté aussi bien par les développeurs que par les power users ambitieux.

Avec l'avènement de l'intelligence artificielle (IA) - notamment grâce à des modèles dits linguistiques comme ChatGPT - de nouvelles opportunités apparaissent désormais, qui vont bien au-delà de l'automatisation classique. gFM-Business se prépare activement à cet avenir : avec l'objectif de ne pas seulement gérer des données, mais aussi d'exploiter des connaissances.

Lire la suite

Conférence FileMaker 2025 : IA, communauté et un incident inattendu

FileMaker Conférence 2025 : Alerte incendie avec les pompiers

La conférence FileMaker 2025 à Hambourg est terminée - et elle a été une étape particulière à bien des égards. Non seulement parce que cette année, de nombreux thèmes se sont concentrés sur l'intelligence artificielle, la performance et les workflows modernes - mais aussi parce que l'échange personnel et le côté "familial" de la communauté FileMaker ont à nouveau pleinement joué leur rôle. Personnellement, j'ai vécu un moment intense, inspirant et enrichissant à tous les niveaux - et ce dès le premier soir.

Lire la suite

Intégration de MLX dans FileMaker 2025 : l'IA locale comme nouveau standard

IA locale avec MLX et FileMaker

Alors que MLX a été initialement lancé en tant que cadre expérimental par Apple Research, une évolution silencieuse mais significative s'est produite ces derniers mois : Avec la sortie de FileMaker 2025, Claris a intégré MLX en tant qu'infrastructure d'IA native pour Apple Silicon de manière permanente dans le serveur. Cela signifie que ceux qui travaillent avec un Mac et misent sur Apple Silicon peuvent non seulement exécuter des modèles MLX en local, mais aussi les utiliser directement dans FileMaker - avec des fonctions natives, sans aucune couche intermédiaire.

Lire la suite

Rendez-vous à la conférence FileMaker FMK 2025 à Hambourg ?

FileMaker Conférence FMK2025

Du 15 au 17 septembre 2025, la communauté germanophone FileMaker se réunira à l'hôtel JUFA de Hambourg HafenCity pour échanger sur les développements actuels, les tendances et les meilleures pratiques lors de la conférence FileMaker (FMK 2025). Depuis plus de dix ans, cette conférence est considérée comme l'événement le plus important pour les développeurs, les utilisateurs et les décideurs dans le domaine de Claris FileMaker - et je suis heureux d'y participer personnellement cette année encore.

Lire la suite

Ollama rencontre Qdrant : une mémoire locale pour ton IA sur Mac

Mémoire pour l'IA locale avec Ollama et Qdrant

IA locale avec mémoire - sans cloud, sans abonnement, sans détour

Dans un article précédent j'ai expliqué comment utiliser Ollama sur Mac install. Ceux qui ont déjà franchi cette étape disposent maintenant d'un modèle de langage local performant - par exemple Mistral, LLaMA3 ou un autre modèle compatible auquel il est possible de s'adresser via l'API REST.

Mais de lui-même, le modèle ne "sait" que ce qui est écrit dans le prompt actuel. Il ne se souvient pas des conversations précédentes. Ce qui manque, c'est la mémoire.

Lire la suite