Le lithium : l'oligo-élément oublié ? Une réflexion sur le microdosage

Orotate de lithium en microdoses

Lorsque l'on entend le mot lithium, beaucoup pensent d'abord aux accumulateurs modernes, à la technologie des batteries ou - avec un regard sceptique - aux médicaments psychotropes. Mais le lithium est en réalité bien plus que cela : c'est un oligo-élément naturel présent dans notre environnement depuis des temps immémoriaux - dans les roches, dans l'eau et également en petites quantités dans les aliments végétaux.

Lire la suite

Intégration de MLX dans FileMaker 2025 : l'IA locale comme nouveau standard

IA locale avec MLX et FileMaker

Alors que MLX a été initialement lancé en tant que cadre expérimental par Apple Research, une évolution silencieuse mais significative s'est produite ces derniers mois : Avec la sortie de FileMaker 2025, Claris a intégré MLX en tant qu'infrastructure d'IA native pour Apple Silicon de manière permanente dans le serveur. Cela signifie que ceux qui travaillent avec un Mac et misent sur Apple Silicon peuvent non seulement exécuter des modèles MLX en local, mais aussi les utiliser directement dans FileMaker - avec des fonctions natives, sans aucune couche intermédiaire.

Lire la suite

Pourquoi un logiciel ERP seul ne suffit pas - et comment comprendre réellement les processus

Logiciel ERP : comprendre les processus d'exploitation avant la numérisation

Dans de nombreuses entreprises, le schéma est toujours le même : il arrive un moment où la direction constate que "quelque chose ne tourne plus rond". Peut-être que les processus sont devenus trop lents, que les erreurs s'accumulent ou que l'on perd de plus en plus la vue d'ensemble des chiffres, des clients ou des processus internes. L'appel à une nouvelle solution logicielle se fait entendre - de préférence un logiciel ERP moderne et performant qui "sait tout faire". Mais c'est souvent là que commence une erreur fatale.

Lire la suite

Comment j'ai écrit cinq livres en deux langues en quatre mois

Écrire des livres avec Affinity et BoD

...et pourquoi ce n'est pas un miracle, mais le résultat d'une stratégie claire

L'écriture de livres a longtemps été considérée comme quelque chose de long - un projet solitaire qui s'étend sur des mois, voire des années. Mais que se passe-t-il si l'on renonce à cette image ? Et si l'on repensait l'écriture - avec une focalisation claire, des processus bien pensés et une utilisation ciblée de l'IA ?

Dans mon nouveau livre "Écrire des livres 2.0 - Guide pratique pour les auteurs à l'ère de l'IA" je décris précisément ce parcours. Un chemin qui m'a permis d'écrire cinq livres en seulement quatre mois, de les publier en deux langues - et de ne pas perdre en qualité par rapport aux ouvrages d'édition classiques.

Lire la suite

Écrire des livres 2.0 - Guide pratique pour les auteurs à l'ère de l'IA

Couverture : Écrire des livres 2.0 - Guide pratique pour les auteurs à l'ère de l'IA

Ce livre ne fournit pas de visions spéculatives de l'avenir, mais une réponse fondée et pratique issue du quotidien d'un auteur qui écrit lui-même avec l'IA - et qui mise délibérément non pas sur l'automatisation, mais sur l'autonomie. "Écrire des livres 2.0" s'adresse à tous ceux qui envisagent d'écrire leur propre livre - ou qui sont déjà en train de le faire - et qui se demandent comment des outils modernes comme ChatGPT, les générateurs d'images d'IA ou les aides à la traduction peuvent être utilisés de manière judicieuse. L'accent n'est pas mis sur les "produits IA prêts à l'emploi", mais sur une approche globale : l'IA comme outil, l'homme comme auteur.

Lire la suite

Ollama rencontre Qdrant : une mémoire locale pour ton IA sur Mac

Mémoire pour l'IA locale avec Ollama et Qdrant

IA locale avec mémoire - sans cloud, sans abonnement, sans détour

Dans un article précédent j'ai expliqué comment utiliser Ollama sur Mac install. Ceux qui ont déjà franchi cette étape disposent maintenant d'un modèle de langage local performant - par exemple Mistral, LLaMA3 ou un autre modèle compatible auquel il est possible de s'adresser via l'API REST.

Mais de lui-même, le modèle ne "sait" que ce qui est écrit dans le prompt actuel. Il ne se souvient pas des conversations précédentes. Ce qui manque, c'est la mémoire.

Lire la suite

IA locale sur Mac : comment 1TP12Créer un modèle linguistique avec Ollama

L'IA locale sur Mac est depuis longtemps une réalité, en particulier sur les ordinateurs Apple-Silicon (série M). Avec Ollama, vous obtenez un environnement d'exécution léger pour de nombreux modèles de langage open source (par ex. Llama 3.1/3.2, Mistral, Gemma, Qwen). La version actuelle de Ollama est désormais accompagnée d'une application conviviale qui vous permet de configurer un modèle de langage local sur votre Mac d'un simple clic de souris. Dans cet article, vous trouverez un guide pragmatique de l'installation jusqu'à la première invite - avec des conseils tirés de la pratique, où les choses ont traditionnellement tendance à mal tourner.

Lire la suite

Conseils de santé (pas seulement) pour les utilisateurs de FileMaker

Conseils de santé

Le développement du logiciel gFM-Business ERP a été un peu plus lent que d'habitude au cours de l'année et demie écoulée, car en tant que développeur du logiciel, j'ai été confronté à des symptômes de maladie étranges dont il n'a pas été facile de trouver la cause. Même si la médecine classique ne m'a pas vraiment aidé dans mon cas, j'ai pu trouver les causes et éliminer mes problèmes avec le soutien actif de quelques naturopathes et d'un dentiste holistique. Comme les résultats de cette recherche sont si intéressants, j'ai décidé d'écrire ici un court article à ce sujet, afin que vous, lecteurs, puissiez également en profiter. Vous trouverez ci-dessous mes tops favoris en tant que simples conseils, je ne gagne rien à les transmettre et je n'utilise pas non plus de liens de référence.

Lire la suite