Lorsque l'on entend le mot lithium, beaucoup pensent d'abord aux accumulateurs modernes, à la technologie des batteries ou - avec un regard sceptique - aux médicaments psychotropes. Mais le lithium est en réalité bien plus que cela : c'est un oligo-élément naturel présent dans notre environnement depuis des temps immémoriaux - dans les roches, dans l'eau et également en petites quantités dans les aliments végétaux.
Conseils et instructions
Dans cette catégorie, vous trouverez des conseils pratiques, des instructions étape par étape et des guides pratiques sur différents thèmes de la technique, du business et de la vie quotidienne. Les articles montrent de manière claire et compréhensible comment résoudre des problèmes typiques, utiliser efficacement des logiciels ou essayer de nouvelles méthodes de travail. Qu'il s'agisse de Appareils Apple, FileMaker, Logiciel ERP, Sujets de santé ou d'autres questions pratiques - l'utilité concrète est ici au premier plan. Les instructions sont conçues de manière à être directement applicables et à apporter une aide rapide au quotidien ou dans l'entreprise.
Intégration de MLX dans FileMaker 2025 : l'IA locale comme nouveau standard
Alors que MLX a été initialement lancé en tant que cadre expérimental par Apple Research, une évolution silencieuse mais significative s'est produite ces derniers mois : Avec la sortie de FileMaker 2025, Claris a intégré MLX en tant qu'infrastructure d'IA native pour Apple Silicon de manière permanente dans le serveur. Cela signifie que ceux qui travaillent avec un Mac et misent sur Apple Silicon peuvent non seulement exécuter des modèles MLX en local, mais aussi les utiliser directement dans FileMaker - avec des fonctions natives, sans aucune couche intermédiaire.
Pourquoi un logiciel ERP seul ne suffit pas - et comment comprendre réellement les processus
Dans de nombreuses entreprises, le schéma est toujours le même : il arrive un moment où la direction constate que "quelque chose ne tourne plus rond". Peut-être que les processus sont devenus trop lents, que les erreurs s'accumulent ou que l'on perd de plus en plus la vue d'ensemble des chiffres, des clients ou des processus internes. L'appel à une nouvelle solution logicielle se fait entendre - de préférence un logiciel ERP moderne et performant qui "sait tout faire". Mais c'est souvent là que commence une erreur fatale.
Comment j'ai écrit cinq livres en deux langues en quatre mois
...et pourquoi ce n'est pas un miracle, mais le résultat d'une stratégie claire
L'écriture de livres a longtemps été considérée comme quelque chose de long - un projet solitaire qui s'étend sur des mois, voire des années. Mais que se passe-t-il si l'on renonce à cette image ? Et si l'on repensait l'écriture - avec une focalisation claire, des processus bien pensés et une utilisation ciblée de l'IA ?
Dans mon nouveau livre "Écrire des livres 2.0 - Guide pratique pour les auteurs à l'ère de l'IA" je décris précisément ce parcours. Un chemin qui m'a permis d'écrire cinq livres en seulement quatre mois, de les publier en deux langues - et de ne pas perdre en qualité par rapport aux ouvrages d'édition classiques.
Écrire des livres 2.0 - Guide pratique pour les auteurs à l'ère de l'IA
Ce livre ne fournit pas de visions spéculatives de l'avenir, mais une réponse fondée et pratique issue du quotidien d'un auteur qui écrit lui-même avec l'IA - et qui mise délibérément non pas sur l'automatisation, mais sur l'autonomie. "Écrire des livres 2.0" s'adresse à tous ceux qui envisagent d'écrire leur propre livre - ou qui sont déjà en train de le faire - et qui se demandent comment des outils modernes comme ChatGPT, les générateurs d'images d'IA ou les aides à la traduction peuvent être utilisés de manière judicieuse. L'accent n'est pas mis sur les "produits IA prêts à l'emploi", mais sur une approche globale : l'IA comme outil, l'homme comme auteur.
Ollama rencontre Qdrant : une mémoire locale pour ton IA sur Mac
IA locale avec mémoire - sans cloud, sans abonnement, sans détour
Dans un article précédent j'ai expliqué comment utiliser Ollama sur Mac install. Ceux qui ont déjà franchi cette étape disposent maintenant d'un modèle de langage local performant - par exemple Mistral, LLaMA3 ou un autre modèle compatible auquel il est possible de s'adresser via l'API REST.
Mais de lui-même, le modèle ne "sait" que ce qui est écrit dans le prompt actuel. Il ne se souvient pas des conversations précédentes. Ce qui manque, c'est la mémoire.
IA locale sur Mac : comment 1TP12Créer un modèle linguistique avec Ollama
L'IA locale sur Mac est depuis longtemps une réalité, en particulier sur les ordinateurs Apple-Silicon (série M). Avec Ollama, vous obtenez un environnement d'exécution léger pour de nombreux modèles de langage open source (par ex. Llama 3.1/3.2, Mistral, Gemma, Qwen). La version actuelle de Ollama est désormais accompagnée d'une application conviviale qui vous permet de configurer un modèle de langage local sur votre Mac d'un simple clic de souris. Dans cet article, vous trouverez un guide pragmatique de l'installation jusqu'à la première invite - avec des conseils tirés de la pratique, où les choses ont traditionnellement tendance à mal tourner.
Conseils de santé (pas seulement) pour les utilisateurs de FileMaker
Le développement du logiciel gFM-Business ERP a été un peu plus lent que d'habitude au cours de l'année et demie écoulée, car en tant que développeur du logiciel, j'ai été confronté à des symptômes de maladie étranges dont il n'a pas été facile de trouver la cause. Même si la médecine classique ne m'a pas vraiment aidé dans mon cas, j'ai pu trouver les causes et éliminer mes problèmes avec le soutien actif de quelques naturopathes et d'un dentiste holistique. Comme les résultats de cette recherche sont si intéressants, j'ai décidé d'écrire ici un court article à ce sujet, afin que vous, lecteurs, puissiez également en profiter. Vous trouverez ci-dessous mes tops favoris en tant que simples conseils, je ne gagne rien à les transmettre et je n'utilise pas non plus de liens de référence.