{"id":2502,"date":"2025-08-20T13:39:23","date_gmt":"2025-08-20T13:39:23","guid":{"rendered":"https:\/\/www.markus-schall.de\/?p=2502"},"modified":"2026-03-16T08:38:18","modified_gmt":"2026-03-16T08:38:18","slug":"ollama-rencontre-qdrant-une-memoire-locale-pour-ton-ki-sur-mac","status":"publish","type":"post","link":"https:\/\/www.markus-schall.de\/fr\/2025\/08\/ollama-rencontre-qdrant-une-memoire-locale-pour-ton-ki-sur-mac\/","title":{"rendered":"Ollama rencontre Qdrant : une m\u00e9moire locale pour ton IA sur Mac"},"content":{"rendered":"<h2>IA locale avec m\u00e9moire - sans cloud, sans abonnement, sans d\u00e9tour<\/h2>\n<p>Dans un <a href=\"https:\/\/www.markus-schall.de\/fr\/2025\/08\/ki-local-sur-mac-donc-1tp12creez-un-modele-de-langage-avec-ollama\/\"><strong>article pr\u00e9c\u00e9dent<\/strong><\/a> j'ai expliqu\u00e9 comment utiliser Ollama sur Mac install. Ceux qui ont d\u00e9j\u00e0 franchi cette \u00e9tape disposent maintenant d'un mod\u00e8le de langage local performant - par exemple Mistral, LLaMA3 ou un autre mod\u00e8le compatible auquel il est possible de s'adresser via l'API REST.<\/p>\n<p>Mais de lui-m\u00eame, le mod\u00e8le ne \"sait\" que ce qui est \u00e9crit dans le prompt actuel. Il ne se souvient pas des conversations pr\u00e9c\u00e9dentes. <strong>Ce qui manque, c'est la m\u00e9moire<\/strong>.<!--more--><\/p>\n<hr \/>\n\n\t\t\t<div class=\"display-post-types\">\n\n\t\t\t\t\t\t\t<style type=\"text\/css\">\n\t\t\t#dpt-wrapper-249 { --dpt-text-align: left;--dpt-image-crop: center;--dpt-border-radius: 5px;--dpt-h-gutter: 10px;--dpt-v-gutter: 9px; }\t\t\t<\/style>\n\t\t\t<style type=\"text\/css\">#dpt-wrapper-249 { --dpt-title-font-style:normal;--dpt-title-font-weight:600;--dpt-title-line-height:1.5;--dpt-title-text-decoration:none;--dpt-title-text-transform:none;--dpt-excerpt-font-style:normal;--dpt-excerpt-font-weight:400;--dpt-excerpt-line-height:1.5;--dpt-excerpt-text-decoration:none;--dpt-excerpt-text-transform:none;--dpt-meta1-font-style:normal;--dpt-meta1-font-weight:400;--dpt-meta1-line-height:1.9;--dpt-meta1-text-decoration:none;--dpt-meta1-text-transform:none;--dpt-meta2-font-style:normal;--dpt-meta2-font-weight:400;--dpt-meta2-line-height:1.9;--dpt-meta2-text-decoration:none;--dpt-meta2-text-transform:none; }<\/style><div class=\"dpt-main-header\">\n\t\t\t\t\t\t<div class=\"dpt-main-title\">\n\t\t\t\t\t\t\t<span class=\"dpt-main-title-text\">Th\u00e8mes de soci\u00e9t\u00e9 contemporains<\/span>\n\t\t\t\t\t\t<\/div>\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t<\/div>\t\t\t\n\t\t\t\t<div id=\"dpt-wrapper-249\" class=\"dpt-wrapper dpt-mag1 land1 dpt-cropped dpt-flex-wrap\" >\n\n\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"europa zwischen meinungsfreiheit und regulierung: neues us-infoportal wirft fragen auf\" data-id=\"5102\"  data-category=\"allgemein gesellschaft\" data-post_tag=\"denkmodelle deutschland eu-gesetze europa geopolitik krisen meinungsfreiheit spieltheorie\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/fr\/2026\/03\/leurope-entre-liberte-dexpression-et-reglementation-le-nouveau-portail-dinformation-des-us-souleve-des-questions\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">L'Europe entre libert\u00e9 d'expression et r\u00e9glementation : un nouveau portail d'information am\u00e9ricain soul\u00e8ve des questions<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Censure europ\u00e9enne, hatespeech et nouveau portail am\u00e9ricain\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/EU-Hatespeech-US-Portal.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/EU-Hatespeech-US-Portal.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/EU-Hatespeech-US-Portal-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/EU-Hatespeech-US-Portal-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/EU-Hatespeech-US-Portal-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/fr\/2026\/03\/leurope-entre-liberte-dexpression-et-reglementation-le-nouveau-portail-dinformation-des-us-souleve-des-questions\/\" rel=\"bookmark\">L'Europe entre libert\u00e9 d'expression et r\u00e9glementation : un nouveau portail d'information am\u00e9ricain soul\u00e8ve des questions<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"was ist brics \u2013 und was nicht: geschichte, wirtschaft und geopolitische einordnung\" data-id=\"4691\"  data-category=\"allgemein gesellschaft\" data-post_tag=\"denkmodelle deutschland europa geopolitik sicherheitspolitik\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/fr\/2026\/02\/quest-ce-que-les-brics-et-quest-ce-qui-ne-lest-pas-histoire-economie-et-classification-geopolitique\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Qu'est-ce que les BRICS - et qu'est-ce qui ne l'est pas : histoire, \u00e9conomie et classification g\u00e9opolitique<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Les pays BRICS\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/BRICS-Staaten.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/BRICS-Staaten.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/BRICS-Staaten-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/BRICS-Staaten-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/BRICS-Staaten-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/fr\/2026\/02\/quest-ce-que-les-brics-et-quest-ce-qui-ne-lest-pas-histoire-economie-et-classification-geopolitique\/\" rel=\"bookmark\">Qu'est-ce que les BRICS - et qu'est-ce qui ne l'est pas : histoire, \u00e9conomie et classification g\u00e9opolitique<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"elektroauto, hybrid und e-roller: eine realistische betrachtung jenseits der ideologie\" data-id=\"4255\"  data-category=\"allgemein gesellschaft tipps &amp; anleitungen\" data-post_tag=\"energiepolitik erfahrungen prozesse ratgeber\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/fr\/2026\/01\/voiture-electrique-hybride-et-scooter-electrique-une-approche-realiste-au-dela-de-lideologie\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Voiture \u00e9lectrique, hybride et scooter \u00e9lectrique : une approche r\u00e9aliste au-del\u00e0 de l'id\u00e9ologie<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Mobilit\u00e9 \u00e9lectrique - scooter \u00e9lectrique, hybride, voiture \u00e9lectrique\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Elektromobilitaet-Titel.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Elektromobilitaet-Titel.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Elektromobilitaet-Titel-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Elektromobilitaet-Titel-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Elektromobilitaet-Titel-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/fr\/2026\/01\/voiture-electrique-hybride-et-scooter-electrique-une-approche-realiste-au-dela-de-lideologie\/\" rel=\"bookmark\">Voiture \u00e9lectrique, hybride et scooter \u00e9lectrique : une approche r\u00e9aliste au-del\u00e0 de l'id\u00e9ologie<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"b\u00fccher mit tiefgang zu medizin, pers\u00f6nlichkeit und technik beim m. schall verlag\" data-id=\"2401\"  data-category=\"allgemein b\u00fccher gesellschaft gesundheit\" data-post_tag=\"buch cmd datenbanken krisen pers\u00f6nlichkeitsentwicklung verlag\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/fr\/2025\/07\/livres-profonds-sur-la-medecine-la-personnalite-et-la-technique-aux-editions-m-schall\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Livres profonds sur la m\u00e9decine, la personnalit\u00e9 et la technique chez M. Schall Verlag<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"2400\" height=\"1260\" class=\"attachment-full size-full\" alt=\"Schall Verlag - Livres avec substance\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/image-sv.jpg\" data-dpt-sizes=\"(max-width: 2400px) 100vw, 2400px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/image-sv.jpg 2400w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/image-sv-300x158.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/image-sv-1024x538.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/image-sv-768x403.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/image-sv-1536x806.jpg 1536w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/image-sv-2048x1075.jpg 2048w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/image-sv-18x9.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/fr\/2025\/07\/livres-profonds-sur-la-medecine-la-personnalite-et-la-technique-aux-editions-m-schall\/\" rel=\"bookmark\">Livres profonds sur la m\u00e9decine, la personnalit\u00e9 et la technique chez M. Schall Verlag<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\n\t\t\t\t<\/div>\n\t\t\t\t\t\t<\/div>\n\t\t\t\n<hr \/>\n<p>C'est pr\u00e9cis\u00e9ment pour cela que nous utilisons Qdrant, une base de donn\u00e9es s\u00e9mantique vectorielle moderne.<br \/>\nDans cet article, je montre \u00e9tape par \u00e9tape<\/p>\n<ul>\n<li>comment installer Qdrant sur Mac install (via Docker)<\/li>\n<li>comment cr\u00e9er des embeddings avec Python<\/li>\n<li>comment sauvegarder, rechercher et int\u00e9grer du contenu dans le flux de travail Ollama<\/li>\n<li>et \u00e0 quoi ressemble un prompt\u2192m\u00e9moire\u2192r\u00e9ponse complet<\/li>\n<\/ul>\n<h2>Pourquoi Qdrant ?<\/h2>\n<p>Qdrant ne stocke pas de textes classiques, mais des vecteurs qui repr\u00e9sentent la signification d'un texte sous forme de code num\u00e9rique. Il est ainsi possible de retrouver des contenus non seulement exacts, mais aussi s\u00e9mantiquement similaires, m\u00eame si les mots varient.<\/p>\n<p>Ollama + Qdrant donne donc<\/p>\n<p>Un mod\u00e8le linguistique local avec une m\u00e9moire \u00e0 long terme - s\u00fbr, contr\u00f4lable et extensible.<\/p>\n<h3>Conditions pr\u00e9alables<\/h3>\n<ul>\n<li>Ollama est installiert et fonctionne (\u2192 par ex. ollama run mistral)<\/li>\n<li>Docker est installiert : <a href=\"https:\/\/www.docker.com\/products\/docker-desktop\" target=\"_blank\" rel=\"noopener\">https:\/\/www.docker.com\/products\/docker-desktop<\/a><\/li>\n<li>Python 3.9+<\/li>\n<\/ul>\n<h3>Paquetinstallation de Qdrant :<\/h3>\n<pre class=\"notranslate\" data-no-translation=\"\">pip install qdrant-client sentence-transformers<\/pre>\n<h3>D\u00e9marrer Qdrant (Docker)<\/h3>\n<pre class=\"notranslate\" data-no-translation=\"\">docker run -p 6333:6333 -p 6334:6334 qdrant\/qdrant<\/pre>\n<p>Qdrant se met alors en marche :<\/p>\n<p><strong>http:\/\/localhost:6333 <\/strong>(API REST)<\/p>\n<p>http:\/\/localhost:6334 (gRPC, pas n\u00e9cessaire pour cet article)<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-full wp-image-2506\" src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Docker-Qdrant-scaled.jpg\" alt=\"Qdrant sur Docker sous Apple macOS\" width=\"2560\" height=\"1541\" srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Docker-Qdrant-scaled.jpg 2560w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Docker-Qdrant-300x181.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Docker-Qdrant-1024x616.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Docker-Qdrant-768x462.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Docker-Qdrant-1536x925.jpg 1536w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Docker-Qdrant-2048x1233.jpg 2048w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Docker-Qdrant-18x12.jpg 18w\" sizes=\"auto, (max-width: 2560px) 100vw, 2560px\" \/><\/p>\n<h2>Exemple en Python pour Ollama + Qdrant<\/h2>\n<p>Nous allons maintenant \u00e9crire un script de base simple qui :<\/p>\n<ul>\n<li>re\u00e7oit l'invite de l'utilisateur<\/li>\n<li>g\u00e9n\u00e8re un vecteur d'int\u00e9gration<\/li>\n<li>recherche des souvenirs s\u00e9mantiquement similaires dans Qdrant<\/li>\n<li>la r\u00e9ponse avec contexte g\u00e9n\u00e9r\u00e9e par Ollama<\/li>\n<li>enregistre la nouvelle conversation comme un souvenir<\/li>\n<\/ul>\n<pre class=\"notranslate\" data-no-translation=\"\">Python-Script: <strong>ollama_memory.py<\/strong><\/pre>\n<pre class=\"notranslate\" data-no-translation=\"\">import requests\r\nfrom sentence_transformers import SentenceTransformer\r\nfrom qdrant_client import QdrantClient\r\nfrom qdrant_client.models import Distance, VectorParams, PointStruct\r\n\r\n# Einstellungen\r\nOLLAMA_URL = \"http:\/\/localhost:11434\/api\/generate\"\r\nCOLLECTION_NAME = \"memory\"\r\nVECTOR_SIZE = 384 # f\u00fcr 'all-MiniLM-L6-v2'\r\n\r\n# Lade Embedding-Modell\r\nembedder = SentenceTransformer(\"all-MiniLM-L6-v2\")\r\n\r\n# Verbinde mit Qdrant\r\nqdrant = QdrantClient(host=\"localhost\", port=6333)\r\n\r\n# Erstelle Collection (einmalig)\r\ndef create_collection():\r\nif COLLECTION_NAME not in qdrant.get_collections().collections:\r\nqdrant.recreate_collection(\r\ncollection_name=COLLECTION_NAME,\r\nvectors_config=VectorParams(size=VECTOR_SIZE, distance=Distance.COSINE)\r\n)\r\n\r\n# F\u00fcge Eintrag ins Ged\u00e4chtnis hinzu\r\ndef add_to_memory(text: str):\r\nvector = embedder.encode(text).tolist()\r\npoint = PointStruct(id=hash(text), vector=vector, payload={\"text\": text})\r\nqdrant.upsert(collection_name=COLLECTION_NAME, points=[point])\r\n\r\n# Suche im Ged\u00e4chtnis\r\ndef search_memory(query: str, top_k=3):\r\nvector = embedder.encode(query).tolist()\r\nhits = qdrant.search(\r\ncollection_name=COLLECTION_NAME,\r\nquery_vector=vector,\r\nlimit=top_k\r\n)\r\nreturn [hit.payload[\"text\"] for hit in hits]\r\n\r\n# Sende Anfrage an Ollama\r\ndef query_ollama(context: list[str], user_prompt: str):\r\nprompt = \"\\n\\n\".join(context + [user_prompt])\r\nresponse = requests.post(OLLAMA_URL, json={\r\n\"model\": \"mistral\",\r\n\"prompt\": prompt,\r\n\"stream\": False\r\n})\r\nreturn response.json()[\"response\"]\r\n\r\n# Ablauf\r\ndef main():\r\ncreate_collection()\r\nprint(\"Frage an die KI:\")\r\nuser_prompt = input(\"&gt; \")\r\ncontext = search_memory(user_prompt)\r\nanswer = query_ollama(context, user_prompt)\r\nprint(\"\\nAntwort von Ollama:\")\r\nprint(answer.strip())\r\n\r\n# Speichern der Konversation\r\nfull_entry = f\"Frage: {user_prompt}\\nAntwort: {answer.strip()}\"\r\nadd_to_memory(full_entry)\r\n\r\nif __name__ == \"__main__\":\r\nmain()<\/pre>\n<h2>Indications sur la pratique<\/h2>\n<p>Tu peux aussi utiliser tes propres mod\u00e8les d'int\u00e9gration, par exemple via Ollama (par exemple nomic-embed-text) ou les mod\u00e8les Hugging Face<\/p>\n<p>Qdrant supporte les filtres de charge utile, les p\u00e9riodes et les champs (tr\u00e8s utile pour une extension ult\u00e9rieure !)<\/p>\n<p>L'ID hash(text) suffit pour les tests simples, pour les applications professionnelles, tu devrais utiliser des UUIDs<\/p>\n<h2>L'IA locale avec m\u00e9moire - et tout ce qu'on peut en faire<\/h2>\n<p>Dans les chapitres pr\u00e9c\u00e9dents, j'ai montr\u00e9 comment cr\u00e9er une v\u00e9ritable m\u00e9moire d'IA locale sur un Mac avec Ollama et Qdrant. Une configuration qui se passe de cloud, d'abonnement et de serveurs \u00e9trangers - rapide, s\u00fbre, priv\u00e9e.<\/p>\n<h3>Mais que faire maintenant ?<\/h3>\n<p>Quelle est l'utilisation concr\u00e8te de cette technologie ? Qu'est-ce qu'elle permet de faire, aujourd'hui, demain, apr\u00e8s-demain ?<\/p>\n<p>La r\u00e9ponse : beaucoup de choses.<\/p>\n<p>Car ce que tu as l\u00e0 est bien plus qu'un chatbot. C'est une machine \u00e0 penser ind\u00e9pendante de la plate-forme et dot\u00e9e d'une m\u00e9moire \u00e0 long terme. Et cela ouvre des portes.<\/p>\n<h3>\ud83d\udd0d 1. base de connaissances personnelle<\/h3>\n<p>Tu peux utiliser Ollama + Qdrant comme ta m\u00e9moire personnelle \u00e0 long terme.<br \/>\nDocuments, notes de conversation, id\u00e9es - tout ce que tu lui dis peut \u00eatre stock\u00e9 s\u00e9mantiquement et retrouv\u00e9.<\/p>\n<p><strong>exemple :<\/strong><\/p>\n<blockquote><p>\"Quelle \u00e9tait mon id\u00e9e d'entreprise de jeudi dernier ?\"<\/p>\n<p>\"Quels clients ont demand\u00e9 une mise \u00e0 niveau en mars ?\"<\/p><\/blockquote>\n<p>Au lieu de chercher dans des dossiers, tu demandes simplement \u00e0 ton syst\u00e8me. Particuli\u00e8rement int\u00e9ressant : cela fonctionne m\u00eame si la question n'est pas pr\u00e9cise, car Qdrant effectue une recherche s\u00e9mantique et pas seulement par mots-cl\u00e9s.<\/p>\n<h3>\ud83d\udcc4 2. journalisation et r\u00e9sum\u00e9 automatiques<\/h3>\n<p>En combinaison avec une entr\u00e9e audio ou texte, le syst\u00e8me peut enregistrer en continu :<\/p>\n<ul>\n<li>Notes de discussion en r\u00e9union<\/li>\n<li>Appels avec les clients<\/li>\n<li>Protocoles journaliers ou d\u00e9roulement de projets<\/li>\n<\/ul>\n<p>Ces donn\u00e9es sont automatiquement introduites dans la m\u00e9moire Qdrant et peuvent ainsi \u00eatre interrog\u00e9es ult\u00e9rieurement, comme un assistant :<\/p>\n<blockquote><p>\"Qu'a dit M. Meier sur la livraison, d\u00e9j\u00e0 ?\"<\/p>\n<p>\"Comment s'est d\u00e9roul\u00e9 le projet XY ?\"<\/p><\/blockquote>\n<h3>\ud83e\udde0 3. coach personnel ou assistant de journal intime<\/h3>\n<p>En notant r\u00e9guli\u00e8rement tes pens\u00e9es, tes humeurs ou tes d\u00e9cisions, tu peux cr\u00e9er un compagnon de r\u00e9flexion :<\/p>\n<blockquote><p>\"Quelle a \u00e9t\u00e9 ma plus grande avanc\u00e9e ce mois-ci ?\"<\/p>\n<p>\"Comment ai-je r\u00e9agi aux \u00e9checs \u00e0 l'\u00e9poque ?\"<\/p><\/blockquote>\n<p>Le syst\u00e8me apprend \u00e0 te conna\u00eetre au fil du temps - et devient un v\u00e9ritable miroir, pas seulement un chatbot.<\/p>\n<h3>\ud83d\udcbc 4. applications commerciales avec FileMaker<\/h3>\n<p>Ceux qui, comme moi, utilisent FileMaker, peuvent directement connecter cette configuration :<\/p>\n<ul>\n<li>Envoyer des invites depuis FileMaker<\/li>\n<li>R\u00e9cup\u00e9rer et enregistrer automatiquement les r\u00e9ponses<\/li>\n<li>Contr\u00f4ler les acc\u00e8s \u00e0 la m\u00e9moire directement via l'API REST ou un script shell<\/li>\n<\/ul>\n<p>Il en r\u00e9sulte une combinaison extr\u00eamement puissante :<\/p>\n<ul>\n<li><strong>FileMaker<\/strong> = Frontend, interface utilisateur, centrale de commande<\/li>\n<li><strong>Ollama<\/strong> = Intelligence linguistique<\/li>\n<li><strong>Qdrant<\/strong> = m\u00e9moire s\u00e9mantique \u00e0 long terme<\/li>\n<\/ul>\n<p>Le r\u00e9sultat : un v\u00e9ritable composant d'IA pour les solutions FileMaker, local, s\u00e9curis\u00e9, personnalis\u00e9.<\/p>\n<h3>\ud83d\udee0\ufe0f 5. Soutien au quotidien : souvenirs, id\u00e9es, recommandations<\/h3>\n<blockquote><p>\"Rappelle-moi cette id\u00e9e la semaine prochaine\"<\/p>\n<p>\"Quels livres t'ai-je d\u00e9j\u00e0 recommand\u00e9s ?\"<\/p>\n<p>\"Que pourrais-je proposer ensuite \u00e0 M. M\u00fcller ?\"<\/p><\/blockquote>\n<p>Avec une logique de stockage cibl\u00e9e (horodatage, cat\u00e9gories, utilisateurs), tu peux structurer la m\u00e9moire de mani\u00e8re cibl\u00e9e et l'utiliser dans de nombreux domaines de la vie et de l'entreprise.<\/p>\n<h3>\ud83e\udd16 6. base d'un syst\u00e8me d'agents<\/h3>\n<p>Pour ceux qui voient plus loin, cette configuration permet \u00e9galement de construire des syst\u00e8mes de type agent :<\/p>\n<ul>\n<li>L'IA prend en charge des t\u00e2ches simples<\/li>\n<li>L'IA reconna\u00eet des mod\u00e8les dans le temps<\/li>\n<li>L'IA donne des indications proactives<\/li>\n<\/ul>\n<p><strong>exemple :<\/strong><\/p>\n<blockquote><p>\"Tu as pos\u00e9 4 fois la m\u00eame question cette semaine - veux-tu enregistrer une note \u00e0 ce sujet ?\"<\/p>\n<p>\"Un nombre remarquablement \u00e9lev\u00e9 de clients ont mentionn\u00e9 ce produit - veux-tu que je te fasse un r\u00e9sum\u00e9 ?\"<\/p><\/blockquote>\n<h3>\ud83c\udf10 7. int\u00e9gration avec d'autres outils<\/h3>\n<p>Le syst\u00e8me peut \u00eatre facilement reli\u00e9 \u00e0 d'autres outils :<\/p>\n<ul>\n<li><strong>Neo4j<\/strong>pour repr\u00e9senter graphiquement les relations s\u00e9mantiques<\/li>\n<li><strong>Fichiers &amp; PDF<\/strong>pour indexer automatiquement le contenu<\/li>\n<li><strong>Analyseur de courrier<\/strong>pour analyser et m\u00e9moriser les e-mails<\/li>\n<li><strong>Assistants vocaux<\/strong>pour interagir par la voix<\/li>\n<\/ul>\n<h3>\ud83d\udd10 8. tout reste local - et sous contr\u00f4le<\/h3>\n<p>Le plus grand avantage : tu d\u00e9cides de ce qui doit \u00eatre sauvegard\u00e9. Tu d\u00e9cides de la dur\u00e9e de stockage. Et : cela ne quitte jamais ton ordinateur si tu ne le souhaites pas. Dans un monde o\u00f9 beaucoup s'en remettent aveugl\u00e9ment \u00e0 l'IA en nuage, c'est un contrepoids puissant - notamment pour les ind\u00e9pendants, les d\u00e9veloppeurs, les auteurs, les entrepreneurs.<\/p>\n<hr \/>\n<h3>Derni\u00e8re enqu\u00eate sur l'utilisation des syst\u00e8mes d'IA locaux<\/h3>\n<div class='bootstrap-yop yop-poll-mc'>\n\t\t\t\t\t\t\t<div class=\"basic-yop-poll-container\" style=\"background-color:#ffffff; border:0px; border-style:solid; border-color:#000000; border-radius:5px; padding:0px 5px;\" data-id=\"9\" data-temp=\"basic-pretty\" data-skin=\"square\" data-cscheme=\"blue\" data-cap=\"0\" data-access=\"guest\" data-tid=\"\" data-uid=\"8bdb476661e20eb3be6d48c96ea57106\" data-pid=\"2401\" data-resdet=\"votes-number,percentages\" data-show-results-to=\"guest\" data-show-results-moment=\"after-vote\" data-show-results-only=\"false\" data-show-message=\"true\" data-show-results-as=\"bar\" data-sort-results-by=\"as-defined\" data-sort-results-rule=\"asc\"data-is-ended=\"0\" data-percentages-decimals=\"2\" data-gdpr=\"no\" data-gdpr-sol=\"consent\" data-css=\".basic-yop-poll-container[data-uid] .basic-vote {\t\t\t\t\t\t\t\t\ttext-align: center;\t\t\t\t\t\t\t\t}\" data-counter=\"0\" data-load-with=\"1\" data-notification-section=\"top\"><div class=\"row\"><div class=\"col-md-12\"><div class=\"basic-inner\"><div class=\"basic-message hide\" style=\"border-left: 10px solid #008000; padding: 0px 10px;\" data-error=\"#ff0000\" data-success=\"#008000\"><p class=\"basic-message-text\" style=\"color:#000000; font-size:14px; font-weight:normal;\"><\/p><\/div><div class=\"basic-overlay hide\"><div class=\"basic-vote-options\"><\/div><div class=\"basic-preloader\"><div class=\"basic-windows8\"><div class=\"basic-wBall basic-wBall_1\"><div class=\"basic-wInnerBall\"><\/div><\/div><div class=\"basic-wBall basic-wBall_2\"><div class=\"basic-wInnerBall\"><\/div><\/div><div class=\"basic-wBall basic-wBall_3\"><div class=\"basic-wInnerBall\"><\/div><\/div><div class=\"basic-wBall basic-wBall_4\"><div class=\"basic-wInnerBall\"><\/div><\/div><div class=\"basic-wBall basic-wBall_5\"><div class=\"basic-wInnerBall\"><\/div><\/div><\/div><\/div><\/div><form class=\"basic-form\" action=\"\"><input type=\"hidden\" name=\"_token\" value=\"2ce3dc41ab\" autocomplete=\"off\"><div class=\"basic-elements\"><div class=\"basic-element basic-question basic-question-text-vertical\" data-id=\"9\" data-uid=\"359bd01fdcd9553049ed95b2a55b2a5d\" data-type=\"question\" data-question-type=\"text\" data-required=\"yes\" data-allow-multiple=\"no\" data-min=\"1\" data-max=\"7\" data-display=\"vertical\" data-colnum=\"\" data-display-others=\"no\" data-others-color=\"\" data-others=\"\" data-others-max-chars=\"0\"><div class=\"basic-question-title\"><h5 style=\"color:#000000; font-size:16px; font-weight:normal; text-align:left;\">Quelle est ta position sur les logiciels d'intelligence artificielle fonctionnant en local, comme MLX ou Ollama ?<\/h5><\/div><ul class=\"basic-answers\"><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"45\" data-type=\"text\" data-vn=\"144\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[45]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[45]\" name=\"answer[9]\" value=\"45\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">Ing\u00e9nieux - enfin ind\u00e9pendant du cloud<\/span><\/label><\/div><\/li><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"46\" data-type=\"text\" data-vn=\"26\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[46]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[46]\" name=\"answer[9]\" value=\"46\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">Int\u00e9ressant, mais (encore) trop compliqu\u00e9<\/span><\/label><\/div><\/li><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"47\" data-type=\"text\" data-vn=\"28\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[47]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[47]\" name=\"answer[9]\" value=\"47\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">Je vais bient\u00f4t l'essayer<\/span><\/label><\/div><\/li><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"48\" data-type=\"text\" data-vn=\"5\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[48]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[48]\" name=\"answer[9]\" value=\"48\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">Je n'en ai pas besoin - le cloud me suffit<\/span><\/label><\/div><\/li><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"49\" data-type=\"text\" data-vn=\"4\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[49]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[49]\" name=\"answer[9]\" value=\"49\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">Je ne sais pas de quoi il s'agit exactement.<\/span><\/label><\/div><\/li><\/ul><\/div><div class=\"clearfix\"><\/div><\/div><div class=\"basic-vote\"><a href=\"#\" class=\"button basic-vote-button\" role=\"button\" style=\"background:#027bb8; border:0px; border-style: solid; border-color:#000000; border-radius:5px; padding:10px 10px; color:#ffffff; font-size:14px; font-weight:normal;\">Votez<\/a><\/div><input type=\"hidden\" name=\"trp-form-language\" value=\"fr\"\/><\/form><\/div><\/div><\/div><\/div>\n\t\t\t\t\t\t<\/div>\n<hr \/>\n<h2>Ollama + Apprivoiser Qdrant : Comment donner une structure, des r\u00e8gles et un r\u00e9glage fin \u00e0 l'IA locale<\/h2>\n<p>Celui qui s'est donn\u00e9 la peine de Ollama et de Qdrant en local sur son Mac a d\u00e9j\u00e0 fait un grand travail. Tu as maintenant<\/p>\n<ul>\n<li>Une IA linguistique locale<\/li>\n<li>Une m\u00e9moire s\u00e9mantique<\/li>\n<li>Et un pipeline fonctionnel qui mappe prompt \u2192 m\u00e9moire \u2192 Ollama \u2192 r\u00e9ponse<\/li>\n<\/ul>\n<p>Mais ceux qui l'utilisent s'aper\u00e7oivent vite qu'il faut des r\u00e8gles. De la structure. De l'ordre.<br \/>\nCar sans commande, ton assistant devient vite un bavard qui retient trop de choses, se r\u00e9p\u00e8te sans cesse ou fait appel \u00e0 des souvenirs non pertinents.<\/p>\n<h2>\ud83e\udded Que manque-t-il encore ?<\/h2>\n<p>Un orchestre a aussi un chef d'orchestre. Et c'est pr\u00e9cis\u00e9ment ta mission \u00e0 pr\u00e9sent : piloter au lieu de simplement utiliser.<\/p>\n<h3>Module 1 : Un \"routeur\" pour la logique de la m\u00e9moire<\/h3>\n<p>Au lieu de tout sauvegarder ou de tout rechercher, tu devrais d'abord d\u00e9cider si quelque chose doit \u00eatre sauvegard\u00e9 ou charg\u00e9. Cela peut se faire par exemple avec un simple routeur de pertinence que tu places entre l'invite et la m\u00e9moire :<\/p>\n<p><strong>Exemple<\/strong>V\u00e9rifier la pertinence par prompt \u00e0 Ollama lui-m\u00eame<\/p>\n<pre class=\"notranslate\" data-no-translation=\"\">def is_relevant_for_memory(prompt, response):\r\npr\u00fcf_prompt = f\"\"\"\r\nNutzer hat gefragt: \"{prompt}\"\r\nDie KI hat geantwortet: \"{response}\"\r\nSollte man sich diesen Dialog langfristig merken? Antworte nur mit 'Ja' oder 'Nein'.\r\n\"\"\"\r\nresult = query_ollama([], pr\u00fcf_prompt).strip().lower()\r\nreturn result.startswith(\"ja\")<\/pre>\n<p>Tu donnes donc toi-m\u00eame \u00e0 Ollama la t\u00e2che d'\u00e9valuer sa r\u00e9ponse - et ce n'est que si elle est jug\u00e9e pertinente que tu l'enregistres dans Qdrant.<\/p>\n<h3>Module 2 : Exclure les messages plus anciens (limitation du contexte)<\/h3>\n<p>C'est justement lors de longues sessions que cela devient probl\u00e9matique lorsque d'anciens messages reviennent sans cesse dans le contexte. Le mod\u00e8le n'oublie pas - il s'\u00e9parpille.<\/p>\n<p><strong>Solution<\/strong>: limiter la fen\u00eatre de contexte.<\/p>\n<p>Tu peux le faire de deux mani\u00e8res :<\/p>\n<p><strong>M\u00e9thode 1<\/strong>: limite le nombre de r\u00e9sultats<\/p>\n<pre class=\"notranslate\" data-no-translation=\"\">context = search_memory(user_prompt, top_k=3)<\/pre>\n<p>Ici, seul ce qui est s\u00e9mantiquement pertinent est charg\u00e9 - pas tout.<\/p>\n<p><strong>M\u00e9thode 2<\/strong>: Limite le temps<\/p>\n<pre class=\"notranslate\" data-no-translation=\"\"># Nur Nachrichten der letzten 7 Tage\r\nnow = datetime.utcnow()\r\nfilter = Filter(\r\nmust=[\r\nFieldCondition(key=\"timestamp\", range=Range(gte=now - timedelta(days=7)))\r\n]\r\n)<\/pre>\n<p>Tu peux donc \"couper\" dans le temps si le syst\u00e8me s'\u00e9tend trop loin dans le pass\u00e9.<\/p>\n<h3>Module 3 : Introduire les poids contextuels et les labels<\/h3>\n<p>Toutes les entr\u00e9es de la m\u00e9moire n'ont pas la m\u00eame valeur. Tu peux leur donner du poids ou des cat\u00e9gories :<\/p>\n<ul>\n<li><strong>Fixe<\/strong> (p. ex. \"L'utilisateur s'appelle Markus\")<\/li>\n<li><strong>Temporaire<\/strong> (p. ex. \"Aujourd'hui, c'est mardi\")<\/li>\n<li><strong>En situation<\/strong> (par exemple, \"Chat d'aujourd'hui 10h30\")<\/li>\n<\/ul>\n<p>Qdrant supporte ce que l'on appelle les charges utiles, c'est-\u00e0-dire des informations suppl\u00e9mentaires par entr\u00e9e. Cela te permet de filtrer ou d'\u00e9tablir des priorit\u00e9s par la suite.<\/p>\n<h3>Module 4 : R\u00e9glage fin via le prompt<\/h3>\n<p>Le prompt lui-m\u00eame est une puissante unit\u00e9 de contr\u00f4le.<br \/>\nVoici quelques astuces pour l'utiliser et rendre Ollama plus intelligent :<\/p>\n<p><strong>Exemple d'invite avec des instructions :<\/strong><\/p>\n<blockquote><p>Tu es un assistant local avec une m\u00e9moire s\u00e9mantique. Si tu trouves plusieurs rappels, n'utilise que les trois plus pertinents. Ne te r\u00e9f\u00e8re pas \u00e0 des informations datant de plus de 10 jours, \u00e0 moins qu'elles ne soient explicitement marqu\u00e9es. Ignore les rappels triviaux comme \"bonjour\" ou \"merci\". R\u00e9ponds de mani\u00e8re pr\u00e9cise et dans le style d'un conseiller exp\u00e9riment\u00e9.<\/p><\/blockquote>\n<p>Tu peux ainsi effectuer toi-m\u00eame des r\u00e9glages fins directement dans le prompt - sans nouveaux mod\u00e8les, sans formation.<\/p>\n<p>Et : tu peux g\u00e9n\u00e9rer l'invite de mani\u00e8re dynamique - selon la situation.<\/p>\n<h3>Module 5 : Hygi\u00e8ne de la m\u00e9moire<\/h3>\n<p>Quand la m\u00e9moire grandit, elle devient confuse.<br \/>\nUn simple script de maintenance qui supprime les contenus non pertinents ou en double vaut son pesant d'or.<\/p>\n<p><strong>exemple :<\/strong><\/p>\n<blockquote><p>\"Oublie tout ce qui a trait au 'temps'\".<\/p>\n<p>\"Supprimer les entr\u00e9es datant de plus de 3 mois et qui n'ont jamais \u00e9t\u00e9 consult\u00e9es\".<\/p><\/blockquote>\n<p>Qdrant supporte cela via l'API - et tu peux l'automatiser, par exemple une fois par semaine.<\/p>\n<h3>Module 6 : FileMaker comme pupitre de commande<\/h3>\n<p>Si tu travailles - comme moi - avec FileMaker, tu peux contr\u00f4ler tout cela \u00e0 distance via l'API REST :<\/p>\n<ul>\n<li>Envoyer un prompt<\/li>\n<li>R\u00e9cup\u00e9rer le contexte<\/li>\n<li>Recevoir une r\u00e9ponse<\/li>\n<li>Faire proc\u00e9der \u00e0 une \u00e9valuation<\/li>\n<li>Enregistrer ou faire oublier<\/li>\n<\/ul>\n<p>Pour cela, tu n'as besoin que d'un petit module REST dans FileMaker (Insert from URL avec JSON) et de quelques scripts.<\/p>\n<p>R\u00e9sultat : une interface qui te permet de contr\u00f4ler ton IA comme un carnet de notes vivant - mais avec intelligence.<\/p>\n<h2>\ud83d\udd1a Conclusion : la qualit\u00e9 de l'IA d\u00e9pend de son leadership<\/h2>\n<p>Ollama est puissant. Qdrant est flexible. Mais sans r\u00e8gles claires, les deux deviennent un amas de donn\u00e9es non structur\u00e9es. L'art ne consiste pas \u00e0 tout stocker - mais \u00e0 ne garder \u00e0 disposition que ce qui est pertinent et \u00e0 penser de mani\u00e8re cibl\u00e9e au lieu de simplement se souvenir.<\/p>\n<h3>Nouvelle s\u00e9rie d'articles : les historiques ChatGPT comme base de connaissances pour ton IA<\/h3>\n<p><a href=\"https:\/\/www.markus-schall.de\/fr\/2026\/03\/chatgpt-datenexport-explique-comment-tes-chats-ki-deviennent-un-systeme-de-connaissance-personnel\/\"><img loading=\"lazy\" decoding=\"async\" class=\"alignright size-medium wp-image-5296\" src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/ChatGPT-Datenexport-300x200.jpg\" alt=\"ChatGPT Exportation de donn\u00e9es\" width=\"300\" height=\"200\" srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/ChatGPT-Datenexport-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ChatGPT-Datenexport-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ChatGPT-Datenexport-18x12.jpg 18w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ChatGPT-Datenexport.jpg 1024w\" sizes=\"auto, (max-width: 300px) 100vw, 300px\" \/><\/a>Si tu as d\u00e9j\u00e0 construit ta propre m\u00e9moire d'IA avec Ollama et Qdrant, cela vaut la peine de jeter un coup d'\u0153il \u00e0 une nouvelle s\u00e9rie d'articles qui commence pr\u00e9cis\u00e9ment ici. Il y est question de la mani\u00e8re dont la <a href=\"https:\/\/www.markus-schall.de\/fr\/2026\/03\/chatgpt-datenexport-explique-comment-tes-chats-ki-deviennent-un-systeme-de-connaissance-personnel\/\"><strong>Int\u00e9grer l'exportation de donn\u00e9es ChatGPT dans ce syst\u00e8me<\/strong><\/a> permet. De nombreux utilisateurs ne savent m\u00eame pas qu'ils peuvent exporter l'historique complet de leurs discussions - et que ces donn\u00e9es constituent une source de connaissances pr\u00e9cieuse. Dans cette s\u00e9rie, je montre comment ces conversations peuvent \u00eatre analys\u00e9es, transform\u00e9es en embeddings et ensuite import\u00e9es dans une base de donn\u00e9es vectorielle. Cela permet \u00e0 ton IA locale d'acc\u00e9der plus tard \u00e0 des conversations ant\u00e9rieures et de les utiliser comme contexte pour les r\u00e9ponses. C'est ainsi que les dialogues individuels se transforment peu \u00e0 peu en archives de connaissances personnelles.<\/p>\n<hr \/>\n\n\t\t\t<div class=\"display-post-types\">\n\n\t\t\t\t\t\t\t<style type=\"text\/css\">\n\t\t\t#dpt-wrapper-250 { --dpt-text-align: left;--dpt-image-crop: center;--dpt-border-radius: 5px;--dpt-h-gutter: 10px;--dpt-v-gutter: 9px; }\t\t\t<\/style>\n\t\t\t<style type=\"text\/css\">#dpt-wrapper-250 { --dpt-title-font-style:normal;--dpt-title-font-weight:600;--dpt-title-line-height:1.5;--dpt-title-text-decoration:none;--dpt-title-text-transform:none;--dpt-excerpt-font-style:normal;--dpt-excerpt-font-weight:400;--dpt-excerpt-line-height:1.5;--dpt-excerpt-text-decoration:none;--dpt-excerpt-text-transform:none;--dpt-meta1-font-style:normal;--dpt-meta1-font-weight:400;--dpt-meta1-line-height:1.9;--dpt-meta1-text-decoration:none;--dpt-meta1-text-transform:none;--dpt-meta2-font-style:normal;--dpt-meta2-font-weight:400;--dpt-meta2-line-height:1.9;--dpt-meta2-text-decoration:none;--dpt-meta2-text-transform:none; }<\/style><div class=\"dpt-main-header\">\n\t\t\t\t\t\t<div class=\"dpt-main-title\">\n\t\t\t\t\t\t\t<span class=\"dpt-main-title-text\">Derniers articles sur l'intelligence artificielle<\/span>\n\t\t\t\t\t\t<\/div>\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t<\/div>\t\t\t\n\t\t\t\t<div id=\"dpt-wrapper-250\" class=\"dpt-wrapper dpt-mag1 land1 dpt-cropped dpt-flex-wrap\" >\n\n\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"wie man heute schon ki-spezialisten ausbilden kann \u2013 chancen f\u00fcr unternehmen und azubis\" data-id=\"3120\"  data-category=\"allgemein b\u00fccher ki-systeme tipps &amp; anleitungen\" data-post_tag=\"buch datenbanken datenlogik denkmodelle k\u00fcnstliche intelligenz llm sprachmodell\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/fr\/2025\/10\/comment-former-des-specialistes-du-ki-des-aujourdhui-opportunites-pour-les-entreprises-et-les-apprentis\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Comment former des sp\u00e9cialistes de l'IA d\u00e8s aujourd'hui - opportunit\u00e9s pour les entreprises et les apprentis<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Former un sp\u00e9cialiste de l&#039;IA\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/ki-spezialist-ausbildung.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/ki-spezialist-ausbildung.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ki-spezialist-ausbildung-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ki-spezialist-ausbildung-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ki-spezialist-ausbildung-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/fr\/2025\/10\/comment-former-des-specialistes-du-ki-des-aujourdhui-opportunites-pour-les-entreprises-et-les-apprentis\/\" rel=\"bookmark\">Comment former des sp\u00e9cialistes de l'IA d\u00e8s aujourd'hui - opportunit\u00e9s pour les entreprises et les apprentis<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"die neuen eu-zensurgesetze: was chatcontrol, dsa, emfa und der ai act bedeuten\" data-id=\"3586\"  data-category=\"allgemein gesellschaft ki-systeme\" data-post_tag=\"datenschutz digitales eigentum eu-gesetze europa k\u00fcnstliche intelligenz llm meinungsfreiheit spieltheorie sprachmodell\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/fr\/2025\/11\/les-nouvelles-lois-de-censure-de-lue-ce-que-signifie-chatcontrol-dsa-emfa-et-lai-act\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Les nouvelles lois de censure de l'UE : Ce que signifient Chatcontrol, DSA, EMFA et l'AI Act<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Lois de censure de l&#039;UE\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/eu-zensurgesetze.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/eu-zensurgesetze.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/eu-zensurgesetze-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/eu-zensurgesetze-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/eu-zensurgesetze-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/fr\/2025\/11\/les-nouvelles-lois-de-censure-de-lue-ce-que-signifie-chatcontrol-dsa-emfa-et-lai-act\/\" rel=\"bookmark\">Les nouvelles lois de censure de l'UE : Ce que signifient Chatcontrol, DSA, EMFA et l'AI Act<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"wie tiere zeit wahrnehmen \u2013 und was das f\u00fcr die zukunft der ki bedeutet\" data-id=\"4918\"  data-category=\"allgemein gesellschaft ki-systeme\" data-post_tag=\"denkmodelle erfahrungen k\u00fcnstliche intelligenz llm portrait prozesse sprachmodell\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/fr\/2026\/02\/comment-les-animaux-percoivent-le-temps-et-ce-que-cela-signifie-pour-lavenir-du-ki\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Comment les animaux per\u00e7oivent le temps - et ce que cela signifie pour l'avenir de l'IA<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Animaux, IA et perception du temps\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Tiere-KI-Zeitwahrnehmung.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Tiere-KI-Zeitwahrnehmung.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Tiere-KI-Zeitwahrnehmung-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Tiere-KI-Zeitwahrnehmung-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Tiere-KI-Zeitwahrnehmung-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/fr\/2026\/02\/comment-les-animaux-percoivent-le-temps-et-ce-que-cela-signifie-pour-lavenir-du-ki\/\" rel=\"bookmark\">Comment les animaux per\u00e7oivent le temps - et ce que cela signifie pour l'avenir de l'IA<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"apple mlx vs. nvidia: so funktioniert lokale ki-inferenz auf dem mac\" data-id=\"3461\"  data-category=\"apple macos filemaker &amp; erp hardware ki-systeme\" data-post_tag=\"apple datenschutz filemaker k\u00fcnstliche intelligenz llama llm mac mistral mlx ollama sprachmodell\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/fr\/2025\/11\/apple-mlx-vs-nvidia-comment-fonctionne-linference-ki-locale-sur-mac\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Apple MLX vs. NVIDIA : comment fonctionne l'inf\u00e9rence IA locale sur Mac<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"IA locale sur Silicon avec Apple Mac\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Lokales-Sprachmodell-apple-mac-studio.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Lokales-Sprachmodell-apple-mac-studio.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Lokales-Sprachmodell-apple-mac-studio-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Lokales-Sprachmodell-apple-mac-studio-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Lokales-Sprachmodell-apple-mac-studio-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/fr\/2025\/11\/apple-mlx-vs-nvidia-comment-fonctionne-linference-ki-locale-sur-mac\/\" rel=\"bookmark\">Apple MLX vs. NVIDIA : comment fonctionne l'inf\u00e9rence IA locale sur Mac<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\n\t\t\t\t<\/div>\n\t\t\t\t\t\t<\/div>\n\t\t\t\n<hr \/>\n<h2>Foire aux questions<\/h2>\n<ol>\n<li><strong>Pourquoi une IA locale a-t-elle besoin d'une \u201em\u00e9moire\u201c ? Le mod\u00e8le linguistique ne suffit-il pas ?<\/strong><br \/>\nUn mod\u00e8le linguistique ne travaille en principe qu'avec l'invite actuelle et le contexte que tu lui donnes \u00e0 ce moment-l\u00e0. Il ne se souvient donc pas durablement des conversations, documents ou informations ant\u00e9rieurs. C'est pr\u00e9cis\u00e9ment l\u00e0 qu'intervient une m\u00e9moire locale. Gr\u00e2ce \u00e0 une base de donn\u00e9es suppl\u00e9mentaire, l'IA peut enregistrer des contenus ant\u00e9rieurs et les rappeler en cas de besoin. En r\u00e9pondant, le mod\u00e8le re\u00e7oit alors non seulement ta question actuelle, mais aussi des informations pertinentes provenant de cette m\u00e9moire. Il en r\u00e9sulte des r\u00e9ponses beaucoup plus coh\u00e9rentes et inform\u00e9es. Sans un tel syst\u00e8me, un mod\u00e8le linguistique reste en fait un simple g\u00e9n\u00e9rateur de texte sans connaissance \u00e0 long terme de tes propres donn\u00e9es ou projets.<\/li>\n<li><strong>Qu'est-ce que Qdrant exactement - et pourquoi est-il utilis\u00e9 dans ce syst\u00e8me ?<\/strong><br \/>\nQdrant est une base de donn\u00e9es vectorielle moderne, sp\u00e9cialement con\u00e7ue pour la recherche s\u00e9mantique. Contrairement aux bases de donn\u00e9es classiques, elle ne stocke pas les informations uniquement sous forme de texte, mais sous forme de \"vecteurs\" - des repr\u00e9sentations math\u00e9matiques de la signification. Cela lui permet de rechercher des contenus non seulement en fonction de mots identiques, mais aussi en fonction de la proximit\u00e9 du contenu. Ainsi, lorsque tu poses une question, Qdrant peut trouver des passages appropri\u00e9s de ton stock de connaissances, m\u00eame si les termes n'y sont pas exactement les m\u00eames. En combinaison avec un mod\u00e8le linguistique, il en r\u00e9sulte une sorte de m\u00e9moire intelligente pour l'IA.<\/li>\n<li><strong>Que signifie le terme \u201eRAG\u201c, souvent utilis\u00e9 dans ce contexte ?<\/strong><br \/>\nRAG est l'abr\u00e9viation de \u201eRetrieval Augmented Generation\u201c. Il s'agit d'une technique dans laquelle un mod\u00e8le linguistique extrait des informations suppl\u00e9mentaires d'une base de donn\u00e9es avant de donner une r\u00e9ponse. Le mod\u00e8le ne g\u00e9n\u00e8re donc pas sa r\u00e9ponse uniquement \u00e0 partir de l'entra\u00eenement, mais la compl\u00e8te avec des informations appropri\u00e9es provenant d'une source de connaissances. Cette m\u00e9thode r\u00e9sout un probl\u00e8me typique des mod\u00e8les linguistiques : Ils ne connaissent que ce qui a \u00e9t\u00e9 appris pendant la formation. Gr\u00e2ce \u00e0 RAG, ils peuvent \u00e0 la place acc\u00e9der \u00e0 des donn\u00e9es actuelles ou personnelles - par exemple de la documentation, des pages web ou leurs propres notes.<\/li>\n<li><strong>Comment la Ollama et Qdrant travaillent-ils concr\u00e8tement ensemble ?<\/strong><br \/>\nDans cette configuration, Ollama joue le r\u00f4le de mod\u00e8le linguistique, tandis que Qdrant fait office de m\u00e9moire s\u00e9mantique. Lorsque tu poses une question, Qdrant recherche d'abord des fragments de texte pertinents. Ces r\u00e9sultats sont ensuite transmis au mod\u00e8le linguistique en m\u00eame temps que ta question. Le mod\u00e8le utilise ces informations suppl\u00e9mentaires pour formuler une r\u00e9ponse fond\u00e9e. La s\u00e9quence typique est donc la suivante : invite \u2192 recherche dans la m\u00e9moire \u2192 \u00e9largir le contexte \u2192 g\u00e9n\u00e9rer une r\u00e9ponse.<\/li>\n<li><strong>Quels types de donn\u00e9es puis-je inclure dans cette m\u00e9moire de l'IA ?<\/strong><br \/>\nEn principe, presque tout ce qui peut \u00eatre transform\u00e9 en texte. Cela comprend les documentations, les pages web, les fichiers Markdown, les PDF, les entr\u00e9es de base de donn\u00e9es ou encore les notes personnelles. Il est simplement important que les contenus puissent \u00eatre d\u00e9compos\u00e9s en petites sections de texte avant d'\u00eatre enregistr\u00e9s dans la base de donn\u00e9es. Ces \u201echunks\u201c constituent ensuite la base de la recherche s\u00e9mantique. L'IA peut ainsi acc\u00e9der de mani\u00e8re cibl\u00e9e \u00e0 des sections individuelles pertinentes au lieu de devoir rechercher des documents complets.<\/li>\n<li><strong>Pourquoi utiliser une base de donn\u00e9es vectorielles plut\u00f4t qu'une recherche textuelle normale ?<\/strong><br \/>\nLes moteurs de recherche classiques travaillent g\u00e9n\u00e9ralement avec des mots-cl\u00e9s. Cela signifie qu'ils ne trouvent que des r\u00e9sultats contenant exactement les m\u00eames termes. Une base de donn\u00e9es vectorielle, en revanche, recherche la signification. Elle peut donc aussi trouver des textes dont le contenu est similaire, m\u00eame si d'autres mots ont \u00e9t\u00e9 utilis\u00e9s. C'est crucial pour les syst\u00e8mes d'IA, car les questions sont souvent formul\u00e9es diff\u00e9remment des documents originaux. Gr\u00e2ce \u00e0 la recherche s\u00e9mantique, le lien entre la question et la r\u00e9ponse est nettement plus fiable.<\/li>\n<li><strong>Comment les textes sont-ils convertis en vecteurs ?<\/strong><br \/>\nPour ce faire, on utilise ce que l'on appelle des mod\u00e8les d'int\u00e9gration. Ces mod\u00e8les analysent les textes et les transforment en vecteurs num\u00e9riques qui repr\u00e9sentent leur signification. Chaque partie de texte re\u00e7oit donc une repr\u00e9sentation math\u00e9matique dans ce que l'on appelle l'espace vectoriel. Des contenus similaires sont ainsi plus proches les uns des autres que des th\u00e8mes totalement diff\u00e9rents. Si une question est pos\u00e9e ult\u00e9rieurement, elle est \u00e9galement convertie en un vecteur. Qdrant peut alors trouver tr\u00e8s rapidement les entr\u00e9es les plus similaires en m\u00e9moire.<\/li>\n<li><strong>Pourquoi Qdrant est-il souvent g\u00e9r\u00e9 par Docker install ?<\/strong><br \/>\nDocker simplifie consid\u00e9rablement l'installation de logiciels complexes. Au lieu de mettre en place manuellement de nombreuses d\u00e9pendances individuelles, Qdrant fonctionne simplement dans un conteneur. L'installation fonctionne ainsi de mani\u00e8re fiable sur diff\u00e9rents syst\u00e8mes et peut \u00eatre facilement d\u00e9marr\u00e9e ou arr\u00eat\u00e9e. Cette m\u00e9thode est particuli\u00e8rement pratique sur Mac, car elle permet de garder le syst\u00e8me propre tout en fournissant un environnement stable pour la base de donn\u00e9es.<\/li>\n<li><strong>Puis-je utiliser ce syst\u00e8me enti\u00e8rement hors ligne ?<\/strong><br \/>\nOui, c'est l'un des principaux avantages de cette architecture. Tant le mod\u00e8le linguistique que la base de donn\u00e9es vectorielles fonctionnent localement sur ton propre ordinateur. Aucune donn\u00e9e n'est donc envoy\u00e9e \u00e0 des serveurs externes. Il en r\u00e9sulte un environnement d'IA enti\u00e8rement priv\u00e9. C'est un avantage d\u00e9cisif par rapport aux syst\u00e8mes en nuage, en particulier pour les donn\u00e9es sensibles ou les documents internes de l'entreprise.<\/li>\n<li><strong>Quelle peut \u00eatre la taille d'une telle m\u00e9moire locale d'IA ?<\/strong><br \/>\nCela d\u00e9pend surtout de l'espace m\u00e9moire dont tu disposes et de la puissance de ton syst\u00e8me. Les bases de donn\u00e9es vectorielles modernes peuvent facilement g\u00e9rer des millions de fragments de texte. Pour de nombreux projets personnels, quelques milliers de documents suffisent toutefois \u00e0 constituer un syst\u00e8me de connaissances tr\u00e8s performant. L'important est davantage la qualit\u00e9 de la structure des donn\u00e9es que la simple quantit\u00e9 d'informations.<\/li>\n<li><strong>L'IA peut-elle vraiment \u201eapprendre\u201c avec ce syst\u00e8me ?<\/strong><br \/>\nPas au sens classique du terme. Le mod\u00e8le linguistique lui-m\u00eame n'est pas r\u00e9entra\u00een\u00e9. Au lieu de cela, les connaissances sont stock\u00e9es en dehors du mod\u00e8le et rappel\u00e9es en cas de besoin. L'IA semble ainsi capable d'apprendre, mais en r\u00e9alit\u00e9, elle ne fait qu'acc\u00e9der \u00e0 une m\u00e9moire de connaissances toujours plus grande. Cette approche pr\u00e9sente un grand avantage : de nouvelles informations peuvent \u00eatre ajout\u00e9es \u00e0 tout moment sans devoir entra\u00eener \u00e0 nouveau le mod\u00e8le.<\/li>\n<li><strong>Quelles applications pratiques d\u00e9coulent d'une telle m\u00e9moire locale de l'IA ?<\/strong><br \/>\nLes possibilit\u00e9s sont \u00e9tonnamment vari\u00e9es. Tu peux par exemple cr\u00e9er une base de connaissances personnelle, rendre une documentation technique consultable ou faire analyser des documents internes \u00e0 l'entreprise. Les auteurs, d\u00e9veloppeurs ou chercheurs en profitent \u00e9galement, car ils peuvent rendre accessibles de grandes quantit\u00e9s d'informations de mani\u00e8re structur\u00e9e. En fait, il en r\u00e9sulte une sorte d'assistant de recherche personnel qui comprend tes propres donn\u00e9es.<\/li>\n<li><strong>Puis-je int\u00e9grer plusieurs sources de donn\u00e9es en m\u00eame temps ?<\/strong><br \/>\nOui, Qdrant permet d'ajouter des m\u00e9tadonn\u00e9es suppl\u00e9mentaires \u00e0 chaque fragment de texte, comme la source, la cat\u00e9gorie ou la langue. Cela permet de g\u00e9rer ensemble diff\u00e9rents ensembles de donn\u00e9es. Lors de la recherche, ces m\u00e9tadonn\u00e9es peuvent m\u00eame \u00eatre filtr\u00e9es de mani\u00e8re cibl\u00e9e. Ainsi, l'IA peut par exemple ne prendre en compte que les contenus d'une certaine documentation ou d'un certain projet.<\/li>\n<li><strong>En quoi ce syst\u00e8me diff\u00e8re-t-il des chatbots classiques ?<\/strong><br \/>\nLa plupart des chatbots travaillent exclusivement avec les connaissances de leur enregistrement de formation. Ils ne peuvent donc pas fournir d'informations sp\u00e9cifiques sur ton propre contenu. Un syst\u00e8me RAG, en revanche, associe un mod\u00e8le linguistique \u00e0 une base de connaissances individuelle. L'IA peut ainsi fournir des r\u00e9ponses directement adapt\u00e9es \u00e0 tes propres donn\u00e9es. Cela les rend nettement plus utiles pour le travail productif.<\/li>\n<li><strong>Quel est le r\u00f4le de Python dans cette configuration ?<\/strong><br \/>\nPython est souvent utilis\u00e9 pour contr\u00f4ler la connexion entre le mod\u00e8le de langage et la base de donn\u00e9es. Quelques scripts suffisent pour lire des textes, les convertir en vecteurs et les enregistrer dans Qdrant. De plus, Python peut effectuer des recherches et transmettre les r\u00e9sultats trouv\u00e9s au mod\u00e8le de langage. Il en r\u00e9sulte un pipeline flexible qui peut \u00eatre adapt\u00e9 \u00e0 ses propres exigences.<\/li>\n<li><strong>La mise en place d'un tel syst\u00e8me est-elle r\u00e9serv\u00e9e aux d\u00e9veloppeurs ?<\/strong><br \/>\nPas n\u00e9cessairement. Certes, la mise en place n\u00e9cessite une certaine compr\u00e9hension technique, mais de nombreux outils n\u00e9cessaires sont devenus beaucoup plus simples. Avec un peu de patience, il est possible de mettre en place un syst\u00e8me fonctionnel m\u00eame sans connaissances approfondies en programmation. Une fois que l'on s'y est mis, on se rend vite compte de l'\u00e9norme potentiel de telles infrastructures locales d'IA.<\/li>\n<li><strong>Quelles sont les limites de la m\u00e9moire locale de l'IA ?<\/strong><br \/>\nLa principale limitation r\u00e9side dans la puissance de calcul de son propre ordinateur. Les grands mod\u00e8les ou les \u00e9normes bases de connaissances peuvent n\u00e9cessiter davantage de m\u00e9moire et de puissance CPU. En outre, la qualit\u00e9 des r\u00e9ponses d\u00e9pend fortement de la structure des donn\u00e9es. Si les documents sont mal pr\u00e9par\u00e9s, m\u00eame l'IA ne peut fournir de bons r\u00e9sultats que de mani\u00e8re limit\u00e9e.<\/li>\n<li><strong>Pourquoi cette combinaison de Ollama et de Qdrant est-elle consid\u00e9r\u00e9e comme une architecture particuli\u00e8rement int\u00e9ressante pour l'IA locale ?<\/strong><br \/>\nParce qu'elle r\u00e9unit deux composants essentiels : un mod\u00e8le linguistique performant et une base de donn\u00e9es s\u00e9mantique rapide. Ensemble, ils cr\u00e9ent un environnement de travail IA complet qui peut \u00eatre exploit\u00e9 enti\u00e8rement en local. Il est ainsi possible de mettre en place des syst\u00e8mes de connaissances personnels, des moteurs de recherche intelligents ou des assistants sp\u00e9cialis\u00e9s - sans d\u00e9pendre du cloud et avec un contr\u00f4le total sur ses propres donn\u00e9es.<\/li>\n<\/ol>\n<hr \/>\n\n\t\t\t<div class=\"display-post-types\">\n\n\t\t\t\t\t\t\t<style type=\"text\/css\">\n\t\t\t#dpt-wrapper-251 { --dpt-text-align: left;--dpt-image-crop: center;--dpt-border-radius: 5px;--dpt-h-gutter: 10px;--dpt-v-gutter: 9px; }\t\t\t<\/style>\n\t\t\t<style type=\"text\/css\">#dpt-wrapper-251 { --dpt-title-font-style:normal;--dpt-title-font-weight:600;--dpt-title-line-height:1.5;--dpt-title-text-decoration:none;--dpt-title-text-transform:none;--dpt-excerpt-font-style:normal;--dpt-excerpt-font-weight:400;--dpt-excerpt-line-height:1.5;--dpt-excerpt-text-decoration:none;--dpt-excerpt-text-transform:none;--dpt-meta1-font-style:normal;--dpt-meta1-font-weight:400;--dpt-meta1-line-height:1.9;--dpt-meta1-text-decoration:none;--dpt-meta1-text-transform:none;--dpt-meta2-font-style:normal;--dpt-meta2-font-weight:400;--dpt-meta2-line-height:1.9;--dpt-meta2-text-decoration:none;--dpt-meta2-text-transform:none; }<\/style><div class=\"dpt-main-header\">\n\t\t\t\t\t\t<div class=\"dpt-main-title\">\n\t\t\t\t\t\t\t<span class=\"dpt-main-title-text\">Derniers articles sur Art &amp; Culture<\/span>\n\t\t\t\t\t\t<\/div>\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t<\/div>\t\t\t\n\t\t\t\t<div id=\"dpt-wrapper-251\" class=\"dpt-wrapper dpt-mag1 land1 dpt-cropped dpt-flex-wrap\" >\n\n\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"die krimtataren \u2013 geschichte, herkunft und gegenwart eines vergessenen volkes\" data-id=\"4154\"  data-category=\"allgemein gesellschaft kunst &amp; kultur\" data-post_tag=\"europa geopolitik krisen meinungsfreiheit\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/fr\/2025\/12\/les-tatars-de-crimee-lhistoire-lorigine-et-le-present-dun-peuple-oublie\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Les Tatars de Crim\u00e9e - histoire, origine et pr\u00e9sent d'un peuple oubli\u00e9<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Steppe tartare de Crim\u00e9e\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Krimtartaren-Steppe.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Krimtartaren-Steppe.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Krimtartaren-Steppe-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Krimtartaren-Steppe-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Krimtartaren-Steppe-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/fr\/2025\/12\/les-tatars-de-crimee-lhistoire-lorigine-et-le-present-dun-peuple-oublie\/\" rel=\"bookmark\">Les Tatars de Crim\u00e9e - histoire, origine et pr\u00e9sent d'un peuple oubli\u00e9<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"johann sebastian bach \u2013 ordnung, haltung und das fundament unserer musik\" data-id=\"5033\"  data-category=\"allgemein gesellschaft kunst &amp; kultur\" data-post_tag=\"deutschland musik portrait\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/fr\/2026\/02\/johann-sebastian-bach-lordre-lattitude-et-le-fondement-de-notre-musique\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Jean-S\u00e9bastien Bach - Ordre, attitude et fondement de notre musique<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Portrait de Johann Sebastian Bach\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Johann-Sebastian-Bach-Portrait.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Johann-Sebastian-Bach-Portrait.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Johann-Sebastian-Bach-Portrait-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Johann-Sebastian-Bach-Portrait-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Johann-Sebastian-Bach-Portrait-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/fr\/2026\/02\/johann-sebastian-bach-lordre-lattitude-et-le-fondement-de-notre-musique\/\" rel=\"bookmark\">Jean-S\u00e9bastien Bach - Ordre, attitude et fondement de notre musique<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"iran verstehen: alltag, proteste und interessen jenseits der schlagzeilen\" data-id=\"4462\"  data-category=\"allgemein gesellschaft kunst &amp; kultur\" data-post_tag=\"erfahrungen europa geopolitik krisen meinungsfreiheit sicherheitspolitik spieltheorie\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/fr\/2026\/01\/comprendre-liran-au-quotidien-protestations-et-interets-au-dela-des-gros-titres\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Comprendre l'Iran : Vie quotidienne, protestations et int\u00e9r\u00eats au-del\u00e0 des gros titres<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Comprendre l&#039;Iran\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Iran-Titel.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Iran-Titel.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Iran-Titel-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Iran-Titel-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Iran-Titel-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/fr\/2026\/01\/comprendre-liran-au-quotidien-protestations-et-interets-au-dela-des-gros-titres\/\" rel=\"bookmark\">Comprendre l'Iran : Vie quotidienne, protestations et int\u00e9r\u00eats au-del\u00e0 des gros titres<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"mehr als punk: nina hagen, cosma shiva und die kunst, sich nicht vereinnahmen zu lassen\" data-id=\"4521\"  data-category=\"allgemein gesellschaft kunst &amp; kultur\" data-post_tag=\"auswandern deutschland erfahrungen europa krisen meinungsfreiheit musik portrait\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/fr\/2026\/01\/plus-que-du-punk-nina-hagen-cosma-shiva-et-lart-de-ne-pas-se-laisser-accaparer\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Plus que du punk : Nina Hagen, Cosma Shiva et l'art de ne pas se laisser accaparer<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Portrait de Nina et Cosma Shiva Hagen\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Nina-Cosma-Shiva-Hagen-Titel.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Nina-Cosma-Shiva-Hagen-Titel.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Nina-Cosma-Shiva-Hagen-Titel-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Nina-Cosma-Shiva-Hagen-Titel-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Nina-Cosma-Shiva-Hagen-Titel-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/fr\/2026\/01\/plus-que-du-punk-nina-hagen-cosma-shiva-et-lart-de-ne-pas-se-laisser-accaparer\/\" rel=\"bookmark\">Plus que du punk : Nina Hagen, Cosma Shiva et l'art de ne pas se laisser accaparer<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\n\t\t\t\t<\/div>\n\t\t\t\t\t\t<\/div>\n\t\t\t\n<hr \/>","protected":false},"excerpt":{"rendered":"<p>IA locale avec m\u00e9moire - sans cloud, sans abonnement, sans d\u00e9tour Dans un article pr\u00e9c\u00e9dent, j'ai expliqu\u00e9 comment utiliser Ollama sur Mac install. Ceux qui ont d\u00e9j\u00e0 franchi cette \u00e9tape disposent maintenant d'un mod\u00e8le linguistique local performant - par exemple Mistral, LLaMA3 ou un autre mod\u00e8le compatible auquel on peut s'adresser via l'API REST. Mais de ... <a title=\"Plus que du punk : Nina Hagen, Cosma Shiva et l&#039;art de ne pas se laisser accaparer\" class=\"read-more\" href=\"https:\/\/www.markus-schall.de\/fr\/2026\/01\/plus-que-du-punk-nina-hagen-cosma-shiva-et-lart-de-ne-pas-se-laisser-accaparer\/\" aria-label=\"En savoir plus sur Plus que du punk : Nina Hagen, Cosma Shiva et l&#039;art de ne pas se laisser accaparer\">Lire la suite<\/a><\/p>","protected":false},"author":1,"featured_media":2504,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"iawp_total_views":760,"footnotes":""},"categories":[431,15,3,4],"tags":[452,410,471,435,433,437,453,432,450,434,451],"class_list":["post-2502","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ki-systeme","category-apple-macos","category-filemaker","category-tipps-anleitungen","tag-docker","tag-filemaker","tag-kuenstliche-intelligenz","tag-llama","tag-llm","tag-mistral","tag-neo4j","tag-ollama","tag-qdrant","tag-sprachmodell","tag-vektordatenbank"],"_links":{"self":[{"href":"https:\/\/www.markus-schall.de\/fr\/wp-json\/wp\/v2\/posts\/2502","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.markus-schall.de\/fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.markus-schall.de\/fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.markus-schall.de\/fr\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.markus-schall.de\/fr\/wp-json\/wp\/v2\/comments?post=2502"}],"version-history":[{"count":12,"href":"https:\/\/www.markus-schall.de\/fr\/wp-json\/wp\/v2\/posts\/2502\/revisions"}],"predecessor-version":[{"id":5333,"href":"https:\/\/www.markus-schall.de\/fr\/wp-json\/wp\/v2\/posts\/2502\/revisions\/5333"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.markus-schall.de\/fr\/wp-json\/wp\/v2\/media\/2504"}],"wp:attachment":[{"href":"https:\/\/www.markus-schall.de\/fr\/wp-json\/wp\/v2\/media?parent=2502"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.markus-schall.de\/fr\/wp-json\/wp\/v2\/categories?post=2502"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.markus-schall.de\/fr\/wp-json\/wp\/v2\/tags?post=2502"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}