{"id":2442,"date":"2025-08-15T06:28:09","date_gmt":"2025-08-15T06:28:09","guid":{"rendered":"https:\/\/www.markus-schall.de\/?p=2442"},"modified":"2026-04-03T14:41:59","modified_gmt":"2026-04-03T14:41:59","slug":"ki-local-sur-mac-donc-1tp12creez-un-modele-de-langage-avec-ollama","status":"publish","type":"post","link":"https:\/\/www.markus-schall.de\/fr\/2025\/08\/ki-local-sur-mac-donc-1tp12creez-un-modele-de-langage-avec-ollama\/","title":{"rendered":"IA locale sur Mac : comment 1TP12Cr\u00e9er un mod\u00e8le linguistique avec Ollama"},"content":{"rendered":"<p>L'IA locale sur Mac est depuis longtemps une r\u00e9alit\u00e9, en particulier sur les ordinateurs Apple-Silicon (s\u00e9rie M). Avec Ollama, vous obtenez un environnement d'ex\u00e9cution l\u00e9ger pour de nombreux mod\u00e8les de langage open source (par ex. Llama 3.1\/3.2, Mistral, Gemma, Qwen). La version actuelle de Ollama est d\u00e9sormais accompagn\u00e9e d'une application conviviale qui vous permet de configurer un mod\u00e8le de langage local sur votre Mac d'un simple clic de souris. Dans cet article, vous trouverez un guide pragmatique de l'installation jusqu'\u00e0 la premi\u00e8re invite - avec des conseils tir\u00e9s de la pratique, o\u00f9 les choses ont traditionnellement tendance \u00e0 mal tourner.<!--more--><\/p>\n<hr \/>\n\n\t\t\t<div class=\"display-post-types\">\n\n\t\t\t\t\t\t\t<style type=\"text\/css\">\n\t\t\t#dpt-wrapper-353 { --dpt-text-align: left;--dpt-image-crop: center;--dpt-border-radius: 5px;--dpt-h-gutter: 10px;--dpt-v-gutter: 9px; }\t\t\t<\/style>\n\t\t\t<style type=\"text\/css\">#dpt-wrapper-353 { --dpt-title-font-style:normal;--dpt-title-font-weight:600;--dpt-title-line-height:1.5;--dpt-title-text-decoration:none;--dpt-title-text-transform:none;--dpt-excerpt-font-style:normal;--dpt-excerpt-font-weight:400;--dpt-excerpt-line-height:1.5;--dpt-excerpt-text-decoration:none;--dpt-excerpt-text-transform:none;--dpt-meta1-font-style:normal;--dpt-meta1-font-weight:400;--dpt-meta1-line-height:1.9;--dpt-meta1-text-decoration:none;--dpt-meta1-text-transform:none;--dpt-meta2-font-style:normal;--dpt-meta2-font-weight:400;--dpt-meta2-line-height:1.9;--dpt-meta2-text-decoration:none;--dpt-meta2-text-transform:none; }<\/style><div class=\"dpt-main-header\">\n\t\t\t\t\t\t<div class=\"dpt-main-title\">\n\t\t\t\t\t\t\t<span class=\"dpt-main-title-text\">Th\u00e8mes de soci\u00e9t\u00e9 contemporains<\/span>\n\t\t\t\t\t\t<\/div>\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t<\/div>\t\t\t\n\t\t\t\t<div id=\"dpt-wrapper-353\" class=\"dpt-wrapper dpt-mag1 land1 dpt-cropped dpt-flex-wrap\" >\n\n\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"cloud-act, datenhoheit und die schweiz: ein wendepunkt f\u00fcr europ\u00e4ische it-strategien?\" data-id=\"3727\"  data-category=\"allgemein gesellschaft\" data-post_tag=\"datenbanken datenschutz digitales eigentum eu-gesetze europa\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/fr\/2025\/11\/cloud-act-souverainete-des-donnees-et-la-suisse-un-tournant-pour-les-strategies-informatiques-europeennes\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">CLOUD-Act, souverainet\u00e9 des donn\u00e9es et la Suisse : un tournant pour les strat\u00e9gies informatiques europ\u00e9ennes ?<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Que signifie la r\u00e9solution suisse sur le cloud pour l&#039;Europe ?\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/schweiz-cloud-resolution-eu.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/schweiz-cloud-resolution-eu.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/schweiz-cloud-resolution-eu-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/schweiz-cloud-resolution-eu-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/schweiz-cloud-resolution-eu-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/fr\/2025\/11\/cloud-act-souverainete-des-donnees-et-la-suisse-un-tournant-pour-les-strategies-informatiques-europeennes\/\" rel=\"bookmark\">CLOUD-Act, souverainet\u00e9 des donn\u00e9es et la Suisse : un tournant pour les strat\u00e9gies informatiques europ\u00e9ennes ?<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"vom ende der wehrpflicht bis zu schulstreiks: die neue debatte \u00fcber bundeswehr und bildung\" data-id=\"5147\"  data-category=\"allgemein featured gesellschaft\" data-post_tag=\"deutschland europa geopolitik krisen meinungsfreiheit sicherheitspolitik\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/fr\/2026\/03\/de-la-fin-du-service-militaire-obligatoire-aux-greves-scolaires-le-nouveau-debat-sur-larmee-federale-et-leducation\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">De la fin du service militaire obligatoire aux gr\u00e8ves scolaires : le nouveau d\u00e9bat sur la Bundeswehr et l'\u00e9ducation<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Gr\u00e8ves scolaires sur le service militaire obligatoire et la Bundeswehr \u00e0 l&#039;\u00e9cole\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Wehrpflicht-Schulstreiks.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Wehrpflicht-Schulstreiks.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Wehrpflicht-Schulstreiks-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Wehrpflicht-Schulstreiks-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Wehrpflicht-Schulstreiks-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/fr\/2026\/03\/de-la-fin-du-service-militaire-obligatoire-aux-greves-scolaires-le-nouveau-debat-sur-larmee-federale-et-leducation\/\" rel=\"bookmark\">De la fin du service militaire obligatoire aux gr\u00e8ves scolaires : le nouveau d\u00e9bat sur la Bundeswehr et l'\u00e9ducation<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"regelbasierte weltordnung und v\u00f6lkerrecht: zwischen anspruch, realit\u00e4t und rechtsbruch\" data-id=\"4275\"  data-category=\"allgemein gesellschaft\" data-post_tag=\"denkmodelle eu-gesetze europa geopolitik krisen sicherheitspolitik\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/fr\/2026\/01\/lordre-mondial-fonde-sur-des-regles-et-le-droit-international-public-entre-exigence-de-realite-et-violation-du-droit\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Ordre mondial fond\u00e9 sur des r\u00e8gles et droit international : entre ambition, r\u00e9alit\u00e9 et violation du droit<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Droit international et ordre mondial fond\u00e9 sur des r\u00e8gles\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/voelkerrecht-weltordnung-titel.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/voelkerrecht-weltordnung-titel.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/voelkerrecht-weltordnung-titel-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/voelkerrecht-weltordnung-titel-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/voelkerrecht-weltordnung-titel-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/fr\/2026\/01\/lordre-mondial-fonde-sur-des-regles-et-le-droit-international-public-entre-exigence-de-realite-et-violation-du-droit\/\" rel=\"bookmark\">Ordre mondial fond\u00e9 sur des r\u00e8gles et droit international : entre ambition, r\u00e9alit\u00e9 et violation du droit<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"sinkende gasspeicher in deutschland: technik, grenzen und politische konsequenzen\" data-id=\"4581\"  data-category=\"allgemein gesellschaft\" data-post_tag=\"deutschland energiepolitik europa krisen ratgeber\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/fr\/2026\/01\/baisse-du-stockage-de-gaz-en-allemagne-technique-limites-et-consequences-politiques\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Stockage de gaz en baisse en Allemagne : technique, limites et cons\u00e9quences politiques<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Stockage de gaz en Allemagne\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Gasspeicher-Deutschland.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Gasspeicher-Deutschland.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Gasspeicher-Deutschland-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Gasspeicher-Deutschland-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Gasspeicher-Deutschland-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/fr\/2026\/01\/baisse-du-stockage-de-gaz-en-allemagne-technique-limites-et-consequences-politiques\/\" rel=\"bookmark\">Stockage de gaz en baisse en Allemagne : technique, limites et cons\u00e9quences politiques<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\n\t\t\t\t<\/div>\n\t\t\t\t\t\t<\/div>\n\t\t\t\n<hr \/>\n<h2>Derni\u00e8res actualit\u00e9s sur l'IA locale<\/h2>\n<p><strong>03.04.2026<\/strong>: Google a commenc\u00e9 avec <a href=\"https:\/\/the-decoder.de\/gemma-4-google-stellt-neue-open-source-modelle-unter-apache-2-0-lizenz-vor\/\" target=\"_blank\" rel=\"noopener\"><strong>Gemma 4 une nouvelle g\u00e9n\u00e9ration<\/strong><\/a> qui sont publi\u00e9s pour la premi\u00e8re fois sous la licence commerciale permissive Apache 2.0. L'entreprise op\u00e8re ainsi un changement de strat\u00e9gie clair en faveur d'une v\u00e9ritable ouverture et offre aux d\u00e9veloppeurs une libert\u00e9 nettement plus grande en mati\u00e8re d'utilisation, d'adaptation et de redistribution. La famille de mod\u00e8les comprend plusieurs variantes allant de petits mod\u00e8les ex\u00e9cutables localement \u00e0 des versions puissantes pour serveurs et stations de travail. Gemma 4 couvre ainsi un large \u00e9ventail de mat\u00e9riel, du smartphone au centre de donn\u00e9es. Sur le plan technologique, Gemma 4 repose sur des bases similaires aux mod\u00e8les propri\u00e9taires Gemini de Google et offre des capacit\u00e9s modernes telles que le traitement de texte et d'images, de grandes fen\u00eatres contextuelles et la prise en charge de nombreuses langues.<\/p>\n<div class=\"lyte-wrapper\" style=\"width:640px;max-width:100%;margin:5px;\"><div class=\"lyMe\" id=\"WYL_A99XiLh-AwU\"><div id=\"lyte_A99XiLh-AwU\" data-src=\"https:\/\/www.markus-schall.de\/wp-content\/plugins\/wp-youtube-lyte\/lyteCache.php?origThumbUrl=%2F%2Fi.ytimg.com%2Fvi%2FA99XiLh-AwU%2Fhqdefault.jpg\" class=\"pL\"><div class=\"tC\"><div class=\"tT\"><\/div><\/div><div class=\"play\"><\/div><div class=\"ctrl\"><div class=\"Lctrl\"><\/div><div class=\"Rctrl\"><\/div><\/div><\/div><noscript><a href=\"https:\/\/youtu.be\/A99XiLh-AwU\" rel=\"nofollow noopener\" target=\"_blank\"><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/www.markus-schall.de\/wp-content\/plugins\/wp-youtube-lyte\/lyteCache.php?origThumbUrl=https%3A%2F%2Fi.ytimg.com%2Fvi%2FA99XiLh-AwU%2F0.jpg\" alt=\"Vignette de la vid\u00e9o YouTube\" width=\"640\" height=\"340\" \/><br \/>Lire cette vid\u00e9o sur YouTube<\/a><\/noscript><\/div><\/div><div class=\"lL\" style=\"max-width:100%;width:640px;margin:5px;\"><\/div><br \/>\nL'IA locale est enfin bonne | <a href=\"https:\/\/www.youtube.com\/@Arnold-Oberleiter\" target=\"_blank\" rel=\"nofollow noopener\">AI avec Arnie<\/a><\/p>\n<p>Dans l'ensemble, Google vise \u00e0 d\u00e9mocratiser davantage l'IA performante et \u00e0 promouvoir les applications locales et ind\u00e9pendantes - une approche particuli\u00e8rement int\u00e9ressante pour les installations d'IA propres et les solutions de souverainet\u00e9 des donn\u00e9es.<\/p>\n<hr \/>\n<h2>Avantages de l'IA locale par rapport aux syst\u00e8mes en nuage<\/h2>\n<p>Un mod\u00e8le de langue locale tel que Ollama sur Mac apporte des avantages d\u00e9cisifs qui sont difficiles \u00e0 \u00e9galer, en particulier pour les entreprises, les d\u00e9veloppeurs et les personnes soucieuses de la protection des donn\u00e9es.<\/p>\n<h3>Souverainet\u00e9 des donn\u00e9es &amp; protection des donn\u00e9es<\/h3>\n<p>Toutes les demandes et r\u00e9ponses restent enti\u00e8rement sur l'ordinateur personnel. Les informations sensibles - donn\u00e9es clients, documents strat\u00e9giques internes ou donn\u00e9es m\u00e9dicales - ne quittent jamais le syst\u00e8me local. Il n'y a pas de fichiers journaux ou de m\u00e9canismes d'analyse d'un fournisseur de cloud qui pourraient \u00eatre exploit\u00e9s par inadvertance ou intentionnellement.<\/p>\n<h3>Pas de d\u00e9pendance vis-\u00e0-vis de services tiers<\/h3>\n<p>Les syst\u00e8mes en nuage peuvent modifier les mod\u00e8les de prix, introduire des restrictions d'acc\u00e8s ou d\u00e9sactiver certaines fonctionnalit\u00e9s. Avec une installation locale, vous avez le contr\u00f4le total de l'environnement d'ex\u00e9cution, des versions et des variantes de mod\u00e8les. Vous effectuez les mises \u00e0 jour quand vous le souhaitez - pas quand un fournisseur vous le dicte.<\/p>\n<h3>Co\u00fbts pr\u00e9visibles<\/h3>\n<p>Au lieu de payer des frais continus par demande ou par mois, vous investissez une fois dans le mat\u00e9riel (par exemple un Mac avec suffisamment de RAM) et travaillez ensuite de mani\u00e8re illimit\u00e9e avec le mod\u00e8le. Pour les t\u00e2ches n\u00e9cessitant une grande puissance de calcul, vous pouvez \u00e9tendre le mat\u00e9riel de mani\u00e8re cibl\u00e9e sans vous soucier de l'augmentation des factures API.<\/p>\n<h3>Capacit\u00e9 hors ligne<\/h3>\n<p>Un mod\u00e8le local fonctionne \u00e9galement lorsqu'aucune connexion Internet n'est disponible - par exemple en d\u00e9placement, sur des chantiers ou dans des r\u00e9seaux hautement s\u00e9curis\u00e9s sans acc\u00e8s externe.<\/p>\n<h2>Grande flexibilit\u00e9 et int\u00e9gration dans les syst\u00e8mes existants<\/h2>\n<p>Un autre point fort des syst\u00e8mes d'IA locaux est leur capacit\u00e9 d'int\u00e9gration. \u00c9tant donn\u00e9 que Ollama fournit un serveur API local, il est possible de connecter presque n'importe quelle application, des simples scripts aux syst\u00e8mes ERP complexes.<\/p>\n<h3>FileMaker connexion<\/h3>\n<p>Gr\u00e2ce \u00e0 l'API Ollama, FileMaker peut envoyer directement des invites au mod\u00e8le et stocker des r\u00e9ponses dans des champs, en quelques lignes de code de script ou via des appels de plug-in MBS. Cela permet de r\u00e9aliser des analyses de texte automatis\u00e9es, des classifications, des traductions ou des r\u00e9sum\u00e9s de contenu enti\u00e8rement dans FileMaker, sans latence du cloud et sans risque pour la protection des donn\u00e9es.<\/p>\n<h3>Flux de travail automatis\u00e9s<\/h3>\n<p>Gr\u00e2ce au point final local de l'API, il est \u00e9galement possible d'int\u00e9grer des outils tels que Zapier, n8n ou des scripts Python\/Bash individuels. Il est ainsi possible d'automatiser des processus complexes, comme l'extraction d'informations \u00e0 partir d'e-mails, la g\u00e9n\u00e9ration de rapports ou la cr\u00e9ation d'\u00e9l\u00e9ments de texte pour des documents.<\/p>\n<h3>Contr\u00f4le total des variantes de mod\u00e8les<\/h3>\n<p>Vous pouvez utiliser plusieurs mod\u00e8les en parall\u00e8le, passer de l'un \u00e0 l'autre ou charger des mod\u00e8les sp\u00e9cialis\u00e9s qui conviennent parfaitement \u00e0 votre projet. Les adaptations telles que le r\u00e9glage fin ou les mod\u00e8les LoRA peuvent \u00e9galement \u00eatre effectu\u00e9es localement.<\/p>\n<h2>Avantage pratique : vitesse de r\u00e9action et latence<\/h2>\n<p>Un facteur souvent sous-estim\u00e9 est la vitesse de r\u00e9ponse. Alors que les LLM en nuage sont souvent retard\u00e9s par les chemins du r\u00e9seau, les limites de l'API ou la charge du serveur, les mod\u00e8les locaux r\u00e9pondent - selon le mat\u00e9riel - presque en temps r\u00e9el. Cela peut faire la diff\u00e9rence entre un \"travail fluide\" et une \"frustration de l'attente\", en particulier pour les t\u00e2ches r\u00e9p\u00e9titives ou les processus interactifs (par exemple pendant une pr\u00e9sentation ou une analyse de donn\u00e9es en direct dans FileMaker).<\/p>\n<p>Quel mat\u00e9riel est adapt\u00e9 \u00e0 l'ex\u00e9cution de mod\u00e8les linguistiques locaux, quels mod\u00e8les pr\u00e9sentent quels avantages et quel est le meilleur moyen de les utiliser. <a href=\"https:\/\/www.markus-schall.de\/fr\/2025\/11\/apple-mlx-vs-nvidia-comment-fonctionne-linference-ki-locale-sur-mac\/\"><strong>Comparaison entre Apple Silicon et NVIDIA<\/strong><\/a> j'ai trait\u00e9 dans un article s\u00e9par\u00e9.<\/p>\n<hr \/>\n<h3>Derni\u00e8re enqu\u00eate sur l'utilisation des syst\u00e8mes d'IA locaux<\/h3>\n<div class='bootstrap-yop yop-poll-mc'>\n\t\t\t\t\t\t\t<div class=\"basic-yop-poll-container\" style=\"background-color:#ffffff; border:0px; border-style:solid; border-color:#000000; border-radius:5px; padding:0px 5px;\" data-id=\"9\" data-temp=\"basic-pretty\" data-skin=\"square\" data-cscheme=\"blue\" data-cap=\"0\" data-access=\"guest\" data-tid=\"\" data-uid=\"d39538f1cde6eb8fb71984bb043bd91c\" data-pid=\"4581\" data-resdet=\"votes-number,percentages\" data-show-results-to=\"guest\" data-show-results-moment=\"after-vote\" data-show-results-only=\"false\" data-show-message=\"true\" data-show-results-as=\"bar\" data-sort-results-by=\"as-defined\" data-sort-results-rule=\"asc\"data-is-ended=\"0\" data-percentages-decimals=\"2\" data-gdpr=\"no\" data-gdpr-sol=\"consent\" data-css=\".basic-yop-poll-container[data-uid] .basic-vote {\t\t\t\t\t\t\t\t\ttext-align: center;\t\t\t\t\t\t\t\t}\" data-counter=\"0\" data-load-with=\"1\" data-notification-section=\"top\"><div class=\"row\"><div class=\"col-md-12\"><div class=\"basic-inner\"><div class=\"basic-message hide\" style=\"border-left: 10px solid #008000; padding: 0px 10px;\" data-error=\"#ff0000\" data-success=\"#008000\"><p class=\"basic-message-text\" style=\"color:#000000; font-size:14px; font-weight:normal;\"><\/p><\/div><div class=\"basic-overlay hide\"><div class=\"basic-vote-options\"><\/div><div class=\"basic-preloader\"><div class=\"basic-windows8\"><div class=\"basic-wBall basic-wBall_1\"><div class=\"basic-wInnerBall\"><\/div><\/div><div class=\"basic-wBall basic-wBall_2\"><div class=\"basic-wInnerBall\"><\/div><\/div><div class=\"basic-wBall basic-wBall_3\"><div class=\"basic-wInnerBall\"><\/div><\/div><div class=\"basic-wBall basic-wBall_4\"><div class=\"basic-wInnerBall\"><\/div><\/div><div class=\"basic-wBall basic-wBall_5\"><div class=\"basic-wInnerBall\"><\/div><\/div><\/div><\/div><\/div><form class=\"basic-form\" action=\"\"><input type=\"hidden\" name=\"_token\" value=\"5d89dec8a4\" autocomplete=\"off\"><div class=\"basic-elements\"><div class=\"basic-element basic-question basic-question-text-vertical\" data-id=\"9\" data-uid=\"1e21bbdbdf016e0ea6eee72ad332e6bf\" data-type=\"question\" data-question-type=\"text\" data-required=\"yes\" data-allow-multiple=\"no\" data-min=\"1\" data-max=\"7\" data-display=\"vertical\" data-colnum=\"\" data-display-others=\"no\" data-others-color=\"\" data-others=\"\" data-others-max-chars=\"0\"><div class=\"basic-question-title\"><h5 style=\"color:#000000; font-size:16px; font-weight:normal; text-align:left;\">Quelle est ta position sur les logiciels d'intelligence artificielle fonctionnant en local, comme MLX ou Ollama ?<\/h5><\/div><ul class=\"basic-answers\"><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"45\" data-type=\"text\" data-vn=\"143\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[45]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[45]\" name=\"answer[9]\" value=\"45\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">Ing\u00e9nieux - enfin ind\u00e9pendant du cloud<\/span><\/label><\/div><\/li><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"46\" data-type=\"text\" data-vn=\"26\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[46]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[46]\" name=\"answer[9]\" value=\"46\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">Int\u00e9ressant, mais (encore) trop compliqu\u00e9<\/span><\/label><\/div><\/li><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"47\" data-type=\"text\" data-vn=\"28\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[47]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[47]\" name=\"answer[9]\" value=\"47\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">Je vais bient\u00f4t l'essayer<\/span><\/label><\/div><\/li><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"48\" data-type=\"text\" data-vn=\"5\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[48]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[48]\" name=\"answer[9]\" value=\"48\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">Je n'en ai pas besoin - le cloud me suffit<\/span><\/label><\/div><\/li><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"49\" data-type=\"text\" data-vn=\"4\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[49]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[49]\" name=\"answer[9]\" value=\"49\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">Je ne sais pas de quoi il s'agit exactement.<\/span><\/label><\/div><\/li><\/ul><\/div><div class=\"clearfix\"><\/div><\/div><div class=\"basic-vote\"><a href=\"#\" class=\"button basic-vote-button\" role=\"button\" style=\"background:#027bb8; border:0px; border-style: solid; border-color:#000000; border-radius:5px; padding:10px 10px; color:#ffffff; font-size:14px; font-weight:normal;\">Votez<\/a><\/div><input type=\"hidden\" name=\"trp-form-language\" value=\"fr\"\/><\/form><\/div><\/div><\/div><\/div>\n\t\t\t\t\t\t<\/div>\n<hr \/>\n<h2>1) Conditions pr\u00e9alables &amp; cadre g\u00e9n\u00e9ral<\/h2>\n<p>macOS 12 \"Monterey\" ou plus r\u00e9cent (recommand\u00e9 : Sonoma\/Sequoia actuel). Le t\u00e9l\u00e9chargement officiel de macOS requiert Monterey+. ollama.com<\/p>\n<p>Apple Silicon (M1-M4) pr\u00e9f\u00e9r\u00e9s. Fonctionne \u00e9galement sur les Macs Intel, mais Apple-Silicon est nettement plus efficace ; les grands mod\u00e8les ont besoin de beaucoup de RAM\/m\u00e9moire unifi\u00e9e. (Pour la biblioth\u00e8que\/les tailles de mod\u00e8les, voir la biblioth\u00e8que Ollama.) ollama.com<\/p>\n<p>Le port 11434 est utilis\u00e9 localement pour l'API. M\u00e9morisez ce port - il sera important plus tard pour les tests et les int\u00e9grations. GitHubollama.readthedocs.io<\/p>\n<p>Remarque sceptique dans la bonne vieille tradition : \"Installer et c'est parti\" fonctionne g\u00e9n\u00e9ralement - les points d'\u00e9tranglement sont la RAM\/l'espace disque (gros fichiers GGUF), la mauvaise variante de mod\u00e8le ou les processus parall\u00e8les qui bloquent le port.<\/p>\n<hr \/>\n<h2>2) Ollama installier (Mac)<\/h2>\n<p>Vous avez deux fa\u00e7ons propres - installateur GUI ou Homebrew. Les deux sont corrects ; choisissez le style qui convient le mieux \u00e0 votre quotidien.<\/p>\n<h3>VARIANTE A : INSTALLATEUR OFFICIEL DE MACOS (DMG)<\/h3>\n<p><a href=\"https:\/\/ollama.com\/download\" target=\"_blank\" rel=\"noopener\"><strong>T\u00e9l\u00e9charger Ollama pour macOS<\/strong><\/a> du site officiel.<\/p>\n<p>Ouvrir DMG, faire glisser l'application dans \"Programmes\", d\u00e9marrer.<br \/>\n(N\u00e9cessite macOS 12+.) ollama.com<\/p>\n<p><strong>Si vous choisissez cette variante 1TP12, vous pouvez utiliser directement le logiciel macOS pour t\u00e9l\u00e9charger le mod\u00e8le. Toutes les commandes de terminal suivantes se rapportent uniquement \u00e0 la possibilit\u00e9 d'automatiser le mod\u00e8le linguistique par script.<\/strong><\/p>\n<h3>VARIANTE B : HOMEBREW (CLI, SCRIPTABLE PROPREMENT)<\/h3>\n<p>Ouvrir le terminal et (si n\u00e9cessaire) mettre \u00e0 jour Homebrew :<\/p>\n<pre data-no-translation=\"\">brew update<\/pre>\n<p><strong>Cask<\/strong> (variante app) 1TP12Animaux :<\/p>\n<pre data-no-translation=\"\">brew install --cask ollama-app<\/pre>\n<p>(Affiche en g\u00e9n\u00e9ral l'application de bureau actuelle ; \u00e9tat actuel : 0.11.x.) Homebrew Formulae<\/p>\n<p><strong>Ou la Formula<\/strong> (paquet CLI) installieren :<\/p>\n<pre data-no-translation=\"\">brew install ollama<\/pre>\n<p>(Binaires disponibles pour Apple-Silicon\/Intel.) Homebrew Formulae<\/p>\n<p><strong>V\u00e9rifier la version :<\/strong><\/p>\n<pre data-no-translation=\"\">ollama --version<\/pre>\n<p>(Les commandes de base et les variantes sont document\u00e9es dans la documentation officielle &amp; dans le repo GitHub). GitHub<\/p>\n<hr \/>\n<h2>3) D\u00e9marrer le service\/serveur et le tester<\/h2>\n<p>Ollama apporte un serveur local. D\u00e9marrez-le explicitement si n\u00e9cessaire :<\/p>\n<pre data-no-translation=\"\">ollama serve<\/pre>\n<p>Si le service est d\u00e9j\u00e0 en cours d'ex\u00e9cution (par exemple par l'app), le shell signale \u00e9ventuellement que le port 11434 est utilis\u00e9 - alors tout va bien.<\/p>\n<p>Le serveur \u00e9coute par d\u00e9faut sur http:\/\/localhost:11434.<\/p>\n<p><strong>Test de fonctionnement dans le navigateur :<\/strong><\/p>\n<p>Appelez <strong>http:\/\/localhost:11434\/<\/strong> sur - l'instance devrait r\u00e9agir (certaines instructions utilisent cette v\u00e9rification parce que le port est actif par d\u00e9faut). Moyen<\/p>\n<p>Prudence traditionnelle : si rien ne r\u00e9pond, c'est souvent un ancien processus ou une suite de s\u00e9curit\u00e9 qui bloque. V\u00e9rifiez si un deuxi\u00e8me terminal fonctionne avec ollama serve - ou quittez\/red\u00e9marrez l'application.<\/p>\n<hr \/>\n<h2>4) Charger et utiliser le premier mod\u00e8le linguistique<\/h2>\n<h3>4.1 TIRER LE MOD\u00c8LE (PULL) OU LE LANCER DIRECTEMENT (RUN)<\/h3>\n<p><strong>Utiliser directement (pull + run en un) :<\/strong><\/p>\n<pre data-no-translation=\"\">ollama run llama3.1<\/pre>\n<p><strong>T\u00e9l\u00e9charger uniquement :<\/strong><\/p>\n<pre data-no-translation=\"\">ollama pull llama3.1<\/pre>\n<p>Le repo officiel montre les commandes courantes (run, pull, list, show, ps, stop, rm) et des exemples, entre autres avec Llama 3.2 ; mutatis mutandis identique pour Llama 3.1, Mistral, Gemma etc. GitHubnotes.kodekloud.comglukhov.org<\/p>\n<p><strong>Autres pages de mod\u00e8les \/ biblioth\u00e8que :<\/strong><\/p>\n<p>Llama 3 \/ 3.1 \/ 3.2 en diff\u00e9rentes tailles (1B-405B ; bien s\u00fbr, les grandes variantes sont disponibles fortement quantifi\u00e9es). Il suffit d'appeler la<a href=\"https:\/\/ollama.com\/search\" target=\"_blank\" rel=\"noopener\"><strong> Site web de Ollama<\/strong><\/a> pour trouver d'autres mod\u00e8les et les installer sur votre Mac.<\/p>\n<h3>4.2 CHATTER DE MANI\u00c8RE INTERACTIVE (TERMINAL)<\/h3>\n<p>D\u00e9marrez par exemple Llama 3.1 en mode chat :<\/p>\n<p>ollama run llama3.1<\/p>\n<p>Puis taper directement :<\/p>\n<blockquote><p>Tu es un assistant tr\u00e8s serviable. Explique-moi en deux phrases ce qu'est un index dans une base de donn\u00e9es.<\/p><\/blockquote>\n<p>Quitter avec Ctrl+D.<\/p>\n<p>Lorsque vous lancez l'application Ollama sur votre Mac, vous pouvez \u00e9galement choisir directement un mod\u00e8le et saisir une invite. Si le mod\u00e8le n'est pas encore disponible sur votre Mac, il sera automatiquement t\u00e9l\u00e9charg\u00e9.<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"size-large wp-image-2445 alignnone\" src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Ollama-Mac-Prompt-1024x799.jpg\" alt=\"Ollama-Mac-Prompt\" width=\"584\" height=\"456\" srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Ollama-Mac-Prompt-1024x799.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Ollama-Mac-Prompt-300x234.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Ollama-Mac-Prompt-768x600.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Ollama-Mac-Prompt-1536x1199.jpg 1536w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Ollama-Mac-Prompt-15x12.jpg 15w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Ollama-Mac-Prompt.jpg 1824w\" sizes=\"auto, (max-width: 584px) 100vw, 584px\" \/><\/p>\n<h3>4.3 G\u00c9RER LES MOD\u00c8LES<\/h3>\n<p># Quels sont les mod\u00e8les disponibles localement ?<\/p>\n<pre data-no-translation=\"\">ollama list<\/pre>\n<p># Voir les d\u00e9tails\/quantification\/balises :<\/p>\n<pre data-no-translation=\"\">ollama show llama3.1<\/pre>\n<p># V\u00e9rifier les processus de mod\u00e8le en cours :<\/p>\n<pre data-no-translation=\"\">ollama ps<\/pre>\n<p># Arr\u00eater le mod\u00e8le en cours :<\/p>\n<pre data-no-translation=\"\">ollama stop llama3.1<\/pre>\n<p># Lib\u00e9rer de l'espace (supprimer le mod\u00e8le) :<\/p>\n<pre data-no-translation=\"\">ollama rm llama3.1<\/pre>\n<p>(Les commandes sont identiques dans plusieurs aper\u00e7us actuels. <a href=\"https:\/\/notes.kodekloud.com\/docs\/Running-Local-LLMs-With-Ollama\/Getting-Started-With-Ollama\/Essential-Ollama-CLI-Commands\" target=\"_blank\" rel=\"noopener\"><strong>document\u00e9<\/strong><\/a>.) notes.kodekloud.comLe blog de Geshanglukhov.org<\/p>\n<hr \/>\n<h2>5) Utiliser l'API HTTP en local (par ex. pour les scripts, les outils, les int\u00e9grations)<\/h2>\n<p>Ollama offre une API REST (par d\u00e9faut <strong>http:\/\/localhost:11434<\/strong>). Exemple d'appels :<\/p>\n<p>Generate (invite simple) :<\/p>\n<pre data-no-translation=\"\">curl http:\/\/localhost:11434\/api\/generate -d '{\r\n\"model\": \"llama3.1\",\r\n\"prompt\": \"Erkl\u00e4re kurz den Unterschied zwischen RAM und SSD.\",\r\n\"stream\": false\r\n}'<\/pre>\n<p>Chat (bas\u00e9 sur les r\u00f4les) :<\/p>\n<pre data-no-translation=\"\">curl http:\/\/localhost:11434\/api\/chat -d '{\r\n\"model\": \"llama3.1\",\r\n\"messages\": [\r\n{ \"role\": \"system\", \"content\": \"Du antwortest knapp und sachlich.\" },\r\n{ \"role\": \"user\", \"content\": \"Was ist eine Normalisierung in Datenbanken?\" }\r\n],\r\n\"stream\": false\r\n}'<\/pre>\n<p>(Les points de terminaison, les comportements de streaming et les champs sont d\u00e9crits dans la version officielle de l'application). <a href=\"https:\/\/ollama.readthedocs.ioGitHub\" target=\"_blank\" rel=\"noopener\"><strong>Documentation API\/GitHub<\/strong><\/a> ).<\/p>\n<p><strong>Remarque sur la r\u00e9activit\u00e9 :<\/strong><\/p>\n<p>Localement, tout est accessible par localhost.<\/p>\n<p>Si le Mac doit \u00eatre accessible sur le r\u00e9seau local, liez d\u00e9lib\u00e9r\u00e9ment Ollama \u00e0 une adresse r\u00e9seau, par exemple<\/p>\n<pre data-no-translation=\"\">export OLLAMA_HOST=0.0.0.0\r\nollama serve<\/pre>\n<p>(Le serveur est alors accessible via l'IP sur le r\u00e9seau. V\u00e9rifier l'aspect s\u00e9curit\u00e9 !) Reddit<\/p>\n<p><strong>Mixed-Content\/HTTPS (uniquement si les int\u00e9grations du navigateur sont d\u00e9faillantes) :<\/strong><\/p>\n<p>Certains add-ins\/navigateurs (en particulier Safari) bloquent les appels HTTP depuis des contextes HTTPS. Dans de tels cas, un reverse proxy local avec HTTPS est utile.<\/p>\n<hr \/>\n<h2>6) Conseils pratiques pour le Mac (exp\u00e9rience &amp; soin conservateur)<\/h2>\n<ul>\n<li><strong>Commencer \u00e0 choisir un mod\u00e8le de mani\u00e8re conservatrice<\/strong>: Commencez par des quantifications plus petites (par exemple des variantes de 4 bits), v\u00e9rifiez la qualit\u00e9, puis augmentez lentement le nombre de quantifications.<\/li>\n<li><strong>Garder un \u0153il sur la m\u00e9moire et le disque<\/strong>: Les grands mod\u00e8les occupent plusieurs Go - ollama show aide \u00e0 les classer. notes.kodekloud.com<\/li>\n<li><strong>Apple-Silicon &amp; M\u00e9tal<\/strong>Ollama utilise l'acc\u00e9l\u00e9ration Apple (Metal) sur Mac. Des erreurs de pilote\/m\u00e9tal peuvent survenir dans les builds de mod\u00e8les tr\u00e8s r\u00e9cents - gardez Ollama \u00e0 jour et gardez un \u0153il sur les probl\u00e8mes connus. GitHub<\/li>\n<li><strong>Conflits de ports<\/strong>Si ollama serve se plaint, l'application ou un autre processus \u00e9coute d\u00e9j\u00e0 le 11434 - soit fermer l'application, soit arr\u00eater le serveur CLI. postman.com<\/li>\n<\/ul>\n<hr \/>\n<h2>7) Flux de travail minimaux fr\u00e9quents (copier-coller)<\/h2>\n<p><strong>A) Nouveauinstallation &amp; premier chat (Llama 3.1)<\/strong><\/p>\n<pre data-no-translation=\"\"># Installation (eine Variante w\u00e4hlen)\r\nbrew install --cask ollama-app\r\n# oder\r\nbrew install ollama# Server starten (falls App nicht l\u00e4uft)\r\nollama serve\r\n# Erstes Modell testen\r\nollama run llama3.1<\/pre>\n<p>(\"run\" charge le mod\u00e8le s'il n'existe pas encore.) Homebrew Formulae+1GitHub<\/p>\n<p><strong>B) Pr\u00e9parer le mod\u00e8le hors ligne (d'abord pull, utiliser plus tard)<\/strong><\/p>\n<pre data-no-translation=\"\">ollama pull mistral\r\nollama show mistral\r\nollama run mistral<\/pre>\n<p>(\"mistral\" est un mod\u00e8le r\u00e9pandu et compact - bon pour les premiers tests).<\/p>\n<p>C) Int\u00e9gration de l'API dans un script\/outil<\/p>\n<p>curl http:\/\/localhost:11434\/api\/generate -d '{<br \/>\n\"mod\u00e8le\" : \"llama3.1\",<br \/>\n\"prompt\" : \"Donnez-moi trois raisons conservatrices pour la documentation avant l'automatisation\".<br \/>\n}&#8216;<\/p>\n<p>(Les exemples d'API sont 1:1 de la <a href=\"http:\/\/ollama.readthedocs.io\" target=\"_blank\" rel=\"noopener\"><strong>r\u00e9f\u00e9rence officielle<\/strong><\/a> ).<\/p>\n<hr \/>\n<h2>8) O\u00f9 puis-je trouver des mod\u00e8les ?<\/h2>\n<p>La biblioth\u00e8que Ollama contient des mod\u00e8les curat\u00e9s avec des tags\/tailles (Llama 3.1\/3.2, Gemma, Qwen, etc.). Choisissez d\u00e9lib\u00e9r\u00e9ment en fonction de l'utilisation (chat, outils, embeddings) et de la taille. Vous pouvez ajouter de nouveaux mod\u00e8les directement dans l'application Ollama sur Mac ou sur le<a href=\"https:\/\/ollama.com\/search\" target=\"_blank\" rel=\"noopener\"><strong> Site web de Ollama<\/strong><\/a> trouver.<\/p>\n<hr \/>\n<h2>9) Que faire en cas de probl\u00e8me ?<\/h2>\n<ul>\n<li><strong>liste ollama<\/strong> \/ <strong>ollama ps<\/strong> v\u00e9rifier les donn\u00e9es : Le mod\u00e8le souhait\u00e9 est-il disponible\/actif ?<\/li>\n<li><strong>ollama show<\/strong> regarder la vid\u00e9o : Quelle quantification\/taille a \u00e9t\u00e9 charg\u00e9e ? Est-ce que cela correspond \u00e0 la RAM du Mac ? notes.kodekloud.com<\/li>\n<\/ul>\n<p><strong>Mettre \u00e0 jour :<\/strong><\/p>\n<pre data-no-translation=\"\">brew upgrade ollama ollama-app<\/pre>\n<p><strong>Passer en revue les probl\u00e8mes<\/strong>Une mise \u00e0 jour ou un changement de mod\u00e8le permet souvent de r\u00e9soudre ce probl\u00e8me.<\/p>\n<hr \/>\n<h2>10) Alternatives avec le confort Mac (GUI)<\/h2>\n<p>Si vous pr\u00e9f\u00e9rez utiliser une interface graphique avec plus d'options ou si vous aimez parcourir\/changer de mod\u00e8les :<\/p>\n<p><a href=\"https:\/\/lmstudio.ai\/\" target=\"_blank\" rel=\"noopener\"><strong>LM Studio<\/strong><\/a> - un front-end Mac populaire avec un t\u00e9l\u00e9chargeur int\u00e9gr\u00e9, une interface de chat et un serveur API local. Page de t\u00e9l\u00e9chargement &amp; notes de publication en lien. LM Studio+1Uptodown<\/p>\n<p>(Il existe en outre des UI tierces, comme Open WebUI, qui peuvent \u00eatre connect\u00e9es \u00e0 Ollama - mais pour la plupart des configurations Mac, Ollama + Terminal ou LM Studio suffisent).<\/p>\n<p>Avec Ollama, vous mettez en place un environnement LLM local sur Mac en quelques minutes - de mani\u00e8re classique, compr\u00e9hensible et sans d\u00e9pendance au cloud. Suivez les \u00e9tapes \u00e9prouv\u00e9es (Installer\/Brew \u2192 ollama serve \u2192 ollama run), v\u00e9rifiez les ressources et passez du plus petit au plus grand. Si vous pr\u00e9f\u00e9rez cliquer plut\u00f4t que taper, LM Studio est une alternative solide sur Mac. ollama.comGitHubLM Studio<\/p>\n<p>Bonne chance - et gardez l'esprit critique avec syst\u00e8me : d'abord une documentation propre, ensuite l'automatisation.<\/p>\n<h3>Nouvelle s\u00e9rie d'articles : utiliser l'exportation de donn\u00e9es ChatGPT comme m\u00e9moire personnelle de l'IA<\/h3>\n<p><a href=\"https:\/\/www.markus-schall.de\/fr\/2026\/03\/chatgpt-datenexport-explique-comment-tes-chats-ki-deviennent-un-systeme-de-connaissance-personnel\/\"><img loading=\"lazy\" decoding=\"async\" class=\"alignright size-medium wp-image-5296\" src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/ChatGPT-Datenexport-300x200.jpg\" alt=\"ChatGPT Exportation de donn\u00e9es\" width=\"300\" height=\"200\" srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/ChatGPT-Datenexport-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ChatGPT-Datenexport-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ChatGPT-Datenexport-18x12.jpg 18w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ChatGPT-Datenexport.jpg 1024w\" sizes=\"auto, (max-width: 300px) 100vw, 300px\" \/><\/a>Ceux qui ont d\u00e9j\u00e0 cr\u00e9\u00e9 une IA locale avec Ollama sur Mac install peuvent passer \u00e0 l'\u00e9tape suivante : cr\u00e9er leur propre syst\u00e8me de connaissances. Dans une nouvelle s\u00e9rie d'articles, je montre comment le <a href=\"https:\/\/www.markus-schall.de\/fr\/2026\/03\/chatgpt-datenexport-explique-comment-tes-chats-ki-deviennent-un-systeme-de-connaissance-personnel\/\"><strong>Utiliser l'exportation de donn\u00e9es ChatGPT<\/strong><\/a> pour cr\u00e9er une base de connaissances personnelle. Au lieu que les conversations disparaissent dans le flux du chat, elles peuvent \u00eatre export\u00e9es, trait\u00e9es de mani\u00e8re structur\u00e9e et int\u00e9gr\u00e9es dans une base de donn\u00e9es vectorielle. On obtient ainsi une IA qui peut acc\u00e9der \u00e0 ses propres pens\u00e9es, id\u00e9es et analyses. La s\u00e9rie guide pas \u00e0 pas \u00e0 travers l'ensemble du processus - de l'exportation des donn\u00e9es \u00e0 l'int\u00e9gration dans un syst\u00e8me RAG en passant par les embeddings. C'est ainsi que de simples historiques de chat deviennent peu \u00e0 peu une m\u00e9moire num\u00e9rique pour sa propre IA.<\/p>\n<hr \/>\n\n\t\t\t<div class=\"display-post-types\">\n\n\t\t\t\t\t\t\t<style type=\"text\/css\">\n\t\t\t#dpt-wrapper-354 { --dpt-text-align: left;--dpt-image-crop: center;--dpt-border-radius: 5px;--dpt-h-gutter: 10px;--dpt-v-gutter: 9px; }\t\t\t<\/style>\n\t\t\t<style type=\"text\/css\">#dpt-wrapper-354 { --dpt-title-font-style:normal;--dpt-title-font-weight:600;--dpt-title-line-height:1.5;--dpt-title-text-decoration:none;--dpt-title-text-transform:none;--dpt-excerpt-font-style:normal;--dpt-excerpt-font-weight:400;--dpt-excerpt-line-height:1.5;--dpt-excerpt-text-decoration:none;--dpt-excerpt-text-transform:none;--dpt-meta1-font-style:normal;--dpt-meta1-font-weight:400;--dpt-meta1-line-height:1.9;--dpt-meta1-text-decoration:none;--dpt-meta1-text-transform:none;--dpt-meta2-font-style:normal;--dpt-meta2-font-weight:400;--dpt-meta2-line-height:1.9;--dpt-meta2-text-decoration:none;--dpt-meta2-text-transform:none; }<\/style><div class=\"dpt-main-header\">\n\t\t\t\t\t\t<div class=\"dpt-main-title\">\n\t\t\t\t\t\t\t<span class=\"dpt-main-title-text\">Derniers articles sur l'intelligence artificielle<\/span>\n\t\t\t\t\t\t<\/div>\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t<\/div>\t\t\t\n\t\t\t\t<div id=\"dpt-wrapper-354\" class=\"dpt-wrapper dpt-mag1 land1 dpt-cropped dpt-flex-wrap\" >\n\n\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"ollama trifft qdrant: ein lokales ged\u00e4chtnis f\u00fcr deine ki auf dem mac\" data-id=\"2502\"  data-category=\"apple macos filemaker &amp; erp ki-systeme tipps &amp; anleitungen\" data-post_tag=\"docker filemaker k\u00fcnstliche intelligenz llama llm mistral neo4j ollama qdrant sprachmodell vektordatenbank\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/fr\/2025\/08\/ollama-rencontre-qdrant-une-memoire-locale-pour-ton-ki-sur-mac\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Ollama rencontre Qdrant : une m\u00e9moire locale pour ton IA sur Mac<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1440\" height=\"980\" class=\"attachment-full size-full\" alt=\"M\u00e9moire pour l&#039;IA locale avec Ollama et Qdrant\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/ollama-qdrant-gedaechtnis.jpg\" data-dpt-sizes=\"(max-width: 1440px) 100vw, 1440px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/ollama-qdrant-gedaechtnis.jpg 1440w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ollama-qdrant-gedaechtnis-300x204.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ollama-qdrant-gedaechtnis-1024x697.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ollama-qdrant-gedaechtnis-768x523.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ollama-qdrant-gedaechtnis-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/fr\/2025\/08\/ollama-rencontre-qdrant-une-memoire-locale-pour-ton-ki-sur-mac\/\" rel=\"bookmark\">Ollama rencontre Qdrant : une m\u00e9moire locale pour ton IA sur Mac<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"ki als sparringspartner nutzen: wie denken im dialog produktiver wird\" data-id=\"4121\"  data-category=\"b\u00fccher ki-systeme tipps &amp; anleitungen\" data-post_tag=\"buch datenlogik denkmodelle k\u00fcnstliche intelligenz lernen llm ratgeber sprachmodell\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/fr\/2025\/12\/utiliser-ki-comme-sparring-partner-comment-penser-de-maniere-plus-productive-en-dialoguant\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Utiliser l'IA comme sparring-partner : Comment la r\u00e9flexion en dialogue devient plus productive<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"L&#039;IA comme partenaire d&#039;\u00e9pargne\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/ki-als-sparringspartner-laptop.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/ki-als-sparringspartner-laptop.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ki-als-sparringspartner-laptop-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ki-als-sparringspartner-laptop-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ki-als-sparringspartner-laptop-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/fr\/2025\/12\/utiliser-ki-comme-sparring-partner-comment-penser-de-maniere-plus-productive-en-dialoguant\/\" rel=\"bookmark\">Utiliser l'IA comme sparring-partner : Comment la r\u00e9flexion en dialogue devient plus productive<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"vom chatgpt-datenexport zur eigenen wissens-ki: schritt-f\u00fcr-schritt mit ollama und qdrant\" data-id=\"5306\"  data-category=\"apple macos ki-systeme tipps &amp; anleitungen\" data-post_tag=\"datenbanken denkmodelle digitales eigentum docker k\u00fcnstliche intelligenz llama llm mlx ollama prozesse sprachmodell\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/fr\/2026\/03\/de-lexportation-des-donnees-de-chatgpt-a-votre-propre-ki-de-connaissances-pas-a-pas-avec-ollama-et-qdrant\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">De l'exportation de donn\u00e9es ChatGPT \u00e0 votre propre IA de connaissances : \u00e9tape par \u00e9tape avec Ollama et Qdrant<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Le chemin vers la propre m\u00e9moire de l&#039;IA\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/ChatGPT-Datenexport-Computerhirn.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/ChatGPT-Datenexport-Computerhirn.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ChatGPT-Datenexport-Computerhirn-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ChatGPT-Datenexport-Computerhirn-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ChatGPT-Datenexport-Computerhirn-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/fr\/2026\/03\/de-lexportation-des-donnees-de-chatgpt-a-votre-propre-ki-de-connaissances-pas-a-pas-avec-ollama-et-qdrant\/\" rel=\"bookmark\">De l'exportation de donn\u00e9es ChatGPT \u00e0 votre propre IA de connaissances : \u00e9tape par \u00e9tape avec Ollama et Qdrant<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"digitales eigentum erkl\u00e4rt \u2013 so entstehen nachhaltige online-verm\u00f6genswerte\" data-id=\"4766\"  data-category=\"allgemein b\u00fccher featured gesellschaft ki-systeme\" data-post_tag=\"buch datenbanken denkmodelle digitales eigentum erp-software k\u00fcnstliche intelligenz prozesse publishing\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/fr\/2026\/02\/la-propriete-numerique-expliquee-comment-creer-des-actifs-durables-en-ligne\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">La propri\u00e9t\u00e9 num\u00e9rique expliqu\u00e9e - Comment se cr\u00e9ent des actifs durables en ligne<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Qu&#039;est-ce que la propri\u00e9t\u00e9 num\u00e9rique ?\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Digitales-Eigentum.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Digitales-Eigentum.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Digitales-Eigentum-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Digitales-Eigentum-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Digitales-Eigentum-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/fr\/2026\/02\/la-propriete-numerique-expliquee-comment-creer-des-actifs-durables-en-ligne\/\" rel=\"bookmark\">La propri\u00e9t\u00e9 num\u00e9rique expliqu\u00e9e - Comment se cr\u00e9ent des actifs durables en ligne<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\n\t\t\t\t<\/div>\n\t\t\t\t\t\t<\/div>\n\t\t\t\n<hr \/>\n<h2>Foire aux questions<\/h2>\n<ol>\n<li><strong>Que signifie r\u00e9ellement \u201eIA locale\u201c - et pourquoi devrais-je exploiter un mod\u00e8le linguistique sur mon propre Mac ?<\/strong><br \/>\nL'IA locale signifie qu'un mod\u00e8le linguistique fonctionne enti\u00e8rement sur ton propre ordinateur au lieu d'acc\u00e9der \u00e0 des serveurs tiers via une connexion Internet. Le mod\u00e8le est installiert localement et traite tes entr\u00e9es directement sur ton appareil. L'avantage r\u00e9side surtout dans la protection des donn\u00e9es, le contr\u00f4le et l'ind\u00e9pendance : tes donn\u00e9es ne quittent pas l'ordinateur, il n'y a pas de co\u00fbts d'API et pas de d\u00e9pendance vis-\u00e0-vis des fournisseurs de cloud. En m\u00eame temps, tu peux adapter le syst\u00e8me \u00e0 tes propres besoins, int\u00e9grer tes propres donn\u00e9es ou m\u00eame d\u00e9velopper tes propres flux de travail. Pour de nombreux utilisateurs - comme les d\u00e9veloppeurs, les auteurs ou les entreprises ayant des donn\u00e9es sensibles - une IA locale est donc une alternative particuli\u00e8rement int\u00e9ressante aux services en nuage.<\/li>\n<li><strong>Quels sont les avantages de Ollama par rapport \u00e0 d'autres outils de mod\u00e9lisation linguistique locale ?<\/strong><br \/>\nOllama est devenu en peu de temps l'un des outils les plus populaires pour l'IA locale, car il simplifie consid\u00e9rablement de nombreuses \u00e9tapes complexes. Au lieu de t\u00e9l\u00e9charger, de configurer et de lancer des mod\u00e8les manuellement, Ollama se charge de ces t\u00e2ches en grande partie automatiquement. La plupart du temps, une seule commande install permet de cr\u00e9er et de lancer un mod\u00e8le linguistique. En outre, Ollama offre une API REST, ce qui permet d'int\u00e9grer facilement les mod\u00e8les dans des programmes personnalis\u00e9s, tels que des scripts, des bases de donn\u00e9es ou des applications. Ainsi, Ollama convient aussi bien aux d\u00e9butants qui souhaitent essayer rapidement un mod\u00e8le qu'aux d\u00e9veloppeurs qui veulent int\u00e9grer l'IA locale dans leurs propres projets logiciels.<\/li>\n<li><strong>Quelles sont les conditions requises pour que mon Mac puisse ex\u00e9cuter un mod\u00e8le linguistique en local ?<\/strong><br \/>\nPour obtenir un bon r\u00e9sultat, il est recommand\u00e9 d'utiliser un Mac \u00e9quip\u00e9 d'un processeur Apple-Silicon (M1, M2, M3 ou plus r\u00e9cent). Ces puces disposent d'une architecture particuli\u00e8rement bien adapt\u00e9e aux calculs d'IA, notamment gr\u00e2ce \u00e0 des structures de m\u00e9moire communes et \u00e0 l'acc\u00e9l\u00e9ration du GPU. Il est \u00e9galement important de disposer de suffisamment de m\u00e9moire vive et d'espace libre, car les mod\u00e8les vocaux peuvent atteindre plusieurs gigaoctets. Les petits mod\u00e8les fonctionnent d\u00e9j\u00e0 sur des appareils dot\u00e9s d'une m\u00e9moire mod\u00e9r\u00e9e, tandis que les mod\u00e8les plus grands n\u00e9cessitent nettement plus de RAM. Il est \u00e9galement judicieux de disposer d'une version actuelle de macOS, car de nombreux outils d'IA sont optimis\u00e9s pour les biblioth\u00e8ques syst\u00e8me modernes.<\/li>\n<li><strong>Quels mod\u00e8les de langues puis-je utiliser avec Ollama sur mon Mac ?<\/strong><br \/>\nOllama prend en charge une s\u00e9rie de mod\u00e8les de langage modernes et open source. Il s'agit par exemple de variantes de Llama, Mistral, Gemma ou Qwen. Ces mod\u00e8les se distinguent par leur taille, leurs performances et leur style. Certains sont plut\u00f4t compacts et fonctionnent rapidement sur les petits ordinateurs, d'autres sont plus grands et fournissent des r\u00e9ponses plus complexes. Le grand avantage : tu peux essayer et comparer relativement facilement diff\u00e9rents mod\u00e8les sans devoir reconstruire ton infrastructure. Cela cr\u00e9e un environnement flexible dans lequel tu peux choisir le mod\u00e8le qui convient le mieux \u00e0 tes t\u00e2ches.<\/li>\n<li><strong>\u00c0 quel point l'installation d'un mod\u00e8le de langue locale avec Ollama est-elle vraiment compliqu\u00e9e ?<\/strong><br \/>\nL'installation est devenue beaucoup plus simple qu'il y a quelques ann\u00e9es. Dans de nombreux cas, le processus se compose de quelques \u00e9tapes : Tout d'abord, tu 1TP12Enregistres Ollama sur ton Mac, ensuite tu t\u00e9l\u00e9charges un mod\u00e8le de langue et tu le d\u00e9marres via le terminal ou une interface graphique. Le mod\u00e8le est pr\u00e9par\u00e9 automatiquement et peut ensuite \u00eatre utilis\u00e9 directement. De nombreux utilisateurs sont surpris de la rapidit\u00e9 de ce processus. M\u00eame sans connaissances techniques approfondies, il est possible de mettre en place un syst\u00e8me d'IA local fonctionnel en quelques minutes.<\/li>\n<li><strong>Pourquoi l'IA locale fonctionne-t-elle particuli\u00e8rement bien sur les Macs Apple-Silicon ?<\/strong><br \/>\nLes processeurs Apple-Silicon ont \u00e9t\u00e9 d\u00e9velopp\u00e9s dans l'optique de t\u00e2ches de calcul modernes, y compris l'apprentissage automatique. Ils utilisent une architecture de m\u00e9moire unifi\u00e9e, dans laquelle le CPU, le GPU et d'autres unit\u00e9s de calcul partagent la m\u00eame m\u00e9moire. Cela permet de traiter plus efficacement de grandes quantit\u00e9s de donn\u00e9es. Pour les mod\u00e8les d'IA, c'est un grand avantage, car les mod\u00e8les linguistiques doivent constamment acc\u00e9der \u00e0 de grandes structures de donn\u00e9es pendant l'inf\u00e9rence. Des outils comme Ollama ou MLX exploitent cette architecture de mani\u00e8re cibl\u00e9e et atteignent ainsi une performance \u00e9tonnamment bonne - m\u00eame sans carte graphique d\u00e9di\u00e9e.<\/li>\n<li><strong>Quelle est la vitesse de fonctionnement d'un mod\u00e8le linguistique local sur un Mac ?<\/strong><br \/>\nLa vitesse d\u00e9pend principalement de trois facteurs : le mod\u00e8le utilis\u00e9, la m\u00e9moire vive du Mac et la puissance du processeur. Les petits mod\u00e8les r\u00e9agissent souvent presque en temps r\u00e9el, tandis que les grands mod\u00e8les peuvent fonctionner plus lentement. Les Mac Apple-Silicon sont toutefois \u00e9tonnamment puissants et peuvent ex\u00e9cuter sans probl\u00e8me de nombreux mod\u00e8les courants. Pour les projets exp\u00e9rimentaux ou les processus de travail personnels, les performances sont g\u00e9n\u00e9ralement plus que suffisantes. Ceux qui ont besoin de r\u00e9ponses particuli\u00e8rement rapides peuvent utiliser des mod\u00e8les plus petits ou plus comprim\u00e9s.<\/li>\n<li><strong>Puis-je travailler hors ligne avec une IA locale ?<\/strong><br \/>\nOui, c'est justement l'un des principaux avantages. Une fois que le mod\u00e8le est t\u00e9l\u00e9charg\u00e9, il n'a plus besoin de connexion Internet. Tous les calculs s'effectuent directement sur ton Mac. Tu peux donc utiliser l'IA en d\u00e9placement, sans r\u00e9seau ou dans des environnements cloisonn\u00e9s. Pour de nombreuses applications professionnelles - par exemple pour des documents sensibles ou des analyses internes - cette capacit\u00e9 hors ligne est un avantage d\u00e9cisif.<\/li>\n<li><strong>Dans quelle mesure mes donn\u00e9es sont-elles en s\u00e9curit\u00e9 si je g\u00e8re un mod\u00e8le linguistique localement ?<\/strong><br \/>\nSi le mod\u00e8le fonctionne enti\u00e8rement en local, tes donn\u00e9es restent en principe sur ton ordinateur. Il n'y a pas de transfert automatique vers des serveurs externes. Tu peux ainsi travailler avec des textes confidentiels sans avoir \u00e0 te soucier du stockage dans le nuage ou de l'acc\u00e8s par des tiers. Bien entendu, la s\u00e9curit\u00e9 d\u00e9pend toujours de la configuration de ton syst\u00e8me - par exemple si d'autres programmes ont acc\u00e8s \u00e0 tes donn\u00e9es. Mais en principe, une IA locale offre nettement plus de contr\u00f4le sur ses propres informations.<\/li>\n<li><strong>Puis-je entra\u00eener ou \u00e9tendre un mod\u00e8le linguistique local avec mes propres donn\u00e9es ?<\/strong><br \/>\nOui, c'est possible - mais g\u00e9n\u00e9ralement pas directement via le syst\u00e8me de base. De nombreux utilisateurs combinent des mod\u00e8les linguistiques locaux avec des syst\u00e8mes RAG ou des bases de donn\u00e9es afin d'int\u00e9grer leurs propres contenus. Des documents ou des textes sont alors analys\u00e9s et enregistr\u00e9s dans une base de donn\u00e9es vectorielle. Le mod\u00e8le linguistique peut ensuite acc\u00e9der \u00e0 ces contenus et les int\u00e9grer dans ses r\u00e9ponses. De cette mani\u00e8re, il est possible de sp\u00e9cialiser une IA sur ses propres bases de connaissances sans avoir \u00e0 r\u00e9entra\u00eener compl\u00e8tement le mod\u00e8le lui-m\u00eame.<\/li>\n<li><strong>Quelle est la diff\u00e9rence entre un mod\u00e8le linguistique et une application d'intelligence artificielle comme ChatGPT ?<\/strong><br \/>\nUn mod\u00e8le linguistique n'est en fait que le \u201emoteur\u201c de l'IA - c'est-\u00e0-dire le r\u00e9seau neuronal qui analyse et g\u00e9n\u00e8re les textes. En revanche, des services comme ChatGPT sont des plateformes compl\u00e8tes qui combinent un mod\u00e8le avec une interface utilisateur, une infrastructure cloud et des fonctions suppl\u00e9mentaires. Lorsque tu utilises un mod\u00e8le linguistique localement installierst, tu travailles directement avec ce syst\u00e8me central. Tu as ainsi plus de contr\u00f4le, mais tu dois aussi d\u00e9cider toi-m\u00eame quels outils ou interfaces tu souhaites utiliser en plus.<\/li>\n<li><strong>Quel est l'espace disque n\u00e9cessaire pour un mod\u00e8le linguistique local sur Mac ?<\/strong><br \/>\nLa taille d'un mod\u00e8le linguistique peut varier consid\u00e9rablement. Les petits mod\u00e8les ne n\u00e9cessitent que quelques gigaoctets de m\u00e9moire, tandis que les variantes plus grandes peuvent prendre beaucoup plus de place. De plus, de la m\u00e9moire est n\u00e9cessaire pour charger le mod\u00e8le pendant son ex\u00e9cution. Pour de nombreuses applications pratiques, il suffit toutefois de disposer de mod\u00e8les compacts qui consomment relativement peu de m\u00e9moire tout en \u00e9tant \u00e9tonnamment performants.<\/li>\n<li><strong>Puis-je monter plusieurs mod\u00e8les en m\u00eame temps sur mon Mac 1TP12 ?<\/strong><br \/>\nOui, c'est m\u00eame un grand avantage des environnements d'IA locaux. Tu peux t\u00e9l\u00e9charger plusieurs mod\u00e8les et les lancer selon tes besoins. Certains sont plus adapt\u00e9s aux textes cr\u00e9atifs, d'autres aux analyses techniques ou au code de programmation. Cette flexibilit\u00e9 te permet d'utiliser ton environnement d'IA comme une bo\u00eete \u00e0 outils et de choisir \u00e0 chaque fois le mod\u00e8le qui convient le mieux \u00e0 la t\u00e2che \u00e0 accomplir.<\/li>\n<li><strong>Est-il possible d'int\u00e9grer Ollama dans ses propres programmes ?<\/strong><br \/>\nOui, Ollama offre une interface de programmation (API) qui permet \u00e0 d'autres applications d'acc\u00e9der au mod\u00e8le linguistique. Cela te permet d'int\u00e9grer l'IA locale dans tes propres projets - par exemple dans des scripts, des automatisations ou des syst\u00e8mes de base de donn\u00e9es. Les d\u00e9veloppeurs utilisent souvent cette possibilit\u00e9 pour cr\u00e9er des assistants IA individuels ou pour ajouter des fonctions intelligentes \u00e0 des logiciels existants.<\/li>\n<li><strong>Un mod\u00e8le linguistique local est-il aussi performant que les grands mod\u00e8les de cloud ?<\/strong><br \/>\nDans de nombreux cas, pas tout \u00e0 fait - du moins si l'on compare de tr\u00e8s grands mod\u00e8les avec des milliards de param\u00e8tres. Les fournisseurs de cloud computing exploitent du mat\u00e9riel extr\u00eamement puissant et peuvent ainsi ex\u00e9cuter de tr\u00e8s grands mod\u00e8les. Les mod\u00e8les locaux sont souvent plus compacts pour pouvoir fonctionner sur un ordinateur normal. Malgr\u00e9 cela, ils sont \u00e9tonnamment puissants pour de nombreuses t\u00e2ches pratiques et peuvent \u00e9crire, analyser ou structurer des textes. Pour de nombreux processus de travail, ces performances sont largement suffisantes.<\/li>\n<li><strong>Pourquoi de plus en plus de personnes s'int\u00e9ressent-elles \u00e0 l'IA locale plut\u00f4t qu'aux services en nuage ?<\/strong><br \/>\nUne raison importante est le contr\u00f4le des donn\u00e9es et de l'infrastructure. De nombreux utilisateurs ne souhaitent pas transf\u00e9rer durablement leurs contenus vers des services externes. En outre, les syst\u00e8mes locaux peuvent \u00eatre plus avantageux \u00e0 long terme, car ils n'entra\u00eenent pas de co\u00fbts d'API permanents. Pour les d\u00e9veloppeurs et les utilisateurs technophiles, un autre avantage s'ajoute : ils peuvent concevoir et exp\u00e9rimenter enti\u00e8rement leur environnement IA. Il en r\u00e9sulte une nouvelle forme de souverainet\u00e9 technique.<\/li>\n<li><strong>Puis-je combiner une IA locale avec d'autres syst\u00e8mes par la suite ?<\/strong><br \/>\nOui, c'est m\u00eame l'une des possibilit\u00e9s les plus passionnantes. Les mod\u00e8les linguistiques locaux peuvent \u00eatre reli\u00e9s \u00e0 des bases de donn\u00e9es, des plateformes d'automatisation ou des programmes propres. Cela permet de cr\u00e9er des flux de travail complexes - par exemple des syst\u00e8mes qui analysent des documents, r\u00e9sument des contenus ou extraient des connaissances de leurs propres bases de donn\u00e9es. De telles combinaisons constituent souvent la base d'assistants IA individuels ou d'outils d'analyse automatis\u00e9s.<\/li>\n<li><strong>Pour qui une IA locale sur Mac est-elle particuli\u00e8rement int\u00e9ressante ?<\/strong><br \/>\nElle est particuli\u00e8rement int\u00e9ressante pour les d\u00e9veloppeurs, les auteurs, les analystes et les entreprises qui travaillent r\u00e9guli\u00e8rement avec des textes ou des donn\u00e9es. L'IA locale est \u00e9galement une option int\u00e9ressante pour les utilisateurs technophiles qui souhaitent contr\u00f4ler eux-m\u00eames leur infrastructure num\u00e9rique. Elle permet d'utiliser une technologie d'IA moderne sans d\u00e9pendre de grandes plateformes. Sur les Mac performants en particulier, cela cr\u00e9e un environnement qui peut \u00eatre \u00e9tonnamment polyvalent et productif.<\/li>\n<\/ol>\n<hr \/>\n\n\t\t\t<div class=\"display-post-types\">\n\n\t\t\t\t\t\t\t<style type=\"text\/css\">\n\t\t\t#dpt-wrapper-355 { --dpt-text-align: left;--dpt-image-crop: center;--dpt-border-radius: 5px;--dpt-h-gutter: 10px;--dpt-v-gutter: 9px; }\t\t\t<\/style>\n\t\t\t<style type=\"text\/css\">#dpt-wrapper-355 { --dpt-title-font-style:normal;--dpt-title-font-weight:600;--dpt-title-line-height:1.5;--dpt-title-text-decoration:none;--dpt-title-text-transform:none;--dpt-excerpt-font-style:normal;--dpt-excerpt-font-weight:400;--dpt-excerpt-line-height:1.5;--dpt-excerpt-text-decoration:none;--dpt-excerpt-text-transform:none;--dpt-meta1-font-style:normal;--dpt-meta1-font-weight:400;--dpt-meta1-line-height:1.9;--dpt-meta1-text-decoration:none;--dpt-meta1-text-transform:none;--dpt-meta2-font-style:normal;--dpt-meta2-font-weight:400;--dpt-meta2-line-height:1.9;--dpt-meta2-text-decoration:none;--dpt-meta2-text-transform:none; }<\/style><div class=\"dpt-main-header\">\n\t\t\t\t\t\t<div class=\"dpt-main-title\">\n\t\t\t\t\t\t\t<span class=\"dpt-main-title-text\">Derniers articles sur Art &amp; Culture<\/span>\n\t\t\t\t\t\t<\/div>\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t<\/div>\t\t\t\n\t\t\t\t<div id=\"dpt-wrapper-355\" class=\"dpt-wrapper dpt-mag1 land1 dpt-cropped dpt-flex-wrap\" >\n\n\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"wie war syrien vor dem krieg? wer regiert heute? was bedeutet das f\u00fcr gefl\u00fcchtete in deutschland?\" data-id=\"4628\"  data-category=\"allgemein gesellschaft kunst &amp; kultur\" data-post_tag=\"deutschland europa geopolitik krisen meinungsfreiheit sicherheitspolitik\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/fr\/2026\/01\/comment-etait-la-syrie-avant-la-guerre-qui-gouverne-aujourdhui-que-cela-signifie-t-il-pour-les-refugies-en-allemagne\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Comment \u00e9tait la Syrie avant la guerre ? Qui gouverne aujourd'hui ? Qu'est-ce que cela signifie pour les personnes qui ont fui en Allemagne ?<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"La Syrie et Damas\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Syrien-Damaskus.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Syrien-Damaskus.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Syrien-Damaskus-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Syrien-Damaskus-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Syrien-Damaskus-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/fr\/2026\/01\/comment-etait-la-syrie-avant-la-guerre-qui-gouverne-aujourdhui-que-cela-signifie-t-il-pour-les-refugies-en-allemagne\/\" rel=\"bookmark\">Comment \u00e9tait la Syrie avant la guerre ? Qui gouverne aujourd'hui ? Qu'est-ce que cela signifie pour les personnes qui ont fui en Allemagne ?<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"johann sebastian bach \u2013 ordnung, haltung und das fundament unserer musik\" data-id=\"5033\"  data-category=\"allgemein gesellschaft kunst &amp; kultur\" data-post_tag=\"deutschland musik portrait\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/fr\/2026\/02\/johann-sebastian-bach-lordre-lattitude-et-le-fondement-de-notre-musique\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Jean-S\u00e9bastien Bach - Ordre, attitude et fondement de notre musique<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Portrait de Johann Sebastian Bach\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Johann-Sebastian-Bach-Portrait.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Johann-Sebastian-Bach-Portrait.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Johann-Sebastian-Bach-Portrait-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Johann-Sebastian-Bach-Portrait-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Johann-Sebastian-Bach-Portrait-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/fr\/2026\/02\/johann-sebastian-bach-lordre-lattitude-et-le-fondement-de-notre-musique\/\" rel=\"bookmark\">Jean-S\u00e9bastien Bach - Ordre, attitude et fondement de notre musique<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"iran verstehen: alltag, proteste und interessen jenseits der schlagzeilen\" data-id=\"4462\"  data-category=\"allgemein gesellschaft kunst &amp; kultur\" data-post_tag=\"erfahrungen europa geopolitik krisen meinungsfreiheit sicherheitspolitik spieltheorie\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/fr\/2026\/01\/comprendre-liran-au-quotidien-protestations-et-interets-au-dela-des-gros-titres\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Comprendre l'Iran : Vie quotidienne, protestations et int\u00e9r\u00eats au-del\u00e0 des gros titres<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Comprendre l&#039;Iran\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Iran-Titel.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Iran-Titel.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Iran-Titel-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Iran-Titel-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Iran-Titel-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/fr\/2026\/01\/comprendre-liran-au-quotidien-protestations-et-interets-au-dela-des-gros-titres\/\" rel=\"bookmark\">Comprendre l'Iran : Vie quotidienne, protestations et int\u00e9r\u00eats au-del\u00e0 des gros titres<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"ulrike gu\u00e9rot: eine europ\u00e4erin zwischen idee, universit\u00e4t und \u00f6ffentlichem diskurs\" data-id=\"4039\"  data-category=\"allgemein gesellschaft kunst &amp; kultur\" data-post_tag=\"denkmodelle deutschland europa geopolitik krisen meinungsfreiheit portrait sicherheitspolitik spieltheorie\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/fr\/2025\/12\/ulrike-guerot-une-europeenne-entre-lidee-duniversite-et-le-discours-public\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Ulrike Gu\u00e9rot : une europ\u00e9enne entre id\u00e9e, universit\u00e9 et discours public<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Ulrike Gu\u00e9rot et l&#039;Europe\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/ulrike-guerot-portrait.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/ulrike-guerot-portrait.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ulrike-guerot-portrait-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ulrike-guerot-portrait-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ulrike-guerot-portrait-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/fr\/2025\/12\/ulrike-guerot-une-europeenne-entre-lidee-duniversite-et-le-discours-public\/\" rel=\"bookmark\">Ulrike Gu\u00e9rot : une europ\u00e9enne entre id\u00e9e, universit\u00e9 et discours public<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\n\t\t\t\t<\/div>\n\t\t\t\t\t\t<\/div>\n\t\t\t\n<hr \/>","protected":false},"excerpt":{"rendered":"<p>L'IA locale sur Mac est depuis longtemps une r\u00e9alit\u00e9, en particulier sur les ordinateurs Apple-Silicon (s\u00e9rie M). Avec Ollama, vous obtenez un environnement d'ex\u00e9cution l\u00e9ger pour de nombreux mod\u00e8les de langage open source (par ex. Llama 3.1\/3.2, Mistral, Gemma, Qwen). La derni\u00e8re version de Ollama est d\u00e9sormais accompagn\u00e9e d'une application conviviale qui vous permet de configurer un mod\u00e8le de langage local sur votre Mac d'un simple clic ... <a title=\"Ulrike Gu\u00e9rot : une europ\u00e9enne entre id\u00e9e, universit\u00e9 et discours public\" class=\"read-more\" href=\"https:\/\/www.markus-schall.de\/fr\/2025\/12\/ulrike-guerot-une-europeenne-entre-lidee-duniversite-et-le-discours-public\/\" aria-label=\"En savoir plus sur Ulrike Gu\u00e9rot : une europ\u00e9enne entre id\u00e9e, universit\u00e9 et discours public\">Lire la suite<\/a><\/p>","protected":false},"author":1,"featured_media":5610,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"iawp_total_views":4230,"footnotes":""},"categories":[431,4],"tags":[469,471,435,433,11,437,432,434],"class_list":["post-2442","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ki-systeme","category-tipps-anleitungen","tag-datenschutz","tag-kuenstliche-intelligenz","tag-llama","tag-llm","tag-mac","tag-mistral","tag-ollama","tag-sprachmodell"],"_links":{"self":[{"href":"https:\/\/www.markus-schall.de\/fr\/wp-json\/wp\/v2\/posts\/2442","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.markus-schall.de\/fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.markus-schall.de\/fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.markus-schall.de\/fr\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.markus-schall.de\/fr\/wp-json\/wp\/v2\/comments?post=2442"}],"version-history":[{"count":13,"href":"https:\/\/www.markus-schall.de\/fr\/wp-json\/wp\/v2\/posts\/2442\/revisions"}],"predecessor-version":[{"id":5609,"href":"https:\/\/www.markus-schall.de\/fr\/wp-json\/wp\/v2\/posts\/2442\/revisions\/5609"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.markus-schall.de\/fr\/wp-json\/wp\/v2\/media\/5610"}],"wp:attachment":[{"href":"https:\/\/www.markus-schall.de\/fr\/wp-json\/wp\/v2\/media?parent=2442"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.markus-schall.de\/fr\/wp-json\/wp\/v2\/categories?post=2442"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.markus-schall.de\/fr\/wp-json\/wp\/v2\/tags?post=2442"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}