{"id":2857,"date":"2025-09-13T08:40:51","date_gmt":"2025-09-13T08:40:51","guid":{"rendered":"https:\/\/www.markus-schall.de\/?p=2857"},"modified":"2026-05-02T05:48:17","modified_gmt":"2026-05-02T05:48:17","slug":"mlx-su-apple-silicon-come-ki-locale-rispetto-a-ollama-co","status":"publish","type":"post","link":"https:\/\/www.markus-schall.de\/it\/2025\/09\/mlx-su-apple-silicon-come-ki-locale-rispetto-a-ollama-co\/","title":{"rendered":"MLX su Apple Silicon come AI locale rispetto a Ollama &amp; Co."},"content":{"rendered":"<p>In un momento in cui i servizi di IA centralizzati come ChatGPT, Claude o Gemini dominano le prime pagine dei giornali, molti utenti professionali hanno sempre pi\u00f9 bisogno di un'alternativa: un'infrastruttura di IA locale e autocontrollabile. Soprattutto per i processi creativi, i dati sensibili o i flussi di lavoro ricorrenti, una soluzione locale \u00e8 spesso l'opzione pi\u00f9 sostenibile e sicura.<\/p>\n<p>Chiunque lavori con un Mac, in particolare con Apple Silicon (M1, M2, M3 o M4), pu\u00f2 ora trovare strumenti incredibilmente potenti per eseguire i propri modelli linguistici direttamente sul dispositivo. Al centro di tutto questo c'\u00e8 un nuovo componente, in gran parte sconosciuto: MLX, un framework di apprendimento automatico sviluppato da Apple che probabilmente avr\u00e0 un ruolo sempre pi\u00f9 centrale nell'ecosistema AI dell'azienda nei prossimi anni.<!--more--><\/p>\n<hr \/>\n\n\t\t\t<div class=\"display-post-types\">\n\n\t\t\t\t\t\t\t<style type=\"text\/css\">\n\t\t\t#dpt-wrapper-319 { --dpt-text-align: left;--dpt-image-crop: center;--dpt-border-radius: 5px;--dpt-h-gutter: 10px;--dpt-v-gutter: 9px; }\t\t\t<\/style>\n\t\t\t<style type=\"text\/css\">#dpt-wrapper-319 { --dpt-title-font-style:normal;--dpt-title-font-weight:600;--dpt-title-line-height:1.5;--dpt-title-text-decoration:none;--dpt-title-text-transform:none;--dpt-excerpt-font-style:normal;--dpt-excerpt-font-weight:400;--dpt-excerpt-line-height:1.5;--dpt-excerpt-text-decoration:none;--dpt-excerpt-text-transform:none;--dpt-meta1-font-style:normal;--dpt-meta1-font-weight:400;--dpt-meta1-line-height:1.9;--dpt-meta1-text-decoration:none;--dpt-meta1-text-transform:none;--dpt-meta2-font-style:normal;--dpt-meta2-font-weight:400;--dpt-meta2-line-height:1.9;--dpt-meta2-text-decoration:none;--dpt-meta2-text-transform:none; }<\/style><div class=\"dpt-main-header\">\n\t\t\t\t\t\t<div class=\"dpt-main-title\">\n\t\t\t\t\t\t\t<span class=\"dpt-main-title-text\">Articoli attuali sull'intelligenza artificiale<\/span>\n\t\t\t\t\t\t<\/div>\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t<\/div>\t\t\t\n\t\t\t\t<div id=\"dpt-wrapper-319\" class=\"dpt-wrapper dpt-mag1 land1 dpt-cropped dpt-flex-wrap\" >\n\n\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"mit ki dialogisch denken lernen: warum gute fragen wichtiger sind als gute modelle\" data-id=\"4700\"  data-category=\"allgemein ki-systeme tipps &amp; anleitungen\" data-post_tag=\"denkmodelle k\u00fcnstliche intelligenz lernen llm prozesse ratgeber sprachmodell\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/it\/2026\/02\/imparare-a-pensare-in-dialogo-con-ki-perche-le-buone-domande-sono-piu-importanti-dei-buoni-modelli\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Imparare a pensare in dialogo con l'IA: perch\u00e9 le buone domande sono pi\u00f9 importanti dei buoni modelli<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Imparare a pensare in dialogo con l&#039;IA\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Denken-lernen-mit-KI.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Denken-lernen-mit-KI.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Denken-lernen-mit-KI-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Denken-lernen-mit-KI-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Denken-lernen-mit-KI-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/it\/2026\/02\/imparare-a-pensare-in-dialogo-con-ki-perche-le-buone-domande-sono-piu-importanti-dei-buoni-modelli\/\" rel=\"bookmark\">Imparare a pensare in dialogo con l'IA: perch\u00e9 le buone domande sono pi\u00f9 importanti dei buoni modelli<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"cloud-ki als oberlehrer: warum die zukunft des arbeitens bei lokaler ki liegt\" data-id=\"3887\"  data-category=\"apple macos hardware ki-systeme\" data-post_tag=\"datenschutz digitales eigentum k\u00fcnstliche intelligenz llama llm meinungsfreiheit mistral mlx neo4j ollama sprachmodell\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/it\/2025\/12\/cloud-ki-come-insegnante-di-alto-livello-perche-il-futuro-del-lavoro-e-con-ki-locale\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">L'IA in cloud come preside: perch\u00e9 il futuro del lavoro \u00e8 nell'IA locale<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"L&#039;intelligenza artificiale del cloud diventa il capo insegnante\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/cloud-ki-oberlehrer.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/cloud-ki-oberlehrer.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/cloud-ki-oberlehrer-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/cloud-ki-oberlehrer-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/cloud-ki-oberlehrer-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/it\/2025\/12\/cloud-ki-come-insegnante-di-alto-livello-perche-il-futuro-del-lavoro-e-con-ki-locale\/\" rel=\"bookmark\">L'IA in cloud come preside: perch\u00e9 il futuro del lavoro \u00e8 nell'IA locale<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"die neuen eu-zensurgesetze: was chatcontrol, dsa, emfa und der ai act bedeuten\" data-id=\"3586\"  data-category=\"allgemein gesellschaft ki-systeme\" data-post_tag=\"datenschutz digitales eigentum eu-gesetze europa k\u00fcnstliche intelligenz llm meinungsfreiheit spieltheorie sprachmodell\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/it\/2025\/11\/le-nuove-leggi-sulla-censura-dellue-cosa-significano-chatcontrol-dsa-emfa-e-lai-act\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Le nuove leggi sulla censura dell'UE: Cosa significano Chatcontrol, DSA, EMFA e la legge sull'IA<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Leggi sulla censura dell&#039;UE\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/eu-zensurgesetze.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/eu-zensurgesetze.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/eu-zensurgesetze-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/eu-zensurgesetze-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/eu-zensurgesetze-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/it\/2025\/11\/le-nuove-leggi-sulla-censura-dellue-cosa-significano-chatcontrol-dsa-emfa-e-lai-act\/\" rel=\"bookmark\">Le nuove leggi sulla censura dell'UE: Cosa significano Chatcontrol, DSA, EMFA e la legge sull'IA<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"wenn der mac zuh\u00f6rt: was apples integrierte ki mit gemini und siri k\u00fcnftig f\u00fcr nutzer bedeutet\" data-id=\"4813\"  data-category=\"apple iphone &amp; ipad apple macos ki-systeme\" data-post_tag=\"apple datenlogik datenschutz k\u00fcnstliche intelligenz llm mac prozesse sprachmodell\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/it\/2026\/02\/se-il-mac-ascolta-cio-che-il-ki-integrato-di-apple-con-gemini-e-siri-significhera-per-gli-utenti-in-futuro\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Quando il Mac ascolta: cosa significher\u00e0 per gli utenti del futuro l'AI integrata di Apple con Gemini e Siri<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Apple, Siri e Gemini\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Apple-Siri-Gemini.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Apple-Siri-Gemini.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Apple-Siri-Gemini-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Apple-Siri-Gemini-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Apple-Siri-Gemini-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/it\/2026\/02\/se-il-mac-ascolta-cio-che-il-ki-integrato-di-apple-con-gemini-e-siri-significhera-per-gli-utenti-in-futuro\/\" rel=\"bookmark\">Quando il Mac ascolta: cosa significher\u00e0 per gli utenti del futuro l'AI integrata di Apple con Gemini e Siri<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\n\t\t\t\t<\/div>\n\t\t\t\t\t\t<\/div>\n\t\t\t\n<hr \/>\n<h2>Ultime notizie su MLX e Ollama<\/h2>\n<p><strong>02.05.2026<\/strong>Un video attuale approfondisce l'argomento e classifica in dettaglio i pi\u00f9 importanti motori di inferenza. Risulta chiaro che non \u00e8 solo il modello in s\u00e9 a essere decisivo, ma soprattutto il \u201emotore\u201c che lo sostiene, ovvero il motore che controlla il calcolo, gli accessi alla memoria e la comunicazione. Il confronto tra Ollama, MLX, llama.cpp e vLLM mostra come le prestazioni e le aree di applicazione possano differire notevolmente, a seconda dell'hardware e degli obiettivi. Il ruolo di MLX sui dispositivi Apple-Silicon \u00e8 particolarmente interessante, poich\u00e9 grazie a questa architettura \u00e8 possibile ottenere nuovi guadagni di efficienza. Allo stesso tempo, \u00e8 chiaro che non esiste una soluzione universale: A seconda dello scenario - locale, basato su server o su scala - hanno senso motori diversi. Il video aggiunge quindi un'importante prospettiva strategica all'attuale sviluppo di MLX.<\/p>\n<div class=\"lyte-wrapper\" style=\"width:640px;max-width:100%;margin:5px;\"><div class=\"lyMe\" id=\"WYL_e9pNIAH5kSs\"><div id=\"lyte_e9pNIAH5kSs\" data-src=\"https:\/\/www.markus-schall.de\/wp-content\/plugins\/wp-youtube-lyte\/lyteCache.php?origThumbUrl=%2F%2Fi.ytimg.com%2Fvi%2Fe9pNIAH5kSs%2Fhqdefault.jpg\" class=\"pL\"><div class=\"tC\"><div class=\"tT\"><\/div><\/div><div class=\"play\"><\/div><div class=\"ctrl\"><div class=\"Lctrl\"><\/div><div class=\"Rctrl\"><\/div><\/div><\/div><noscript><a href=\"https:\/\/youtu.be\/e9pNIAH5kSs\" rel=\"nofollow noopener\" target=\"_blank\"><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/www.markus-schall.de\/wp-content\/plugins\/wp-youtube-lyte\/lyteCache.php?origThumbUrl=https%3A%2F%2Fi.ytimg.com%2Fvi%2Fe9pNIAH5kSs%2F0.jpg\" alt=\"Miniatura del video di YouTube\" width=\"640\" height=\"340\" \/><br \/>Guarda questo video su YouTube<\/a><\/noscript><\/div><\/div><div class=\"lL\" style=\"max-width:100%;width:640px;margin:5px;\"><\/div><br \/>\nOllama, MLX, llama.cpp o vLLM? Come scegliere il motore per la TUA AI! | <a href=\"https:\/\/www.youtube.com\/@giorgi-ki\" target=\"_blank\" rel=\"nofollow noopener\">Giorgi Lomidze<\/a><\/p>\n<p><strong>30.03.2026<\/strong>Con il <a href=\"https:\/\/ollama.com\/blog\/mlx\" target=\"_blank\" rel=\"noopener\"><strong>versione attuale in anteprima<\/strong><\/a> Ollama integra per la prima volta il framework MLX di Apple come backend per i Mac Apple-Silicon. L'obiettivo \u00e8 accelerare in modo significativo l'intelligenza artificiale locale e sfruttare meglio l'hardware. MLX sfrutta l'architettura di memoria unificata dei moderni Mac, consentendo di condividere in modo efficiente i dati tra CPU e GPU senza doverli copiare continuamente. Il risultato \u00e8 un notevole miglioramento del \u201etime to first token\u201c e della velocit\u00e0 di generazione.<\/p>\n<p>I primi benchmark e rapporti parlano di significativi guadagni di prestazioni grazie a un tasso di token notevolmente aumentato e a un utilizzo pi\u00f9 efficiente della memoria. Il video collegato all'articolo mostra chiaramente perch\u00e9 questo cambiamento \u00e8 cos\u00ec importante: il precedente stack llama.cpp viene sostituito da MLX, rendendo per la prima volta l'IA locale sul Mac veramente fluida e adatta all'uso quotidiano. Allo stesso tempo, la funzione rimane un'anteprima, per cui \u00e8 lecito aspettarsi limitazioni e ulteriori ottimizzazioni. Nel complesso, questo passo segna un'importante transizione verso un'IA veloce e in esecuzione locale su hardware consumer.<\/p>\n<hr \/>\n<h2>Cos'\u00e8 MLX e cosa rappresenta il nuovo formato?<\/h2>\n<p>MLX \u00e8 un framework open source di Apple per l'apprendimento automatico, appositamente adattato all'architettura hardware di Apple Silicon. A differenza di altri backend per l'IA come PyTorch o TensorFlow, MLX utilizza direttamente i vantaggi della cosiddetta \u201ememoria unificata\u201c dell'Apple, ovvero l'accesso condiviso di CPU e GPU alla stessa area RAM. Questo garantisce un'elaborazione molto pi\u00f9 efficiente dei dati e dei modelli, soprattutto per i modelli linguistici di grandi dimensioni, che possono comprendere diversi gigabyte.<\/p>\n<p>Il formato MLX associato descrive tipicamente modelli i cui pesi sono memorizzati in un formato di file compresso .npz (NumPy Zip). Modelli come Mistral, Phi-2 o LLaMA 3 possono essere convertiti in questo formato utilizzando gli strumenti appropriati ed eseguiti direttamente su Mac - senza cloud, senza API, senza restrizioni.<\/p>\n<p>In un altro articolo presento un <a href=\"https:\/\/www.markus-schall.de\/it\/2025\/11\/apple-mlx-vs-nvidia-come-funziona-linferenza-ki-locale-sul-mac\/\"><strong>Confronto tra Apple Silicon e NVIDIA<\/strong><\/a> e spiegare quale hardware \u00e8 adatto all'esecuzione di modelli linguistici locali su un Mac.<\/p>\n<h3>La situazione attuale: cosa offre gi\u00e0 l'Apple<\/h3>\n<p>Con l'annuncio di <a href=\"https:\/\/en.wikipedia.org\/wiki\/Apple_Intelligence\" target=\"_blank\" rel=\"noopener\"><strong>Apple Intelligence<\/strong><\/a> Nel 2024, l'Apple ha iniziato a integrare le funzioni AI a livello di sistema direttamente nel sistema operativo. Assistenti di scrittura, elaborazione delle immagini, ricerca semantica, funzioni di posta elettronica intelligenti: molte di queste funzioni vengono eseguite completamente in locale, soprattutto sui dispositivi con un chip M1 o pi\u00f9 recente. Tuttavia, nessuna delle nuove funzioni \u00e8 disponibile sui Mac Intel pi\u00f9 vecchi.<\/p>\n<p>Allo stesso tempo, Apple ha sviluppato ulteriormente il framework MLX e lo ha pubblicato con una licenza aperta. In combinazione con strumenti come mlx-lm o la nuova API MLX Swift, \u00e8 gi\u00e0 possibile eseguire modelli di testo in locale, impostare i propri flussi di lavoro o addestrare i modelli, direttamente sul proprio Mac, senza che i dati lascino il dispositivo.<\/p>\n<p>In particolare, gli utenti professionali, ad esempio quelli dei settori dello sviluppo software, dell'editoria, del marketing o della ricerca, possono trarre grandi vantaggi da questo, poich\u00e9 MLX offre loro opportunit\u00e0 completamente nuove per integrare i modelli di intelligenza artificiale nei loro flussi di lavoro senza dover ricorrere a fornitori esterni.<\/p>\n<h2>Come funziona MLX in pratica<\/h2>\n<p>Se volete usare MLX oggi, tutto ci\u00f2 che vi serve \u00e8 un terminale, Python (idealmente in un ambiente virtuale separato) e il pacchetto mlx-lm, che raggruppa tutte le funzioni necessarie: download del modello, quantizzazione, inferenza e chat. Dopo l'installazione, \u00e8 possibile avviare i modelli gi\u00e0 pronti della comunit\u00e0 Hugging Face, ad esempio:<\/p>\n<pre class=\"notranslate\" data-no-translation=\"\">mlx_lm.chat --model mlx-community\/Mistral-7B-Instruct-v0.3-4bit<\/pre>\n<p>In alternativa, \u00e8 possibile accedere all'API utilizzando uno script Python. I modelli vengono automaticamente caricati, memorizzati nella cache ed eseguiti in locale, senza bisogno di una connessione a Internet dopo il download iniziale.<\/p>\n<p>\u00c8 anche facile convertire i propri modelli. Con un solo comando, \u00e8 possibile scaricare i modelli da Hugging Face Hub, quantizzarli e renderli disponibili per MLX:<\/p>\n<pre class=\"notranslate\" data-no-translation=\"\">python -m mlx_lm.convert --hf-path meta-llama\/Llama-3-8B-Instruct -q<\/pre>\n<p>I file .npz risultanti possono essere salvati in modo permanente in locale e riutilizzati.<\/p>\n<h3>Il confronto: MLX vs. Ollama, Llama.cpp e LM Studio<\/h3>\n<p>Oltre a MLX, esistono diverse alternative consolidate per l'uso dell'IA locale su Mac, soprattutto Ollama, Llama.cpp e LM Studio. Ognuno di questi strumenti ha i suoi punti di forza, ma anche limiti specifici.<\/p>\n<h4>Ollama<\/h4>\n<p><a href=\"https:\/\/www.markus-schall.de\/it\/2025\/08\/locale-sul-mac-come-questo-1tp12per-creare-un-modello-linguistico-con-ollama\/\"><strong>Ollama<\/strong><\/a> \u00e8 particolarmente apprezzato dagli sviluppatori perch\u00e9 offre una semplice linea di comando e un'API REST. I modelli sono disponibili in formato GGUF, un formato di file ottimizzato per una rapida esecuzione su macchine locali. Ollama \u00e8 veloce da configurare, flessibile e supporta un'ampia gamma di modelli. Tuttavia, attualmente Ollama non funziona su Mac con il motore MLX, ma utilizza principalmente un backend basato su metallo tramite llama.cpp.<\/p>\n<p>Per i flussi di lavoro che richiedono l'automazione o il funzionamento senza testa (ad esempio, processi in esecuzione in background), la Ollama \u00e8 attualmente la prima scelta. Tuttavia, se si desidera utilizzare le ottimizzazioni proprie della Apple, \u00e8 necessario attendere le future integrazioni di MLX.<\/p>\n<h4>Llama.cpp<\/h4>\n<p>Questo progetto costituisce la base per molti altri strumenti (tra cui Ollama) e offre un motore di inferenza ad alte prestazioni per modelli GGUF. \u00c8 estremamente flessibile, ma non sempre facile da usare o da far funzionare, soprattutto per i principianti. Il grande vantaggio: esiste un'enorme comunit\u00e0, molte estensioni e uno sviluppo stabile.<\/p>\n<h4>Studio LM<\/h4>\n<p>Chiunque sia alla ricerca di un'interfaccia utente grafica, di solito si rivolge a LM Studio. Lo strumento combina il download, l'amministrazione e l'esecuzione dei modelli linguistici in un'applicazione snella e nativa di Mac, che include un'interfaccia di chat, la configurazione e la gestione dei modelli. Il punto forte: da qualche mese LM Studio supporta anche il motore MLX, consentendo di sfruttare appieno le ottimizzazioni di Apple su un Mac M1 o M2, con un consumo di RAM notevolmente inferiore rispetto a strumenti analoghi.<\/p>\n<p>LM Studio \u00e8 il punto d'ingresso ideale nel mondo dell'intelligenza artificiale locale, soprattutto per gli utenti che non vogliono scomodare i comandi da terminale, e in combinazione con MLX \u00e8 un vero e proprio punto di forza.<\/p>\n<h3>La messa a punto diventa facile: come FileMaker 2025 porta la formazione LoRA nella vita di tutti i giorni<\/h3>\n<p><a href=\"https:\/\/www.markus-schall.de\/it\/2025\/10\/lora-training-come-filemaker-2025-semplifica-la-messa-a-punto-di-modelli-linguistici-di-grandi-dimensioni\/\"><img loading=\"lazy\" decoding=\"async\" class=\"alignright size-medium wp-image-3222\" src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/lora-finetuning-filemaker-300x200.jpg\" alt=\"Messa a punto LoRA - FileMaker 2025\" width=\"300\" height=\"200\" srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/lora-finetuning-filemaker-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/lora-finetuning-filemaker-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/lora-finetuning-filemaker-18x12.jpg 18w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/lora-finetuning-filemaker.jpg 1024w\" sizes=\"auto, (max-width: 300px) 100vw, 300px\" \/><\/a>Mentre MLX e Ollama mostrano come i modelli linguistici possano essere utilizzati localmente e integrati nei processi esistenti, il passo successivo va ben oltre: la personalizzazione mirata di questi modelli ai propri dati. \u00c8 proprio qui che l'approccio con <a href=\"https:\/\/www.markus-schall.de\/it\/2025\/10\/lora-training-come-filemaker-2025-semplifica-la-messa-a-punto-di-modelli-linguistici-di-grandi-dimensioni\/\"><strong>FileMaker 2025 della filiale Apple Claris<\/strong><\/a> su. Invece di ambienti di formazione isolati, viene creata un'interfaccia strutturata in cui i record di dati, i parametri di formazione e le versioni del modello possono essere gestiti centralmente. \u00c8 possibile utilizzare processi chiaramente definiti per preparare, avviare e ripercorrere le sessioni di formazione LoRA, senza dover controllare manualmente ogni fase tramite script o linee di comando. Questo trasforma la messa a punto sperimentale in un flusso di lavoro riproducibile che pu\u00f2 essere integrato nei processi aziendali esistenti. Si tratta di un vantaggio decisivo, soprattutto per le aziende che lavorano con i propri dati: l'IA non rimane generica, ma viene addestrata specificamente per il proprio contesto.<\/p>\n<h3>Quando MLX su Silicon \u00e8 la scelta migliore<\/h3>\n<p>Mentre le soluzioni basate su GGUF (Ollama, Llama.cpp) sono molto flessibili e funzionano su molte piattaforme, MLX si distingue per la sua profonda integrazione nel mondo Apple. Particolarmente degni di nota sono:<\/p>\n<ul>\n<li>Utilizzo efficiente della memoria grazie alla memoria unificata<\/li>\n<li>Ottimizzazione per Metal\/GPU senza configurazione complessa<\/li>\n<li>Integrazione perfetta nei progetti Swift e nei framework Apple<\/li>\n<li>A prova di futuro, poich\u00e9 l'Apple sta sviluppando attivamente il quadro di riferimento.<\/li>\n<li>Espandibilit\u00e0, ad esempio attraverso modelli personalizzati, messa a punto e integrazione di sistemi.<\/li>\n<\/ul>\n<p>Per gli utenti Mac che desiderano pianificare a lungo termine e mantenere il pieno controllo sui propri dati, MLX \u00e8 gi\u00e0 un promettente ingresso nel mondo dell'intelligenza artificiale locale, con il potenziale per diventare lo standard in futuro.<\/p>\n<h3>Dall'intelligenza artificiale locale ai processi aziendali reali: Dove entrano in gioco i sistemi ERP<\/h3>\n<p><a href=\"https:\/\/www.markus-schall.de\/it\/software-erp\/\"><img loading=\"lazy\" decoding=\"async\" class=\"alignright wp-image-3182 size-medium\" src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/ERP-Software-300x200.jpg\" alt=\"Software ERP\" width=\"300\" height=\"200\" srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/ERP-Software-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ERP-Software-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ERP-Software-18x12.jpg 18w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ERP-Software.jpg 1024w\" sizes=\"auto, (max-width: 300px) 100vw, 300px\" \/><\/a>Un aspetto spesso sottovalutato in questo contesto: La vera forza dei sistemi di IA locali come MLX o Ollama non sta solo nel modello in s\u00e9, ma anche nella loro integrazione nei flussi di lavoro esistenti. Le interfacce e le API, in particolare, consentono di non utilizzare l'IA in modo isolato, ma di integrarla direttamente nei processi operativi, ad esempio nell'analisi dei dati, nell'automazione dei testi o nel supporto alle decisioni.<\/p>\n<p>\u00c8 proprio qui che un sistema ERP potente diventa l'anello centrale: fornisce i dati, struttura i processi e garantisce che i risultati dell'IA non solo vengano generati, ma anche elaborati in modo significativo. Chiunque voglia seriamente utilizzare l'IA locale in modo produttivo avr\u00e0 quindi bisogno di un sistema ben congegnato a lungo termine. Ulteriori informazioni sono disponibili alla pagina <a href=\"https:\/\/www.markus-schall.de\/it\/software-erp\/\"><strong>Software ERP<\/strong><\/a>, dove verr\u00e0 presentato un sistema ERP basato su FileMaker. Il server FileMaker supporta l'hosting dei modelli linguistici MLX a partire dalla versione 2025. <a href=\"https:\/\/www.markus-schall.de\/it\/2025\/09\/integrazione-di-mlx-in-filemaker-2025-local-ki-come-nuovo-standard\/\">direttamente sul server del database<\/a> e fornisce i comandi di script corrispondenti. Il software della filiale Apple Claris funziona su Apple Mac, Windows e dispositivi mobili iOS.<\/p>\n<h3>Una prospettiva: Dove vuole arrivare l'Apple con MLX e Apple Intelligence<\/h3>\n<p><a href=\"https:\/\/www.markus-schall.de\/it\/2026\/02\/se-il-mac-ascolta-cio-che-il-ki-integrato-di-apple-con-gemini-e-siri-significhera-per-gli-utenti-in-futuro\/\"><img loading=\"lazy\" decoding=\"async\" class=\"alignright size-medium wp-image-4859\" src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Apple-Siri-Gemini-300x200.jpg\" alt=\"Apple, Siri e Gemini\" width=\"300\" height=\"200\" srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Apple-Siri-Gemini-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Apple-Siri-Gemini-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Apple-Siri-Gemini-18x12.jpg 18w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Apple-Siri-Gemini.jpg 1024w\" sizes=\"auto, (max-width: 300px) 100vw, 300px\" \/><\/a>Con la WWDC 2025, Apple ha chiaramente segnalato che MLX non \u00e8 un espediente, ma un componente strategico nel crescente ecosistema Apple intorno all'IA. L'integrazione dei nuovi \u201eFoundation Models\u201c direttamente in macOS e iOS, il supporto nativo di Swift e l'ulteriore sviluppo di MLX in direzione dell'addestramento, della quantizzazione e dell'inferenza mostrano chiaramente che Apple vuole essere coinvolta, ma a modo suo. In un altro articolo, mostro dove <a href=\"https:\/\/www.markus-schall.de\/it\/2026\/02\/se-il-mac-ascolta-cio-che-il-ki-integrato-di-apple-con-gemini-e-siri-significhera-per-gli-utenti-in-futuro\/\"><strong>Apple con Siri e Gemini<\/strong><\/a> nell'ambito della partnership con Google.<\/p>\n<p>L'Apple rimane fedele alla sua linea: nessuna promessa spettacolare, ma una tecnologia solida e funzionante a livello locale che si dimostra valida a lungo termine. Per gli utenti professionali, questo non \u00e8 solo attraente, ma anche strategicamente molto interessante.<\/p>\n<p>MLX \u00e8 sulla buona strada per diventare la soluzione standard per l'intelligenza artificiale locale su Mac. Coloro che gi\u00e0 oggi lavorano con MLX hanno un vantaggio prezioso, sia per le applicazioni creative che per quelle tecniche o analitiche. In combinazione con strumenti come mlx-lm, LM Studio o la nuova API Swift, \u00e8 possibile creare un ambiente AI robusto, affidabile e a prova di futuro, in linea con il modo di lavorare controllato e sovrano dei dati che diventer\u00e0 sempre pi\u00f9 importante in futuro.<\/p>\n<hr \/>\n<h3>Indagine attuale sull'intelligenza artificiale<\/h3>\n<div class='bootstrap-yop yop-poll-mc'>\n\t\t\t\t\t\t\t<div class=\"basic-yop-poll-container\" style=\"background-color:#ffffff; border:0px; border-style:solid; border-color:#000000; border-radius:5px; padding:0px 5px;\" data-id=\"9\" data-temp=\"basic-pretty\" data-skin=\"square\" data-cscheme=\"blue\" data-cap=\"0\" data-access=\"guest\" data-tid=\"\" data-uid=\"bbfd94b8e344dcafd389a5a6aecb2b6e\" data-pid=\"4813\" data-resdet=\"votes-number,percentages\" data-show-results-to=\"guest\" data-show-results-moment=\"after-vote\" data-show-results-only=\"false\" data-show-message=\"true\" data-show-results-as=\"bar\" data-sort-results-by=\"as-defined\" data-sort-results-rule=\"asc\"data-is-ended=\"0\" data-percentages-decimals=\"2\" data-gdpr=\"no\" data-gdpr-sol=\"consent\" data-css=\".basic-yop-poll-container[data-uid] .basic-vote {\t\t\t\t\t\t\t\t\ttext-align: center;\t\t\t\t\t\t\t\t}\" data-counter=\"0\" data-load-with=\"1\" data-notification-section=\"top\"><div class=\"row\"><div class=\"col-md-12\"><div class=\"basic-inner\"><div class=\"basic-message hide\" style=\"border-left: 10px solid #008000; padding: 0px 10px;\" data-error=\"#ff0000\" data-success=\"#008000\"><p class=\"basic-message-text\" style=\"color:#000000; font-size:14px; font-weight:normal;\"><\/p><\/div><div class=\"basic-overlay hide\"><div class=\"basic-vote-options\"><\/div><div class=\"basic-preloader\"><div class=\"basic-windows8\"><div class=\"basic-wBall basic-wBall_1\"><div class=\"basic-wInnerBall\"><\/div><\/div><div class=\"basic-wBall basic-wBall_2\"><div class=\"basic-wInnerBall\"><\/div><\/div><div class=\"basic-wBall basic-wBall_3\"><div class=\"basic-wInnerBall\"><\/div><\/div><div class=\"basic-wBall basic-wBall_4\"><div class=\"basic-wInnerBall\"><\/div><\/div><div class=\"basic-wBall basic-wBall_5\"><div class=\"basic-wInnerBall\"><\/div><\/div><\/div><\/div><\/div><form class=\"basic-form\" action=\"\"><input type=\"hidden\" name=\"_token\" value=\"e03a75cc31\" autocomplete=\"off\"><div class=\"basic-elements\"><div class=\"basic-element basic-question basic-question-text-vertical\" data-id=\"9\" data-uid=\"9758531cd11ced7be1250b3ba31c2fa1\" data-type=\"question\" data-question-type=\"text\" data-required=\"yes\" data-allow-multiple=\"no\" data-min=\"1\" data-max=\"7\" data-display=\"vertical\" data-colnum=\"\" data-display-others=\"no\" data-others-color=\"\" data-others=\"\" data-others-max-chars=\"0\"><div class=\"basic-question-title\"><h5 style=\"color:#000000; font-size:16px; font-weight:normal; text-align:left;\">Cosa ne pensate del software di intelligenza artificiale in esecuzione locale, come MLX o Ollama?<\/h5><\/div><ul class=\"basic-answers\"><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"45\" data-type=\"text\" data-vn=\"148\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[45]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[45]\" name=\"answer[9]\" value=\"45\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">Ingenious - finalmente indipendente dal cloud<\/span><\/label><\/div><\/li><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"46\" data-type=\"text\" data-vn=\"29\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[46]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[46]\" name=\"answer[9]\" value=\"46\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">Interessante, ma (ancora) troppo complicato<\/span><\/label><\/div><\/li><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"47\" data-type=\"text\" data-vn=\"29\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[47]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[47]\" name=\"answer[9]\" value=\"47\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">Lo prover\u00f2 presto<\/span><\/label><\/div><\/li><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"48\" data-type=\"text\" data-vn=\"5\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[48]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[48]\" name=\"answer[9]\" value=\"48\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">Non ne ho bisogno: il cloud \u00e8 sufficiente per me.<\/span><\/label><\/div><\/li><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"49\" data-type=\"text\" data-vn=\"5\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[49]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[49]\" name=\"answer[9]\" value=\"49\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">Non so esattamente di cosa si tratti.<\/span><\/label><\/div><\/li><\/ul><\/div><div class=\"clearfix\"><\/div><\/div><div class=\"basic-vote\"><a href=\"#\" class=\"button basic-vote-button\" role=\"button\" style=\"background:#027bb8; border:0px; border-style: solid; border-color:#000000; border-radius:5px; padding:10px 10px; color:#ffffff; font-size:14px; font-weight:normal;\">Voto<\/a><\/div><input type=\"hidden\" name=\"trp-form-language\" value=\"it\"\/><\/form><\/div><\/div><\/div><\/div>\n\t\t\t\t\t\t<\/div>\n<hr \/>\n<h2>Utilizzo di MLX su Mac: semplici istruzioni per i principianti<\/h2>\n<p>Con MLX, Apple ha creato un nuovo sistema che consente di utilizzare l'intelligenza artificiale (AI) direttamente sul proprio Mac, senza connessione a Internet, senza cloud, senza dipendere da Google o OpenAI. Il bello \u00e8 che se avete un Mac con processore M1, M2, M3 o M4 (cio\u00e8 Apple Silicon), potete provare MLX in pochi passi. Tutto viene eseguito localmente: i testi, le domande e i dati non lasciano mai il computer.<\/p>\n<p>Qui spiego passo per passo come scaricare e utilizzare un cosiddetto modello linguistico con MLX. Sembra tecnico, ma vedrete che \u00e8 facile da fare.<\/p>\n<h3>Fase 1: Verifica dei requisiti<\/h3>\n<p>Per prima cosa \u00e8 necessario:<\/p>\n<ul>\n<li>Un Mac Apple Silicon (M1 o pi\u00f9 recente). \u00c8 possibile trovarlo nelle impostazioni di sistema alla voce \"Informazioni su questo Mac\".<\/li>\n<li>macOS 13 (Ventura) o pi\u00f9 recente.<\/li>\n<li>Una connessione Internet funzionante: solo per scaricare il modello, dopodich\u00e9 tutto funziona offline.<\/li>\n<li>Spazio di archiviazione, almeno circa 8-10 GB per un modello piccolo.<\/li>\n<\/ul>\n<p>\u00c8 inoltre necessario il programma \u201eTerminale\u201c, che \u00e8 gi\u00e0 installato in ogni Mac prima di 1TP12. Lo usiamo per inserire alcuni comandi. Potete trovarlo sul vostro Mac sotto \u201eApplicazioni\/Utility\u201c o semplicemente digitare  e poi \u201eTerminal\u201c e confermare con \u201eInvio\u201c. Non preoccupatevi: \u00e8 sufficiente copiare e incollare.<\/p>\n<h3>Fase 2: animali Python 1TP12 (solo se necessario)<\/h3>\n<p>MLX funziona con il linguaggio di programmazione Python. Molti Mac dispongono gi\u00e0 di Python installiert. \u00c8 possibile verificare se \u00e8 disponibile inserendo il seguente comando nel terminale:<\/p>\n<pre class=\"notranslate\" data-no-translation=\"\">python3 --version<\/pre>\n<p>Se si ottiene un numero di versione (ad esempio, Python 3.10.6), si pu\u00f2 continuare direttamente.<\/p>\n<p>In caso contrario, vi consiglio di utilizzare Homebrew to installieren (uno strumento molto diffuso per i programmi su Mac). Per farlo, digitate nel terminale:<\/p>\n<pre class=\"notranslate\" data-no-translation=\"\">\/bin\/bash -c \"$(curl -fsSL https:\/\/raw.githubusercontent.com\/Homebrew\/install\/HEAD\/install.sh)\"<\/pre>\n<p>Poi installier con il pitone:<\/p>\n<pre class=\"notranslate\" data-no-translation=\"\">brew install python<\/pre>\n<h3>Fase 3: Strumento MLX 1TP12Animal<\/h3>\n<p>Ora scarichiamo lo strumento MLX con il quale \u00e8 possibile utilizzare successivamente il modello linguistico. Per fare ci\u00f2, installier un piccolo programma chiamato mlx-lm. Inserirlo nel terminale:<\/p>\n<pre class=\"notranslate\" data-no-translation=\"\">pip3 install mlx-lm<\/pre>\n<p>L'operazione richieder\u00e0 alcuni secondi. Al termine, si \u00e8 pronti a caricare un modello.<\/p>\n<p>Passo 4: scaricare e avviare un modello<\/p>\n<p>Ora arriva la parte pi\u00f9 eccitante: si ottiene un vero modello linguistico sul Mac, ad esempio una versione di Mistral, un modello di intelligenza artificiale molto potente e disponibile gratuitamente. \u00c8 sufficiente inserirlo nel terminale:<\/p>\n<pre class=\"notranslate\" data-no-translation=\"\">mlx_lm.chat --model mlx-community\/Mistral-7B-Instruct-v0.3-4bit<\/pre>\n<p>Questo comando esegue tre operazioni:<\/p>\n<ul>\n<li>Il modello viene scaricato automaticamente (una tantum).<\/li>\n<li>\u00c8 stato preparato e avviato.<\/li>\n<li>Si finisce in una finestra di chat nel terminale, dove si possono porre domande - simile a ChatGPT.<\/li>\n<\/ul>\n<p>Al termine del download (che pu\u00f2 richiedere alcuni minuti a seconda della velocit\u00e0 di Internet), si vedr\u00e0 un cursore lampeggiante. A questo punto \u00e8 possibile scrivere, ad esempio:<\/p>\n<p><em>Mi parli della storia di Venezia.<\/em><\/p>\n<p>... e il modello risponde direttamente, completamente offline.<\/p>\n<h3>Fase 5: continuare a lavorare con il modello<\/h3>\n<p>Al termine, \u00e8 possibile terminare la chat digitando exit o chiudendo la finestra. In seguito, \u00e8 possibile riutilizzare lo stesso modello senza scaricarlo di nuovo, semplicemente digitando di nuovo lo stesso comando. Il modello \u00e8 ora memorizzato localmente sul Mac e vi rimane.<br \/>\nSe desiderate provare diversi modelli, potete farlo tramite <strong><a href=\"https:\/\/huggingface.co\" target=\"_blank\" rel=\"noopener\">Viso abbracciato<\/a><\/strong> oppure modificare il nome del modello direttamente nella riga del terminale, ad es:<\/p>\n<pre class=\"notranslate\" data-no-translation=\"\">mlx_lm.chat --model mlx-community\/Phi-2-4bit<\/pre>\n<p>Ogni modello ha uno stile diverso: alcuni sono fattuali, altri sono pi\u00f9 creativi o orientati al dialogo.<\/p>\n<h2>Ancora pi\u00f9 semplice? Utilizzare LM Studio come interfaccia<\/h2>\n<p>Se preferite lavorare con un mouse e una finestra, potete anche provare il programma LM Studio. Ha una bella interfaccia, supporta MLX (su Apple Silicon) e consente di scaricare e utilizzare i modelli con un clic.<\/p>\n<p>Potete trovare LM Studio qui:<\/p>\n<p>\ud83d\udc49 <a href=\"https:\/\/lmstudio.ai\/\" target=\"_blank\" rel=\"noopener\"><strong>https:\/\/lmstudio.ai\/<\/strong><\/a><\/p>\n<p>Dopo l'installazione, \u00e8 possibile selezionare \u201eMLX\u201c come motore nelle impostazioni: il programma utilizza quindi la stessa tecnologia di cui sopra, ma in una finestra graziosa con un campo di chat.<\/p>\n<p>Ce l'avete fatta: ora state utilizzando una moderna IA completamente in locale sul vostro Mac, senza alcun cloud o abbonamento. Apple MLX consente di utilizzare i modelli linguistici in modo efficiente, sicuro e con la massima protezione dei dati.<\/p>\n<p>Se in seguito volete andare ancora pi\u00f9 a fondo - ad esempio addestrare i vostri modelli, migliorarli con i vostri testi o integrarli nel vostro software (come FileMaker) - allora MLX \u00e8 la scelta giusta per voi. Ma il primo passo \u00e8 fatto: avete di nuovo il controllo e una potente intelligenza artificiale direttamente sul vostro computer.<\/p>\n<h3>Dal modello locale alla vera memoria AI<\/h3>\n<p><a href=\"https:\/\/www.markus-schall.de\/it\/2026\/03\/lesportazione-dei-dati-di-chatgpt-spiega-come-le-vostre-chat-di-ki-diventano-un-sistema-di-conoscenza-personale\/\"><img loading=\"lazy\" decoding=\"async\" class=\"alignright wp-image-5296 size-medium\" src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/ChatGPT-Datenexport-300x200.jpg\" alt=\"Esportazione dei dati ChatGPT\" width=\"300\" height=\"200\" srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/ChatGPT-Datenexport-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ChatGPT-Datenexport-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ChatGPT-Datenexport-18x12.jpg 18w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ChatGPT-Datenexport.jpg 1024w\" sizes=\"auto, (max-width: 300px) 100vw, 300px\" \/><\/a>L'articolo su MLX mostra chiaramente quanto sia diventata potente l'IA locale direttamente sull'hardware Apple, soprattutto grazie alla stretta integrazione con l'architettura dell'Apple Silicon e ai framework ottimizzati. L'Ollama si concentra maggiormente sull'integrazione semplice, sulle API e sui flussi di lavoro flessibili, mentre MLX \u00e8 profondamente integrato nell'ecosistema dell'Apple e offre un enorme potenziale a lungo termine. \u00c8 proprio qui che entra in gioco la nuova serie di articoli: Si spinge oltre e mostra come questi modelli di IA locali possano essere ampliati per includere una vera e propria \u201ememoria\u201c. Invece di limitarsi a eseguire i modelli, si costruisce una base di conoscenza che <a href=\"https:\/\/www.markus-schall.de\/it\/2026\/03\/lesportazione-dei-dati-di-chatgpt-spiega-come-le-vostre-chat-di-ki-diventano-un-sistema-di-conoscenza-personale\/\"><strong>l'esportazione dei dati della cronologia delle chat da ChatGPT<\/strong><\/a>\u00a0e lo rende semanticamente ricercabile. In questo modo l'intelligenza artificiale locale non \u00e8 solo uno strumento, ma un sistema personale che cresce con le vostre conoscenze.<\/p>\n<hr \/>\n\n\t\t\t<div class=\"display-post-types\">\n\n\t\t\t\t\t\t\t<style type=\"text\/css\">\n\t\t\t#dpt-wrapper-320 { --dpt-text-align: left;--dpt-image-crop: center;--dpt-border-radius: 5px;--dpt-h-gutter: 10px;--dpt-v-gutter: 9px; }\t\t\t<\/style>\n\t\t\t<style type=\"text\/css\">#dpt-wrapper-320 { --dpt-title-font-style:normal;--dpt-title-font-weight:600;--dpt-title-line-height:1.5;--dpt-title-text-decoration:none;--dpt-title-text-transform:none;--dpt-excerpt-font-style:normal;--dpt-excerpt-font-weight:400;--dpt-excerpt-line-height:1.5;--dpt-excerpt-text-decoration:none;--dpt-excerpt-text-transform:none;--dpt-meta1-font-style:normal;--dpt-meta1-font-weight:400;--dpt-meta1-line-height:1.9;--dpt-meta1-text-decoration:none;--dpt-meta1-text-transform:none;--dpt-meta2-font-style:normal;--dpt-meta2-font-weight:400;--dpt-meta2-line-height:1.9;--dpt-meta2-text-decoration:none;--dpt-meta2-text-transform:none; }<\/style><div class=\"dpt-main-header\">\n\t\t\t\t\t\t<div class=\"dpt-main-title\">\n\t\t\t\t\t\t\t<span class=\"dpt-main-title-text\">Problemi sociali del presente<\/span>\n\t\t\t\t\t\t<\/div>\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t<\/div>\t\t\t\n\t\t\t\t<div id=\"dpt-wrapper-320\" class=\"dpt-wrapper dpt-mag1 land1 dpt-cropped dpt-flex-wrap\" >\n\n\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"elektroauto, hybrid und e-roller: eine realistische betrachtung jenseits der ideologie\" data-id=\"4255\"  data-category=\"allgemein gesellschaft tipps &amp; anleitungen\" data-post_tag=\"energiepolitik erfahrungen prozesse ratgeber\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/it\/2026\/01\/auto-elettrica-ibrida-e-scooter-elettrico-una-visione-realistica-al-di-la-dellideologia\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Auto elettrica, ibrida ed e-scooter: una visione realistica al di l\u00e0 dell'ideologia<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Elettromobilit\u00e0 - e-scooter\/scooter, ibrido, auto elettrica\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Elektromobilitaet-Titel.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Elektromobilitaet-Titel.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Elektromobilitaet-Titel-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Elektromobilitaet-Titel-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Elektromobilitaet-Titel-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/it\/2026\/01\/auto-elettrica-ibrida-e-scooter-elettrico-una-visione-realistica-al-di-la-dellideologia\/\" rel=\"bookmark\">Auto elettrica, ibrida ed e-scooter: una visione realistica al di l\u00e0 dell'ideologia<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"deine meinung z\u00e4hlt &#8211; neue umfragen zu aktuellen themen\" data-id=\"3383\"  data-category=\"allgemein b\u00fccher gesellschaft\" data-post_tag=\"buch cmd erfahrungen gesundheit krisen meinungsfreiheit\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/it\/2025\/11\/la-vostra-opinione-conta-nuovi-sondaggi-su-temi-di-attualita\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">La vostra opinione conta - Nuovi sondaggi su temi di attualit\u00e0<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Sondaggi su temi attuali\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/umfragen-aktuell.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/umfragen-aktuell.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/umfragen-aktuell-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/umfragen-aktuell-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/umfragen-aktuell-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/it\/2025\/11\/la-vostra-opinione-conta-nuovi-sondaggi-su-temi-di-attualita\/\" rel=\"bookmark\">La vostra opinione conta - Nuovi sondaggi su temi di attualit\u00e0<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"gelenkt im alltag &#8211; wie moderne verkaufstricks unser verhalten steuern\" data-id=\"5750\"  data-category=\"allgemein gesellschaft stories &amp; humor\" data-post_tag=\"denkmodelle erfahrungen pers\u00f6nlichkeitsentwicklung prozesse ratgeber\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/it\/2026\/04\/guidato-nella-vita-di-tutti-i-giorni-come-i-moderni-trucchi-di-vendita-controllano-il-nostro-comportamento\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Guidati nella vita quotidiana - Come i moderni trucchi di vendita controllano il nostro comportamento<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Trucchi di vendita al supermercato e online\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Verkaufstricks.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Verkaufstricks.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Verkaufstricks-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Verkaufstricks-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Verkaufstricks-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/it\/2026\/04\/guidato-nella-vita-di-tutti-i-giorni-come-i-moderni-trucchi-di-vendita-controllano-il-nostro-comportamento\/\" rel=\"bookmark\">Guidati nella vita quotidiana - Come i moderni trucchi di vendita controllano il nostro comportamento<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"der iran-israel-konflikt: warum diese eskalation der strategische albtraum des westens ist\" data-id=\"5212\"  data-category=\"allgemein gesellschaft\" data-post_tag=\"denkmodelle energiepolitik europa geopolitik krisen k\u00fcnstliche intelligenz meinungsfreiheit sicherheitspolitik spieltheorie\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/it\/2026\/03\/il-conflitto-iran-israele-perche-questa-escalation-e-lincubo-strategico-delloccidente\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Il conflitto Iran-Israele: perch\u00e9 questa escalation \u00e8 l'incubo strategico dell'Occidente<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Israele-Iran - Incubo strategico\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Israel-Iran-Strategischer-Albtraum.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Israel-Iran-Strategischer-Albtraum.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Israel-Iran-Strategischer-Albtraum-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Israel-Iran-Strategischer-Albtraum-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Israel-Iran-Strategischer-Albtraum-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/it\/2026\/03\/il-conflitto-iran-israele-perche-questa-escalation-e-lincubo-strategico-delloccidente\/\" rel=\"bookmark\">Il conflitto Iran-Israele: perch\u00e9 questa escalation \u00e8 l'incubo strategico dell'Occidente<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\n\t\t\t\t<\/div>\n\t\t\t\t\t\t<\/div>\n\t\t\t\n<hr \/>\n<h2>Domande frequenti<\/h2>\n<ol>\n<li><strong>Che cos'\u00e8 esattamente MLX e come si differenzia da PyTorch o TensorFlow?<\/strong><br \/>\nMLX \u00e8 un framework per l'apprendimento automatico sviluppato da Apple e ottimizzato appositamente per Apple Silicon (M1-M4). A differenza di PyTorch o TensorFlow, che si rivolgono a molte piattaforme, MLX utilizza specificamente l'architettura dei chip Apple, ad esempio la struttura di memoria comune (memoria unificata) e l'accelerazione GPU in metallo. Di conseguenza, funziona in modo pi\u00f9 efficiente dal punto di vista della memoria e pi\u00f9 veloce sui Mac, ma solo su hardware Apple.<\/li>\n<li><strong>Perch\u00e9 scegliere MLX rispetto a uno strumento come Ollama o Llama.cpp?<\/strong><br \/>\nMLX \u00e8 un vantaggio se si lavora specificamente su Apple Silicon e si vogliono ottenere le massime prestazioni dal dispositivo. Ollama e Llama.cpp sono molto flessibili, ma spesso vengono eseguiti in modo meno efficiente sul Mac. MLX pu\u00f2 anche essere integrato direttamente nei progetti Swift, ideale per gli sviluppatori che realizzano applicazioni vicine all'Apple. Non \u00e8 un concorrente dell'Ollama, ma uno strumento specializzato per i professionisti.<\/li>\n<li><strong>Quali modelli sono compatibili con MLX?<\/strong><br \/>\nSono compatibili molti modelli linguistici aperti, come Mistral, LLaMA 2 e 3, Phi-2 o TinyLLaMA, che sono gi\u00e0 convertiti o possono essere convertiti con lo strumento mlx-lm.convert. \u00c8 importante che siano disponibili in formato NumPy-ZIP (.npz) e che siano preparati per MLX. Per i modelli compatibili con MLX esiste ora una sezione separata su Hugging Face.<\/li>\n<li><strong>Quanto \u00e8 facile iniziare? Devo essere uno sviluppatore?<\/strong><br \/>\n\u00c8 utile un po' di comprensione tecnica, ad esempio per il terminale, gli ambienti Python o i nomi dei modelli. Ma iniziare \u00e8 relativamente facile grazie a mlx-lm: un comando di installazione, un comando di avvio e il gioco \u00e8 fatto. Se si preferisce lavorare con un'interfaccia utente, si pu\u00f2 usare LM Studio, che ora supporta MLX anche su Mac.<\/li>\n<li><strong>Posso addestrare MLX anche per i miei progetti, ad esempio con i miei testi?<\/strong><br \/>\nS\u00ec, \u00e8 possibile, ma l'addestramento \u00e8 attualmente destinato pi\u00f9 agli utenti avanzati. La maggior parte degli utenti utilizza i modelli MLX per l'inferenza (cio\u00e8 per le risposte, la generazione di testi, ecc.). Per l'addestramento o la messa a punto \u00e8 necessario avere familiarit\u00e0 con LoRA, i formati dei dati (JSONL) e i requisiti di memoria, oppure utilizzare strumenti come FileMaker 2025, che semplificano questo processo.<\/li>\n<li><strong>Che ne \u00e8 della sicurezza e della protezione dei dati in MLX?<\/strong><br \/>\nMolto bene, perch\u00e9 MLX funziona completamente a livello locale. Tutti i dati, gli input e le risposte del modello rimangono sul vostro computer. Non c'\u00e8 trasferimento su cloud, n\u00e9 API esterna: l'ideale per progetti sensibili ai dati, documenti interni, dati protetti dei clienti o note riservate.<\/li>\n<li><strong>Che ruolo ha l'Apple in tutto questo? MLX sar\u00e0 ulteriormente sviluppato?<\/strong><br \/>\nApple ha pubblicato MLX con una licenza aperta e lo sta sviluppando attivamente, soprattutto in connessione con Apple Intelligence, il sistema di intelligenza artificiale per macOS, iOS e iPadOS. Alla WWDC 2025, MLX \u00e8 stato presentato come framework ufficiale per l'integrazione di modelli linguistici personalizzati nel software Apple. Si pu\u00f2 presumere che MLX continuer\u00e0 ad acquisire importanza nel mondo Apple.<\/li>\n<li><strong>\u00c8 possibile combinare MLX con altri strumenti, ad esempio Neo4j, n8n o FileMaker?<\/strong><br \/>\nS\u00ec, MLX \u00e8 un framework ML puro, ma pu\u00f2 essere collegato ad altri strumenti tramite API REST, servizi Python personalizzati o wrapper locali. Ad esempio, \u00e8 possibile integrarlo nella propria automazione (n8n), in un database semantico (Neo4j) o in soluzioni FileMaker - quest'ultimo \u00e8 ora disponibile anche in modo nativo con FileMaker 2025.<\/li>\n<\/ol>\n<p>Immagine (c) Monoar_CGI_Artist @ pixabay<\/p>\n<hr \/>\n\n\t\t\t<div class=\"display-post-types\">\n\n\t\t\t\t\t\t\t<style type=\"text\/css\">\n\t\t\t#dpt-wrapper-321 { --dpt-text-align: left;--dpt-image-crop: center;--dpt-border-radius: 5px;--dpt-h-gutter: 10px;--dpt-v-gutter: 9px; }\t\t\t<\/style>\n\t\t\t<style type=\"text\/css\">#dpt-wrapper-321 { --dpt-title-font-style:normal;--dpt-title-font-weight:600;--dpt-title-line-height:1.5;--dpt-title-text-decoration:none;--dpt-title-text-transform:none;--dpt-excerpt-font-style:normal;--dpt-excerpt-font-weight:400;--dpt-excerpt-line-height:1.5;--dpt-excerpt-text-decoration:none;--dpt-excerpt-text-transform:none;--dpt-meta1-font-style:normal;--dpt-meta1-font-weight:400;--dpt-meta1-line-height:1.9;--dpt-meta1-text-decoration:none;--dpt-meta1-text-transform:none;--dpt-meta2-font-style:normal;--dpt-meta2-font-weight:400;--dpt-meta2-line-height:1.9;--dpt-meta2-text-decoration:none;--dpt-meta2-text-transform:none; }<\/style><div class=\"dpt-main-header\">\n\t\t\t\t\t\t<div class=\"dpt-main-title\">\n\t\t\t\t\t\t\t<span class=\"dpt-main-title-text\">Articoli attuali su arte e cultura<\/span>\n\t\t\t\t\t\t<\/div>\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t<\/div>\t\t\t\n\t\t\t\t<div id=\"dpt-wrapper-321\" class=\"dpt-wrapper dpt-mag1 land1 dpt-cropped dpt-flex-wrap\" >\n\n\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"jan-josef liefers: ein portr\u00e4t \u00fcber haltung, herkunft und k\u00fcnstlerische freiheit\" data-id=\"3854\"  data-category=\"allgemein gesellschaft kunst &amp; kultur\" data-post_tag=\"deutschland erfahrungen krisen lernen meinungsfreiheit musik pers\u00f6nlichkeitsentwicklung portrait\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/it\/2025\/12\/jan-josef-liefers-un-ritratto-di-atteggiamento-origine-e-liberta-artistica\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Jan-Josef Liefers: un ritratto di atteggiamento, origini e libert\u00e0 artistica<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Jan-Josef Liefers\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/jan-josef-liefers-silhouette.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/jan-josef-liefers-silhouette.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/jan-josef-liefers-silhouette-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/jan-josef-liefers-silhouette-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/jan-josef-liefers-silhouette-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/it\/2025\/12\/jan-josef-liefers-un-ritratto-di-atteggiamento-origine-e-liberta-artistica\/\" rel=\"bookmark\">Jan-Josef Liefers: un ritratto di atteggiamento, origini e libert\u00e0 artistica<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"spieltheorie erkl\u00e4rt 25 jahre geopolitik: wie europa seine strategische rolle verlor\" data-id=\"3850\"  data-category=\"allgemein gesellschaft kunst &amp; kultur\" data-post_tag=\"denkmodelle deutschland energiepolitik eu-gesetze europa geopolitik krisen sicherheitspolitik spieltheorie\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/it\/2025\/12\/la-teoria-dei-giochi-spiega-25-anni-di-geopolitica-come-leuropa-ha-perso-il-suo-ruolo-strategico\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">La teoria dei giochi spiega 25 anni di geopolitica: come l'Europa ha perso il suo ruolo strategico<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"765\" class=\"attachment-full size-full\" alt=\"La teoria dei giochi spiega 25 anni di geopolitica\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/europa-russland-spieltheorie.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/europa-russland-spieltheorie.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/europa-russland-spieltheorie-300x224.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/europa-russland-spieltheorie-768x574.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/europa-russland-spieltheorie-16x12.jpg 16w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/it\/2025\/12\/la-teoria-dei-giochi-spiega-25-anni-di-geopolitica-come-leuropa-ha-perso-il-suo-ruolo-strategico\/\" rel=\"bookmark\">La teoria dei giochi spiega 25 anni di geopolitica: come l'Europa ha perso il suo ruolo strategico<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"propaganda: geschichte, methoden, moderne formen und wie man sie erkennt\" data-id=\"4229\"  data-category=\"allgemein gesellschaft kunst &amp; kultur\" data-post_tag=\"denkmodelle energiepolitik europa geopolitik krisen meinungsfreiheit pers\u00f6nlichkeitsentwicklung sicherheitspolitik spieltheorie\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/it\/2026\/01\/storia-della-propaganda-metodi-forme-moderne-e-come-riconoscerle\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Propaganda: storia, metodi, forme moderne e come riconoscerle<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Che cos&#039;\u00e8 la propaganda?\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Propaganda-titel.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Propaganda-titel.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Propaganda-titel-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Propaganda-titel-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Propaganda-titel-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/it\/2026\/01\/storia-della-propaganda-metodi-forme-moderne-e-come-riconoscerle\/\" rel=\"bookmark\">Propaganda: storia, metodi, forme moderne e come riconoscerle<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"reichweite ist kein eigentum &#8211; warum sichtbarkeit heute nicht mehr ausreicht\" data-id=\"3994\"  data-category=\"allgemein filemaker &amp; erp gesellschaft kunst &amp; kultur\" data-post_tag=\"datenlogik datenschutz denkmodelle digitales eigentum erp-software\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/it\/2025\/12\/reach-is-not-ownership-perche-oggi-la-visibilita-non-e-piu-sufficiente\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Reach is not ownership - Perch\u00e9 oggi la visibilit\u00e0 non \u00e8 pi\u00f9 sufficiente<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Raggiungere e possedere\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/reichweite-vs-eigentum.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/reichweite-vs-eigentum.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/reichweite-vs-eigentum-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/reichweite-vs-eigentum-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/reichweite-vs-eigentum-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/it\/2025\/12\/reach-is-not-ownership-perche-oggi-la-visibilita-non-e-piu-sufficiente\/\" rel=\"bookmark\">Reach is not ownership - Perch\u00e9 oggi la visibilit\u00e0 non \u00e8 pi\u00f9 sufficiente<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\n\t\t\t\t<\/div>\n\t\t\t\t\t\t<\/div>\n\t\t\t\n<hr \/>","protected":false},"excerpt":{"rendered":"<p>In einer Zeit, in der zentrale KI-Dienste wie ChatGPT, Claude oder Gemini die Schlagzeilen beherrschen, w\u00e4chst bei vielen professionellen Anwendern das Bed\u00fcrfnis nach einem Gegenpol &#8211; einer lokalen, selbst kontrollierbaren KI-Infrastruktur. Gerade f\u00fcr kreative Prozesse, sensible Daten oder wiederkehrende Arbeitsabl\u00e4ufe ist eine lokale L\u00f6sung oft die nachhaltigere und sicherere Option. Wer mit einem Mac arbeitet &#8230; <a title=\"Reach is not ownership - Perch\u00e9 oggi la visibilit\u00e0 non \u00e8 pi\u00f9 sufficiente\" class=\"read-more\" href=\"https:\/\/www.markus-schall.de\/it\/2025\/12\/reach-is-not-ownership-perche-oggi-la-visibilita-non-e-piu-sufficiente\/\" aria-label=\"Per saperne di pi\u00f9 su Reach is not ownership - Perch\u00e9 oggi la visibilit\u00e0 non \u00e8 pi\u00f9 sufficiente\">Leggi tutto<\/a><\/p>","protected":false},"author":1,"featured_media":2865,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"iawp_total_views":8546,"footnotes":""},"categories":[15,431],"tags":[469,471,435,433,437,465,432,434],"class_list":["post-2857","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-apple-macos","category-ki-systeme","tag-datenschutz","tag-kuenstliche-intelligenz","tag-llama","tag-llm","tag-mistral","tag-mlx","tag-ollama","tag-sprachmodell"],"_links":{"self":[{"href":"https:\/\/www.markus-schall.de\/it\/wp-json\/wp\/v2\/posts\/2857","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.markus-schall.de\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.markus-schall.de\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.markus-schall.de\/it\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.markus-schall.de\/it\/wp-json\/wp\/v2\/comments?post=2857"}],"version-history":[{"count":24,"href":"https:\/\/www.markus-schall.de\/it\/wp-json\/wp\/v2\/posts\/2857\/revisions"}],"predecessor-version":[{"id":5975,"href":"https:\/\/www.markus-schall.de\/it\/wp-json\/wp\/v2\/posts\/2857\/revisions\/5975"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.markus-schall.de\/it\/wp-json\/wp\/v2\/media\/2865"}],"wp:attachment":[{"href":"https:\/\/www.markus-schall.de\/it\/wp-json\/wp\/v2\/media?parent=2857"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.markus-schall.de\/it\/wp-json\/wp\/v2\/categories?post=2857"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.markus-schall.de\/it\/wp-json\/wp\/v2\/tags?post=2857"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}