{"id":2857,"date":"2025-09-13T08:40:51","date_gmt":"2025-09-13T08:40:51","guid":{"rendered":"https:\/\/www.markus-schall.de\/?p=2857"},"modified":"2026-05-02T05:48:17","modified_gmt":"2026-05-02T05:48:17","slug":"mlx-en-silicio-de-manzana-como-ki-local-comparado-con-ollama-co","status":"publish","type":"post","link":"https:\/\/www.markus-schall.de\/es\/2025\/09\/mlx-en-silicio-de-manzana-como-ki-local-comparado-con-ollama-co\/","title":{"rendered":"MLX en Apple Silicon como IA local en comparaci\u00f3n con Ollama &amp; Co."},"content":{"rendered":"<p>En un momento en el que los servicios de IA centralizados como ChatGPT, Claude o Gemini dominan los titulares, muchos usuarios profesionales tienen una necesidad creciente de una alternativa: una infraestructura de IA local y autocontrolable. Especialmente para procesos creativos, datos sensibles o flujos de trabajo recurrentes, una soluci\u00f3n local suele ser la opci\u00f3n m\u00e1s sostenible y segura.<\/p>\n<p>Cualquiera que trabaje con un Mac -especialmente con Apple Silicon (M1, M2, M3 o M4)- puede encontrar ahora herramientas asombrosamente potentes para ejecutar sus propios modelos ling\u00fc\u00edsticos directamente en el dispositivo. En el centro de todo ello se encuentra un componente nuevo y en gran medida desconocido: MLX, un marco de aprendizaje autom\u00e1tico desarrollado por Apple que probablemente desempe\u00f1ar\u00e1 un papel cada vez m\u00e1s central en el ecosistema de IA de la empresa en los pr\u00f3ximos a\u00f1os.<!--more--><\/p>\n<hr \/>\n\n\t\t\t<div class=\"display-post-types\">\n\n\t\t\t\t\t\t\t<style type=\"text\/css\">\n\t\t\t#dpt-wrapper-229 { --dpt-text-align: left;--dpt-image-crop: center;--dpt-border-radius: 5px;--dpt-h-gutter: 10px;--dpt-v-gutter: 9px; }\t\t\t<\/style>\n\t\t\t<style type=\"text\/css\">#dpt-wrapper-229 { --dpt-title-font-style:normal;--dpt-title-font-weight:600;--dpt-title-line-height:1.5;--dpt-title-text-decoration:none;--dpt-title-text-transform:none;--dpt-excerpt-font-style:normal;--dpt-excerpt-font-weight:400;--dpt-excerpt-line-height:1.5;--dpt-excerpt-text-decoration:none;--dpt-excerpt-text-transform:none;--dpt-meta1-font-style:normal;--dpt-meta1-font-weight:400;--dpt-meta1-line-height:1.9;--dpt-meta1-text-decoration:none;--dpt-meta1-text-transform:none;--dpt-meta2-font-style:normal;--dpt-meta2-font-weight:400;--dpt-meta2-line-height:1.9;--dpt-meta2-text-decoration:none;--dpt-meta2-text-transform:none; }<\/style><div class=\"dpt-main-header\">\n\t\t\t\t\t\t<div class=\"dpt-main-title\">\n\t\t\t\t\t\t\t<span class=\"dpt-main-title-text\">Art\u00edculos de actualidad sobre inteligencia artificial<\/span>\n\t\t\t\t\t\t<\/div>\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t<\/div>\t\t\t\n\t\t\t\t<div id=\"dpt-wrapper-229\" class=\"dpt-wrapper dpt-mag1 land1 dpt-cropped dpt-flex-wrap\" >\n\n\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"lokale ki auf dem mac: so installieren sie ein sprachmodell mit ollama\" data-id=\"2442\"  data-category=\"ki-systeme tipps &amp; anleitungen\" data-post_tag=\"datenschutz k\u00fcnstliche intelligenz llama llm mac mistral ollama sprachmodell\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/es\/2025\/08\/ki-local-en-el-mac-asi-1tp12para-crear-un-modelo-lingueistico-con-ollama\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">IA local en el Mac: c\u00f3mo installiere un modelo ling\u00fc\u00edstico con Ollama<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"AI local installieren con Ollama en el Mac\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Lokale-KI-auf-Apple-Mac.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Lokale-KI-auf-Apple-Mac.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Lokale-KI-auf-Apple-Mac-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Lokale-KI-auf-Apple-Mac-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Lokale-KI-auf-Apple-Mac-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/es\/2025\/08\/ki-local-en-el-mac-asi-1tp12para-crear-un-modelo-lingueistico-con-ollama\/\" rel=\"bookmark\">IA local en el Mac: c\u00f3mo installiere un modelo ling\u00fc\u00edstico con Ollama<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"wie man heute schon ki-spezialisten ausbilden kann \u2013 chancen f\u00fcr unternehmen und azubis\" data-id=\"3120\"  data-category=\"allgemein b\u00fccher ki-systeme tipps &amp; anleitungen\" data-post_tag=\"buch datenbanken datenlogik denkmodelle k\u00fcnstliche intelligenz llm sprachmodell\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/es\/2025\/10\/como-formar-hoy-a-especialistas-en-ki-oportunidades-para-empresas-y-becarios\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">C\u00f3mo pueden formarse hoy los especialistas en IA: oportunidades para empresas y aprendices<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Formar a especialistas en IA\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/ki-spezialist-ausbildung.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/ki-spezialist-ausbildung.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ki-spezialist-ausbildung-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ki-spezialist-ausbildung-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ki-spezialist-ausbildung-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/es\/2025\/10\/como-formar-hoy-a-especialistas-en-ki-oportunidades-para-empresas-y-becarios\/\" rel=\"bookmark\">C\u00f3mo pueden formarse hoy los especialistas en IA: oportunidades para empresas y aprendices<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"unsterblichkeit durch technik: wie weit forschung und ki wirklich sind\" data-id=\"3624\"  data-category=\"allgemein gesellschaft ki-systeme\" data-post_tag=\"denkmodelle k\u00fcnstliche intelligenz lernen llm prozesse sprachmodell\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/es\/2025\/11\/inmortalidad-a-traves-de-la-tecnologia-hasta-donde-llegan-realmente-la-investigacion-y-el-ki\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">La inmortalidad a trav\u00e9s de la tecnolog\u00eda: hasta d\u00f3nde han llegado realmente la investigaci\u00f3n y la IA<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Inmortalidad digital\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/digitale-unsterblichkeit.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/digitale-unsterblichkeit.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/digitale-unsterblichkeit-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/digitale-unsterblichkeit-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/digitale-unsterblichkeit-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/es\/2025\/11\/inmortalidad-a-traves-de-la-tecnologia-hasta-donde-llegan-realmente-la-investigacion-y-el-ki\/\" rel=\"bookmark\">La inmortalidad a trav\u00e9s de la tecnolog\u00eda: hasta d\u00f3nde han llegado realmente la investigaci\u00f3n y la IA<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"warum ein eigenes magazin f\u00fcr unternehmen heute wichtiger ist als werbung\" data-id=\"4476\"  data-category=\"gesellschaft ki-systeme tipps &amp; anleitungen\" data-post_tag=\"datenlogik datenschutz digitales eigentum k\u00fcnstliche intelligenz ratgeber\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/es\/2026\/01\/por-que-una-revista-de-empresa-es-hoy-mas-importante-que-la-publicidad\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Por qu\u00e9 tener una revista propia es hoy m\u00e1s importante para las empresas que la publicidad<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"La revista como propiedad\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/magazin-gastbeitraege.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/magazin-gastbeitraege.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/magazin-gastbeitraege-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/magazin-gastbeitraege-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/magazin-gastbeitraege-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/es\/2026\/01\/por-que-una-revista-de-empresa-es-hoy-mas-importante-que-la-publicidad\/\" rel=\"bookmark\">Por qu\u00e9 tener una revista propia es hoy m\u00e1s importante para las empresas que la publicidad<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\n\t\t\t\t<\/div>\n\t\t\t\t\t\t<\/div>\n\t\t\t\n<hr \/>\n<h2>\u00daltimas noticias sobre MLX y Ollama<\/h2>\n<p><strong>02.05.2026<\/strong>En un v\u00eddeo actual se profundiza en el tema y se clasifican pormenorizadamente los motores de inferencia m\u00e1s importantes. Queda claro que lo decisivo no es s\u00f3lo el modelo en s\u00ed, sino sobre todo el \u201emotor\u201c que hay detr\u00e1s, es decir, el motor que controla el c\u00e1lculo, los accesos a memoria y la comunicaci\u00f3n. La comparaci\u00f3n entre Ollama, MLX, llama.cpp y vLLM muestra c\u00f3mo el rendimiento y los \u00e1mbitos de aplicaci\u00f3n pueden diferir enormemente en funci\u00f3n del hardware y los objetivos. El papel de MLX en los dispositivos Apple-Silicon es especialmente interesante, ya que gracias a esta arquitectura es posible obtener nuevas ganancias de eficiencia. Al mismo tiempo, est\u00e1 claro que no existe una soluci\u00f3n universal: Dependiendo del escenario -local, basado en servidor o escalable- tienen sentido distintos motores. Por tanto, el v\u00eddeo a\u00f1ade una importante perspectiva estrat\u00e9gica al actual desarrollo de MLX.<\/p>\n<div class=\"lyte-wrapper\" style=\"width:640px;max-width:100%;margin:5px;\"><div class=\"lyMe\" id=\"WYL_e9pNIAH5kSs\"><div id=\"lyte_e9pNIAH5kSs\" data-src=\"https:\/\/www.markus-schall.de\/wp-content\/plugins\/wp-youtube-lyte\/lyteCache.php?origThumbUrl=%2F%2Fi.ytimg.com%2Fvi%2Fe9pNIAH5kSs%2Fhqdefault.jpg\" class=\"pL\"><div class=\"tC\"><div class=\"tT\"><\/div><\/div><div class=\"play\"><\/div><div class=\"ctrl\"><div class=\"Lctrl\"><\/div><div class=\"Rctrl\"><\/div><\/div><\/div><noscript><a href=\"https:\/\/youtu.be\/e9pNIAH5kSs\" rel=\"nofollow noopener\" target=\"_blank\"><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/www.markus-schall.de\/wp-content\/plugins\/wp-youtube-lyte\/lyteCache.php?origThumbUrl=https%3A%2F%2Fi.ytimg.com%2Fvi%2Fe9pNIAH5kSs%2F0.jpg\" alt=\"Miniatura de v\u00eddeo de YouTube\" width=\"640\" height=\"340\" \/><br \/>Ver este v\u00eddeo en YouTube<\/a><\/noscript><\/div><\/div><div class=\"lL\" style=\"max-width:100%;width:640px;margin:5px;\"><\/div><br \/>\n\u00bfOllama, MLX, llama.cpp o vLLM? C\u00f3mo elegir el motor para TU IA | <a href=\"https:\/\/www.youtube.com\/@giorgi-ki\" target=\"_blank\" rel=\"nofollow noopener\">Giorgi Lomidze<\/a><\/p>\n<p><strong>30.03.2026<\/strong>: Con el <a href=\"https:\/\/ollama.com\/blog\/mlx\" target=\"_blank\" rel=\"noopener\"><strong>versi\u00f3n preliminar actual<\/strong><\/a> Ollama integra por primera vez el marco MLX de Apple como backend para Macs Apple-Silicon. El objetivo es acelerar significativamente la IA local y aprovechar mejor el hardware. MLX utiliza la arquitectura de memoria unificada de los Mac modernos, lo que permite compartir datos de forma eficiente entre la CPU y la GPU sin necesidad de copiarlos constantemente. El resultado son mejoras notables en el \u201etiempo hasta el primer token\u201c y la velocidad de generaci\u00f3n.<\/p>\n<p>Los primeros an\u00e1lisis comparativos e informes hablan de un aumento significativo del rendimiento gracias a un incremento considerable de la tasa de tokens y un uso m\u00e1s eficiente de la memoria. El v\u00eddeo enlazado en el art\u00edculo muestra claramente por qu\u00e9 este cambio es tan importante: la anterior pila llama.cpp est\u00e1 siendo sustituida por MLX, haciendo que la IA local en el Mac sea realmente fluida y adecuada para el uso diario por primera vez. Al mismo tiempo, la funci\u00f3n sigue siendo una versi\u00f3n preliminar, por lo que cabe esperar limitaciones y nuevas optimizaciones. En conjunto, la medida marca una importante transici\u00f3n hacia una IA r\u00e1pida y de ejecuci\u00f3n local en el hardware de consumo.<\/p>\n<hr \/>\n<h2>\u00bfQu\u00e9 es MLX y qu\u00e9 significa el nuevo formato?<\/h2>\n<p>MLX es un marco de c\u00f3digo abierto de Apple para el aprendizaje autom\u00e1tico que est\u00e1 especialmente adaptado a la arquitectura de hardware de Apple Silicon. A diferencia de otros backends de IA como PyTorch o TensorFlow, MLX aprovecha directamente las ventajas de la denominada \"memoria unificada\" de Apple, es decir, el acceso compartido de CPU y GPU a la misma \u00e1rea de RAM. Esto garantiza un procesamiento mucho m\u00e1s eficiente de los datos y los modelos, especialmente en el caso de los modelos ling\u00fc\u00edsticos de gran tama\u00f1o, que pueden abarcar varios gigabytes.<\/p>\n<p>El formato MLX asociado suele describir modelos cuyas ponderaciones se almacenan en un formato de archivo comprimido .npz (NumPy Zip). Modelos como Mistral, Phi-2 o LLaMA 3 pueden convertirse a este formato utilizando las herramientas adecuadas y ejecutarse directamente en un Mac: sin nube, sin API, sin restricciones.<\/p>\n<p>En otro art\u00edculo presento una <a href=\"https:\/\/www.markus-schall.de\/es\/2025\/11\/apple-mlx-vs-nvidia-como-funciona-local-ki-inference-en-el-mac\/\"><strong>Comparaci\u00f3n entre Apple Silicon y NVIDIA<\/strong><\/a> y explique qu\u00e9 hardware es adecuado para ejecutar modelos ling\u00fc\u00edsticos locales en un Mac.<\/p>\n<h3>La situaci\u00f3n actual: lo que ya ofrece Apple<\/h3>\n<p>Con el anuncio de <a href=\"https:\/\/en.wikipedia.org\/wiki\/Apple_Intelligence\" target=\"_blank\" rel=\"noopener\"><strong>Apple Intelligence<\/strong><\/a> En 2024, el Apple ha empezado a integrar funciones de IA en todo el sistema directamente en el sistema operativo. Asistentes de escritura, procesamiento de im\u00e1genes, b\u00fasqueda sem\u00e1ntica, funciones de correo inteligente... mucho de esto se ejecuta de forma completamente local, especialmente en dispositivos con un chip M1 o m\u00e1s reciente. Sin embargo, ninguna de las nuevas funciones est\u00e1 disponible en los Mac Intel m\u00e1s antiguos.<\/p>\n<p>Al mismo tiempo, Apple ha seguido desarrollando el marco MLX y lo ha publicado bajo licencia abierta. En combinaci\u00f3n con herramientas como mlx-lm o la nueva API MLX Swift, ya es posible ejecutar modelos de texto localmente, configurar sus propios flujos de trabajo o entrenar modelos, directamente en su propio Mac, sin que los datos salgan del dispositivo.<\/p>\n<p>Los usuarios profesionales en particular -por ejemplo, de los campos del desarrollo de software, la edici\u00f3n, el marketing o la investigaci\u00f3n- pueden beneficiarse enormemente de ello, ya que MLX les ofrece oportunidades completamente nuevas para integrar modelos de IA en sus flujos de trabajo sin tener que depender de proveedores externos.<\/p>\n<h2>C\u00f3mo funciona MLX en la pr\u00e1ctica<\/h2>\n<p>Si desea utilizar MLX hoy mismo, todo lo que necesita es un terminal, Python (idealmente en un entorno virtual independiente) y el paquete mlx-lm, que agrupa todas las funciones necesarias: Descarga de modelos, cuantificaci\u00f3n, inferencia y chat. Tras la instalaci\u00f3n, se pueden iniciar modelos ya creados de la comunidad Hugging Face, por ejemplo:<\/p>\n<pre class=\"notranslate\" data-no-translation=\"\">mlx_lm.chat --model mlx-community\/Mistral-7B-Instruct-v0.3-4bit<\/pre>\n<p>Tambi\u00e9n puede acceder a la API mediante un script de Python. Los modelos se cargan autom\u00e1ticamente, se almacenan en cach\u00e9 y se ejecutan localmente, sin conexi\u00f3n a Internet tras la descarga inicial.<\/p>\n<p>Tambi\u00e9n es f\u00e1cil convertir sus propios modelos. Con un solo comando, puede descargar modelos del Hugging Face Hub, cuantificarlos y ponerlos a disposici\u00f3n de MLX:<\/p>\n<pre class=\"notranslate\" data-no-translation=\"\">python -m mlx_lm.convert --hf-path meta-llama\/Llama-3-8B-Instruct -q<\/pre>\n<p>Los archivos .npz resultantes pueden guardarse localmente de forma permanente y reutilizarse.<\/p>\n<h3>La comparaci\u00f3n: MLX frente a Ollama, Llama.cpp y LM Studio<\/h3>\n<p>Adem\u00e1s de MLX, existen varias alternativas establecidas para el uso local de IA en Mac, sobre todo Ollama, Llama.cpp y LM Studio. Cada una de estas herramientas tiene sus puntos fuertes, pero tambi\u00e9n limitaciones espec\u00edficas.<\/p>\n<h4>Ollama<\/h4>\n<p><a href=\"https:\/\/www.markus-schall.de\/es\/2025\/08\/ki-local-en-el-mac-asi-1tp12para-crear-un-modelo-lingueistico-con-ollama\/\"><strong>Ollama<\/strong><\/a> es especialmente popular entre los desarrolladores porque ofrece una l\u00ednea de comandos sencilla y una API REST. Los modelos est\u00e1n disponibles aqu\u00ed en formato GGUF, un formato de archivo optimizado para una ejecuci\u00f3n r\u00e1pida en m\u00e1quinas locales. Ollama es r\u00e1pido de configurar, flexible y compatible con una amplia gama de modelos. Sin embargo, Ollama no funciona actualmente en el Mac con el motor MLX, sino que utiliza principalmente un backend basado en metal a trav\u00e9s de llama.cpp.<\/p>\n<p>Para flujos de trabajo que requieran automatizaci\u00f3n o funcionamiento sin cabeza (por ejemplo, procesos que se ejecutan en segundo plano), Ollama es actualmente la primera opci\u00f3n. Sin embargo, si desea utilizar las optimizaciones propias de Apple, tendr\u00e1 que esperar a futuras integraciones de MLX.<\/p>\n<h4>Llama.cpp<\/h4>\n<p>Este proyecto constituye la base de muchas otras herramientas (incluida Ollama) y ofrece un motor de inferencia de muy alto rendimiento para modelos GGUF. Es extremadamente flexible, pero no siempre f\u00e1cil de usar o manejar, sobre todo para los principiantes. La gran ventaja: existe una enorme comunidad, muchas extensiones y un desarrollo estable.<\/p>\n<h4>Estudio LM<\/h4>\n<p>Cualquiera que busque una interfaz gr\u00e1fica de usuario suele acabar con LM Studio. Esta herramienta combina la descarga, la administraci\u00f3n y la ejecuci\u00f3n de modelos ling\u00fc\u00edsticos en una sencilla aplicaci\u00f3n nativa de Mac que incluye una interfaz de chat, configuraci\u00f3n y gesti\u00f3n de modelos. Lo m\u00e1s destacado: LM Studio tambi\u00e9n es compatible con el motor MLX desde hace unos meses, lo que le permite aprovechar al m\u00e1ximo las optimizaciones de Apple en un Mac M1 o M2, y con un consumo de RAM significativamente menor que el de otras herramientas comparables.<\/p>\n<p>LM Studio es el punto de entrada ideal en el mundo de la IA local, especialmente para los usuarios que no quieren molestarse con comandos de terminal - y en combinaci\u00f3n con MLX, es un verdadero alto rendimiento.<\/p>\n<h3>Puesta a punto f\u00e1cil: c\u00f3mo FileMaker 2025 lleva la formaci\u00f3n LoRA a la vida cotidiana<\/h3>\n<p><a href=\"https:\/\/www.markus-schall.de\/es\/2025\/10\/lora-training-como-filemaker-2025-simplifica-el-ajuste-fino-de-grandes-modelos-lingueisticos\/\"><img loading=\"lazy\" decoding=\"async\" class=\"alignright size-medium wp-image-3222\" src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/lora-finetuning-filemaker-300x200.jpg\" alt=\"LoRA Ajuste fino - FileMaker 2025\" width=\"300\" height=\"200\" srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/lora-finetuning-filemaker-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/lora-finetuning-filemaker-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/lora-finetuning-filemaker-18x12.jpg 18w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/lora-finetuning-filemaker.jpg 1024w\" sizes=\"auto, (max-width: 300px) 100vw, 300px\" \/><\/a>Mientras que MLX y Ollama muestran c\u00f3mo los modelos ling\u00fc\u00edsticos pueden funcionar localmente e integrarse en los procesos existentes, el siguiente paso va mucho m\u00e1s all\u00e1: la adaptaci\u00f3n espec\u00edfica de estos modelos a sus propios datos. Aqu\u00ed es precisamente donde el enfoque con <a href=\"https:\/\/www.markus-schall.de\/es\/2025\/10\/lora-training-como-filemaker-2025-simplifica-el-ajuste-fino-de-grandes-modelos-lingueisticos\/\"><strong>FileMaker 2025 de la filial Apple Claris<\/strong><\/a> on. En lugar de entornos de formaci\u00f3n aislados, se crea una interfaz estructurada en la que los registros de datos, los par\u00e1metros de formaci\u00f3n y las versiones de los modelos pueden gestionarse de forma centralizada. La formaci\u00f3n LoRA puede prepararse, iniciarse y reproducirse mediante procesos claramente definidos, sin tener que controlar cada paso manualmente mediante scripts o l\u00edneas de comandos. Esto convierte el ajuste experimental en un flujo de trabajo reproducible que puede integrarse en los procesos empresariales existentes. Se trata de una ventaja decisiva, sobre todo para las empresas que trabajan con sus propios datos: la IA no se queda en lo general, sino que se entrena espec\u00edficamente para su propio contexto.<\/p>\n<h3>Cuando MLX en Silicon es la mejor opci\u00f3n<\/h3>\n<p>Mientras que las soluciones basadas en GGUF (Ollama, Llama.cpp) son muy flexibles y funcionan en muchas plataformas, MLX destaca por su profunda integraci\u00f3n en el mundo Apple. Cabe destacar:<\/p>\n<ul>\n<li>Utilizaci\u00f3n eficiente de la memoria gracias a la memoria unificada<\/li>\n<li>Optimizaci\u00f3n para Metal\/GPU sin configuraciones complejas<\/li>\n<li>Integraci\u00f3n perfecta en proyectos Swift y marcos Apple<\/li>\n<li>Preparado para el futuro, ya que Apple est\u00e1 desarrollando activamente el marco.<\/li>\n<li>Ampliabilidad, por ejemplo, mediante modelos personalizados, ajustes e integraci\u00f3n de sistemas.<\/li>\n<\/ul>\n<p>Para los usuarios de Mac que quieran planificar a largo plazo y mantener un control total sobre sus datos, MLX es ya una prometedora entrada en el mundo de la IA local, con potencial para convertirse en el est\u00e1ndar en el futuro.<\/p>\n<h3>De la IA local a los procesos empresariales reales: D\u00f3nde entran en juego los sistemas ERP<\/h3>\n<p><a href=\"https:\/\/www.markus-schall.de\/es\/software-erp\/\"><img loading=\"lazy\" decoding=\"async\" class=\"alignright wp-image-3182 size-medium\" src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/ERP-Software-300x200.jpg\" alt=\"Software ERP\" width=\"300\" height=\"200\" srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/ERP-Software-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ERP-Software-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ERP-Software-18x12.jpg 18w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ERP-Software.jpg 1024w\" sizes=\"auto, (max-width: 300px) 100vw, 300px\" \/><\/a>Lo que a menudo se subestima en este contexto: La verdadera fuerza de los sistemas locales de IA como MLX o Ollama no reside solo en el modelo en s\u00ed, sino tambi\u00e9n en su integraci\u00f3n en los flujos de trabajo existentes. Las interfaces y las API, en particular, permiten no utilizar la IA de forma aislada, sino integrarla directamente en los procesos operativos, por ejemplo a la hora de analizar datos, automatizar textos o respaldar decisiones.<\/p>\n<p>Aqu\u00ed es precisamente donde un potente sistema ERP se convierte en el eslab\u00f3n central: proporciona los datos, estructura los procesos y garantiza que los resultados de la IA no s\u00f3lo se generen, sino que tambi\u00e9n se procesen de forma significativa. Por lo tanto, quien desee seriamente utilizar la IA local de forma productiva necesitar\u00e1 un entorno de sistemas bien pensado a largo plazo. M\u00e1s informaci\u00f3n en la p\u00e1gina <a href=\"https:\/\/www.markus-schall.de\/es\/software-erp\/\"><strong>Software ERP<\/strong><\/a>, donde se presentar\u00e1 un sistema ERP basado en FileMaker. FileMaker Server admite el alojamiento de modelos ling\u00fc\u00edsticos MLX a partir de la versi\u00f3n 2025 <a href=\"https:\/\/www.markus-schall.de\/es\/2025\/09\/integracion-de-mlx-en-filemaker-2025-local-ki-como-nueva-norma\/\">directamente en el servidor de la base de datos<\/a> y proporciona los comandos de script correspondientes. El software de Claris, filial de Apple, funciona en Apple Mac, Windows y dispositivos m\u00f3viles iOS.<\/p>\n<h3>Una perspectiva: Hacia d\u00f3nde quiere ir Apple con MLX y Apple Intelligence<\/h3>\n<p><a href=\"https:\/\/www.markus-schall.de\/es\/2026\/02\/si-el-mac-escucha-lo-que-el-ki-integrado-de-apple-con-gemini-y-siri-supondra-para-los-usuarios-en-el-futuro\/\"><img loading=\"lazy\" decoding=\"async\" class=\"alignright size-medium wp-image-4859\" src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Apple-Siri-Gemini-300x200.jpg\" alt=\"Apple, Siri y Gemini\" width=\"300\" height=\"200\" srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Apple-Siri-Gemini-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Apple-Siri-Gemini-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Apple-Siri-Gemini-18x12.jpg 18w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Apple-Siri-Gemini.jpg 1024w\" sizes=\"auto, (max-width: 300px) 100vw, 300px\" \/><\/a>Con la WWDC 2025, Apple ha se\u00f1alado claramente que MLX no es un truco, sino un componente estrat\u00e9gico en el creciente ecosistema de Apple en torno a la IA. La integraci\u00f3n de los nuevos \u201eFoundation Models\u201c directamente en macOS e iOS, la compatibilidad nativa con Swift y el mayor desarrollo de MLX en la direcci\u00f3n del entrenamiento, la cuantificaci\u00f3n y la inferencia muestran claramente que Apple quiere involucrarse, pero a su manera. En otro art\u00edculo, muestro d\u00f3nde <a href=\"https:\/\/www.markus-schall.de\/es\/2026\/02\/si-el-mac-escucha-lo-que-el-ki-integrado-de-apple-con-gemini-y-siri-supondra-para-los-usuarios-en-el-futuro\/\"><strong>Apple con Siri y Gemini<\/strong><\/a> como parte de la asociaci\u00f3n con Google.<\/p>\n<p>Apple se mantiene fiel a su l\u00ednea: sin promesas espectaculares, pero con una tecnolog\u00eda s\u00f3lida y de funcionamiento local que se demuestra a largo plazo. Para los usuarios profesionales, esto no s\u00f3lo es atractivo, sino tambi\u00e9n estrat\u00e9gicamente muy interesante.<\/p>\n<p>MLX va camino de convertirse en la soluci\u00f3n est\u00e1ndar para la IA local en el Mac. Aquellos que ya trabajan con ella hoy en d\u00eda est\u00e1n obteniendo una valiosa ventaja, ya sea para aplicaciones creativas, t\u00e9cnicas o anal\u00edticas. En combinaci\u00f3n con herramientas como mlx-lm, LM Studio o la nueva API Swift, se puede crear un entorno de IA robusto, fiable y preparado para el futuro, en l\u00ednea con la forma de trabajar controlada y con soberan\u00eda de datos que ser\u00e1 cada vez m\u00e1s importante en el futuro.<\/p>\n<hr \/>\n<h3>Encuesta actual sobre inteligencia artificial<\/h3>\n<div class='bootstrap-yop yop-poll-mc'>\n\t\t\t\t\t\t\t<div class=\"basic-yop-poll-container\" style=\"background-color:#ffffff; border:0px; border-style:solid; border-color:#000000; border-radius:5px; padding:0px 5px;\" data-id=\"9\" data-temp=\"basic-pretty\" data-skin=\"square\" data-cscheme=\"blue\" data-cap=\"0\" data-access=\"guest\" data-tid=\"\" data-uid=\"2fa5582b8d96c8640d859c9d4e606fc9\" data-pid=\"4476\" data-resdet=\"votes-number,percentages\" data-show-results-to=\"guest\" data-show-results-moment=\"after-vote\" data-show-results-only=\"false\" data-show-message=\"true\" data-show-results-as=\"bar\" data-sort-results-by=\"as-defined\" data-sort-results-rule=\"asc\"data-is-ended=\"0\" data-percentages-decimals=\"2\" data-gdpr=\"no\" data-gdpr-sol=\"consent\" data-css=\".basic-yop-poll-container[data-uid] .basic-vote {\t\t\t\t\t\t\t\t\ttext-align: center;\t\t\t\t\t\t\t\t}\" data-counter=\"0\" data-load-with=\"1\" data-notification-section=\"top\"><div class=\"row\"><div class=\"col-md-12\"><div class=\"basic-inner\"><div class=\"basic-message hide\" style=\"border-left: 10px solid #008000; padding: 0px 10px;\" data-error=\"#ff0000\" data-success=\"#008000\"><p class=\"basic-message-text\" style=\"color:#000000; font-size:14px; font-weight:normal;\"><\/p><\/div><div class=\"basic-overlay hide\"><div class=\"basic-vote-options\"><\/div><div class=\"basic-preloader\"><div class=\"basic-windows8\"><div class=\"basic-wBall basic-wBall_1\"><div class=\"basic-wInnerBall\"><\/div><\/div><div class=\"basic-wBall basic-wBall_2\"><div class=\"basic-wInnerBall\"><\/div><\/div><div class=\"basic-wBall basic-wBall_3\"><div class=\"basic-wInnerBall\"><\/div><\/div><div class=\"basic-wBall basic-wBall_4\"><div class=\"basic-wInnerBall\"><\/div><\/div><div class=\"basic-wBall basic-wBall_5\"><div class=\"basic-wInnerBall\"><\/div><\/div><\/div><\/div><\/div><form class=\"basic-form\" action=\"\"><input type=\"hidden\" name=\"_token\" value=\"f946d374fd\" autocomplete=\"off\"><div class=\"basic-elements\"><div class=\"basic-element basic-question basic-question-text-vertical\" data-id=\"9\" data-uid=\"c98dcceb71049f1f84a8787e901e15d0\" data-type=\"question\" data-question-type=\"text\" data-required=\"yes\" data-allow-multiple=\"no\" data-min=\"1\" data-max=\"7\" data-display=\"vertical\" data-colnum=\"\" data-display-others=\"no\" data-others-color=\"\" data-others=\"\" data-others-max-chars=\"0\"><div class=\"basic-question-title\"><h5 style=\"color:#000000; font-size:16px; font-weight:normal; text-align:left;\">\u00bfQu\u00e9 opina de la ejecuci\u00f3n local de programas de IA como MLX o Ollama?<\/h5><\/div><ul class=\"basic-answers\"><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"45\" data-type=\"text\" data-vn=\"142\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[45]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[45]\" name=\"answer[9]\" value=\"45\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">Ingenioso: por fin independiente de la nube<\/span><\/label><\/div><\/li><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"46\" data-type=\"text\" data-vn=\"25\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[46]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[46]\" name=\"answer[9]\" value=\"46\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">Interesante, pero (a\u00fan) demasiado complicado<\/span><\/label><\/div><\/li><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"47\" data-type=\"text\" data-vn=\"28\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[47]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[47]\" name=\"answer[9]\" value=\"47\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">Lo probar\u00e9 pronto<\/span><\/label><\/div><\/li><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"48\" data-type=\"text\" data-vn=\"5\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[48]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[48]\" name=\"answer[9]\" value=\"48\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">No lo necesito, con la nube me basta<\/span><\/label><\/div><\/li><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"49\" data-type=\"text\" data-vn=\"4\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[49]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[49]\" name=\"answer[9]\" value=\"49\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">No s\u00e9 exactamente de qu\u00e9 se trata.<\/span><\/label><\/div><\/li><\/ul><\/div><div class=\"clearfix\"><\/div><\/div><div class=\"basic-vote\"><a href=\"#\" class=\"button basic-vote-button\" role=\"button\" style=\"background:#027bb8; border:0px; border-style: solid; border-color:#000000; border-radius:5px; padding:10px 10px; color:#ffffff; font-size:14px; font-weight:normal;\">Vote<\/a><\/div><input type=\"hidden\" name=\"trp-form-language\" value=\"es\"\/><\/form><\/div><\/div><\/div><\/div>\n\t\t\t\t\t\t<\/div>\n<hr \/>\n<h2>Uso de MLX en el Mac: instrucciones sencillas para principiantes<\/h2>\n<p>Con MLX, Apple ha creado un nuevo sistema que le permite utilizar la inteligencia artificial (IA) directamente en su propio Mac, sin conexi\u00f3n a Internet, sin la nube, sin depender de Google ni de OpenAI. Lo mejor de todo: si tienes un Mac con procesador M1, M2, M3 o M4 (es decir, Apple Silicon), puedes probar MLX en unos pocos pasos. Todo se ejecuta localmente: tus textos, preguntas y datos nunca salen de tu ordenador.<\/p>\n<p>Aqu\u00ed explico paso a paso c\u00f3mo descargar y utilizar un llamado modelo de lenguaje con MLX. Suena t\u00e9cnico - pero ver\u00e1s que es f\u00e1cil de hacer.<\/p>\n<h3>Paso 1: Comprobar los requisitos<\/h3>\n<p>Lo primero que necesitas:<\/p>\n<ul>\n<li>Un Mac Apple Silicon (M1 o m\u00e1s reciente). Puedes encontrarlo en la configuraci\u00f3n del sistema en \"Acerca de este Mac\".<\/li>\n<li>macOS 13 (Ventura) o posterior.<\/li>\n<li>Una conexi\u00f3n a Internet operativa: s\u00f3lo para descargar el modelo, despu\u00e9s todo funciona sin conexi\u00f3n.<\/li>\n<li>Algo de espacio de almacenamiento, al menos unos 8-10 GB para un modelo peque\u00f1o.<\/li>\n<\/ul>\n<p>Tambi\u00e9n necesitas el programa llamado \"Terminal\", que ya est\u00e1 pre1TP12 instalado en todos los Mac. Lo utilizamos para introducir algunos comandos. Puedes encontrarlo en tu Mac en \"Aplicaciones\/Utilidades\" o simplemente teclear  y luego \"Terminal\" y confirmar con \"Enter\". No te preocupes, s\u00f3lo tienes que copiar y pegar.<\/p>\n<h3>Paso 2: Animales Python 1TP12 (s\u00f3lo si es necesario)<\/h3>\n<p>MLX funciona con el lenguaje de programaci\u00f3n Python. Muchos Mac ya disponen de Python installiert. Puede comprobar si est\u00e1 disponible introduciendo lo siguiente en el terminal:<\/p>\n<pre class=\"notranslate\" data-no-translation=\"\">python3 --version<\/pre>\n<p>Si obtiene un n\u00famero de versi\u00f3n (por ejemplo, Python 3.10.6), puede continuar directamente.<\/p>\n<p>Si no, te recomiendo que utilices Homebrew to installieren (una popular herramienta para programas en el Mac). Para ello, introduzca en el terminal:<\/p>\n<pre class=\"notranslate\" data-no-translation=\"\">\/bin\/bash -c \"$(curl -fsSL https:\/\/raw.githubusercontent.com\/Homebrew\/install\/HEAD\/install.sh)\"<\/pre>\n<p>Entonces installier usted Python con:<\/p>\n<pre class=\"notranslate\" data-no-translation=\"\">brew install python<\/pre>\n<h3>Paso 3: MLX-Tool 1TP12Animal<\/h3>\n<p>Ahora nos descargamos la herramienta MLX con la que posteriormente podremos utilizar el modelo de lenguaje. Para ello, installier un peque\u00f1o programa llamado mlx-lm. Introd\u00facelo en el terminal:<\/p>\n<pre class=\"notranslate\" data-no-translation=\"\">pip3 install mlx-lm<\/pre>\n<p>Tardar\u00e1 unos segundos. Cuando termine, estar\u00e1 listo para cargar un modelo.<\/p>\n<p>Paso 4: Descargar e iniciar un modelo<\/p>\n<p>Ahora viene la parte emocionante: obtienes un modelo ling\u00fc\u00edstico real en tu Mac - por ejemplo una versi\u00f3n de Mistral, un modelo de IA muy potente y disponible gratuitamente. Basta con introducirlo en el terminal:<\/p>\n<pre class=\"notranslate\" data-no-translation=\"\">mlx_lm.chat --model mlx-community\/Mistral-7B-Instruct-v0.3-4bit<\/pre>\n<p>Este comando hace tres cosas:<\/p>\n<ul>\n<li>El modelo se descarga autom\u00e1ticamente (una sola vez).<\/li>\n<li>Se prepara y se pone en marcha.<\/li>\n<li>Terminas en una ventana de chat en el terminal donde puedes hacer preguntas - similar a ChatGPT.<\/li>\n<\/ul>\n<p>Cuando se complete la descarga (puede tardar unos minutos, dependiendo de tu velocidad de Internet), ver\u00e1s un cursor parpadeante. Ahora puedes escribir, por ejemplo:<\/p>\n<p><em>Cu\u00e9nteme algo sobre la historia de Venecia.<\/em><\/p>\n<p>...y el modelo responde directamente, completamente fuera de l\u00ednea.<\/p>\n<h3>Paso 5: Seguir trabajando con el modelo<\/h3>\n<p>Cuando hayas terminado, puedes finalizar el chat escribiendo exit o cerrando la ventana. M\u00e1s tarde, puedes reutilizar el mismo modelo sin descargarlo de nuevo simplemente introduciendo el mismo comando otra vez. El modelo se almacena ahora localmente en su Mac y permanece all\u00ed.<br \/>\nSi desea probar diferentes modelos, puede hacerlo a trav\u00e9s de <strong><a href=\"https:\/\/huggingface.co\" target=\"_blank\" rel=\"noopener\">Cara de abrazo<\/a><\/strong> o cambie el nombre del modelo directamente en la l\u00ednea del terminal, por ejemplo<\/p>\n<pre class=\"notranslate\" data-no-translation=\"\">mlx_lm.chat --model mlx-community\/Phi-2-4bit<\/pre>\n<p>Cada modelo tiene un estilo diferente: algunos son objetivos, otros son m\u00e1s creativos u orientados al di\u00e1logo.<\/p>\n<h2>\u00bfA\u00fan m\u00e1s f\u00e1cil? Utiliza LM Studio como interfaz<\/h2>\n<p>Si prefieres trabajar con un rat\u00f3n y una ventana, tambi\u00e9n puedes probar el programa LM Studio. Tiene una interfaz agradable, es compatible con MLX (en Apple Silicon) y permite descargar y utilizar modelos con un clic.<\/p>\n<p>Puedes conseguir LM Studio aqu\u00ed:<\/p>\n<p>\ud83d\udc49 <a href=\"https:\/\/lmstudio.ai\/\" target=\"_blank\" rel=\"noopener\"><strong>https:\/\/lmstudio.ai\/<\/strong><\/a><\/p>\n<p>Tras la instalaci\u00f3n, puedes seleccionar \"MLX\" como motor en los ajustes - el programa utiliza entonces la misma tecnolog\u00eda que antes, pero en una bonita ventana con un campo de chat.<\/p>\n<p>Lo ha conseguido: ahora utiliza una IA moderna de forma totalmente local en su Mac, sin necesidad de nube ni suscripci\u00f3n. Apple MLX permite utilizar modelos ling\u00fc\u00edsticos de forma eficiente, segura y respetuosa con la protecci\u00f3n de datos.<\/p>\n<p>Si m\u00e1s adelante quiere profundizar a\u00fan m\u00e1s -por ejemplo, entrenar sus propios modelos, mejorarlos con sus textos o integrarlos en su propio software (como FileMaker)-, MLX es la opci\u00f3n adecuada para usted. Pero el primer paso ya est\u00e1 dado: ha recuperado el control y tiene una potente IA directamente en su ordenador.<\/p>\n<h3>Del modelo local a la memoria real de la IA<\/h3>\n<p><a href=\"https:\/\/www.markus-schall.de\/es\/2026\/03\/la-exportacion-de-datos-de-chatgpt-explica-como-tus-chats-de-ki-se-convierten-en-un-sistema-de-conocimiento-personal\/\"><img loading=\"lazy\" decoding=\"async\" class=\"alignright wp-image-5296 size-medium\" src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/ChatGPT-Datenexport-300x200.jpg\" alt=\"Exportaci\u00f3n de datos ChatGPT\" width=\"300\" height=\"200\" srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/ChatGPT-Datenexport-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ChatGPT-Datenexport-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ChatGPT-Datenexport-18x12.jpg 18w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ChatGPT-Datenexport.jpg 1024w\" sizes=\"auto, (max-width: 300px) 100vw, 300px\" \/><\/a>El art\u00edculo sobre MLX muestra claramente lo potente que se ha vuelto la IA local directamente en el hardware Apple, sobre todo gracias a la estrecha integraci\u00f3n con la arquitectura de Apple Silicon y los marcos optimizados. Ollama se centra m\u00e1s en la integraci\u00f3n sencilla, las API y los flujos de trabajo flexibles, mientras que MLX est\u00e1 profundamente integrado en el ecosistema Apple y ofrece un enorme potencial a largo plazo. Aqu\u00ed es precisamente donde entra la nueva serie de art\u00edculos: Va un paso m\u00e1s all\u00e1 y muestra c\u00f3mo estos modelos locales de IA pueden ampliarse para incluir una verdadera \u201ememoria\u201c. En lugar de limitarse a ejecutar modelos, se construye una base de conocimientos que <a href=\"https:\/\/www.markus-schall.de\/es\/2026\/03\/la-exportacion-de-datos-de-chatgpt-explica-como-tus-chats-de-ki-se-convierten-en-un-sistema-de-conocimiento-personal\/\"><strong>la exportaci\u00f3n de datos de sus propios historiales de chat desde ChatGPT<\/strong><\/a>\u00a0y permite b\u00fasquedas sem\u00e1nticas. Esto hace que la IA local no sea solo una herramienta, sino un sistema personal que crece con tus propios conocimientos.<\/p>\n<hr \/>\n\n\t\t\t<div class=\"display-post-types\">\n\n\t\t\t\t\t\t\t<style type=\"text\/css\">\n\t\t\t#dpt-wrapper-230 { --dpt-text-align: left;--dpt-image-crop: center;--dpt-border-radius: 5px;--dpt-h-gutter: 10px;--dpt-v-gutter: 9px; }\t\t\t<\/style>\n\t\t\t<style type=\"text\/css\">#dpt-wrapper-230 { --dpt-title-font-style:normal;--dpt-title-font-weight:600;--dpt-title-line-height:1.5;--dpt-title-text-decoration:none;--dpt-title-text-transform:none;--dpt-excerpt-font-style:normal;--dpt-excerpt-font-weight:400;--dpt-excerpt-line-height:1.5;--dpt-excerpt-text-decoration:none;--dpt-excerpt-text-transform:none;--dpt-meta1-font-style:normal;--dpt-meta1-font-weight:400;--dpt-meta1-line-height:1.9;--dpt-meta1-text-decoration:none;--dpt-meta1-text-transform:none;--dpt-meta2-font-style:normal;--dpt-meta2-font-weight:400;--dpt-meta2-line-height:1.9;--dpt-meta2-text-decoration:none;--dpt-meta2-text-transform:none; }<\/style><div class=\"dpt-main-header\">\n\t\t\t\t\t\t<div class=\"dpt-main-title\">\n\t\t\t\t\t\t\t<span class=\"dpt-main-title-text\">Cuestiones sociales de actualidad<\/span>\n\t\t\t\t\t\t<\/div>\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t<\/div>\t\t\t\n\t\t\t\t<div id=\"dpt-wrapper-230\" class=\"dpt-wrapper dpt-mag1 land1 dpt-cropped dpt-flex-wrap\" >\n\n\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"helge schneider: haltung, humor und die freiheit, sich nicht erkl\u00e4ren zu m\u00fcssen\" data-id=\"4756\"  data-category=\"allgemein gesellschaft kunst &amp; kultur\" data-post_tag=\"deutschland erfahrungen meinungsfreiheit musik portrait\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/es\/2026\/02\/helge-schneider-actitud-humor-y-la-libertad-de-no-tener-que-dar-explicaciones\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Helge Schneider: Actitud, humor y la libertad de no tener que dar explicaciones<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Retrato de Helge Schneider\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Helge-Schneider.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Helge-Schneider.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Helge-Schneider-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Helge-Schneider-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Helge-Schneider-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/es\/2026\/02\/helge-schneider-actitud-humor-y-la-libertad-de-no-tener-que-dar-explicaciones\/\" rel=\"bookmark\">Helge Schneider: Actitud, humor y la libertad de no tener que dar explicaciones<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"kriegst\u00fcchtigkeit, wehrpflicht &#038; verweigerung: was im ernstfall zu tun ist\" data-id=\"2966\"  data-category=\"allgemein b\u00fccher gesellschaft tipps &amp; anleitungen\" data-post_tag=\"buch deutschland geopolitik gesundheit krisen pers\u00f6nlichkeitsentwicklung ratgeber sicherheitspolitik\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/es\/2025\/09\/objecion-de-conciencia-al-servicio-militar-que-hacer-en-caso-de-emergencia\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Aptitud para la guerra, reclutamiento y rechazo: qu\u00e9 hacer en caso de emergencia<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1536\" height=\"1024\" class=\"attachment-full size-full\" alt=\"Reclutamiento: rechazar el servicio militar\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/wehrpflicht-kriegsdienst-verweigern.jpg\" data-dpt-sizes=\"(max-width: 1536px) 100vw, 1536px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/wehrpflicht-kriegsdienst-verweigern.jpg 1536w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/wehrpflicht-kriegsdienst-verweigern-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/wehrpflicht-kriegsdienst-verweigern-1024x683.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/wehrpflicht-kriegsdienst-verweigern-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/wehrpflicht-kriegsdienst-verweigern-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/es\/2025\/09\/objecion-de-conciencia-al-servicio-militar-que-hacer-en-caso-de-emergencia\/\" rel=\"bookmark\">Aptitud para la guerra, reclutamiento y rechazo: qu\u00e9 hacer en caso de emergencia<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"wer ist eigentlich j. d. vance? ein portrait zu herkunft, karriere, widerspr\u00fcchen und zukunft\" data-id=\"5395\"  data-category=\"allgemein gesellschaft\" data-post_tag=\"energiepolitik erfahrungen europa geopolitik krisen meinungsfreiheit portrait sicherheitspolitik\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/es\/2026\/03\/quien-es-j-d-vance-un-retrato-de-sus-origenes-carrera-contradicciones-y-futuro\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">\u00bfQui\u00e9n es realmente J. D. Vance? Un retrato de sus or\u00edgenes, carrera, contradicciones y futuro<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"\u00bfQui\u00e9n es J. D. Vance?\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/JD-Vance-Portrait.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/JD-Vance-Portrait.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/JD-Vance-Portrait-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/JD-Vance-Portrait-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/JD-Vance-Portrait-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/es\/2026\/03\/quien-es-j-d-vance-un-retrato-de-sus-origenes-carrera-contradicciones-y-futuro\/\" rel=\"bookmark\">\u00bfQui\u00e9n es realmente J. D. Vance? Un retrato de sus or\u00edgenes, carrera, contradicciones y futuro<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"taiwan verstehen: geschichte, statusfrage und die risiken einer vernetzten welt\" data-id=\"4314\"  data-category=\"allgemein gesellschaft hardware\" data-post_tag=\"europa geopolitik krisen prozesse sicherheitspolitik spieltheorie\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/es\/2026\/01\/comprender-la-historia-de-taiwan-y-los-riesgos-de-un-mundo-interconectado\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Entender Taiw\u00e1n: Historia, cuestiones de estado y riesgos de un mundo interconectado<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Taiw\u00e1n como punto de inflexi\u00f3n\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Taiwan-Kippunkt-Titel.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Taiwan-Kippunkt-Titel.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Taiwan-Kippunkt-Titel-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Taiwan-Kippunkt-Titel-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Taiwan-Kippunkt-Titel-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/es\/2026\/01\/comprender-la-historia-de-taiwan-y-los-riesgos-de-un-mundo-interconectado\/\" rel=\"bookmark\">Entender Taiw\u00e1n: Historia, cuestiones de estado y riesgos de un mundo interconectado<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\n\t\t\t\t<\/div>\n\t\t\t\t\t\t<\/div>\n\t\t\t\n<hr \/>\n<h2>Preguntas m\u00e1s frecuentes<\/h2>\n<ol>\n<li><strong>\u00bfQu\u00e9 es exactamente MLX y en qu\u00e9 se diferencia de PyTorch o TensorFlow?<\/strong><br \/>\nMLX es un marco de aprendizaje autom\u00e1tico desarrollado por Apple que ha sido especialmente optimizado para Apple Silicon (M1-M4). A diferencia de PyTorch o TensorFlow, que se dirigen a muchas plataformas, MLX utiliza espec\u00edficamente la arquitectura de los chips Apple, por ejemplo, la estructura de memoria com\u00fan (memoria unificada) y la aceleraci\u00f3n de GPU met\u00e1lica. Como resultado, funciona con mayor eficiencia de memoria y m\u00e1s r\u00e1pido en Mac, pero s\u00f3lo en hardware Apple.<\/li>\n<li><strong>\u00bfPor qu\u00e9 elegir MLX en lugar de una herramienta como Ollama o Llama.cpp?<\/strong><br \/>\nMLX tiene ventaja si trabajas espec\u00edficamente con Apple Silicon y quieres obtener el m\u00e1ximo rendimiento del dispositivo. Ollama y Llama.cpp son muy flexibles, pero a menudo se ejecutan con menos eficiencia en el Mac. MLX tambi\u00e9n puede integrarse directamente en proyectos Swift, lo que resulta ideal para desarrolladores que crean aplicaciones cercanas a Apple. No es un competidor de Ollama, sino una herramienta especializada para profesionales.<\/li>\n<li><strong>\u00bfQu\u00e9 modelos son compatibles con MLX?<\/strong><br \/>\nSon compatibles muchos modelos de lenguaje abierto -como Mistral, LLaMA 2 y 3, Phi-2 o TinyLLaMA- que ya est\u00e1n convertidos o pueden convertirse con la herramienta mlx-lm.convert. Es importante que est\u00e9n disponibles en formato NumPy-ZIP (.npz) y preparados para MLX. Ahora hay una secci\u00f3n separada en Cara abrazada para los modelos compatibles con MLX.<\/li>\n<li><strong>\u00bfEs f\u00e1cil empezar? \u00bfTengo que ser desarrollador?<\/strong><br \/>\nUn poco de comprensi\u00f3n t\u00e9cnica es \u00fatil - por ejemplo, para el terminal, los entornos Python o los nombres de los modelos. Pero empezar es relativamente f\u00e1cil gracias a mlx-lm: un comando de instalaci\u00f3n, un comando para empezar, y listo. Si prefieres trabajar con una interfaz de usuario, puedes utilizar LM Studio - ahora tambi\u00e9n es compatible con MLX en Mac.<\/li>\n<li><strong>\u00bfPuedo entrenar MLX para mis propios proyectos, por ejemplo, con mis propios textos?<\/strong><br \/>\nS\u00ed, se puede, pero actualmente la formaci\u00f3n est\u00e1 pensada m\u00e1s para usuarios avanzados. La mayor\u00eda de los usuarios utilizan los modelos MLX para la inferencia (es decir, para respuestas, generaci\u00f3n de textos, etc.). Para la formaci\u00f3n o el ajuste fino, es necesario estar familiarizado con LoRA, los formatos de datos (JSONL) y los requisitos de memoria - o utilizar herramientas como FileMaker 2025, que simplifican este proceso.<\/li>\n<li><strong>\u00bfQu\u00e9 ocurre con la seguridad y la protecci\u00f3n de datos en MLX?<\/strong><br \/>\nMuy bien, porque MLX se ejecuta de forma totalmente local. Todos los datos, entradas y respuestas del modelo permanecen en su propio ordenador. No hay transferencia a la nube, ni API externa: ideal para proyectos con datos sensibles, documentos internos, datos protegidos de clientes o notas confidenciales.<\/li>\n<li><strong>\u00bfQu\u00e9 papel desempe\u00f1a el propio Apple en todo esto? \u00bfSe seguir\u00e1 desarrollando el MLX?<\/strong><br \/>\nApple ha publicado MLX bajo una licencia abierta y lo est\u00e1 desarrollando activamente, especialmente en conexi\u00f3n con Apple Intelligence, el sistema de IA para macOS, iOS y iPadOS. En la WWDC 2025, MLX se present\u00f3 como el marco oficial para integrar modelos ling\u00fc\u00edsticos personalizados en el software de Apple. Cabe suponer que MLX seguir\u00e1 ganando importancia en el mundo Apple.<\/li>\n<li><strong>\u00bfPuedo combinar MLX con otras herramientas, como Neo4j, n8n o FileMaker?<\/strong><br \/>\nS\u00ed, MLX es un framework ML puro, pero puede conectarse a otras herramientas mediante API REST, servicios Python personalizados o envoltorios locales. Por ejemplo, puede integrarlo en su propia automatizaci\u00f3n (n8n), una base de datos sem\u00e1ntica (Neo4j) o soluciones FileMaker - esta \u00faltima est\u00e1 ahora incluso disponible de forma nativa con FileMaker 2025.<\/li>\n<\/ol>\n<p>Imagen (c) Monoar_CGI_Artist @ pixabay<\/p>\n<hr \/>\n\n\t\t\t<div class=\"display-post-types\">\n\n\t\t\t\t\t\t\t<style type=\"text\/css\">\n\t\t\t#dpt-wrapper-231 { --dpt-text-align: left;--dpt-image-crop: center;--dpt-border-radius: 5px;--dpt-h-gutter: 10px;--dpt-v-gutter: 9px; }\t\t\t<\/style>\n\t\t\t<style type=\"text\/css\">#dpt-wrapper-231 { --dpt-title-font-style:normal;--dpt-title-font-weight:600;--dpt-title-line-height:1.5;--dpt-title-text-decoration:none;--dpt-title-text-transform:none;--dpt-excerpt-font-style:normal;--dpt-excerpt-font-weight:400;--dpt-excerpt-line-height:1.5;--dpt-excerpt-text-decoration:none;--dpt-excerpt-text-transform:none;--dpt-meta1-font-style:normal;--dpt-meta1-font-weight:400;--dpt-meta1-line-height:1.9;--dpt-meta1-text-decoration:none;--dpt-meta1-text-transform:none;--dpt-meta2-font-style:normal;--dpt-meta2-font-weight:400;--dpt-meta2-line-height:1.9;--dpt-meta2-text-decoration:none;--dpt-meta2-text-transform:none; }<\/style><div class=\"dpt-main-header\">\n\t\t\t\t\t\t<div class=\"dpt-main-title\">\n\t\t\t\t\t\t\t<span class=\"dpt-main-title-text\">Art\u00edculos de actualidad sobre arte y cultura<\/span>\n\t\t\t\t\t\t<\/div>\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t<\/div>\t\t\t\n\t\t\t\t<div id=\"dpt-wrapper-231\" class=\"dpt-wrapper dpt-mag1 land1 dpt-cropped dpt-flex-wrap\" >\n\n\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"dieter bohlen im klartext: warum deutschland an der eigenen b\u00fcrokratie scheitert\" data-id=\"3546\"  data-category=\"allgemein b\u00fccher gesellschaft kunst &amp; kultur\" data-post_tag=\"buch deutschland erfahrungen krisen meinungsfreiheit musik\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/es\/2025\/11\/dieter-bohlen-en-lenguaje-llano-por-que-alemania-fracasa-a-causa-de-su-propia-burocracia\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Dieter Bohlen en lenguaje llano: Por qu\u00e9 Alemania fracasa por culpa de su propia burocracia<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1536\" height=\"1024\" class=\"attachment-full size-full\" alt=\"Dieter Bohlen en conversaci\u00f3n con Dominik Kettner\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/bohlen-kettner-germany.jpg\" data-dpt-sizes=\"(max-width: 1536px) 100vw, 1536px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/bohlen-kettner-germany.jpg 1536w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/bohlen-kettner-germany-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/bohlen-kettner-germany-1024x683.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/bohlen-kettner-germany-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/bohlen-kettner-germany-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/es\/2025\/11\/dieter-bohlen-en-lenguaje-llano-por-que-alemania-fracasa-a-causa-de-su-propia-burocracia\/\" rel=\"bookmark\">Dieter Bohlen en lenguaje llano: Por qu\u00e9 Alemania fracasa por culpa de su propia burocracia<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"spieltheorie erkl\u00e4rt 25 jahre geopolitik: wie europa seine strategische rolle verlor\" data-id=\"3850\"  data-category=\"allgemein gesellschaft kunst &amp; kultur\" data-post_tag=\"denkmodelle deutschland energiepolitik eu-gesetze europa geopolitik krisen sicherheitspolitik spieltheorie\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/es\/2025\/12\/la-teoria-de-juegos-explica-25-anos-de-geopolitica-como-perdio-europa-su-papel-estrategico\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">La teor\u00eda de juegos explica 25 a\u00f1os de geopol\u00edtica: c\u00f3mo Europa perdi\u00f3 su papel estrat\u00e9gico<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"765\" class=\"attachment-full size-full\" alt=\"La teor\u00eda de juegos explica 25 a\u00f1os de geopol\u00edtica\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/europa-russland-spieltheorie.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/europa-russland-spieltheorie.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/europa-russland-spieltheorie-300x224.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/europa-russland-spieltheorie-768x574.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/europa-russland-spieltheorie-16x12.jpg 16w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/es\/2025\/12\/la-teoria-de-juegos-explica-25-anos-de-geopolitica-como-perdio-europa-su-papel-estrategico\/\" rel=\"bookmark\">La teor\u00eda de juegos explica 25 a\u00f1os de geopol\u00edtica: c\u00f3mo Europa perdi\u00f3 su papel estrat\u00e9gico<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"helge schneider: haltung, humor und die freiheit, sich nicht erkl\u00e4ren zu m\u00fcssen\" data-id=\"4756\"  data-category=\"allgemein gesellschaft kunst &amp; kultur\" data-post_tag=\"deutschland erfahrungen meinungsfreiheit musik portrait\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/es\/2026\/02\/helge-schneider-actitud-humor-y-la-libertad-de-no-tener-que-dar-explicaciones\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Helge Schneider: Actitud, humor y la libertad de no tener que dar explicaciones<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Retrato de Helge Schneider\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Helge-Schneider.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Helge-Schneider.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Helge-Schneider-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Helge-Schneider-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Helge-Schneider-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/es\/2026\/02\/helge-schneider-actitud-humor-y-la-libertad-de-no-tener-que-dar-explicaciones\/\" rel=\"bookmark\">Helge Schneider: Actitud, humor y la libertad de no tener que dar explicaciones<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"cancel culture im westen: sport, universit\u00e4ten, milit\u00e4r und eu-sanktionen analysiert\" data-id=\"5009\"  data-category=\"allgemein gesellschaft kunst &amp; kultur\" data-post_tag=\"denkmodelle deutschland europa geopolitik krisen meinungsfreiheit sicherheitspolitik spieltheorie\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/es\/2026\/02\/la-cultura-de-la-cancelacion-en-occidente-universidades-deportivas-militares-y-sanciones-de-la-ue-analizadas\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Cancelar La cultura en Occidente: deporte, universidades, ej\u00e9rcito y sanciones de la UE analizadas<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Cancelar la cultura en Occidente\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Cancel-Culture-Westen.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Cancel-Culture-Westen.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Cancel-Culture-Westen-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Cancel-Culture-Westen-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Cancel-Culture-Westen-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/es\/2026\/02\/la-cultura-de-la-cancelacion-en-occidente-universidades-deportivas-militares-y-sanciones-de-la-ue-analizadas\/\" rel=\"bookmark\">Cancelar La cultura en Occidente: deporte, universidades, ej\u00e9rcito y sanciones de la UE analizadas<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\n\t\t\t\t<\/div>\n\t\t\t\t\t\t<\/div>\n\t\t\t\n<hr \/>","protected":false},"excerpt":{"rendered":"<p>En un momento en el que los servicios de IA centralizados como ChatGPT, Claude o Gemini dominan los titulares, muchos usuarios profesionales tienen una necesidad creciente de una alternativa: una infraestructura de IA local y autocontrolable. Especialmente para procesos creativos, datos sensibles o flujos de trabajo recurrentes, una soluci\u00f3n local es a menudo la opci\u00f3n m\u00e1s sostenible y segura. Cualquiera que trabaje con un Mac ... <a title=\"Cancelar La cultura en Occidente: deporte, universidades, ej\u00e9rcito y sanciones de la UE analizadas\" class=\"read-more\" href=\"https:\/\/www.markus-schall.de\/es\/2026\/02\/la-cultura-de-la-cancelacion-en-occidente-universidades-deportivas-militares-y-sanciones-de-la-ue-analizadas\/\" aria-label=\"Leer m\u00e1s sobre Cancel Culture in the West: Sport, universities, military and EU sanctions analysed\">Vaciar m\u00e1s<\/a><\/p>","protected":false},"author":1,"featured_media":2865,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"iawp_total_views":8160,"footnotes":""},"categories":[15,431],"tags":[469,471,435,433,437,465,432,434],"class_list":["post-2857","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-apple-macos","category-ki-systeme","tag-datenschutz","tag-kuenstliche-intelligenz","tag-llama","tag-llm","tag-mistral","tag-mlx","tag-ollama","tag-sprachmodell"],"_links":{"self":[{"href":"https:\/\/www.markus-schall.de\/es\/wp-json\/wp\/v2\/posts\/2857","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.markus-schall.de\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.markus-schall.de\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.markus-schall.de\/es\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.markus-schall.de\/es\/wp-json\/wp\/v2\/comments?post=2857"}],"version-history":[{"count":24,"href":"https:\/\/www.markus-schall.de\/es\/wp-json\/wp\/v2\/posts\/2857\/revisions"}],"predecessor-version":[{"id":5975,"href":"https:\/\/www.markus-schall.de\/es\/wp-json\/wp\/v2\/posts\/2857\/revisions\/5975"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.markus-schall.de\/es\/wp-json\/wp\/v2\/media\/2865"}],"wp:attachment":[{"href":"https:\/\/www.markus-schall.de\/es\/wp-json\/wp\/v2\/media?parent=2857"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.markus-schall.de\/es\/wp-json\/wp\/v2\/categories?post=2857"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.markus-schall.de\/es\/wp-json\/wp\/v2\/tags?post=2857"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}