MLX en Apple Silicon como IA local en comparación con Ollama & Co.

En un momento en el que los servicios de IA centralizados como ChatGPT, Claude o Gemini dominan los titulares, muchos usuarios profesionales tienen una necesidad creciente de una alternativa: una infraestructura de IA local y autocontrolable. Especialmente para procesos creativos, datos sensibles o flujos de trabajo recurrentes, una solución local suele ser la opción más sostenible y segura.

Cualquiera que trabaje con un Mac -especialmente con Apple Silicon (M1, M2, M3 o M4)- puede encontrar ahora herramientas asombrosamente potentes para ejecutar sus propios modelos lingüísticos directamente en el dispositivo. En el centro de todo ello se encuentra un componente nuevo y en gran medida desconocido: MLX, un marco de aprendizaje automático desarrollado por Apple que probablemente desempeñará un papel cada vez más central en el ecosistema de IA de la empresa en los próximos años.


Temas de actualidad sobre inteligencia artificial

¿Qué es MLX y qué significa el nuevo formato?

MLX es un marco de código abierto de Apple para el aprendizaje automático que está especialmente adaptado a la arquitectura de hardware de Apple Silicon. A diferencia de otros backends de IA como PyTorch o TensorFlow, MLX aprovecha directamente las ventajas de la denominada "memoria unificada" de Apple, es decir, el acceso compartido de CPU y GPU a la misma área de RAM. Esto garantiza un procesamiento mucho más eficiente de los datos y los modelos, especialmente en el caso de los modelos lingüísticos de gran tamaño, que pueden abarcar varios gigabytes.

El formato MLX asociado suele describir modelos cuyas ponderaciones se almacenan en un formato de archivo comprimido .npz (NumPy Zip). Modelos como Mistral, Phi-2 o LLaMA 3 pueden convertirse a este formato utilizando las herramientas adecuadas y ejecutarse directamente en un Mac: sin nube, sin API, sin restricciones.

En otro artículo presento una Comparación entre Apple Silicon y NVIDIA y explique qué hardware es adecuado para ejecutar modelos lingüísticos locales en un Mac.

La situación actual: lo que ya ofrece Apple

Con el anuncio de Apple Intelligence En 2024, el Apple ha empezado a integrar funciones de IA en todo el sistema directamente en el sistema operativo. Asistentes de escritura, procesamiento de imágenes, búsqueda semántica, funciones de correo inteligente... mucho de esto se ejecuta de forma completamente local, especialmente en dispositivos con un chip M1 o más reciente. Sin embargo, ninguna de las nuevas funciones está disponible en los Mac Intel más antiguos.

Al mismo tiempo, Apple ha seguido desarrollando el marco MLX y lo ha publicado bajo licencia abierta. En combinación con herramientas como mlx-lm o la nueva API MLX Swift, ya es posible ejecutar modelos de texto localmente, configurar sus propios flujos de trabajo o entrenar modelos, directamente en su propio Mac, sin que los datos salgan del dispositivo.

Los usuarios profesionales en particular -por ejemplo, de los campos del desarrollo de software, la edición, el marketing o la investigación- pueden beneficiarse enormemente de ello, ya que MLX les ofrece oportunidades completamente nuevas para integrar modelos de IA en sus flujos de trabajo sin tener que depender de proveedores externos.

Cómo funciona MLX en la práctica

Si desea utilizar MLX hoy mismo, todo lo que necesita es un terminal, Python (idealmente en un entorno virtual independiente) y el paquete mlx-lm, que agrupa todas las funciones necesarias: Descarga de modelos, cuantificación, inferencia y chat. Tras la instalación, se pueden iniciar modelos ya creados de la comunidad Hugging Face, por ejemplo:

mlx_lm.chat --model mlx-community/Mistral-7B-Instruct-v0.3-4bit

También puede acceder a la API mediante un script de Python. Los modelos se cargan automáticamente, se almacenan en caché y se ejecutan localmente, sin conexión a Internet tras la descarga inicial.

También es fácil convertir sus propios modelos. Con un solo comando, puede descargar modelos del Hugging Face Hub, cuantificarlos y ponerlos a disposición de MLX:

python -m mlx_lm.convert --hf-path meta-llama/Llama-3-8B-Instruct -q

Los archivos .npz resultantes pueden guardarse localmente de forma permanente y reutilizarse.

La comparación: MLX frente a Ollama, Llama.cpp y LM Studio

Además de MLX, existen varias alternativas establecidas para el uso local de IA en Mac, sobre todo Ollama, Llama.cpp y LM Studio. Cada una de estas herramientas tiene sus puntos fuertes, pero también limitaciones específicas.

Ollama

Ollama es especialmente popular entre los desarrolladores porque ofrece una línea de comandos sencilla y una API REST. Los modelos están disponibles aquí en formato GGUF, un formato de archivo optimizado para una ejecución rápida en máquinas locales. Ollama es rápido de configurar, flexible y compatible con una amplia gama de modelos. Sin embargo, Ollama no funciona actualmente en el Mac con el motor MLX, sino que utiliza principalmente un backend basado en metal a través de llama.cpp.

Para flujos de trabajo que requieran automatización o funcionamiento sin cabeza (por ejemplo, procesos que se ejecutan en segundo plano), Ollama es actualmente la primera opción. Sin embargo, si desea utilizar las optimizaciones propias de Apple, tendrá que esperar a futuras integraciones de MLX.

Llama.cpp

Este proyecto constituye la base de muchas otras herramientas (incluida Ollama) y ofrece un motor de inferencia de muy alto rendimiento para modelos GGUF. Es extremadamente flexible, pero no siempre fácil de usar o manejar, sobre todo para los principiantes. La gran ventaja: existe una enorme comunidad, muchas extensiones y un desarrollo estable.

Estudio LM

Cualquiera que busque una interfaz gráfica de usuario suele acabar con LM Studio. Esta herramienta combina la descarga, la administración y la ejecución de modelos lingüísticos en una sencilla aplicación nativa de Mac que incluye una interfaz de chat, configuración y gestión de modelos. Lo más destacado: LM Studio también es compatible con el motor MLX desde hace unos meses, lo que le permite aprovechar al máximo las optimizaciones de Apple en un Mac M1 o M2, y con un consumo de RAM significativamente menor que el de otras herramientas comparables.

LM Studio es el punto de entrada ideal en el mundo de la IA local, especialmente para los usuarios que no quieren molestarse con comandos de terminal - y en combinación con MLX, es un verdadero alto rendimiento.

Cuando MLX en Silicon es la mejor opción

Mientras que las soluciones basadas en GGUF (Ollama, Llama.cpp) son muy flexibles y funcionan en muchas plataformas, MLX destaca por su profunda integración en el mundo Apple. Cabe destacar:

  • Utilización eficiente de la memoria gracias a la memoria unificada
  • Optimización para Metal/GPU sin configuraciones complejas
  • Integración perfecta en proyectos Swift y marcos Apple
  • Preparado para el futuro, ya que Apple está desarrollando activamente el marco.
  • Ampliabilidad, por ejemplo, mediante modelos personalizados, ajustes e integración de sistemas.

Para los usuarios de Mac que quieran planificar a largo plazo y mantener un control total sobre sus datos, MLX es ya una prometedora entrada en el mundo de la IA local, con potencial para convertirse en el estándar en el futuro.

Una perspectiva: Hacia dónde quiere ir Apple con MLX y Apple Intelligence

Con la WWDC 2025, Apple ha señalado claramente que MLX no es un truco, sino un componente estratégico en el creciente ecosistema de Apple en torno a la IA. La integración de los nuevos "Foundation Models" directamente en macOS e iOS, la compatibilidad nativa con Swift y el mayor desarrollo de MLX en la dirección del entrenamiento, la cuantificación y la inferencia muestran claramente que Apple quiere participar, pero a su manera.

Apple se mantiene fiel a su línea: sin promesas espectaculares, pero con una tecnología sólida y de funcionamiento local que se demuestra a largo plazo. Para los usuarios profesionales, esto no sólo es atractivo, sino también estratégicamente muy interesante.

MLX va camino de convertirse en la solución estándar para la IA local en el Mac. Aquellos que ya trabajan con ella hoy en día están obteniendo una valiosa ventaja, ya sea para aplicaciones creativas, técnicas o analíticas. En combinación con herramientas como mlx-lm, LM Studio o la nueva API Swift, se puede crear un entorno de IA robusto, fiable y preparado para el futuro, en línea con la forma de trabajar controlada y con soberanía de datos que será cada vez más importante en el futuro.


Encuesta actual sobre inteligencia artificial

¿Qué opina de la ejecución local de programas de IA como MLX o Ollama?

Uso de MLX en el Mac: instrucciones sencillas para principiantes

Con MLX, Apple ha creado un nuevo sistema que le permite utilizar la inteligencia artificial (IA) directamente en su propio Mac, sin conexión a Internet, sin la nube, sin depender de Google ni de OpenAI. Lo mejor de todo: si tienes un Mac con procesador M1, M2, M3 o M4 (es decir, Apple Silicon), puedes probar MLX en unos pocos pasos. Todo se ejecuta localmente: tus textos, preguntas y datos nunca salen de tu ordenador.

Aquí explico paso a paso cómo descargar y utilizar un llamado modelo de lenguaje con MLX. Suena técnico - pero verás que es fácil de hacer.

Paso 1: Comprobar los requisitos

Lo primero que necesitas:

  • Un Mac Apple Silicon (M1 o más reciente). Puedes encontrarlo en la configuración del sistema en "Acerca de este Mac".
  • macOS 13 (Ventura) o posterior.
  • Una conexión a Internet operativa: sólo para descargar el modelo, después todo funciona sin conexión.
  • Algo de espacio de almacenamiento, al menos unos 8-10 GB para un modelo pequeño.

También necesitas el programa llamado "Terminal", que ya está pre1TP12 instalado en todos los Mac. Lo utilizamos para introducir algunos comandos. Puedes encontrarlo en tu Mac en "Aplicaciones/Utilidades" o simplemente teclear y luego "Terminal" y confirmar con "Enter". No te preocupes, sólo tienes que copiar y pegar.

Paso 2: Animales Python 1TP12 (sólo si es necesario)

MLX funciona con el lenguaje de programación Python. Muchos Mac ya disponen de Python installiert. Puede comprobar si está disponible introduciendo lo siguiente en el terminal:

python3 --version

Si obtiene un número de versión (por ejemplo, Python 3.10.6), puede continuar directamente.

Si no, te recomiendo que utilices Homebrew to installieren (una popular herramienta para programas en el Mac). Para ello, introduzca en el terminal:

/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"

Entonces installier usted Python con:

brew install python

Paso 3: MLX-Tool 1TP12Animal

Ahora nos descargamos la herramienta MLX con la que posteriormente podremos utilizar el modelo de lenguaje. Para ello, installier un pequeño programa llamado mlx-lm. Introdúcelo en el terminal:

pip3 install mlx-lm

Tardará unos segundos. Cuando termine, estará listo para cargar un modelo.

Paso 4: Descargar e iniciar un modelo

Ahora viene la parte emocionante: obtienes un modelo lingüístico real en tu Mac - por ejemplo una versión de Mistral, un modelo de IA muy potente y disponible gratuitamente. Basta con introducirlo en el terminal:

mlx_lm.chat --model mlx-community/Mistral-7B-Instruct-v0.3-4bit

Este comando hace tres cosas:

  • El modelo se descarga automáticamente (una sola vez).
  • Se prepara y se pone en marcha.
  • Terminas en una ventana de chat en el terminal donde puedes hacer preguntas - similar a ChatGPT.

Cuando se complete la descarga (puede tardar unos minutos, dependiendo de tu velocidad de Internet), verás un cursor parpadeante. Ahora puedes escribir, por ejemplo:

Cuénteme algo sobre la historia de Venecia.

...y el modelo responde directamente, completamente fuera de línea.

Paso 5: Seguir trabajando con el modelo

Cuando hayas terminado, puedes finalizar el chat escribiendo exit o cerrando la ventana. Más tarde, puedes reutilizar el mismo modelo sin descargarlo de nuevo simplemente introduciendo el mismo comando otra vez. El modelo se almacena ahora localmente en su Mac y permanece allí.
Si desea probar diferentes modelos, puede hacerlo a través de Cara de abrazo o cambie el nombre del modelo directamente en la línea del terminal, por ejemplo

mlx_lm.chat --model mlx-community/Phi-2-4bit

Cada modelo tiene un estilo diferente: algunos son objetivos, otros son más creativos u orientados al diálogo.

¿Aún más fácil? Utiliza LM Studio como interfaz

Si prefieres trabajar con un ratón y una ventana, también puedes probar el programa LM Studio. Tiene una interfaz agradable, es compatible con MLX (en Apple Silicon) y permite descargar y utilizar modelos con un clic.

Puedes conseguir LM Studio aquí:

👉 https://lmstudio.ai/

Tras la instalación, puedes seleccionar "MLX" como motor en los ajustes - el programa utiliza entonces la misma tecnología que antes, pero en una bonita ventana con un campo de chat.

Lo ha conseguido: ahora utiliza una IA moderna de forma totalmente local en su Mac, sin necesidad de nube ni suscripción. Apple MLX permite utilizar modelos lingüísticos de forma eficiente, segura y respetuosa con la protección de datos.

Si más adelante quiere profundizar aún más -por ejemplo, entrenar sus propios modelos, mejorarlos con sus textos o integrarlos en su propio software (como FileMaker)-, MLX es la opción adecuada para usted. Pero el primer paso ya está dado: ha recuperado el control y tiene una potente IA directamente en su ordenador.


Cuestiones sociales de actualidad

Preguntas más frecuentes

  1. ¿Qué es exactamente MLX y en qué se diferencia de PyTorch o TensorFlow?
    MLX es un marco de aprendizaje automático desarrollado por Apple que ha sido especialmente optimizado para Apple Silicon (M1-M4). A diferencia de PyTorch o TensorFlow, que se dirigen a muchas plataformas, MLX utiliza específicamente la arquitectura de los chips Apple, por ejemplo, la estructura de memoria común (memoria unificada) y la aceleración de GPU metálica. Como resultado, funciona con mayor eficiencia de memoria y más rápido en Mac, pero sólo en hardware Apple.
  2. ¿Por qué elegir MLX en lugar de una herramienta como Ollama o Llama.cpp?
    MLX tiene ventaja si trabajas específicamente con Apple Silicon y quieres obtener el máximo rendimiento del dispositivo. Ollama y Llama.cpp son muy flexibles, pero a menudo se ejecutan con menos eficiencia en el Mac. MLX también puede integrarse directamente en proyectos Swift, lo que resulta ideal para desarrolladores que crean aplicaciones cercanas a Apple. No es un competidor de Ollama, sino una herramienta especializada para profesionales.
  3. ¿Qué modelos son compatibles con MLX?
    Son compatibles muchos modelos de lenguaje abierto -como Mistral, LLaMA 2 y 3, Phi-2 o TinyLLaMA- que ya están convertidos o pueden convertirse con la herramienta mlx-lm.convert. Es importante que estén disponibles en formato NumPy-ZIP (.npz) y preparados para MLX. Ahora hay una sección separada en Cara abrazada para los modelos compatibles con MLX.
  4. ¿Es fácil empezar? ¿Tengo que ser desarrollador?
    Un poco de comprensión técnica es útil - por ejemplo, para el terminal, los entornos Python o los nombres de los modelos. Pero empezar es relativamente fácil gracias a mlx-lm: un comando de instalación, un comando para empezar, y listo. Si prefieres trabajar con una interfaz de usuario, puedes utilizar LM Studio - ahora también es compatible con MLX en Mac.
  5. ¿Puedo entrenar MLX para mis propios proyectos, por ejemplo, con mis propios textos?
    Sí, se puede, pero actualmente la formación está pensada más para usuarios avanzados. La mayoría de los usuarios utilizan los modelos MLX para la inferencia (es decir, para respuestas, generación de textos, etc.). Para la formación o el ajuste fino, es necesario estar familiarizado con LoRA, los formatos de datos (JSONL) y los requisitos de memoria - o utilizar herramientas como FileMaker 2025, que simplifican este proceso.
  6. ¿Qué ocurre con la seguridad y la protección de datos en MLX?
    Muy bien, porque MLX se ejecuta de forma totalmente local. Todos los datos, entradas y respuestas del modelo permanecen en su propio ordenador. No hay transferencia a la nube, ni API externa: ideal para proyectos con datos sensibles, documentos internos, datos protegidos de clientes o notas confidenciales.
  7. ¿Qué papel desempeña el propio Apple en todo esto? ¿Se seguirá desarrollando el MLX?
    Apple ha publicado MLX bajo una licencia abierta y lo está desarrollando activamente, especialmente en conexión con Apple Intelligence, el sistema de IA para macOS, iOS y iPadOS. En la WWDC 2025, MLX se presentó como el marco oficial para integrar modelos lingüísticos personalizados en el software de Apple. Cabe suponer que MLX seguirá ganando importancia en el mundo Apple.
  8. ¿Puedo combinar MLX con otras herramientas, como Neo4j, n8n o FileMaker?
    Sí, MLX es un framework ML puro, pero puede conectarse a otras herramientas mediante API REST, servicios Python personalizados o envoltorios locales. Por ejemplo, puede integrarlo en su propia automatización (n8n), una base de datos semántica (Neo4j) o soluciones FileMaker - esta última está ahora incluso disponible de forma nativa con FileMaker 2025.

Imagen (c) Monoar_CGI_Artist @ pixabay

Deja un comentario