Aunque MLX fue lanzado originalmente como un marco experimental por Apple Research, en los últimos meses se ha producido un desarrollo silencioso pero significativo: Con el lanzamiento de FileMaker 2025, Claris ha integrado firmemente MLX en el servidor como infraestructura nativa de IA para Apple Silicon. Esto significa que cualquiera que trabaje con un Mac y utilice Apple Silicon no sólo puede ejecutar modelos MLX localmente, sino también utilizarlos directamente en FileMaker, con funciones nativas, sin capas intermedias.
Protección de datos
La protección de datos es desde hace tiempo algo más que una cuestión jurídica marginal: se ha convertido en uno de los pilares centrales de nuestra autodeterminación digital. En un momento en que los datos personales se consideran la nueva moneda, el manejo soberano de la información se está convirtiendo en una cuestión de responsabilidad, tanto para las empresas como para cada individuo.
Esta etiqueta se utiliza para artículos que analizan de forma crítica y práctica cuestiones relacionadas con el almacenamiento de datos, el rastreo, los servicios en la nube, la vigilancia estatal y la autonomía digital. El objetivo es proporcionar orientación, más allá del alarmismo, pero también más allá de la fe ciega en la tecnología.
MLX en Apple Silicon como IA local en comparación con Ollama & Co.
En un momento en el que los servicios de IA centralizados como ChatGPT, Claude o Gemini dominan los titulares, muchos usuarios profesionales tienen una necesidad creciente de una alternativa: una infraestructura de IA local y autocontrolable. Especialmente para procesos creativos, datos sensibles o flujos de trabajo recurrentes, una solución local suele ser la opción más sostenible y segura.
Cualquiera que trabaje con un Mac -especialmente con Apple Silicon (M1, M2, M3 o M4)- puede encontrar ahora herramientas asombrosamente potentes para ejecutar sus propios modelos lingüísticos directamente en el dispositivo. En el centro de todo ello se encuentra un componente nuevo y en gran medida desconocido: MLX, un marco de aprendizaje automático desarrollado por Apple que probablemente desempeñará un papel cada vez más central en el ecosistema de IA de la empresa en los próximos años.
IA local en el Mac: cómo installiere un modelo lingüístico con Ollama
La IA local en Mac es práctica desde hace tiempo, especialmente en los ordenadores Apple-Silicon (serie M). Con Ollama se obtiene un entorno de ejecución sencillo para muchos modelos lingüísticos de código abierto (por ejemplo, Llama 3.1/3.2, Mistral, Gemma, Qwen). La versión actual de Ollama también incluye una aplicación fácil de usar que le permite configurar un modelo lingüístico local en su Mac con un simple clic del ratón. En este artículo encontrarás una guía pragmática desde la instalación hasta la primera consulta, con consejos prácticos sobre dónde suelen fallar las cosas.