Integración de MLX en FileMaker 2025: la IA local como nueva norma

IA local con MLX y FileMaker

Aunque MLX fue lanzado originalmente como un marco experimental por Apple Research, en los últimos meses se ha producido un desarrollo silencioso pero significativo: Con el lanzamiento de FileMaker 2025, Claris ha integrado firmemente MLX en el servidor como infraestructura nativa de IA para Apple Silicon. Esto significa que cualquiera que trabaje con un Mac y utilice Apple Silicon no sólo puede ejecutar modelos MLX localmente, sino también utilizarlos directamente en FileMaker, con funciones nativas, sin capas intermedias.

Leer más

MLX en Apple Silicon como IA local en comparación con Ollama & Co.

IA local en el Mac con MLX

En un momento en el que los servicios de IA centralizados como ChatGPT, Claude o Gemini dominan los titulares, muchos usuarios profesionales tienen una necesidad creciente de una alternativa: una infraestructura de IA local y autocontrolable. Especialmente para procesos creativos, datos sensibles o flujos de trabajo recurrentes, una solución local suele ser la opción más sostenible y segura.

Cualquiera que trabaje con un Mac -especialmente con Apple Silicon (M1, M2, M3 o M4)- puede encontrar ahora herramientas sorprendentemente potentes para ejecutar sus propios modelos lingüísticos directamente en el dispositivo. En el centro de todo ello se encuentra un componente nuevo y en gran medida desconocido: MLX, un marco de aprendizaje automático desarrollado por Apple que probablemente desempeñará un papel cada vez más central en el ecosistema de IA de la empresa en los próximos años.

Leer más

Ollama se reúne con Qdrant: una memoria local para tu IA en el Mac

Memoria para IA local con Ollama y Qdrant

IA local con memoria: sin nube, sin suscripción, sin distracciones

En un artículos anteriores He explicado cómo configurar Ollama en el Mac install. Si ya has completado este paso, ahora tienes un potente modelo de lenguaje local - como Mistral, LLaMA3 u otro modelo compatible que se puede abordar a través de REST API.

Sin embargo, el modelo sólo "sabe" lo que hay en la solicitud actual. No recuerda conversaciones anteriores. Lo que falta es un recuerdo.

Leer más

IA local en el Mac: cómo installiere un modelo lingüístico con Ollama

AI local installieren con Ollama en el Mac

Lokale KI auf dem Mac ist längst praxistauglich – vor allem auf Apple-Silicon-Rechnern (M-Serie). Mit Ollama holen Sie sich eine schlanke Laufzeitumgebung für viele Open-Source-Sprachmodelle (z. B. Llama 3.1/3.2, Mistral, Gemma, Qwen). Mit der aktuellen Ollama-Version wird nun auch eine benutzerfreundliche App geliefert, mit der Sie per Mausklick ein lokales Sprachmodell auf Ihrem Mac einrichten können. In diesem Artikel finden Sie eine pragmatische Anleitung von der Installation bis zum ersten Prompt – mit Hinweisen aus der Praxis, wo Dinge traditionell gern schiefgehen.

Leer más