Integración de MLX en FileMaker 2025: la IA local como nueva norma

IA local con MLX y FileMaker

Aunque MLX fue lanzado originalmente como un marco experimental por Apple Research, en los últimos meses se ha producido un desarrollo silencioso pero significativo: Con el lanzamiento de FileMaker 2025, Claris ha integrado firmemente MLX en el servidor como infraestructura nativa de IA para Apple Silicon. Esto significa que cualquiera que trabaje con un Mac y utilice Apple Silicon no sólo puede ejecutar modelos MLX localmente, sino también utilizarlos directamente en FileMaker, con funciones nativas, sin capas intermedias.

Leer más

RAG con Ollama y Qdrant como motor de búsqueda universal de datos propios

Ampliar la IA local con bases de datos mediante RAG, Ollama y Qdrant

En un mundo de información cada vez más confuso, es cada vez más importante hacer que sus propias bases de datos sean consultables de forma específica, no mediante las clásicas búsquedas de texto completo, sino a través de respuestas semánticamente relevantes. Aquí es exactamente donde entra en juego el principio de la base de datos RAG, una solución de búsqueda asistida por inteligencia artificial que consta de dos componentes centrales:

Leer más

Ollama se reúne con Qdrant: una memoria local para tu IA en el Mac

Memoria para IA local con Ollama y Qdrant

IA local con memoria: sin nube, sin suscripción, sin distracciones

En un artículos anteriores He explicado cómo configurar Ollama en el Mac install. Si ya has completado este paso, ahora tienes un potente modelo de lenguaje local - como Mistral, LLaMA3 u otro modelo compatible que se puede abordar a través de REST API.

Sin embargo, el modelo sólo "sabe" lo que hay en la solicitud actual. No recuerda conversaciones anteriores. Lo que falta es un recuerdo.

Leer más