Integración de MLX en FileMaker 2025: la IA local como nueva norma

Aunque MLX fue lanzado originalmente como un marco experimental por Apple Research, en los últimos meses se ha producido un desarrollo silencioso pero significativo: Con el lanzamiento de FileMaker 2025, Claris ha integrado firmemente MLX en el servidor como infraestructura nativa de IA para Apple Silicon. Esto significa que cualquiera que trabaje con un Mac y utilice Apple Silicon no sólo puede ejecutar modelos MLX localmente, sino también utilizarlos directamente en FileMaker, con funciones nativas, sin capas intermedias.


Temas de actualidad relacionados con Claris FileMaker

Los límites entre el experimento MLX local y la aplicación FileMaker profesional empiezan a difuminarse, en favor de un flujo de trabajo de IA totalmente integrado, trazable y controlable.

La nueva área de IA en el servidor FileMaker: "Servicios de IA".

La pieza central de esta nueva arquitectura es el área "AI Services" de la Admin Console de FileMaker Server 2025, donde desarrolladores y administradores pueden:

  • activar el Servidor Modelo AI,
  • Gestionar modelos (descargar, proporcionar, ajustar),
  • Asignar claves API para clientes autorizados,
  • y supervisar las operaciones de IA en curso de forma selectiva.

Si el servidor FileMaker se ejecuta en un Mac con Apple Silicon, el AI Model Server integrado utiliza automáticamente MLX como backend de inferencia. Esto conlleva todas las ventajas que MLX ofrece en los dispositivos Apple: alta eficiencia de memoria, utilización nativa de la GPU a través de Metal y una clara separación entre modelo e infraestructura, igual que en el mundo Apple.

Suministro de modelos MLX directamente a través de la consola del servidor

Desplegar un modelo MLX es más fácil de lo esperado: En la consola de administración de AI, los modelos compatibles pueden seleccionarse directamente de una lista cada vez mayor de modelos lingüísticos compatibles con Claris y desplegarse en el servidor installier. Se trata de modelos de código abierto (por ejemplo, variantes de Mistral, LLaMA o Phi) que están disponibles en formato .npz y han sido especialmente convertidos para MLX. Sin embargo, en la actualidad (septiembre de 2025), el número de modelos disponibles sigue siendo bastante limitado.

También puede preparar sus propios modelos, por ejemplo convirtiendo modelos de caras abrazadas con la herramienta mlx-lm. Con un solo comando, puede descargar un modelo, cuantificarlo y convertirlo al formato adecuado. A continuación, puede ponerlo a disposición en el directorio del servidor, siguiendo el mismo esquema que Claris utiliza internamente. Una vez installiert, estos modelos están inmediatamente disponibles para todas las funciones de IA soportadas dentro de FileMaker.

Funciones nativas de IA en FileMaker Pro: scripts en lugar de desvíos

Lo que antes se ejecutaba a través de API externas, llamadas REST y rutinas JSON construidas manualmente, ahora está disponible en FileMaker 2025 en forma de comandos de script dedicados. Una vez configurada una cuenta de IA -con el nombre del modelo y la conexión al servidor-, las tareas de IA pueden integrarse perfectamente en la interfaz de usuario y la lógica empresarial.

Los comandos más importantes son

  • "Generar respuesta a partir del modelo"que pueden utilizarse para generar respuestas textuales, por ejemplo para sugerencias automáticas de texto, funciones de chat o borradores de correo electrónico.
  • "Realizar búsqueda por lenguaje natural"que traduce una simple formulación ("Muéstreme todos los clientes de Berlín con facturas pendientes") en una consulta precisa a la base de datos.
  • "Realizar consultas SQL mediante lenguaje natural"que también puede utilizarse para generar y procesar estructuras SQL complejas, como uniones y subconsultas.
  • "Obtener incrustación" y funciones afines que permiten realizar análisis de vectores semánticos, por ejemplo para buscar textos de contenido similar o consultas de clientes.

Todos estos comandos acceden al modelo MLX actualmente seleccionado que se ejecuta en el AI Model Server en segundo plano. Las respuestas están disponibles de inmediato y pueden procesarse directamente como texto, JSON o vector incrustado.

Pasos del guión y posibilidades de la IA en FileMaker

Los pasos de guion para inteligencia artificial permiten la integración directa de potentes modelos de IA -como Large Language Models (LLM) o Core ML- en los flujos de trabajo de FileMaker. Crean la base técnica para combinar el lenguaje natural, el conocimiento de bases de datos y el aprendizaje automático. Están disponibles las siguientes funciones:

  1. Configuración de una cuenta AI designada
    Puede configurar y nombrar una cuenta AI específica, que se utilizará en todos los pasos y funciones de script posteriores. Esto le permite mantener el control sobre la autenticación y el acceso a modelos o servicios externos.
  2. Recuperar una respuesta de texto basada en una solicitud
    Un modelo de IA puede reaccionar a una pregunta introducida por el usuario y generar la correspondiente respuesta textual. Esto permite automatizar la creación de textos, las sugerencias o las funciones de diálogo.
  3. Consulta de la base de datos basada en una solicitud y en el esquema de la base de datos
    Al pasar una pregunta en lenguaje natural junto con el esquema estructural de su base de datos, el modelo puede identificar el contenido relevante y devolver un resultado específico.
  4. Generar consultas SQL
    El modelo también puede generar consultas SQL basadas en una consulta y en el esquema de la base de datos subyacente. Esto permite generar automáticamente consultas complejas, que pueden utilizarse para operaciones con la base de datos.
  5. FileMaker consultas de búsqueda basadas en campos de diseño
    Pasando al modelo los campos de la presentación actual junto con una pregunta en lenguaje natural, se pueden formular automáticamente consultas de búsqueda y recuperar conjuntos de resultados adecuados.
  6. Insertar vectores de incrustación en registros de datos
    Tiene la opción de insertar incrustaciones semánticas -es decir, vectores numéricos que representan significados- en campos de registros de datos individuales o conjuntos de resultados completos. Esto constituye la base para posteriores comparaciones semánticas o análisis de IA.
  7. Realizar una búsqueda semántica
    Basándose en el significado de una consulta de búsqueda, el sistema puede identificar registros de datos cuyos datos de campo tengan significados similares, aunque las palabras no coincidan exactamente. Esto abre nuevas vías para la búsqueda inteligente de datos.
  8. Configurar plantillas de avisos
    Puede definir plantillas de avisos reutilizables que pueden usarse en otros pasos de guion o funciones. Esto garantiza la coherencia y ahorra tiempo a la hora de crear avisos estructurados.
  9. Configurar el modelo de regresión
    Para tareas como previsiones, estimaciones o análisis de tendencias, puede crearse un modelo de regresión que opera sobre conjuntos de datos numéricos. Es adecuado para analizar la evolución de las ventas o las evaluaciones de riesgos, por ejemplo.
  10. Configure y gestione su cuenta RAG
    Se puede crear una cuenta RAG (Retrieval Augmented Generation). Esto permite añadir o eliminar datos y enviar preguntas específicas a un espacio RAG. Los sistemas RAG combinan búsquedas clásicas con respuestas generadas por IA.
  11. Afinar un modelo con datos de entrenamiento
    Puede volver a entrenar un modelo existente con su propio conjunto de datos para adaptarlo mejor a requisitos específicos, estilos lingüísticos o áreas de tareas. El ajuste fino aumenta la relevancia y la calidad del resultado.
  12. Registro de llamadas AI
    Se puede activar el registro de todas las llamadas de IA para su seguimiento y análisis. Esto resulta útil para optimizar los avisos, la resolución de problemas o la documentación.
  13. Configurar modelos Core ML
    Además de los LLM basados en la nube, también se pueden configurar modelos Core ML ejecutados localmente. Esto resulta especialmente útil para aplicaciones offline o para su uso en dispositivos Apple con soporte ML integrado.

Encuesta actual sobre el futuro de Claris FileMaker y la IA

¿Cree que Claris FileMaker se asociará más estrechamente con la IA en los próximos años?

Ajuste fino directamente desde FileMaker: LoRA como nuevo estándar

Una de las novedades más interesantes es la posibilidad de afinar tus propios modelos directamente en FileMaker - completamente dentro de la interfaz familiar. Todo lo que necesitas es un comando de script: "Fine-Tune Model".

Los registros de datos de las tablas FileMaker (por ejemplo, historiales de asistencia, diálogos de clientes, muestras de texto) pueden utilizarse como datos de entrenamiento. El método de ajuste fino se basa en LoRA (Low-Rank Adaptation), un procedimiento de ahorro de recursos que sólo modifica una pequeña parte de los parámetros del modelo y permite así realizar ajustes rápidos, incluso en dispositivos con memoria limitada.

Los datos de entrenamiento se toman de un conjunto encontrado actual o se importan mediante un archivo JSONL. Tras el entrenamiento, se asigna un nuevo nombre al modelo -por ejemplo, "fm-mlx-support-v1"- y el resultado está inmediatamente disponible para otras funciones de IA. Esto permite crear modelos lingüísticos personalizados que se adaptan con precisión a la aplicación correspondiente en cuanto a tono, vocabulario y comportamiento.

Protección de datos y rendimiento: dos caras de la misma moneda

El hecho de que FileMaker 2025 confíe en modelos locales con MLX no es casualidad. En un momento en que la soberanía de los datos, el cumplimiento del GDPR y las directrices de seguridad interna son cada vez más importantes, este enfoque ofrece varias ventajas:

  • Sin nube, sin servidores externos, sin costes de APITodas las solicitudes permanecen en su propia red.
  • Tiempos de respuesta más rápidos gracias al procesamiento local - especialmente para los procesos recurrentes.
  • Gran transparencia y controlabilidadSe puede comprobar cada respuesta, hacer un seguimiento de cada cambio y documentar cada paso de la formación.
  • Ajuste a sus propios datosLos conocimientos específicos de la empresa ya no se canalizan a través de proveedores externos, sino que permanecen íntegramente dentro del propio sistema de la empresa.

Al mismo tiempo, es importante evaluar los recursos de forma realista: Los modelos grandes también requieren una infraestructura local sólida, como un Mac Apple Silicon con 32 o 64 GB de RAM, posiblemente con caché SSD y un perfil de servidor dedicado. Pero quienes opten por esta vía se beneficiarán a largo plazo de un control máximo con total flexibilidad.

MLX y FileMaker: una nueva alianza para profesionales

Lo que en un principio parecía un camino paralelo -por un lado MLX como marco de investigación de Apple, por otro FileMaker como plataforma clásica de bases de datos- se ha convertido en un sistema cerrado.

Claris ha reconocido que las aplicaciones empresariales modernas necesitan algo más que formularios, tablas e informes. Necesitan una IA adaptable y comprensiva, integrada, no como un accesorio. Con soporte nativo para MLX, los nuevos comandos de IA y la opción de ajuste local, FileMaker 2025 ofrece una plataforma completa para crear, controlar y utilizar de forma productiva sus propios procesos de IA por primera vez, sin tener que depender de proveedores externos o nubes externas.

Para los desarrolladores que, como usted, aprecian una arquitectura clara, pensada de forma conservadora y segura para los datos, esto es más que un progreso: es el principio de una nueva forma de trabajar.


Temas de actualidad sobre inteligencia artificial

Preguntas más frecuentes

  1. ¿Qué significa exactamente que FileMaker 2025 "soporta MLX"?
    FileMaker Server 2025 contiene por primera vez un AI Model Server integrado que, si se instala en un Apple Silicon Mac install, utiliza modelos MLX de forma nativa. Esto significa que puede desplegar un modelo compatible con MLX (por ejemplo, Mistral o Phi-2) directamente a través de la Admin Console y utilizarlo en su solución FileMaker - sin rodeos a través de servicios externos o llamadas REST.
  2. ¿Qué hardware y software necesito para ello?
    - Un Mac con Apple Silicon (M1, M2, M3, M4), idealmente con 32-64 GB de RAM,
    - FileMaker Servidor 2025, en este Mac installiert,
    - FileMaker Pro 2025 para la solución real,
    - y uno o más modelos compatibles con MLX, ya sean proporcionados por Claris o convertidos por usted mismo (por ejemplo, mediante mlx-lm).
  3. ¿Cómo puedo integrar un modelo de este tipo en mi solución FileMaker?
    Puede utilizar la nueva función "Configurar cuenta AI" de FileMaker Scripts para especificar qué modelo se utiliza. Se definen el nombre del servidor, el nombre del modelo y la clave de autenticación. A continuación, puede utilizar inmediatamente las demás funciones de IA, por ejemplo, para la generación de texto, la incrustación o la búsqueda semántica. Todo se ejecuta a través de pasos de script nativos, sin necesidad de un visor web o "Insertar desde URL".
  4. ¿Qué funciones de IA puedo utilizar en FileMaker?
    Están disponibles las siguientes funciones (según el tipo de modelo):
    - Generación de texto ("Generar respuesta a partir del modelo")
    - Búsqueda natural ("Realizar búsqueda por lenguaje natural")
    - SQL en lenguaje cotidiano ("Realizar consultas SQL mediante lenguaje natural")
    - Vectores semánticos ("Get Embedding", "Cosine Similarity")
    - Gestión de plantillas de avisos ("Configurar plantilla de avisos")
    - Ajuste fino de LoRA mediante datos propios ("Fine-Tune Model")
    Todas las funciones se basan en secuencias de comandos y pueden integrarse perfectamente en las soluciones existentes.
  5. ¿Cómo funciona el ajuste fino directamente en FileMaker?
    En FileMaker 2025, puede ajustar un modelo MLX existente directamente a través de LoRA, es decir, personalizarlo con sus propios datos. Para ello, puede utilizar registros de datos en una tabla (por ejemplo, preguntas + respuestas) o un archivo JSONL. Un único comando de script ("Fine-Tune Model") es suficiente para crear un nuevo modelo personalizado, que estará disponible inmediatamente en la solución.
  6. ¿Todavía tengo que estar familiarizado con Python, JSON, APIs o formatos de modelos?
    No necesariamente. Claris se ha asegurado deliberadamente de que muchos de estos detalles técnicos pasen a un segundo plano. Puede trabajar con comandos de script nativos, gestionar usted mismo los datos en FileMaker y procesar simplemente los retornos como texto o vector. Si quiere, puede profundizar más, pero ahora puede hacerlo sin conocimientos de programación.
  7. ¿Cuáles son las ventajas de utilizar MLX a través de FileMaker en comparación con las API externas?
    Las ventajas residen en la seguridad de los datos, el control de costes y el rendimiento:
    - No es necesario conectarse a la nube, todos los datos permanecen en tu propia red.
    - Sin costes de API ni límites de tokens: una vez installiert, su uso es gratuito.
    - Tiempos de respuesta muy cortos, ya que no hay latencia de red de por medio.
    - Control total sobre los datos de entrenamiento, el ajuste fino y las versiones del modelo.
    Se trata de un verdadero cambio de juego, especialmente para aplicaciones internas, soluciones industriales o procesos sensibles.
  8. ¿Hay alguna restricción o algo a lo que deba prestar atención?
    Sí - MLX sólo funciona en Apple Silicon, es decir, un servidor Intel está excluido. También se necesita suficiente RAM para que los modelos más grandes puedan funcionar de forma fiable. No todos los modelos son inmediatamente compatibles - algunos necesitan ser convertidos. Y por último: aunque muchas cosas funcionan "automáticamente", siempre deberías realizar una prueba de funcionamiento específica para un uso productivo, por ejemplo, con pequeñas cantidades de datos, definiciones de objetivos claras y una buena estrategia de registro.

Material gráfico (c) Claris Inc. y Kohji Asakawa en Pixabay

Deja un comentario