El mundo de la inteligencia artificial está en movimiento. Casi todas las semanas surgen nuevos modelos, nuevos métodos y, sobre todo, nuevas posibilidades, pero hay algo que no cambia: no todas las innovaciones técnicas conducen automáticamente a una vida cotidiana mejor. Muchas cosas siguen siendo experimentales, complejas o simplemente demasiado costosas para un uso productivo. Esto es especialmente evidente en el llamado ajuste fino de los grandes modelos lingüísticos, un método de especialización de la IA generativa a su propio contenido, términos y tonalidades.
He acompañado este proceso intensamente durante los últimos meses - primero en la forma clásica, con Python, terminal, mensajes de error y angustiosos bucles de configuración. Y después: con FileMaker 2025, un paso que me sorprendió - porque no fue fuerte, sino claro. Y porque demostró que hay otro camino.
En un detallado Artículos especializados sobre gofilemaker.de He documentado precisamente este cambio: la transición de la formación abierta, flexible pero inestable de PEFT-LoRA (por ejemplo, con Axolotl, LLaMA-Factory o kohya_ss) a la solución integrada de Claris - vía script, localmente, trazable.
¿Qué es la LoRA y por qué es tan importante?
LoRA son las siglas de Low-Rank Adaptation (adaptación de bajo rango). Detrás de este término tan técnico se esconde un principio sencillo pero poderoso: en lugar de volver a entrenar todo un modelo de IA, sólo se adaptan partes muy específicas, utilizando los llamados pesos adaptadores, que se insertan y entrenan de forma específica. En los últimos años, este método se ha consolidado como el estándar de oro para el ajuste fino de dominios específicos, porque requiere poca potencia de cálculo y, aun así, ofrece resultados excelentes.
El enfoque clásico requiere un arsenal de herramientas:
- un entorno Python operativo,
- versiones CUDA y PyTorch adecuadas,
- un motor de formación como Axolotl o kohya_ss,
- recursos de la GPU para manejar todo el asunto,
- y por último Paciencia. Mucha paciencia.
Porque entre archivos YAML, conflictos de tokenizadores y conversiones de formatos (de safetensores a GGUF a MLX y viceversa), a menudo pasan días antes de que se consiga un resultado utilizable. Funciona, pero no es algo para hacer aparte.
Y entonces llegó FileMaker 2025.
Con la introducción del AI Model Server y un nuevo paso de script llamado Fine-Tune Model, Claris está llevando este método a un entorno en el que no se habría esperado: una base de datos relacional.
Lo que a primera vista parece insólito, tiene mucho sentido cuando se observa más de cerca. Porque, ¿qué necesita una buena puesta a punto?
- Datos estructurados,
- un entorno estable,
- parámetros claros,
- y un contexto de aplicación definido.
FileMaker ofrece todo esto, por lo que la integración de LoRA en este entorno no parece un cuerpo extraño, sino más bien una extensión lógica.

Formación sin terminal, pero no sin control
En mi artículo describo detalladamente cómo es el proceso de formación en FileMaker:
- Introducción de datos directamente desde tablas existentes o archivos JSONL,
- Los hiperparámetros, como la velocidad de aprendizaje o la profundidad de capa, pueden controlarse directamente en el script,
- Funcionamiento local completo en Apple-Silicon - sin nube, sin carga,
- y sobre todo: resultados reproducibles y aptos para el uso cotidiano.
Por supuesto, hay límites. FileMaker no permite (todavía) el servicio multimodelo, las estrategias de congelación de capas ni la exportación a otros formatos como GGUF u ONNX. No se trata de una herramienta de investigación, sino de una herramienta para casos de uso claros, como la adaptación de modelos lingüísticos a términos, respuestas, descripciones de productos o estructuras de diálogo interno específicos de una empresa.
Y ahí reside el encanto: funciona. Estable. Repetible. Y más rápido de lo que jamás creí posible.
Encuesta actual sobre el futuro de la FileMaker y la IA
¿Quién y por qué?
Este artículo va dirigido a cualquiera que no sólo entienda la IA, sino que además quiera utilizarla:
- Director Generalque quieren armonizar la protección de datos y la eficacia.
- Desarrolladorque no quieren empezar de cero cada vez.
- Estrategasque se dan cuenta de que la IA no sólo puede "comprarse" externamente, sino que también puede formarse internamente.
En FileMaker 2025, el ajuste de los modelos lingüísticos pasará a formar parte del flujo de trabajo, no como un cuerpo extraño, sino como una herramienta real. Se trata de un cambio silencioso pero duradero que demuestra lo lejos que hemos llegado en la adecuación de la IA al uso cotidiano.
Al artículo:
Del terminal al script: FileMaker 2025 hace que el ajuste fino de LoRA sea apto para el uso diario
En el próximo artículo, describiré cómo se puede entrenar en la práctica un modelo lingüístico con FileMaker y también proporcionaré un script de ejemplo correspondiente.


