gFM-Business y el futuro del ERP: inteligencia local en lugar de dependencia de la nube

gFM-Business e IA + grafo de conocimiento

Desde hace más de una década, el software gFM-Business es sinónimo de algo especial en el mercado alemán de ERP: no se basa en un sistema engorroso y difícil de mantener, sino en la plataforma FileMaker, ligera, personalizable y visualmente modelada. Esto tiene muchas ventajas: gFM-Business puede ampliarse individualmente, funciona en Windows, macOS e iOS y puede ser personalizado tanto por desarrolladores como por ambiciosos usuarios avanzados.

Con la llegada de la inteligencia artificial (IA) -especialmente a través de los llamados modelos lingüísticos como ChatGPT- surgen ahora nuevas oportunidades que van mucho más allá de la automatización tradicional. gFM-Business se prepara activamente para este futuro: con el objetivo no solo de gestionar datos, sino también de desbloquear conocimientos.

Leer más

Integración de MLX en FileMaker 2025: la IA local como nueva norma

IA local con MLX y FileMaker

Aunque MLX fue lanzado originalmente como un marco experimental por Apple Research, en los últimos meses se ha producido un desarrollo silencioso pero significativo: Con el lanzamiento de FileMaker 2025, Claris ha integrado firmemente MLX en el servidor como infraestructura nativa de IA para Apple Silicon. Esto significa que cualquiera que trabaje con un Mac y utilice Apple Silicon no sólo puede ejecutar modelos MLX localmente, sino también utilizarlos directamente en FileMaker, con funciones nativas, sin capas intermedias.

Leer más

MLX en Apple Silicon como IA local en comparación con Ollama & Co.

IA local en el Mac con MLX

En un momento en el que los servicios de IA centralizados como ChatGPT, Claude o Gemini dominan los titulares, muchos usuarios profesionales tienen una necesidad creciente de una alternativa: una infraestructura de IA local y autocontrolable. Especialmente para procesos creativos, datos sensibles o flujos de trabajo recurrentes, una solución local suele ser la opción más sostenible y segura.

Cualquiera que trabaje con un Mac -especialmente con Apple Silicon (M1, M2, M3 o M4)- puede encontrar ahora herramientas asombrosamente potentes para ejecutar sus propios modelos lingüísticos directamente en el dispositivo. En el centro de todo ello se encuentra un componente nuevo y en gran medida desconocido: MLX, un marco de aprendizaje automático desarrollado por Apple que probablemente desempeñará un papel cada vez más central en el ecosistema de IA de la empresa en los próximos años.

Leer más

IA local en el Mac: cómo installiere un modelo lingüístico con Ollama

La IA local en Mac es práctica desde hace tiempo, especialmente en los ordenadores Apple-Silicon (serie M). Con Ollama se obtiene un entorno de ejecución sencillo para muchos modelos lingüísticos de código abierto (por ejemplo, Llama 3.1/3.2, Mistral, Gemma, Qwen). La versión actual de Ollama también incluye una aplicación fácil de usar que le permite configurar un modelo lingüístico local en su Mac con un simple clic del ratón. En este artículo encontrarás una guía pragmática desde la instalación hasta la primera consulta, con consejos prácticos sobre dónde suelen fallar las cosas.

Leer más