Apple MLX frente a NVIDIA: cómo funciona la inferencia local de IA en el Mac

IA local en Silicon con Apple Mac

Cualquiera que trabaje con inteligencia artificial hoy en día suele pensar primero en ChatGPT o en servicios en línea similares. Escribes una pregunta, esperas unos segundos y recibes una respuesta como si al otro lado de la línea estuviera sentado un interlocutor muy leído y paciente. Pero lo que se olvida fácilmente: Cada entrada, cada frase, cada palabra viaja por Internet a servidores externos. Ahí es donde se hace el trabajo de verdad: en enormes ordenadores que usted nunca llega a ver.

En principio, un modelo lingüístico local funciona exactamente igual, pero sin Internet. El modelo se almacena como un archivo en el propio ordenador del usuario, se carga en la memoria de trabajo al arrancar y responde a las preguntas directamente en el dispositivo. La tecnología que hay detrás es la misma: una red neuronal que entiende el lenguaje, genera textos y reconoce patrones. La única diferencia es que todo el cálculo sigue siendo interno. Se podría decir: ChatGPT sin la nube.

Leer más

Entrenamiento LoRA: cómo FileMaker 2025 simplifica el ajuste fino de grandes modelos lingüísticos

LoRA Ajuste fino - FileMaker 2025

El mundo de la inteligencia artificial está en movimiento. Casi todas las semanas surgen nuevos modelos, nuevos métodos y, sobre todo, nuevas posibilidades, pero hay algo que no cambia: no todas las innovaciones técnicas conducen automáticamente a una vida cotidiana mejor. Muchas cosas siguen siendo experimentales, complejas o simplemente demasiado costosas para un uso productivo. Esto es especialmente evidente en el llamado ajuste fino de los grandes modelos lingüísticos, un método de especialización de la IA generativa a su propio contenido, términos y tonalidades.

He acompañado este proceso intensamente durante los últimos meses - primero en la forma clásica, con Python, terminal, mensajes de error y angustiosos bucles de configuración. Y después: con FileMaker 2025, un paso que me sorprendió - porque no fue fuerte, sino claro. Y porque demostró que hay otro camino.

Leer más

Facturas electrónicas para PYME: XRechnung, ZUGFeRD y ERP de un vistazo

Visión general de la obligación de expedir facturas electrónicas

Alemania no inventó la factura electrónica de la noche a la mañana: es el resultado de años de trabajo de normalización (EN 16931), normativas federales y estatales (B2G) y ahora, a través de la Ley de Oportunidades de Crecimiento, la expansión gradual a la vida cotidiana B2B. Desde el 1 de enero de 2025, se aplica una nueva situación jurídica: una "factura electrónica" sólo es una factura electrónica si está estructurada y es legible por máquina - los meros archivos adjuntos en PDF por correo electrónico ya no son una factura electrónica según la definición. Esto suena técnico, pero tiene consecuencias operativas desde la recepción de facturas hasta la contabilidad y el archivo.

Leer más

gFM-Business y el futuro del ERP: inteligencia local en lugar de dependencia de la nube

gFM-Business e IA + grafo de conocimiento

Desde hace más de una década, el software gFM-Business es sinónimo de algo especial en el mercado alemán de ERP: no se basa en un sistema engorroso y difícil de mantener, sino en la plataforma FileMaker, ligera, personalizable y visualmente modelada. Esto tiene muchas ventajas: gFM-Business puede ampliarse individualmente, funciona en Windows, macOS e iOS y puede ser personalizado tanto por desarrolladores como por ambiciosos usuarios avanzados.

Con la llegada de la inteligencia artificial (IA) -especialmente a través de los llamados modelos lingüísticos como ChatGPT- surgen ahora nuevas oportunidades que van mucho más allá de la automatización tradicional. gFM-Business se prepara activamente para este futuro: con el objetivo no solo de gestionar datos, sino también de desbloquear conocimientos.

Leer más

FileMaker Conferencia 2025: IA, comunidad y un incidente inesperado

FileMaker Conferencia 2025: Alarma de incendio con bomberos

La Conferencia FileMaker 2025 de Hamburgo ha terminado, y ha sido un hito especial en muchos aspectos. No sólo porque la conferencia de este año se ha centrado en muchos temas relacionados con la inteligencia artificial, el rendimiento y los flujos de trabajo modernos, sino también porque el intercambio personal y el "ambiente familiar" de la comunidad FileMaker han vuelto a cobrar todo su sentido. Para mí, personalmente, fue un momento intenso, inspirador y enriquecedor en todos los sentidos, desde la primera noche.

Leer más

Integración de MLX en FileMaker 2025: la IA local como nueva norma

IA local con MLX y FileMaker

Aunque MLX fue lanzado originalmente como un marco experimental por Apple Research, en los últimos meses se ha producido un desarrollo silencioso pero significativo: Con el lanzamiento de FileMaker 2025, Claris ha integrado firmemente MLX en el servidor como infraestructura nativa de IA para Apple Silicon. Esto significa que cualquiera que trabaje con un Mac y utilice Apple Silicon no sólo puede ejecutar modelos MLX localmente, sino también utilizarlos directamente en FileMaker, con funciones nativas, sin capas intermedias.

Leer más

¿Nos vemos en la conferencia FileMaker FMK 2025 en Hamburgo?

FileMaker Conferencia FMK2025

Del 15 al 17 de septiembre de 2025, la comunidad FileMaker de habla alemana se reunirá en el JUFA Hotel Hamburg HafenCity para debatir los últimos avances, tendencias y mejores prácticas en la Conferencia FileMaker (FMK 2025). Desde hace más de diez años, esta conferencia se considera el evento más importante para desarrolladores, usuarios y responsables de la toma de decisiones en el sector FileMaker de Claris, y estoy encantado de volver a estar presente este año.

Leer más

Ollama se reúne con Qdrant: una memoria local para tu IA en el Mac

Memoria para IA local con Ollama y Qdrant

IA local con memoria: sin nube, sin suscripción, sin distracciones

En un artículos anteriores He explicado cómo configurar Ollama en el Mac install. Si ya has completado este paso, ahora tienes un potente modelo de lenguaje local - como Mistral, LLaMA3 u otro modelo compatible que se puede abordar a través de REST API.

Sin embargo, el modelo sólo "sabe" lo que hay en la solicitud actual. No recuerda conversaciones anteriores. Lo que falta es un recuerdo.

Leer más