Inteligencia artificial sin exageraciones: por qué menos herramientas de IA suelen significar mejor trabajo

Inteligencia artificial sin exageraciones

Cualquiera que se ocupe hoy en día del tema de la inteligencia artificial se encuentra casi inevitablemente con una extraña sensación: inquietud constante. Nada más acostumbrarse a una herramienta, aparecen las diez siguientes. Un vídeo sigue al siguiente en YouTube: „Esta herramienta de IA lo cambia todo“, „Tienes que usar esto ahora“, „Los que se pierden se quedan atrás“. Y siempre resuena subliminalmente el mismo mensaje: Llegas demasiado tarde. Los demás van más adelantados. Tienes que ponerte al día.

Esto no sólo afecta a los informáticos. Los autónomos, los profesionales creativos, los empresarios y los empleados de a pie también sienten la presión. Muchos ni siquiera saben exactamente para qué sirven estas herramientas, pero tienen la sensación de que podrían estar perdiéndose algo. Y eso es exactamente lo que causa estrés.

Leer más

La IA en la nube como directora: por qué el futuro del trabajo pasa por la IA local

La IA en la nube se convierte en directora

Cuando los grandes modelos lingüísticos iniciaron su marcha triunfal hace unos años, casi parecían una vuelta a las viejas virtudes de la tecnología: una herramienta que hace lo que se le dice. Una herramienta al servicio del usuario, y no al revés. Las primeras versiones -de GPT-3 a GPT-4- tenían puntos débiles, sí, pero eran asombrosamente útiles. Explicaban, analizaban, formulaban y resolvían tareas. Y lo hacían en gran medida sin lastre pedagógico.

Hablabas con estos modelos como si lo hicieras con un empleado erudito, que a veces se equivocaba en sus palabras, pero que en esencia simplemente funcionaba. Cualquiera que escribiera textos creativos, generara código de programas o produjera análisis más largos en aquella época experimentaba lo bien que funcionaba. Había una sensación de libertad, de espacio creativo abierto, de tecnología que apoyaba a las personas en lugar de corregirlas.

Leer más

AI Studio 2025: Qué hardware merece realmente la pena: del Mac Studio a la RTX 3090

Hardware 2025 para estudio de IA

Hoy en día, cualquiera que trabaje con IA se ve empujado casi automáticamente a la nube: OpenAI, Microsoft, Google, cualquier interfaz web, tokens, límites, términos y condiciones. Esto parece moderno, pero es esencialmente una vuelta a la dependencia: otros determinan qué modelos puedes utilizar, con qué frecuencia, con qué filtros y a qué precio. Yo voy deliberadamente en la dirección contraria: actualmente estoy construyendo mi propio pequeño estudio de IA en casa. Con mi propio hardware, mis propios modelos y mis propios flujos de trabajo.

Mi objetivo es claro: IA local de texto, IA local de imagen, aprendizaje de mis propios modelos (LoRA, puesta a punto) y todo ello de tal forma que yo, como autónomo y más adelante también cliente de una PYME, no dependa de los caprichos diarios de algún proveedor en la nube. Se podría decir que es una vuelta a una vieja actitud que solía ser bastante normal: „Las cosas importantes las haces tú mismo“. Solo que esta vez no se trata de tu propio banco de trabajo, sino de potencia informática y soberanía de datos.

Leer más

Apple MLX frente a NVIDIA: cómo funciona la inferencia local de IA en el Mac

IA local en Silicon con Apple Mac

Cualquiera que trabaje con inteligencia artificial hoy en día suele pensar primero en ChatGPT o en servicios en línea similares. Escribes una pregunta, esperas unos segundos y recibes una respuesta como si al otro lado de la línea estuviera sentado un interlocutor muy leído y paciente. Pero lo que se olvida fácilmente: Cada entrada, cada frase, cada palabra viaja por Internet a servidores externos. Ahí es donde se hace el trabajo de verdad: en enormes ordenadores que usted nunca llega a ver.

En principio, un modelo lingüístico local funciona exactamente igual, pero sin Internet. El modelo se almacena como un archivo en el propio ordenador del usuario, se carga en la memoria de trabajo al arrancar y responde a las preguntas directamente en el dispositivo. La tecnología que hay detrás es la misma: una red neuronal que entiende el lenguaje, genera textos y reconoce patrones. La única diferencia es que todo el cálculo sigue siendo interno. Se podría decir: ChatGPT sin la nube.

Leer más

Entrenamiento LoRA: cómo FileMaker 2025 simplifica el ajuste fino de grandes modelos lingüísticos

LoRA Ajuste fino - FileMaker 2025

El mundo de la inteligencia artificial está en movimiento. Casi todas las semanas surgen nuevos modelos, nuevos métodos y, sobre todo, nuevas posibilidades, pero hay algo que no cambia: no todas las innovaciones técnicas conducen automáticamente a una vida cotidiana mejor. Muchas cosas siguen siendo experimentales, complejas o simplemente demasiado costosas para un uso productivo. Esto es especialmente evidente en el llamado ajuste fino de los grandes modelos lingüísticos, un método de especialización de la IA generativa a su propio contenido, términos y tonalidades.

He acompañado este proceso intensamente durante los últimos meses - primero en la forma clásica, con Python, terminal, mensajes de error y angustiosos bucles de configuración. Y después: con FileMaker 2025, un paso que me sorprendió - porque no fue fuerte, sino claro. Y porque demostró que hay otro camino.

Leer más

Inteligencia artificial: qué empleos están en peligro y cómo podemos armarnos ahora

Qué empleos eliminará la IA en el futuro

Casi ningún otro cambio tecnológico se ha colado en nuestra vida cotidiana con tanta rapidez como la inteligencia artificial. Lo que ayer se consideraba una tecnología visionaria del futuro hoy ya es una realidad, ya sea para enviar mensajes de texto, programar, diagnosticar, traducir o incluso crear música, arte o informes jurídicos.

Leer más

Integración de MLX en FileMaker 2025: la IA local como nueva norma

IA local con MLX y FileMaker

Aunque MLX fue lanzado originalmente como un marco experimental por Apple Research, en los últimos meses se ha producido un desarrollo silencioso pero significativo: Con el lanzamiento de FileMaker 2025, Claris ha integrado firmemente MLX en el servidor como infraestructura nativa de IA para Apple Silicon. Esto significa que cualquiera que trabaje con un Mac y utilice Apple Silicon no sólo puede ejecutar modelos MLX localmente, sino también utilizarlos directamente en FileMaker, con funciones nativas, sin capas intermedias.

Leer más

MLX en Apple Silicon como IA local en comparación con Ollama & Co.

IA local en el Mac con MLX

En un momento en el que los servicios de IA centralizados como ChatGPT, Claude o Gemini dominan los titulares, muchos usuarios profesionales tienen una necesidad creciente de una alternativa: una infraestructura de IA local y autocontrolable. Especialmente para procesos creativos, datos sensibles o flujos de trabajo recurrentes, una solución local suele ser la opción más sostenible y segura.

Cualquiera que trabaje con un Mac -especialmente con Apple Silicon (M1, M2, M3 o M4)- puede encontrar ahora herramientas asombrosamente potentes para ejecutar sus propios modelos lingüísticos directamente en el dispositivo. En el centro de todo ello se encuentra un componente nuevo y en gran medida desconocido: MLX, un marco de aprendizaje automático desarrollado por Apple que probablemente desempeñará un papel cada vez más central en el ecosistema de IA de la empresa en los próximos años.

Leer más