AI Studio 2025: Qué hardware merece realmente la pena: del Mac Studio a la RTX 3090

Hardware 2025 para estudio de IA

Hoy en día, cualquiera que trabaje con IA se ve empujado casi automáticamente a la nube: OpenAI, Microsoft, Google, cualquier interfaz web, tokens, límites, términos y condiciones. Esto parece moderno, pero es esencialmente una vuelta a la dependencia: otros determinan qué modelos puedes utilizar, con qué frecuencia, con qué filtros y a qué precio. Yo voy deliberadamente en la dirección contraria: actualmente estoy construyendo mi propio pequeño estudio de IA en casa. Con mi propio hardware, mis propios modelos y mis propios flujos de trabajo.

Mi objetivo es claro: IA local de texto, IA local de imagen, aprendizaje de mis propios modelos (LoRA, puesta a punto) y todo ello de tal forma que yo, como autónomo y más adelante también cliente de una PYME, no dependa de los caprichos diarios de algún proveedor en la nube. Se podría decir que es una vuelta a una vieja actitud que solía ser bastante normal: „Las cosas importantes las haces tú mismo“. Solo que esta vez no se trata de tu propio banco de trabajo, sino de potencia informática y soberanía de datos.

Leer más

Apple MLX frente a NVIDIA: cómo funciona la inferencia local de IA en el Mac

IA local en Silicon con Apple Mac

Cualquiera que trabaje con inteligencia artificial hoy en día suele pensar primero en ChatGPT o en servicios en línea similares. Escribes una pregunta, esperas unos segundos y recibes una respuesta como si al otro lado de la línea estuviera sentado un interlocutor muy leído y paciente. Pero lo que se olvida fácilmente: Cada entrada, cada frase, cada palabra viaja por Internet a servidores externos. Ahí es donde se hace el trabajo de verdad: en enormes ordenadores que usted nunca llega a ver.

En principio, un modelo lingüístico local funciona exactamente igual, pero sin Internet. El modelo se almacena como un archivo en el propio ordenador del usuario, se carga en la memoria de trabajo al arrancar y responde a las preguntas directamente en el dispositivo. La tecnología que hay detrás es la misma: una red neuronal que entiende el lenguaje, genera textos y reconoce patrones. La única diferencia es que todo el cálculo sigue siendo interno. Se podría decir: ChatGPT sin la nube.

Leer más

Entrenamiento LoRA: cómo FileMaker 2025 simplifica el ajuste fino de grandes modelos lingüísticos

LoRA Ajuste fino - FileMaker 2025

El mundo de la inteligencia artificial está en movimiento. Casi todas las semanas surgen nuevos modelos, nuevos métodos y, sobre todo, nuevas posibilidades, pero hay algo que no cambia: no todas las innovaciones técnicas conducen automáticamente a una vida cotidiana mejor. Muchas cosas siguen siendo experimentales, complejas o simplemente demasiado costosas para un uso productivo. Esto es especialmente evidente en el llamado ajuste fino de los grandes modelos lingüísticos, un método de especialización de la IA generativa a su propio contenido, términos y tonalidades.

He acompañado este proceso intensamente durante los últimos meses - primero en la forma clásica, con Python, terminal, mensajes de error y angustiosos bucles de configuración. Y después: con FileMaker 2025, un paso que me sorprendió - porque no fue fuerte, sino claro. Y porque demostró que hay otro camino.

Leer más

Inteligencia artificial: qué empleos están en peligro y cómo podemos armarnos ahora

Qué empleos eliminará la IA en el futuro

Casi ningún otro cambio tecnológico se ha colado en nuestra vida cotidiana con tanta rapidez como la inteligencia artificial. Lo que ayer se consideraba una tecnología visionaria del futuro hoy ya es una realidad, ya sea para enviar mensajes de texto, programar, diagnosticar, traducir o incluso crear música, arte o informes jurídicos.

Leer más

Integración de MLX en FileMaker 2025: la IA local como nueva norma

IA local con MLX y FileMaker

Aunque MLX fue lanzado originalmente como un marco experimental por Apple Research, en los últimos meses se ha producido un desarrollo silencioso pero significativo: Con el lanzamiento de FileMaker 2025, Claris ha integrado firmemente MLX en el servidor como infraestructura nativa de IA para Apple Silicon. Esto significa que cualquiera que trabaje con un Mac y utilice Apple Silicon no sólo puede ejecutar modelos MLX localmente, sino también utilizarlos directamente en FileMaker, con funciones nativas, sin capas intermedias.

Leer más

MLX en Apple Silicon como IA local en comparación con Ollama & Co.

IA local en el Mac con MLX

En un momento en el que los servicios de IA centralizados como ChatGPT, Claude o Gemini dominan los titulares, muchos usuarios profesionales tienen una necesidad creciente de una alternativa: una infraestructura de IA local y autocontrolable. Especialmente para procesos creativos, datos sensibles o flujos de trabajo recurrentes, una solución local suele ser la opción más sostenible y segura.

Cualquiera que trabaje con un Mac -especialmente con Apple Silicon (M1, M2, M3 o M4)- puede encontrar ahora herramientas asombrosamente potentes para ejecutar sus propios modelos lingüísticos directamente en el dispositivo. En el centro de todo ello se encuentra un componente nuevo y en gran medida desconocido: MLX, un marco de aprendizaje automático desarrollado por Apple que probablemente desempeñará un papel cada vez más central en el ecosistema de IA de la empresa en los próximos años.

Leer más