La IA en la nube como directora: por qué el futuro del trabajo pasa por la IA local

La IA en la nube se convierte en directora

Cuando los grandes modelos lingüísticos iniciaron su marcha triunfal hace unos años, casi parecían una vuelta a las viejas virtudes de la tecnología: una herramienta que hace lo que se le dice. Una herramienta al servicio del usuario, y no al revés. Las primeras versiones -de GPT-3 a GPT-4- tenían puntos débiles, sí, pero eran asombrosamente útiles. Explicaban, analizaban, formulaban y resolvían tareas. Y lo hacían en gran medida sin lastre pedagógico.

Hablabas con estos modelos como si lo hicieras con un empleado erudito, que a veces se equivocaba en sus palabras, pero que en esencia simplemente funcionaba. Cualquiera que escribiera textos creativos, generara código de programas o produjera análisis más largos en aquella época experimentaba lo bien que funcionaba. Había una sensación de libertad, de espacio creativo abierto, de tecnología que apoyaba a las personas en lugar de corregirlas.

Leer más

AI Studio 2025: Qué hardware merece realmente la pena: del Mac Studio a la RTX 3090

Hardware 2025 para estudio de IA

Hoy en día, cualquiera que trabaje con IA se ve empujado casi automáticamente a la nube: OpenAI, Microsoft, Google, cualquier interfaz web, tokens, límites, términos y condiciones. Esto parece moderno, pero es esencialmente una vuelta a la dependencia: otros determinan qué modelos puedes utilizar, con qué frecuencia, con qué filtros y a qué precio. Yo voy deliberadamente en la dirección contraria: actualmente estoy construyendo mi propio pequeño estudio de IA en casa. Con mi propio hardware, mis propios modelos y mis propios flujos de trabajo.

Mi objetivo es claro: IA local de texto, IA local de imagen, aprendizaje de mis propios modelos (LoRA, puesta a punto) y todo ello de tal forma que yo, como autónomo y más adelante también cliente de una PYME, no dependa de los caprichos diarios de algún proveedor en la nube. Se podría decir que es una vuelta a una vieja actitud que solía ser bastante normal: „Las cosas importantes las haces tú mismo“. Solo que esta vez no se trata de tu propio banco de trabajo, sino de potencia informática y soberanía de datos.

Leer más

gFM-Business y el futuro del ERP: inteligencia local en lugar de dependencia de la nube

gFM-Business e IA + grafo de conocimiento

Desde hace más de una década, el software gFM-Business es sinónimo de algo especial en el mercado alemán de ERP: no se basa en un sistema engorroso y difícil de mantener, sino en la plataforma FileMaker, ligera, personalizable y visualmente modelada. Esto tiene muchas ventajas: gFM-Business puede ampliarse individualmente, funciona en Windows, macOS e iOS y puede ser personalizado tanto por desarrolladores como por ambiciosos usuarios avanzados.

Con la llegada de la inteligencia artificial (IA) -especialmente a través de los llamados modelos lingüísticos como ChatGPT- surgen ahora nuevas oportunidades que van mucho más allá de la automatización tradicional. gFM-Business se prepara activamente para este futuro: con el objetivo no solo de gestionar datos, sino también de desbloquear conocimientos.

Leer más

Ollama se reúne con Qdrant: una memoria local para tu IA en el Mac

Memoria para IA local con Ollama y Qdrant

IA local con memoria: sin nube, sin suscripción, sin distracciones

En un artículos anteriores He explicado cómo configurar Ollama en el Mac install. Si ya has completado este paso, ahora tienes un potente modelo de lenguaje local - como Mistral, LLaMA3 u otro modelo compatible que se puede abordar a través de REST API.

Sin embargo, el modelo sólo "sabe" lo que hay en la solicitud actual. No recuerda conversaciones anteriores. Lo que falta es un recuerdo.

Leer más