Del Commodore C16 a WordPress: un viaje por los primeros años de Internet

Del módem a Internet y la revista

Hoy en día, un smartphone contiene más potencia de cálculo que salas enteras de ordenadores. En los años 80, las cosas eran completamente distintas. Los ordenadores eran raros, caros y, para mucha gente, una máquina misteriosa. Por aquel entonces, si tenías tu propio ordenador en casa, pertenecías a un pequeño grupo de manitas, inventores y curiosos. Lo apasionante era que no te limitabas a consumir ordenadores. Había que entenderlos. Muchos programas no se podían comprar ya hechos. En su lugar, las revistas de informática contenían páginas de listados con código BASIC que había que teclear línea por línea. Sólo entonces podías ver si el programa funcionaba.

Hoy suena tedioso, pero tenía una gran ventaja. Aprendías automáticamente cómo funcionaban los ordenadores. Si cometías un error, recibías inmediatamente un mensaje de error, y tenías que averiguar por ti mismo dónde estaba el error. De este modo, muchos jóvenes aficionados a la informática desarrollaron un acercamiento muy natural a la tecnología y la programación.

Fue entonces cuando comencé mi propia andadura en el mundo de la informática.

Leer más

Cuando el Mac escucha: lo que la IA integrada del Apple con Gemini y Siri significará para los usuarios en el futuro

Apple, Siri y Gemini

Cualquiera que abra un Mac hoy en día espera fiabilidad. Los programas se inician, los archivos están en su sitio, los procesos son familiares. Muchos han creado una forma de trabajar durante años -algunos durante décadas- que funciona. Sabes dónde hacer clic. Conoces tus herramientas. Y ahí es precisamente donde reside la tranquilidad. Pero desde hace algún tiempo se ha producido un cambio de fondo que va más allá de nuevos colores, nuevos iconos o nuevas opciones de menú. Por primera vez, una forma de inteligencia artificial se está moviendo no sólo como una aplicación individual, sino más cerca del corazón del propio sistema operativo. Donde se crean las rutinas diarias.

Al principio suena abstracto. Quizá incluso un poco futurista. Pero en el fondo se trata de algo muy realista: el ordenador debe entender mejor lo que se quiere decir. No sólo lo que se pulsa. Hasta ahora, mucha gente ha experimentado la IA fuera de su trabajo real. En ventanas de chat, en páginas web, como un experimento o un truco. Pruebas algo, te quedas maravillado, cierras la ventana y vuelves a tu vida cotidiana.

Leer más

Inteligencia artificial sin exageraciones: por qué menos herramientas de IA suelen significar mejor trabajo

Inteligencia artificial sin exageraciones

Cualquiera que se ocupe hoy en día del tema de la inteligencia artificial se encuentra casi inevitablemente con una extraña sensación: inquietud constante. Nada más acostumbrarse a una herramienta, aparecen las diez siguientes. Un vídeo sigue al siguiente en YouTube: „Esta herramienta de IA lo cambia todo“, „Tienes que usar esto ahora“, „Los que se pierden se quedan atrás“. Y siempre resuena subliminalmente el mismo mensaje: Llegas demasiado tarde. Los demás van más adelantados. Tienes que ponerte al día.

Esto no sólo afecta a los informáticos. Los autónomos, los profesionales creativos, los empresarios y los empleados de a pie también sienten la presión. Muchos ni siquiera saben exactamente para qué sirven estas herramientas, pero tienen la sensación de que podrían estar perdiéndose algo. Y eso es exactamente lo que causa estrés.

Leer más

IA para principiantes: cómo iniciarse en la inteligencia artificial sin conocimientos previos

IA para principiantes

La inteligencia artificial parece un fenómeno repentino para mucha gente. Hace apenas unos años, apenas desempeñaba un papel en la vida cotidiana, pero hoy está presente constantemente: en las noticias, en los debates, en las conversaciones en el trabajo. Sin embargo, esta impresión es engañosa. La IA no surgió de la noche a la mañana. Lleva décadas investigándose, desarrollándose y utilizándose en ámbitos especializados. Lo nuevo no es la idea, sino el enfoque.

La inteligencia artificial existe como idea de investigación desde hace décadas. Durante mucho tiempo fue un tema para universidades, grandes empresas y aplicaciones especializadas. La gran diferencia hoy es que muchos sistemas de IA han madurado hasta el punto de poder ser utilizados por personas normales en la vida cotidiana, a través de una simple ventana de entrada, en un ordenador o un smartphone.

Leer más

La IA en la nube como directora: por qué el futuro del trabajo pasa por la IA local

La IA en la nube se convierte en directora

Cuando los grandes modelos lingüísticos iniciaron su marcha triunfal hace unos años, casi parecían una vuelta a las viejas virtudes de la tecnología: una herramienta que hace lo que se le dice. Una herramienta al servicio del usuario, y no al revés. Las primeras versiones -de GPT-3 a GPT-4- tenían puntos débiles, sí, pero eran asombrosamente útiles. Explicaban, analizaban, formulaban y resolvían tareas. Y lo hacían en gran medida sin lastre pedagógico.

Hablabas con estos modelos como si lo hicieras con un empleado erudito, que a veces se equivocaba en sus palabras, pero que en esencia simplemente funcionaba. Cualquiera que escribiera textos creativos, generara código de programas o produjera análisis más largos en aquella época experimentaba lo bien que funcionaba. Había una sensación de libertad, de espacio creativo abierto, de tecnología que apoyaba a las personas en lugar de corregirlas.

Leer más

AI Studio 2025: Qué hardware merece realmente la pena: del Mac Studio a la RTX 3090

Hardware 2025 para estudio de IA

Hoy en día, cualquiera que trabaje con IA se ve empujado casi automáticamente a la nube: OpenAI, Microsoft, Google, cualquier interfaz web, tokens, límites, términos y condiciones. Esto parece moderno, pero es esencialmente una vuelta a la dependencia: otros determinan qué modelos puedes utilizar, con qué frecuencia, con qué filtros y a qué precio. Yo voy deliberadamente en la dirección contraria: actualmente estoy construyendo mi propio pequeño estudio de IA en casa. Con mi propio hardware, mis propios modelos y mis propios flujos de trabajo.

Mi objetivo es claro: IA local de texto, IA local de imagen, aprendizaje de mis propios modelos (LoRA, puesta a punto) y todo ello de tal forma que yo, como autónomo y más adelante también cliente de una PYME, no dependa de los caprichos diarios de algún proveedor en la nube. Se podría decir que es una vuelta a una vieja actitud que solía ser bastante normal: „Las cosas importantes las haces tú mismo“. Solo que esta vez no se trata de tu propio banco de trabajo, sino de potencia informática y soberanía de datos.

Leer más

La suite gráfica Affinity pasa a ser gratuita: Lo que los usuarios profesionales necesitan saber ahora

Suite gráfica Affinity gratuita

Si, como yo, llevas décadas trabajando con programas de maquetación y composición tipográfica, sueles notar esos cambios con más claridad que los que acaban de entrar en este mundo. He visto muchas cosas ir y venir a lo largo de los años: A principios de los noventa, trabajé con Calamus SL en el Atari ST y más tarde, en Windows, con CorelDraw. Más tarde llegó QuarkXPress, luego iCalamus, Adobe InDesign y, por último, hace unos años, Affinity Publisher. Desde entonces, la suite Affinity me ha acompañado en casi todos mis proyectos de libros. A lo largo de los años, ha sido una herramienta fiable, agradablemente sencilla, claramente estructurada y libre del lastre que muchas grandes casas de software se han añadido a sí mismas a lo largo de los años.

Leer más

Apple MLX frente a NVIDIA: cómo funciona la inferencia local de IA en el Mac

IA local en Silicon con Apple Mac

Cualquiera que trabaje con inteligencia artificial hoy en día suele pensar primero en ChatGPT o en servicios en línea similares. Escribes una pregunta, esperas unos segundos y recibes una respuesta como si al otro lado de la línea estuviera sentado un interlocutor muy leído y paciente. Pero lo que se olvida fácilmente: Cada entrada, cada frase, cada palabra viaja por Internet a servidores externos. Ahí es donde se hace el trabajo de verdad: en enormes ordenadores que usted nunca llega a ver.

En principio, un modelo lingüístico local funciona exactamente igual, pero sin Internet. El modelo se almacena como un archivo en el propio ordenador del usuario, se carga en la memoria de trabajo al arrancar y responde a las preguntas directamente en el dispositivo. La tecnología que hay detrás es la misma: una red neuronal que entiende el lenguaje, genera textos y reconoce patrones. La única diferencia es que todo el cálculo sigue siendo interno. Se podría decir: ChatGPT sin la nube.

Leer más