De la exportación de datos ChatGPT a su propia IA del conocimiento: paso a paso con Ollama y Qdrant

El camino hacia tu propia memoria de IA

En la primera parte de esta serie de artículos, vimos que la exportación de datos de ChatGPT es mucho más que una función técnica. Tus datos exportados contienen una colección de pensamientos, ideas, análisis y conversaciones que se han acumulado durante un largo periodo de tiempo. Pero mientras estos datos sólo se almacenen como un archivo en tu disco duro, siguen siendo sólo eso: un archivo. El paso crucial es hacer que esta información vuelva a ser utilizable. Aquí es exactamente donde empieza el desarrollo de una IA de conocimiento personal.

En realidad, la idea es sorprendentemente sencilla: una IA no sólo debe trabajar con conocimientos generales, sino también ser capaz de acceder a sus propios datos. Debe ser capaz de buscar en conversaciones anteriores, encontrar contenido adecuado e incorporarlo a nuevas respuestas. Esto convierte a una IA ordinaria en una especie de memoria digital. Esta es la segunda parte de la serie de artículos, que ahora se centra en el aspecto práctico.

Leer más

Explicación de la exportación de datos ChatGPT: cómo tus chats de IA se convierten en un sistema de conocimiento personal

Exportación de datos ChatGPT

Si trabajas habitualmente con una IA, probablemente lo sepas: una idea lleva a la siguiente. Haces una pregunta, obtienes una respuesta, reformulas, desarrollas una idea. Una pregunta corta se convierte de repente en un diálogo más largo. A veces incluso da lugar a proyectos enteros.

Pero la mayoría de estas conversaciones vuelven a desaparecer. Permanecen en algún lugar de la lista de chats, se deslizan hacia abajo y se olvidan con el tiempo. Esta es precisamente una de las grandes particularidades de los modernos sistemas de IA: Mientras que las conversaciones anteriores con colegas, amigos o asesores sólo existían en nuestra memoria, los diálogos de la IA se conservan por completo.

Esto significa algo crucial: Con cada conversación, se crea un archivo digital de tu pensamiento. Esta es la primera parte de una pequeña serie de artículos que te permitirán exportar tu historial de chat desde ChatGPT y utilizarlo eficazmente como un tesoro personal de conocimientos con tu sistema de IA local.

Leer más

La IA en la nube como directora: por qué el futuro del trabajo pasa por la IA local

La IA en la nube se convierte en directora

Cuando los grandes modelos lingüísticos iniciaron su marcha triunfal hace unos años, casi parecían una vuelta a las viejas virtudes de la tecnología: una herramienta que hace lo que se le dice. Una herramienta al servicio del usuario, y no al revés. Las primeras versiones -de GPT-3 a GPT-4- tenían puntos débiles, sí, pero eran asombrosamente útiles. Explicaban, analizaban, formulaban y resolvían tareas. Y lo hacían en gran medida sin lastre pedagógico.

Hablabas con estos modelos como si lo hicieras con un empleado erudito, que a veces se equivocaba en sus palabras, pero que en esencia simplemente funcionaba. Cualquiera que escribiera textos creativos, generara código de programas o produjera análisis más largos en aquella época experimentaba lo bien que funcionaba. Había una sensación de libertad, de espacio creativo abierto, de tecnología que apoyaba a las personas en lugar de corregirlas.

Leer más

Apple MLX frente a NVIDIA: cómo funciona la inferencia local de IA en el Mac

IA local en Silicon con Apple Mac

Cualquiera que trabaje con inteligencia artificial hoy en día suele pensar primero en ChatGPT o en servicios en línea similares. Escribes una pregunta, esperas unos segundos y recibes una respuesta como si al otro lado de la línea estuviera sentado un interlocutor muy leído y paciente. Pero lo que se olvida fácilmente: Cada entrada, cada frase, cada palabra viaja por Internet a servidores externos. Ahí es donde se hace el trabajo de verdad: en enormes ordenadores que usted nunca llega a ver.

En principio, un modelo lingüístico local funciona exactamente igual, pero sin Internet. El modelo se almacena como un archivo en el propio ordenador del usuario, se carga en la memoria de trabajo al arrancar y responde a las preguntas directamente en el dispositivo. La tecnología que hay detrás es la misma: una red neuronal que entiende el lenguaje, genera textos y reconoce patrones. La única diferencia es que todo el cálculo sigue siendo interno. Se podría decir: ChatGPT sin la nube.

Leer más

Inteligencia artificial: qué empleos están en peligro y cómo podemos armarnos ahora

Qué empleos eliminará la IA en el futuro

Casi ningún otro cambio tecnológico se ha colado en nuestra vida cotidiana con tanta rapidez como la inteligencia artificial. Lo que ayer se consideraba una tecnología visionaria del futuro hoy ya es una realidad, ya sea para enviar mensajes de texto, programar, diagnosticar, traducir o incluso crear música, arte o informes jurídicos.

Leer más

MLX en Apple Silicon como IA local en comparación con Ollama & Co.

IA local en el Mac con MLX

En un momento en el que los servicios de IA centralizados como ChatGPT, Claude o Gemini dominan los titulares, muchos usuarios profesionales tienen una necesidad creciente de una alternativa: una infraestructura de IA local y autocontrolable. Especialmente para procesos creativos, datos sensibles o flujos de trabajo recurrentes, una solución local suele ser la opción más sostenible y segura.

Cualquiera que trabaje con un Mac -especialmente con Apple Silicon (M1, M2, M3 o M4)- puede encontrar ahora herramientas asombrosamente potentes para ejecutar sus propios modelos lingüísticos directamente en el dispositivo. En el centro de todo ello se encuentra un componente nuevo y en gran medida desconocido: MLX, un marco de aprendizaje automático desarrollado por Apple que probablemente desempeñará un papel cada vez más central en el ecosistema de IA de la empresa en los próximos años.

Leer más

RAG con Ollama y Qdrant como motor de búsqueda universal de datos propios

Ampliar la IA local con bases de datos mediante RAG, Ollama y Qdrant

En un mundo de información cada vez más confuso, es cada vez más importante hacer que sus propias bases de datos sean consultables de forma específica, no mediante las clásicas búsquedas de texto completo, sino a través de respuestas semánticamente relevantes. Aquí es exactamente donde entra en juego el principio de la base de datos RAG, una solución de búsqueda asistida por inteligencia artificial que consta de dos componentes centrales:

Leer más

Ollama se reúne con Qdrant: una memoria local para tu IA en el Mac

Memoria para IA local con Ollama y Qdrant

IA local con memoria: sin nube, sin suscripción, sin distracciones

En un artículos anteriores He explicado cómo configurar Ollama en el Mac install. Si ya has completado este paso, ahora tienes un potente modelo de lenguaje local - como Mistral, LLaMA3 u otro modelo compatible que se puede abordar a través de REST API.

Sin embargo, el modelo sólo "sabe" lo que hay en la solicitud actual. No recuerda conversaciones anteriores. Lo que falta es un recuerdo.

Leer más