Da exportação de dados ChatGPT para a sua própria IA do conhecimento: passo a passo com Ollama e Qdrant

O caminho para a sua própria memória de IA

Na primeira parte desta série de artigos, vimos que a exportação de dados do ChatGPT é muito mais do que apenas uma função técnica. Os seus dados exportados contêm uma coleção de pensamentos, ideias, análises e conversas que se acumularam durante um longo período de tempo. Mas enquanto estes dados estiverem apenas armazenados como um arquivo no seu disco rígido, continuam a ser apenas isso: um arquivo. O passo crucial é tornar esta informação novamente utilizável. É exatamente aqui que começa o desenvolvimento de uma IA de conhecimento pessoal.

A ideia é surpreendentemente simples: uma IA não deve apenas trabalhar com conhecimentos gerais, mas também ser capaz de aceder aos seus próprios dados. Deve ser capaz de pesquisar conversas anteriores, encontrar conteúdos adequados e incorporá-los em novas respostas. Isto transforma uma IA normal numa espécie de memória digital. Esta é a segunda parte da série de artigos, que agora aborda o lado prático das coisas.

Ler mais

Explicação da exportação de dados ChatGPT: como as suas conversas de IA se tornam um sistema de conhecimento pessoal

Exportação de dados ChatGPT

Se trabalha regularmente com uma IA, provavelmente sabe o seguinte: um pensamento leva ao seguinte. Faz-se uma pergunta, obtém-se uma resposta, reformula-se, desenvolve-se uma ideia. Uma pergunta curta transforma-se subitamente num diálogo mais longo. Por vezes, até dá origem a projectos inteiros.

Mas a maioria destas conversas desaparece novamente. Ficam algures na lista de conversas, deslizam para baixo e são esquecidas com o tempo. Esta é precisamente uma das grandes particularidades dos sistemas de IA modernos: Enquanto as conversas anteriores com colegas, amigos ou conselheiros só existiam nas nossas memórias, os diálogos de IA são completamente preservados.

Isto significa algo crucial: Com cada conversa, é criado um arquivo digital do seu pensamento. Esta é a primeira parte de uma pequena série de artigos que lhe permitirá exportar o seu histórico de conversações do ChatGPT e utilizá-lo eficazmente como um tesouro pessoal de conhecimentos com o seu sistema de IA local.

Ler mais

A IA na nuvem como diretora: porque é que o futuro do trabalho está na IA local

A IA na nuvem torna-se o diretor da escola

Quando os grandes modelos linguísticos iniciaram a sua marcha triunfal, há alguns anos, quase pareciam um regresso às velhas virtudes da tecnologia: uma ferramenta que faz o que lhe mandam. Uma ferramenta que serve o utilizador e não o contrário. As primeiras versões - do GPT-3 ao GPT-4 - tinham pontos fracos, sim, mas eram incrivelmente úteis. Explicavam, analisavam, formulavam e resolviam tarefas. E faziam-no em grande parte sem lastro pedagógico.

Falávamos com estes modelos como se estivéssemos a falar com um funcionário erudito, que por vezes se enganava nas palavras, mas que no essencial funcionava. Qualquer pessoa que escrevesse textos criativos, gerasse código de programa ou produzisse análises mais longas nessa altura experimentava a facilidade com que tudo funcionava. Havia uma sensação de liberdade, de um espaço criativo aberto, de uma tecnologia que apoiava as pessoas em vez de as corrigir.

Ler mais

Apple MLX vs. NVIDIA: Como funciona a inferência local de IA no Mac

IA local em Silicon com Apple Mac

Atualmente, quem trabalha com inteligência artificial pensa frequentemente no ChatGPT ou em serviços online semelhantes. Escreve-se uma pergunta, espera-se alguns segundos - e recebe-se uma resposta como se estivesse do outro lado da linha um interlocutor paciente e muito culto. Mas o que é facilmente esquecido: Cada entrada, cada frase, cada palavra viaja através da Internet para servidores externos. É aí que o trabalho real é feito - em computadores enormes que nunca chegamos a ver.

Em princípio, um modelo de língua local funciona exatamente da mesma forma - mas sem a Internet. O modelo é armazenado como um ficheiro no próprio computador do utilizador, é carregado na memória de trabalho no arranque e responde a perguntas diretamente no dispositivo. A tecnologia subjacente é a mesma: uma rede neuronal que compreende a linguagem, gera textos e reconhece padrões. A única diferença é que todo o cálculo é efectuado internamente. Pode dizer-se: ChatGPT sem a nuvem.

Ler mais

Inteligência artificial: que empregos estão em risco e como nos podemos proteger agora

Que empregos serão eliminados pela IA no futuro

Quase nenhuma outra mudança tecnológica se introduziu tão rapidamente na nossa vida quotidiana como a inteligência artificial. O que ontem era considerado uma tecnologia visionária do futuro, hoje já é uma realidade - seja no envio de mensagens de texto, na programação, no diagnóstico, na tradução ou até mesmo na criação de música, arte ou dossiers jurídicos.

Ler mais

MLX no Apple Silicon como IA local em comparação com o Ollama & Co.

IA local no Mac com MLX

Numa altura em que os serviços centralizados de IA, como o ChatGPT, o Claude ou o Gemini, estão a dominar as manchetes, muitos utilizadores profissionais têm uma necessidade crescente de uma alternativa - uma infraestrutura de IA local e auto-controlável. Especialmente para processos criativos, dados sensíveis ou fluxos de trabalho recorrentes, uma solução local é frequentemente a opção mais sustentável e segura.

Qualquer pessoa que trabalhe com um Mac - especialmente com o Apple Silicon (M1, M2, M3 ou M4) - pode agora encontrar ferramentas incrivelmente poderosas para executar os seus próprios modelos linguísticos diretamente no dispositivo. No centro de tudo isto está um novo componente, em grande parte desconhecido: MLX, uma estrutura de aprendizagem automática desenvolvida pelo Apple que irá provavelmente desempenhar um papel cada vez mais central no ecossistema de IA da empresa nos próximos anos.

Ler mais

RAG com Ollama e Qdrant como motor de pesquisa universal para dados próprios

Alargar a IA local com bases de dados utilizando RAG, Ollama e Qdrant

Num mundo de informação cada vez mais confuso, é cada vez mais importante tornar as suas próprias bases de dados pesquisáveis de forma direcionada - não através de pesquisas clássicas de texto integral, mas através de respostas semanticamente relevantes. É exatamente aqui que entra em jogo o princípio da base de dados RAG - uma solução de pesquisa apoiada por IA que consiste em dois componentes centrais:

Ler mais

Ollama encontra Qdrant: Uma memória local para a sua IA no Mac

Memória para IA local com Ollama e Qdrant

IA local com memória - sem nuvem, sem subscrição, sem desvios

Num artigos anteriores Expliquei como configurar o Ollama no Mac install. Se já tiver concluído este passo, tem agora um modelo de língua local poderoso - como o Mistral, LLaMA3 ou outro modelo compatível que pode ser abordado através da API REST.

No entanto, o modelo apenas "sabe" o que está no prompt atual. Não se lembra de conversas anteriores. O que falta é uma memória.

Ler mais