RAG com Ollama e Qdrant como motor de pesquisa universal para dados próprios

Alargar a IA local com bases de dados utilizando RAG, Ollama e Qdrant

Num mundo de informação cada vez mais confuso, é cada vez mais importante tornar as suas próprias bases de dados pesquisáveis de forma direcionada - não através de pesquisas clássicas de texto integral, mas através de respostas semanticamente relevantes. É exatamente aqui que entra em jogo o princípio da base de dados RAG - uma solução de pesquisa apoiada por IA que consiste em dois componentes centrais:

Ler mais

Ollama encontra Qdrant: Uma memória local para a sua IA no Mac

Memória para IA local com Ollama e Qdrant

IA local com memória - sem nuvem, sem subscrição, sem desvios

Num artigos anteriores Expliquei como configurar o Ollama no Mac install. Se já tiver concluído este passo, tem agora um modelo de língua local poderoso - como o Mistral, LLaMA3 ou outro modelo compatível que pode ser abordado através da API REST.

No entanto, o modelo apenas "sabe" o que está no prompt atual. Não se lembra de conversas anteriores. O que falta é uma memória.

Ler mais