Num mundo de informação cada vez mais confuso, é cada vez mais importante tornar as suas próprias bases de dados pesquisáveis de forma direcionada - não através de pesquisas clássicas de texto integral, mas através de respostas semanticamente relevantes. É exatamente aqui que entra em jogo o princípio da base de dados RAG - uma solução de pesquisa apoiada por IA que consiste em dois componentes centrais:
Docker
Artigo sobre o tema Docker. Aborda os conceitos básicos, as possíveis aplicações e a experiência prática com contentores em ambientes de desenvolvimento e empresariais.
Ollama encontra Qdrant: Uma memória local para a sua IA no Mac
IA local com memória - sem nuvem, sem subscrição, sem desvios
Num artigos anteriores Expliquei como configurar o Ollama no Mac install. Se já tiver concluído este passo, tem agora um modelo de língua local poderoso - como o Mistral, LLaMA3 ou outro modelo compatível que pode ser abordado através da API REST.
No entanto, o modelo apenas "sabe" o que está no prompt atual. Não se lembra de conversas anteriores. O que falta é uma memória.