A IA na nuvem como diretora: porque é que o futuro do trabalho está na IA local

A IA na nuvem torna-se o diretor da escola

Quando os grandes modelos linguísticos iniciaram a sua marcha triunfal, há alguns anos, quase pareciam um regresso às velhas virtudes da tecnologia: uma ferramenta que faz o que lhe mandam. Uma ferramenta que serve o utilizador e não o contrário. As primeiras versões - do GPT-3 ao GPT-4 - tinham pontos fracos, sim, mas eram incrivelmente úteis. Explicavam, analisavam, formulavam e resolviam tarefas. E faziam-no em grande parte sem lastro pedagógico.

Falávamos com estes modelos como se estivéssemos a falar com um funcionário erudito, que por vezes se enganava nas palavras, mas que no essencial funcionava. Qualquer pessoa que escrevesse textos criativos, gerasse código de programa ou produzisse análises mais longas nessa altura experimentava a facilidade com que tudo funcionava. Havia uma sensação de liberdade, de um espaço criativo aberto, de uma tecnologia que apoiava as pessoas em vez de as corrigir.

Ler mais

AI Studio 2025: Qual o hardware que realmente vale a pena - do Mac Studio à RTX 3090

Hardware 2025 para estúdio de IA

Atualmente, quem trabalha com IA é quase automaticamente empurrado para a nuvem: OpenAI, Microsoft, Google, quaisquer interfaces Web, tokens, limites, termos e condições. Isto parece moderno - mas é essencialmente um regresso à dependência: outros determinam quais os modelos que podemos utilizar, com que frequência, com que filtros e a que custo. Eu estou deliberadamente a seguir o caminho inverso: estou atualmente a construir o meu próprio estúdio de IA em casa. Com o meu próprio hardware, os meus próprios modelos e os meus próprios fluxos de trabalho.

O meu objetivo é claro: IA local de texto, IA local de imagem, aprender os meus próprios modelos (LoRA, afinação) e tudo isto de forma a que eu, como freelancer e, mais tarde, também como cliente de uma PME, não esteja dependente dos caprichos diários de um qualquer fornecedor de serviços em nuvem. Pode dizer-se que é um regresso a uma velha atitude que costumava ser bastante normal: „As coisas importantes fazem-se sozinhas“. Só que, desta vez, não se trata da sua própria bancada de trabalho, mas do poder de computação e da soberania dos dados.

Ler mais

RAG com Ollama e Qdrant como motor de pesquisa universal para dados próprios

Alargar a IA local com bases de dados utilizando RAG, Ollama e Qdrant

Num mundo de informação cada vez mais confuso, é cada vez mais importante tornar as suas próprias bases de dados pesquisáveis de forma direcionada - não através de pesquisas clássicas de texto integral, mas através de respostas semanticamente relevantes. É exatamente aqui que entra em jogo o princípio da base de dados RAG - uma solução de pesquisa apoiada por IA que consiste em dois componentes centrais:

Ler mais

IA local no Mac: Como installerceirizar um modelo de linguagem com o Ollama

A IA local no Mac há muito que é prática - especialmente nos computadores Apple-Silicon (série M). Com o Ollama obtém-se um ambiente de execução simples para muitos modelos de linguagem de código aberto (por exemplo, Llama 3.1/3.2, Mistral, Gemma, Qwen). A versão atual do Ollama vem agora também com uma aplicação de fácil utilização que lhe permite configurar um modelo linguístico local no seu Mac com um simples clique do rato. Neste artigo, encontrará um guia pragmático desde a instalação até ao primeiro aviso - com dicas práticas sobre os pontos onde tradicionalmente as coisas tendem a correr mal.

Ler mais