A IA na nuvem como diretora: porque é que o futuro do trabalho está na IA local

A IA na nuvem torna-se o diretor da escola

Quando os grandes modelos linguísticos iniciaram a sua marcha triunfal, há alguns anos, quase pareciam um regresso às velhas virtudes da tecnologia: uma ferramenta que faz o que lhe mandam. Uma ferramenta que serve o utilizador e não o contrário. As primeiras versões - do GPT-3 ao GPT-4 - tinham pontos fracos, sim, mas eram incrivelmente úteis. Explicavam, analisavam, formulavam e resolviam tarefas. E faziam-no em grande parte sem lastro pedagógico.

Falávamos com estes modelos como se estivéssemos a falar com um funcionário erudito, que por vezes se enganava nas palavras, mas que no essencial funcionava. Qualquer pessoa que escrevesse textos criativos, gerasse código de programa ou produzisse análises mais longas nessa altura experimentava a facilidade com que tudo funcionava. Havia uma sensação de liberdade, de um espaço criativo aberto, de uma tecnologia que apoiava as pessoas em vez de as corrigir.

Ler mais

AI Studio 2025: Qual o hardware que realmente vale a pena - do Mac Studio à RTX 3090

Hardware 2025 para estúdio de IA

Atualmente, quem trabalha com IA é quase automaticamente empurrado para a nuvem: OpenAI, Microsoft, Google, quaisquer interfaces Web, tokens, limites, termos e condições. Isto parece moderno - mas é essencialmente um regresso à dependência: outros determinam quais os modelos que podemos utilizar, com que frequência, com que filtros e a que custo. Eu estou deliberadamente a seguir o caminho inverso: estou atualmente a construir o meu próprio estúdio de IA em casa. Com o meu próprio hardware, os meus próprios modelos e os meus próprios fluxos de trabalho.

O meu objetivo é claro: IA local de texto, IA local de imagem, aprender os meus próprios modelos (LoRA, afinação) e tudo isto de forma a que eu, como freelancer e, mais tarde, também como cliente de uma PME, não esteja dependente dos caprichos diários de um qualquer fornecedor de serviços em nuvem. Pode dizer-se que é um regresso a uma velha atitude que costumava ser bastante normal: „As coisas importantes fazem-se sozinhas“. Só que, desta vez, não se trata da sua própria bancada de trabalho, mas do poder de computação e da soberania dos dados.

Ler mais

gFM-Business e o futuro do ERP: inteligência local em vez de dependência da nuvem

gFM-Business e IA + gráfico de conhecimentos

Há mais de uma década que o software gFM-Business representa algo especial no mercado alemão de ERP: não se baseia num sistema pesado e difícil de manter, mas na plataforma FileMaker leve, personalizável e visualmente modelada. Isto tem muitas vantagens: o gFM-Business pode ser expandido individualmente, funciona em Windows, macOS e iOS e pode ser personalizado tanto por programadores como por utilizadores ambiciosos.

Com o advento da inteligência artificial (IA), nomeadamente através dos chamados modelos linguísticos, como o ChatGPT, estão a surgir novas oportunidades que vão muito além da automatização tradicional. O gFM-Business está a preparar-se ativamente para este futuro: com o objetivo não só de gerir dados, mas também de desbloquear conhecimentos.

Ler mais

Ollama encontra Qdrant: Uma memória local para a sua IA no Mac

Memória para IA local com Ollama e Qdrant

IA local com memória - sem nuvem, sem subscrição, sem desvios

Num artigos anteriores Expliquei como configurar o Ollama no Mac install. Se já tiver concluído este passo, tem agora um modelo de língua local poderoso - como o Mistral, LLaMA3 ou outro modelo compatível que pode ser abordado através da API REST.

No entanto, o modelo apenas "sabe" o que está no prompt atual. Não se lembra de conversas anteriores. O que falta é uma memória.

Ler mais