A IA na nuvem como diretora: porque é que o futuro do trabalho está na IA local

A IA na nuvem torna-se o diretor da escola

Quando os grandes modelos linguísticos iniciaram a sua marcha triunfal, há alguns anos, quase pareciam um regresso às velhas virtudes da tecnologia: uma ferramenta que faz o que lhe mandam. Uma ferramenta que serve o utilizador e não o contrário. As primeiras versões - do GPT-3 ao GPT-4 - tinham pontos fracos, sim, mas eram incrivelmente úteis. Explicavam, analisavam, formulavam e resolviam tarefas. E faziam-no em grande parte sem lastro pedagógico.

Falávamos com estes modelos como se estivéssemos a falar com um funcionário erudito, que por vezes se enganava nas palavras, mas que no essencial funcionava. Qualquer pessoa que escrevesse textos criativos, gerasse código de programa ou produzisse análises mais longas nessa altura experimentava a facilidade com que tudo funcionava. Havia uma sensação de liberdade, de um espaço criativo aberto, de uma tecnologia que apoiava as pessoas em vez de as corrigir.

Ler mais

Apple MLX vs. NVIDIA: Como funciona a inferência local de IA no Mac

IA local em Silicon com Apple Mac

Atualmente, quem trabalha com inteligência artificial pensa frequentemente no ChatGPT ou em serviços online semelhantes. Escreve-se uma pergunta, espera-se alguns segundos - e recebe-se uma resposta como se estivesse do outro lado da linha um interlocutor paciente e muito culto. Mas o que é facilmente esquecido: Cada entrada, cada frase, cada palavra viaja através da Internet para servidores externos. É aí que o trabalho real é feito - em computadores enormes que nunca chegamos a ver.

Em princípio, um modelo de língua local funciona exatamente da mesma forma - mas sem a Internet. O modelo é armazenado como um ficheiro no próprio computador do utilizador, é carregado na memória de trabalho no arranque e responde a perguntas diretamente no dispositivo. A tecnologia subjacente é a mesma: uma rede neuronal que compreende a linguagem, gera textos e reconhece padrões. A única diferença é que todo o cálculo é efectuado internamente. Pode dizer-se: ChatGPT sem a nuvem.

Ler mais

Inteligência artificial: que empregos estão em risco e como nos podemos proteger agora

Que empregos serão eliminados pela IA no futuro

Quase nenhuma outra mudança tecnológica se introduziu tão rapidamente na nossa vida quotidiana como a inteligência artificial. O que ontem era considerado uma tecnologia visionária do futuro, hoje já é uma realidade - seja no envio de mensagens de texto, na programação, no diagnóstico, na tradução ou até mesmo na criação de música, arte ou dossiers jurídicos.

Ler mais

MLX no Apple Silicon como IA local em comparação com o Ollama & Co.

IA local no Mac com MLX

Numa altura em que os serviços centralizados de IA, como o ChatGPT, o Claude ou o Gemini, estão a dominar as manchetes, muitos utilizadores profissionais têm uma necessidade crescente de uma alternativa - uma infraestrutura de IA local e auto-controlável. Especialmente para processos criativos, dados sensíveis ou fluxos de trabalho recorrentes, uma solução local é frequentemente a opção mais sustentável e segura.

Qualquer pessoa que trabalhe com um Mac - especialmente com o Apple Silicon (M1, M2, M3 ou M4) - pode agora encontrar ferramentas incrivelmente poderosas para executar os seus próprios modelos linguísticos diretamente no dispositivo. No centro de tudo isto está um novo componente, em grande parte desconhecido: MLX, uma estrutura de aprendizagem automática desenvolvida pelo Apple que irá provavelmente desempenhar um papel cada vez mais central no ecossistema de IA da empresa nos próximos anos.

Ler mais

RAG com Ollama e Qdrant como motor de pesquisa universal para dados próprios

Alargar a IA local com bases de dados utilizando RAG, Ollama e Qdrant

Num mundo de informação cada vez mais confuso, é cada vez mais importante tornar as suas próprias bases de dados pesquisáveis de forma direcionada - não através de pesquisas clássicas de texto integral, mas através de respostas semanticamente relevantes. É exatamente aqui que entra em jogo o princípio da base de dados RAG - uma solução de pesquisa apoiada por IA que consiste em dois componentes centrais:

Ler mais

Ollama encontra Qdrant: Uma memória local para a sua IA no Mac

Memória para IA local com Ollama e Qdrant

IA local com memória - sem nuvem, sem subscrição, sem desvios

Num artigos anteriores Expliquei como configurar o Ollama no Mac install. Se já tiver concluído este passo, tem agora um modelo de língua local poderoso - como o Mistral, LLaMA3 ou outro modelo compatível que pode ser abordado através da API REST.

No entanto, o modelo apenas "sabe" o que está no prompt atual. Não se lembra de conversas anteriores. O que falta é uma memória.

Ler mais

IA local no Mac: Como installerceirizar um modelo de linguagem com o Ollama

A IA local no Mac há muito que é prática - especialmente nos computadores Apple-Silicon (série M). Com o Ollama obtém-se um ambiente de execução simples para muitos modelos de linguagem de código aberto (por exemplo, Llama 3.1/3.2, Mistral, Gemma, Qwen). A versão atual do Ollama vem agora também com uma aplicação de fácil utilização que lhe permite configurar um modelo linguístico local no seu Mac com um simples clique do rato. Neste artigo, encontrará um guia pragmático desde a instalação até ao primeiro aviso - com dicas práticas sobre os pontos onde tradicionalmente as coisas tendem a correr mal.

Ler mais