Inteligência artificial sem exageros: porque é que menos ferramentas de IA significam muitas vezes um trabalho melhor

Inteligência artificial sem exageros

Quem lida atualmente com o tema da inteligência artificial depara-se quase inevitavelmente com uma sensação estranha: uma inquietação constante. Mal nos habituamos a uma ferramenta, aparecem as dez seguintes. Um vídeo segue-se ao outro no YouTube: „Esta ferramenta de IA muda tudo“, „Tens mesmo de usar isto agora“, „Os que ficam de fora são deixados para trás“. E todas as vezes, a mesma mensagem ressoa subliminarmente: Chegou demasiado tarde. Os outros estão mais à frente. Tens de os apanhar.

Esta situação não afecta apenas os informáticos. Os trabalhadores independentes, os profissionais criativos, os empresários e os empregados comuns também estão a sentir a pressão. Muitos nem sequer sabem exatamente o que estas ferramentas fazem, mas têm a sensação de que podem estar a perder alguma coisa. E é exatamente isso que causa stress.

Ler mais

A IA na nuvem como diretora: porque é que o futuro do trabalho está na IA local

A IA na nuvem torna-se o diretor da escola

Quando os grandes modelos linguísticos iniciaram a sua marcha triunfal, há alguns anos, quase pareciam um regresso às velhas virtudes da tecnologia: uma ferramenta que faz o que lhe mandam. Uma ferramenta que serve o utilizador e não o contrário. As primeiras versões - do GPT-3 ao GPT-4 - tinham pontos fracos, sim, mas eram incrivelmente úteis. Explicavam, analisavam, formulavam e resolviam tarefas. E faziam-no em grande parte sem lastro pedagógico.

Falávamos com estes modelos como se estivéssemos a falar com um funcionário erudito, que por vezes se enganava nas palavras, mas que no essencial funcionava. Qualquer pessoa que escrevesse textos criativos, gerasse código de programa ou produzisse análises mais longas nessa altura experimentava a facilidade com que tudo funcionava. Havia uma sensação de liberdade, de um espaço criativo aberto, de uma tecnologia que apoiava as pessoas em vez de as corrigir.

Ler mais

AI Studio 2025: Qual o hardware que realmente vale a pena - do Mac Studio à RTX 3090

Hardware 2025 para estúdio de IA

Atualmente, quem trabalha com IA é quase automaticamente empurrado para a nuvem: OpenAI, Microsoft, Google, quaisquer interfaces Web, tokens, limites, termos e condições. Isto parece moderno - mas é essencialmente um regresso à dependência: outros determinam quais os modelos que podemos utilizar, com que frequência, com que filtros e a que custo. Eu estou deliberadamente a seguir o caminho inverso: estou atualmente a construir o meu próprio estúdio de IA em casa. Com o meu próprio hardware, os meus próprios modelos e os meus próprios fluxos de trabalho.

O meu objetivo é claro: IA local de texto, IA local de imagem, aprender os meus próprios modelos (LoRA, afinação) e tudo isto de forma a que eu, como freelancer e, mais tarde, também como cliente de uma PME, não esteja dependente dos caprichos diários de um qualquer fornecedor de serviços em nuvem. Pode dizer-se que é um regresso a uma velha atitude que costumava ser bastante normal: „As coisas importantes fazem-se sozinhas“. Só que, desta vez, não se trata da sua própria bancada de trabalho, mas do poder de computação e da soberania dos dados.

Ler mais

Apple MLX vs. NVIDIA: Como funciona a inferência local de IA no Mac

IA local em Silicon com Apple Mac

Atualmente, quem trabalha com inteligência artificial pensa frequentemente no ChatGPT ou em serviços online semelhantes. Escreve-se uma pergunta, espera-se alguns segundos - e recebe-se uma resposta como se estivesse do outro lado da linha um interlocutor paciente e muito culto. Mas o que é facilmente esquecido: Cada entrada, cada frase, cada palavra viaja através da Internet para servidores externos. É aí que o trabalho real é feito - em computadores enormes que nunca chegamos a ver.

Em princípio, um modelo de língua local funciona exatamente da mesma forma - mas sem a Internet. O modelo é armazenado como um ficheiro no próprio computador do utilizador, é carregado na memória de trabalho no arranque e responde a perguntas diretamente no dispositivo. A tecnologia subjacente é a mesma: uma rede neuronal que compreende a linguagem, gera textos e reconhece padrões. A única diferença é que todo o cálculo é efectuado internamente. Pode dizer-se: ChatGPT sem a nuvem.

Ler mais

Formação LoRA: como o FileMaker 2025 simplifica a afinação de grandes modelos linguísticos

LoRA Afinação fina - FileMaker 2025

O mundo da inteligência artificial está em movimento. Quase todas as semanas surgem novos modelos, novos métodos e, sobretudo, novas possibilidades. No entanto, uma constatação permanece constante: nem todas as inovações técnicas conduzem automaticamente a uma vida quotidiana melhor. Muitas coisas continuam a ser experimentais, complexas ou simplesmente demasiado dispendiosas para uma utilização produtiva. Isto é particularmente evidente no chamado aperfeiçoamento de grandes modelos linguísticos - um método de especialização da IA generativa para o seu próprio conteúdo, termos e tonalidades.

Acompanhei intensamente este processo ao longo dos últimos meses - primeiro na forma clássica, com Python, terminal, mensagens de erro e loops de configuração enervantes. E depois: com o FileMaker 2025, um passo que me surpreendeu - porque não foi alto, mas claro. E porque mostrou que existe outra forma.

Ler mais

Inteligência artificial: que empregos estão em risco e como nos podemos proteger agora

Que empregos serão eliminados pela IA no futuro

Quase nenhuma outra mudança tecnológica se introduziu tão rapidamente na nossa vida quotidiana como a inteligência artificial. O que ontem era considerado uma tecnologia visionária do futuro, hoje já é uma realidade - seja no envio de mensagens de texto, na programação, no diagnóstico, na tradução ou até mesmo na criação de música, arte ou dossiers jurídicos.

Ler mais

Integração do MLX no FileMaker 2025: IA local como a nova norma

IA local com MLX e FileMaker

Embora o MLX tenha sido originalmente lançado como uma estrutura experimental pela Apple Research, um desenvolvimento silencioso, mas significativo, ocorreu nos últimos meses: Com o lançamento do FileMaker 2025, a Claris integrou firmemente o MLX no servidor como uma infraestrutura de IA nativa para o Apple Silicon. Isto significa que qualquer pessoa que trabalhe com um Mac e utilize o Apple Silicon pode não só executar modelos MLX localmente, mas também utilizá-los diretamente no FileMaker - com funções nativas, sem quaisquer camadas intermédias.

Ler mais

MLX no Apple Silicon como IA local em comparação com o Ollama & Co.

IA local no Mac com MLX

Numa altura em que os serviços centralizados de IA, como o ChatGPT, o Claude ou o Gemini, estão a dominar as manchetes, muitos utilizadores profissionais têm uma necessidade crescente de uma alternativa - uma infraestrutura de IA local e auto-controlável. Especialmente para processos criativos, dados sensíveis ou fluxos de trabalho recorrentes, uma solução local é frequentemente a opção mais sustentável e segura.

Qualquer pessoa que trabalhe com um Mac - especialmente com o Apple Silicon (M1, M2, M3 ou M4) - pode agora encontrar ferramentas incrivelmente poderosas para executar os seus próprios modelos linguísticos diretamente no dispositivo. No centro de tudo isto está um novo componente, em grande parte desconhecido: MLX, uma estrutura de aprendizagem automática desenvolvida pelo Apple que irá provavelmente desempenhar um papel cada vez mais central no ecossistema de IA da empresa nos próximos anos.

Ler mais