A IA na nuvem como diretora: porque é que o futuro do trabalho está na IA local

A IA na nuvem torna-se o diretor da escola

Quando os grandes modelos linguísticos iniciaram a sua marcha triunfal, há alguns anos, quase pareciam um regresso às velhas virtudes da tecnologia: uma ferramenta que faz o que lhe mandam. Uma ferramenta que serve o utilizador e não o contrário. As primeiras versões - do GPT-3 ao GPT-4 - tinham pontos fracos, sim, mas eram incrivelmente úteis. Explicavam, analisavam, formulavam e resolviam tarefas. E faziam-no em grande parte sem lastro pedagógico.

Falávamos com estes modelos como se estivéssemos a falar com um funcionário erudito, que por vezes se enganava nas palavras, mas que no essencial funcionava. Qualquer pessoa que escrevesse textos criativos, gerasse código de programa ou produzisse análises mais longas nessa altura experimentava a facilidade com que tudo funcionava. Havia uma sensação de liberdade, de um espaço criativo aberto, de uma tecnologia que apoiava as pessoas em vez de as corrigir.

Ler mais

AI Studio 2025: Qual o hardware que realmente vale a pena - do Mac Studio à RTX 3090

Hardware 2025 para estúdio de IA

Atualmente, quem trabalha com IA é quase automaticamente empurrado para a nuvem: OpenAI, Microsoft, Google, quaisquer interfaces Web, tokens, limites, termos e condições. Isto parece moderno - mas é essencialmente um regresso à dependência: outros determinam quais os modelos que podemos utilizar, com que frequência, com que filtros e a que custo. Eu estou deliberadamente a seguir o caminho inverso: estou atualmente a construir o meu próprio estúdio de IA em casa. Com o meu próprio hardware, os meus próprios modelos e os meus próprios fluxos de trabalho.

O meu objetivo é claro: IA local de texto, IA local de imagem, aprender os meus próprios modelos (LoRA, afinação) e tudo isto de forma a que eu, como freelancer e, mais tarde, também como cliente de uma PME, não esteja dependente dos caprichos diários de um qualquer fornecedor de serviços em nuvem. Pode dizer-se que é um regresso a uma velha atitude que costumava ser bastante normal: „As coisas importantes fazem-se sozinhas“. Só que, desta vez, não se trata da sua própria bancada de trabalho, mas do poder de computação e da soberania dos dados.

Ler mais

A suite gráfica Affinity torna-se gratuita: O que os utilizadores profissionais precisam de saber agora

Suite gráfica Affinity gratuita

Quem, como eu, trabalha há décadas com programas de paginação e de composição tipográfica, apercebe-se normalmente dessas mudanças com mais clareza do que aqueles que só recentemente entraram neste mundo. Ao longo dos anos, vi muitas coisas surgirem e desaparecerem: No início dos anos noventa, trabalhei com o Calamus SL no Atari ST e, mais tarde, no Windows, com o CorelDraw! Mais tarde veio o QuarkXPress, depois o iCalamus, o Adobe InDesign e, finalmente, há alguns anos, o Affinity Publisher. Desde então, a suite Affinity tem-me acompanhado em quase todos os meus projectos de livros. Ao longo dos anos, tem sido uma ferramenta fiável, agradavelmente simples, claramente estruturada e sem o lastro que muitas grandes empresas de software acrescentaram a si próprias ao longo dos anos.

Ler mais

Apple MLX vs. NVIDIA: Como funciona a inferência local de IA no Mac

IA local em Silicon com Apple Mac

Atualmente, quem trabalha com inteligência artificial pensa frequentemente no ChatGPT ou em serviços online semelhantes. Escreve-se uma pergunta, espera-se alguns segundos - e recebe-se uma resposta como se estivesse do outro lado da linha um interlocutor paciente e muito culto. Mas o que é facilmente esquecido: Cada entrada, cada frase, cada palavra viaja através da Internet para servidores externos. É aí que o trabalho real é feito - em computadores enormes que nunca chegamos a ver.

Em princípio, um modelo de língua local funciona exatamente da mesma forma - mas sem a Internet. O modelo é armazenado como um ficheiro no próprio computador do utilizador, é carregado na memória de trabalho no arranque e responde a perguntas diretamente no dispositivo. A tecnologia subjacente é a mesma: uma rede neuronal que compreende a linguagem, gera textos e reconhece padrões. A única diferença é que todo o cálculo é efectuado internamente. Pode dizer-se: ChatGPT sem a nuvem.

Ler mais

Facturas electrónicas para PME: XRechnung, ZUGFeRD e ERP em resumo

Panorama da obrigação de emitir facturas electrónicas

A Alemanha não inventou a fatura eletrónica de um dia para o outro - é o resultado de anos de trabalho de normalização (EN 16931), de regulamentos federais e estaduais (B2G) e agora, através da Lei das Oportunidades de Crescimento, da expansão gradual para a vida quotidiana B2B. Desde 1 de janeiro de 2025, aplica-se uma nova situação jurídica: uma "fatura eletrónica" só é uma fatura eletrónica se for estruturada e legível por máquina - os anexos PDF puros enviados por correio eletrónico já não são uma fatura eletrónica de acordo com a definição. Isto parece técnico, mas tem consequências operacionais, desde a receção da fatura até à contabilidade e ao arquivo.

Ler mais

Dependência digital: como perdemos a nossa autodeterminação para a nuvem

Dependência digital com sistemas de nuvem

Sempre achei que era um erro as pessoas entregarem os seus dados - seja na nuvem, através de aplicações ou com quaisquer serviços "gratuitos". Para mim, a soberania dos dados nunca foi uma palavra de ordem, mas sim uma questão de respeito por si próprio. Qualquer pessoa que utilize a tecnologia sem considerar as consequências está a entrar numa dependência que, muitas vezes, só se torna percetível anos mais tarde - mas que tem um impacto ainda mais profundo.

Ler mais

gFM-Business e o futuro do ERP: inteligência local em vez de dependência da nuvem

gFM-Business e IA + gráfico de conhecimentos

Há mais de uma década que o software gFM-Business representa algo especial no mercado alemão de ERP: não se baseia num sistema pesado e difícil de manter, mas na plataforma FileMaker leve, personalizável e visualmente modelada. Isto tem muitas vantagens: o gFM-Business pode ser expandido individualmente, funciona em Windows, macOS e iOS e pode ser personalizado tanto por programadores como por utilizadores ambiciosos.

Com o advento da inteligência artificial (IA), nomeadamente através dos chamados modelos linguísticos, como o ChatGPT, estão a surgir novas oportunidades que vão muito além da automatização tradicional. O gFM-Business está a preparar-se ativamente para este futuro: com o objetivo não só de gerir dados, mas também de desbloquear conhecimentos.

Ler mais

MLX no Apple Silicon como IA local em comparação com o Ollama & Co.

IA local no Mac com MLX

Numa altura em que os serviços centralizados de IA, como o ChatGPT, o Claude ou o Gemini, estão a dominar as manchetes, muitos utilizadores profissionais têm uma necessidade crescente de uma alternativa - uma infraestrutura de IA local e auto-controlável. Especialmente para processos criativos, dados sensíveis ou fluxos de trabalho recorrentes, uma solução local é frequentemente a opção mais sustentável e segura.

Qualquer pessoa que trabalhe com um Mac - especialmente com o Apple Silicon (M1, M2, M3 ou M4) - pode agora encontrar ferramentas incrivelmente poderosas para executar os seus próprios modelos linguísticos diretamente no dispositivo. No centro de tudo isto está um novo componente, em grande parte desconhecido: MLX, uma estrutura de aprendizagem automática desenvolvida pelo Apple que irá provavelmente desempenhar um papel cada vez mais central no ecossistema de IA da empresa nos próximos anos.

Ler mais