gFM-Business e o futuro do ERP: inteligência local em vez de dependência da nuvem

gFM-Business e IA + gráfico de conhecimentos

Há mais de uma década que o software gFM-Business representa algo especial no mercado alemão de ERP: não se baseia num sistema pesado e difícil de manter, mas na plataforma FileMaker leve, personalizável e visualmente modelada. Isto tem muitas vantagens: o gFM-Business pode ser expandido individualmente, funciona em Windows, macOS e iOS e pode ser personalizado tanto por programadores como por utilizadores ambiciosos.

Com o advento da inteligência artificial (IA), nomeadamente através dos chamados modelos linguísticos, como o ChatGPT, estão a surgir novas oportunidades que vão muito além da automatização tradicional. O gFM-Business está a preparar-se ativamente para este futuro: com o objetivo não só de gerir dados, mas também de desbloquear conhecimentos.

Ler mais

Integração do MLX no FileMaker 2025: IA local como a nova norma

IA local com MLX e FileMaker

Embora o MLX tenha sido originalmente lançado como uma estrutura experimental pela Apple Research, um desenvolvimento silencioso, mas significativo, ocorreu nos últimos meses: Com o lançamento do FileMaker 2025, a Claris integrou firmemente o MLX no servidor como uma infraestrutura de IA nativa para o Apple Silicon. Isto significa que qualquer pessoa que trabalhe com um Mac e utilize o Apple Silicon pode não só executar modelos MLX localmente, mas também utilizá-los diretamente no FileMaker - com funções nativas, sem quaisquer camadas intermédias.

Ler mais

MLX no Apple Silicon como IA local em comparação com o Ollama & Co.

IA local no Mac com MLX

Numa altura em que os serviços centralizados de IA, como o ChatGPT, o Claude ou o Gemini, estão a dominar as manchetes, muitos utilizadores profissionais têm uma necessidade crescente de uma alternativa - uma infraestrutura de IA local e auto-controlável. Especialmente para processos criativos, dados sensíveis ou fluxos de trabalho recorrentes, uma solução local é frequentemente a opção mais sustentável e segura.

Qualquer pessoa que trabalhe com um Mac - especialmente com o Apple Silicon (M1, M2, M3 ou M4) - pode agora encontrar ferramentas incrivelmente poderosas para executar os seus próprios modelos linguísticos diretamente no dispositivo. No centro de tudo isto está um novo componente, em grande parte desconhecido: MLX, uma estrutura de aprendizagem automática desenvolvida pelo Apple que irá provavelmente desempenhar um papel cada vez mais central no ecossistema de IA da empresa nos próximos anos.

Ler mais

IA local no Mac: Como installerceirizar um modelo de linguagem com o Ollama

Local AI installieren com Ollama no Mac

A IA local no Mac há muito que é prática - especialmente nos computadores Apple-Silicon (série M). Com o Ollama obtém-se um ambiente de execução simples para muitos modelos de linguagem de código aberto (por exemplo, Llama 3.1/3.2, Mistral, Gemma, Qwen). A versão atual do Ollama vem agora também com uma aplicação de fácil utilização que lhe permite configurar um modelo linguístico local no seu Mac com um simples clique do rato. Neste artigo, encontrará um guia pragmático desde a instalação até ao primeiro aviso - com dicas práticas sobre os pontos onde tradicionalmente as coisas tendem a correr mal.

Ler mais