O mundo da inteligência artificial está em movimento. Quase todas as semanas surgem novos modelos, novos métodos e, sobretudo, novas possibilidades. No entanto, uma constatação permanece constante: nem todas as inovações técnicas conduzem automaticamente a uma vida quotidiana melhor. Muitas coisas continuam a ser experimentais, complexas ou simplesmente demasiado dispendiosas para uma utilização produtiva. Isto é particularmente evidente no chamado aperfeiçoamento de grandes modelos linguísticos - um método de especialização da IA generativa para o seu próprio conteúdo, termos e tonalidades.
Acompanhei intensamente este processo ao longo dos últimos meses - primeiro na forma clássica, com Python, terminal, mensagens de erro e loops de configuração enervantes. E depois: com o FileMaker 2025, um passo que me surpreendeu - porque não foi alto, mas claro. E porque mostrou que existe outra forma.
Num relatório pormenorizado Artigos especializados sobre o gofilemaker.de Documentei precisamente esta mudança: a transição da formação PEFT-LoRA aberta, flexível mas instável (por exemplo, com Axolotl, LLaMA-Factory ou kohya_ss) para a solução integrada da Claris - através de um script, localmente, rastreável.
Afinal, o que é a LoRA - e porque é que é tão importante?
LoRA significa Low-Rank Adaptation (adaptação de baixo nível). Por detrás deste termo técnico está um princípio simples, mas poderoso: em vez de voltar a treinar todo um modelo de IA, apenas partes muito específicas são adaptadas - utilizando os chamados pesos adaptadores, que são inseridos e treinados de forma direcionada. Nos últimos anos, este método estabeleceu-se como o padrão de ouro para a afinação específica de um domínio - porque requer pouco poder de computação e, ainda assim, apresenta excelentes resultados.
A abordagem clássica requer um arsenal de ferramentas:
- um ambiente Python funcional,
- versões CUDA e PyTorch adequadas,
- um motor de treino como o Axolotl ou o kohya_ss,
- Recursos de GPU para lidar com tudo isto,
- e por último, mas não menos importante: Paciência. Muita paciência.
Entre ficheiros YAML, conflitos de tokenizadores e conversões de formatos (de safetensors para GGUF para MLX e vice-versa), muitas vezes são necessários dias até se obter um resultado utilizável. Funciona - mas não é algo para se fazer à parte.
E depois veio o FileMaker 2025.
Com a introdução do AI Model Server e um novo passo de script chamado Fine-Tune Model, a Claris está a trazer este método para um ambiente em que não seria de esperar: uma base de dados relacional.
O que parece invulgar à primeira vista faz muito sentido numa inspeção mais atenta. Porque o que é que uma boa afinação precisa?
- Dados estruturados,
- um ambiente estável,
- limpar parâmetros,
- e um contexto de aplicação definido.
O FileMaker oferece tudo isto - e é por isso que a integração do LoRA neste ambiente não parece um corpo estranho, mas sim uma extensão lógica.

Formação sem terminal - mas não sem controlo
No meu artigo, descrevo em pormenor como é o processo de formação no FileMaker:
- Entrada de dados diretamente a partir de tabelas existentes ou ficheiros JSONL,
- Os hiperparâmetros, como a taxa de aprendizagem ou a profundidade da camada, podem ser controlados diretamente no script,
- Funcionamento local completo no Apple-Silicon - sem nuvem, sem carregamento,
- e sobretudo: resultados reprodutíveis e adequados à utilização quotidiana.
Claro que há limites. O FileMaker não permite (ainda) a utilização de vários modelos, estratégias de congelamento de camadas ou a exportação para outros formatos, como GGUF ou ONNX. Não se trata de uma ferramenta de investigação, mas sim de uma ferramenta para casos de utilização claros - como a adaptação de modelos linguísticos a termos, respostas, descrições de produtos ou estruturas de diálogo interno específicos da empresa.
E é aí que reside o encanto: funciona. Estável. Repetível. E mais rápido do que alguma vez pensei ser possível.
Inquérito atual sobre o futuro do FileMaker e da IA
Quem deve olhar mais de perto - e porquê?
Este artigo destina-se a qualquer pessoa que não só compreenda a IA, mas também a queira utilizá-la:
- Diretor Geralque pretendem harmonizar a proteção de dados e a eficiência.
- Programadorque não querem começar sempre do zero.
- Estrategasque compreendem que a IA não só pode ser "comprada" externamente, como também pode ser treinada internamente.
No FileMaker 2025, o aperfeiçoamento dos modelos linguísticos passará a fazer parte do fluxo de trabalho - não como um corpo estranho, mas como uma verdadeira ferramenta. Trata-se de uma mudança silenciosa, mas duradoura, que mostra o quanto avançámos na adequação da IA à utilização quotidiana.
Para o artigo:
Do terminal ao script: o FileMaker 2025 torna o ajuste fino do LoRA adequado para o uso diário
No próximo artigo, descreverei como um modelo de linguagem pode ser treinado na prática com o FileMaker e também fornecerei um script de exemplo correspondente.


