Embora o MLX tenha sido originalmente lançado como uma estrutura experimental pela Apple Research, um desenvolvimento silencioso, mas significativo, ocorreu nos últimos meses: Com o lançamento do FileMaker 2025, a Claris integrou firmemente o MLX no servidor como uma infraestrutura de IA nativa para o Apple Silicon. Isto significa que qualquer pessoa que trabalhe com um Mac e utilize o Apple Silicon pode não só executar modelos MLX localmente, mas também utilizá-los diretamente no FileMaker - com funções nativas, sem quaisquer camadas intermédias.
As fronteiras entre a experiência MLX local e a aplicação FileMaker profissional começam a esbater-se - a favor de um fluxo de trabalho de IA totalmente integrado, rastreável e controlável.
A nova área de IA no servidor FileMaker: "Serviços de IA"
A peça central desta nova arquitetura é a área "AI Services" na consola de administração do FileMaker Server 2025, onde os programadores e administradores podem:
- ativar o servidor de modelos de IA,
- Gerir modelos (descarregar, fornecer, afinar),
- Atribuir chaves API a clientes autorizados,
- e monitorizar as operações de IA em curso de uma forma orientada.
Se o servidor FileMaker estiver a ser executado num Mac com Apple Silicon, o AI Model Server integrado utiliza automaticamente o MLX como backend de inferência. Isto traz consigo todas as vantagens que o MLX oferece nos dispositivos Apple: elevada eficiência de memória, utilização nativa de GPU através do Metal e uma separação clara entre modelo e infraestrutura - tal como no mundo Apple.
Fornecimento de modelos MLX diretamente através da consola do servidor
A implantação de um modelo MLX é mais fácil do que o esperado: Na consola de administração da IA, os modelos suportados podem ser selecionados diretamente a partir de uma lista crescente de modelos de linguagem compatíveis com a Claris e implementados no servidor installier. Estes são modelos de código aberto (por exemplo, variantes de Mistral, LLaMA ou Phi) que estão disponíveis no formato .npz e foram especialmente convertidos para MLX. Atualmente (em setembro de 2025), contudo, o número de modelos disponíveis é ainda bastante limitado.
Em alternativa, pode preparar os seus próprios modelos - por exemplo, convertendo modelos de rostos abraçados com a ferramenta mlx-lm. Com um único comando, pode descarregar um modelo, quantificá-lo e convertê-lo para o formato apropriado. Este pode então ser disponibilizado no diretório do servidor - de acordo com o mesmo esquema que a Claris utiliza internamente. Uma vez no installiert, estes modelos estão imediatamente disponíveis para todas as funções de IA suportadas no FileMaker.
Funções de IA nativas no FileMaker Pro: scripts em vez de desvios
O que costumava ser executado através de APIs externas, chamadas REST e rotinas JSON construídas manualmente está agora disponível no FileMaker 2025 sob a forma de comandos de script dedicados. Uma vez criada uma conta de IA - com o nome do modelo e a ligação ao servidor - as tarefas de IA podem ser perfeitamente integradas na interface do utilizador e na lógica comercial.

Os comandos mais importantes incluem
- "Gerar resposta do modelo"que pode ser utilizado para gerar respostas de texto - por exemplo, para sugestões de texto automáticas, funções de conversação ou rascunhos de correio eletrónico.
- "Executar pesquisa por linguagem natural"que traduz uma formulação simples ("Mostre-me todos os clientes de Berlim com facturas em aberto") numa consulta precisa da base de dados.
- "Executar consulta SQL por linguagem natural"que também pode ser utilizado para gerar e processar estruturas SQL complexas - incluindo junções e subconsultas.
- "Obter incorporação" e funções relacionadas que permitem análises vectoriais semânticas - por exemplo, para procurar textos com conteúdo semelhante ou pedidos de informação de clientes.
Todos estes comandos acedem ao modelo MLX atualmente selecionado e executado em segundo plano no AI Model Server. As respostas estão imediatamente disponíveis e podem ser processadas diretamente - como texto, JSON ou vetor incorporado.
Etapas do guião e possibilidades da IA no FileMaker
Os passos do guião para a inteligência artificial permitem a integração direta de modelos de IA potentes - como os modelos de linguagem ampla (LLM) ou o Core ML - nos fluxos de trabalho do FileMaker. Criam a base técnica para combinar linguagem natural, conhecimento de bases de dados e aprendizagem automática. Estão disponíveis as seguintes funções:
- Configuração de uma conta AI nomeada
Pode configurar e nomear uma conta de IA específica, que é depois utilizada em todas as etapas e funções adicionais do script. Isto permite-lhe manter o controlo sobre a autenticação e o acesso a modelos ou serviços externos. - Recuperar uma resposta de texto com base num pedido
Um modelo de IA pode reagir a uma mensagem introduzida pelo utilizador e gerar uma resposta de texto correspondente. Isto permite a criação automática de texto, sugestões ou funções de diálogo. - Consulta da base de dados com base num pedido e no esquema da base de dados
Ao passar uma mensagem em linguagem natural juntamente com o esquema estrutural da sua base de dados, o modelo pode identificar conteúdos relevantes e devolver um resultado direcionado. - Gerar consultas SQL
O modelo também pode gerar consultas SQL com base num pedido e no esquema de base de dados subjacente. Isto permite gerar automaticamente consultas complexas, que podem depois ser utilizadas para operações na base de dados. - Consultas de pesquisa FileMaker baseadas em campos de layout
Ao passar os campos do layout atual para o modelo, juntamente com uma pergunta em linguagem natural, as consultas de pesquisa podem ser formuladas automaticamente e os conjuntos de resultados adequados recuperados. - Inserir vectores de incorporação nos registos de dados
Tem a opção de inserir incorporações semânticas - ou seja, vectores numéricos que representam significados - em campos de registos de dados individuais ou conjuntos de resultados inteiros. Isto constitui a base para comparações semânticas subsequentes ou análises de IA. - Efetuar uma pesquisa semântica
Com base no significado de uma consulta de pesquisa, o sistema pode identificar registos de dados cujos dados de campo têm significados semelhantes - mesmo que as palavras não correspondam exatamente. Isto abre novos caminhos para pesquisas de dados inteligentes. - Configurar modelos de mensagens
É possível definir modelos de prompts reutilizáveis que podem ser utilizados noutras etapas ou funções do script. Isto assegura a consistência e poupa tempo na criação de prompts estruturados. - Configurar o modelo de regressão
Um modelo de regressão pode ser configurado para tarefas como previsões, estimativas ou análises de tendências, operando depois em conjuntos de dados numéricos. É adequado para analisar a evolução das vendas ou avaliações de risco, por exemplo. - Configurar e gerir a sua conta RAG
Pode ser criada uma conta RAG (Retrieval Augmented Generation). Isto permite-lhe adicionar ou remover dados e enviar avisos específicos para um espaço RAG. Os sistemas RAG combinam pesquisas clássicas com respostas geradas por IA. - Afinação de um modelo com dados de treino
Pode treinar novamente um modelo existente com o seu próprio conjunto de dados para o adaptar melhor a requisitos específicos, estilos de linguagem ou áreas de trabalho. O ajuste fino aumenta a relevância e a qualidade do resultado. - Registar chamadas de IA
O registo de todas as chamadas de IA pode ser ativado para acompanhamento e análise. Isto é útil para otimizar os avisos, a resolução de problemas ou a documentação - Configurar modelos do Core ML
Para além dos LLMs baseados na nuvem, os modelos Core ML executados localmente também podem ser configurados. Isto é particularmente útil para aplicações offline ou para utilização em dispositivos Apple com suporte ML integrado.
Inquérito atual sobre o futuro do Claris FileMaker e da IA
Ajuste fino diretamente a partir do FileMaker: LoRA como novo padrão
Uma das novas funcionalidades mais interessantes é a possibilidade de afinar os seus próprios modelos diretamente no FileMaker - completamente dentro da interface familiar. Tudo o que precisa é de um comando de script: "Fine-Tune Model".
Os registos de dados das tabelas FileMaker (por exemplo, históricos de apoio, diálogos com clientes, amostras de texto) podem ser utilizados como dados de treino. O método de afinação baseia-se no LoRA (Low-Rank Adaptation), um procedimento que poupa recursos e que altera apenas uma pequena parte dos parâmetros do modelo, permitindo assim ajustes rápidos - mesmo em dispositivos com memória limitada.
Os dados de treino são retirados de um conjunto encontrado atualmente ou importados através de um ficheiro JSONL. Após o treino, é atribuído um novo nome ao modelo - por exemplo, "fm-mlx-support-v1" - e o resultado fica imediatamente disponível para outras funções de IA. Isto permite a criação de modelos linguísticos personalizados que são precisamente adaptados à respectiva aplicação em termos de tom, vocabulário e comportamento.
Proteção de dados e desempenho - duas faces da mesma moeda
O facto de o FileMaker 2025 se basear em modelos locais com MLX não é uma coincidência. Numa altura em que a soberania dos dados, a conformidade com o RGPD e as diretrizes de segurança interna estão a tornar-se cada vez mais importantes, esta abordagem oferece várias vantagens:
- Sem nuvem, sem servidores externos, sem custos de APITodos os pedidos permanecem na sua própria rede.
- Tempos de resposta mais rápidos graças ao processamento local - especialmente para processos recorrentes.
- Elevada transparência e capacidade de controloTodas as respostas podem ser verificadas, todas as alterações acompanhadas, todas as etapas de formação documentadas.
- Ajuste fino aos seus próprios dadosO conhecimento específico da empresa já não é canalizado através de fornecedores externos, mas permanece inteiramente dentro do próprio sistema da empresa.
Ao mesmo tempo, é importante avaliar os recursos de forma realista: Os modelos de grandes dimensões também requerem uma infraestrutura local sólida - como um Mac Apple Silicon com 32 ou 64 GB de RAM, possivelmente com cache SSD e um perfil de servidor dedicado. Mas quem optar por esta via beneficiará, a longo prazo, de um controlo máximo com total flexibilidade.
MLX e FileMaker - uma nova aliança para profissionais
O que inicialmente parecia ser um caminho paralelo - por um lado, o MLX como quadro de investigação do Apple e, por outro, o FileMaker como plataforma de base de dados clássica - transformou-se agora num sistema fechado.
A Claris reconheceu que as aplicações empresariais modernas precisam de mais do que formulários, tabelas e relatórios. Precisam de IA adaptativa e compreensiva - integrada, e não aparafusada. Com suporte nativo para MLX, os novos comandos de IA e a opção de ajuste fino local, o FileMaker 2025 oferece uma plataforma completa para criar, controlar e usar produtivamente seus próprios processos de IA pela primeira vez - sem ter que depender de provedores externos ou nuvens externas.
Para os programadores que, como você, apreciam uma arquitetura clara, conservadora e segura dos dados, isto é mais do que um progresso - é o início de uma nova forma de trabalhar.
Perguntas mais frequentes
- O que significa exatamente que o FileMaker 2025 "suporta MLX"?
O FileMaker Server 2025 contém um AI Model Server integrado pela primeira vez, que - se instalado em um Apple Silicon Mac install - usa modelos MLX nativamente. Isso significa que você pode implantar um modelo compatível com MLX (por exemplo, Mistral ou Phi-2) diretamente através do Admin Console e usá-lo em sua solução FileMaker - sem desvios através de serviços externos ou chamadas REST. - De que hardware e software específico necessito para o efeito?
- Um Mac com Apple Silicon (M1, M2, M3, M4), idealmente com 32-64 GB de RAM,
- FileMaker Server 2025, neste Mac installiert,
- FileMaker Pro 2025 para a solução efectiva,
- e um ou mais modelos compatíveis com MLX - fornecidos pela Claris ou convertidos por si (por exemplo, através de mlx-lm). - Como é que integro um modelo deste tipo na minha solução FileMaker?
Pode utilizar a nova função "Configurar conta AI" nos Scripts FileMaker para especificar o modelo a utilizar. O nome do servidor, o nome do modelo e a chave de autenticação são definidos. Pode então utilizar imediatamente as outras funções de IA - por exemplo, para geração de texto, incorporação ou pesquisa semântica. Tudo é executado através de passos de script nativos, sem necessidade de visualizador Web ou de "Inserir a partir de URL". - Que funções de IA posso utilizar no FileMaker?
Estão disponíveis as seguintes funções (consoante o tipo de modelo):
- Geração de texto ("Gerar resposta a partir do modelo")
- Pesquisa natural ("Efetuar pesquisa por linguagem natural")
- SQL em linguagem corrente ("Executar consulta SQL em linguagem natural")
- Vectores semânticos ("Get Embedding", "Cosine Similarity")
- Gestão de modelos de prompts ("Configurar modelo de prompts")
- Afinação de LoRA através de dados próprios ("Fine-Tune Model")
Todas as funções são baseadas em scripts e podem ser perfeitamente integradas em soluções existentes. - Como funciona o ajuste fino diretamente no FileMaker?
No FileMaker 2025, pode ajustar um modelo MLX existente diretamente através do LoRA, ou seja, personalizá-lo com os seus próprios dados. Para tal, pode utilizar registos de dados numa tabela (por exemplo, perguntas + respostas) ou um ficheiro JSONL. Um único comando de script ("Fine-Tune Model") é suficiente para criar um modelo novo e personalizado, que fica imediatamente disponível na solução. - Continuo a precisar de estar familiarizado com Python, JSON, APIs ou formatos de modelos?
Não, não necessariamente. A Claris certificou-se deliberadamente de que muitos destes pormenores técnicos se desvanecem em segundo plano. Pode trabalhar com comandos de script nativos, gerir os dados no FileMaker e simplesmente processar os retornos como texto ou vetor. Se quiser, pode ir mais longe - mas agora pode fazê-lo sem conhecimentos de programação. - Quais são as vantagens de utilizar o MLX através do FileMaker em comparação com APIs externas?
As vantagens residem na segurança dos dados, no controlo dos custos e no desempenho:
- Não é necessária qualquer ligação à nuvem, todos os dados permanecem na sua própria rede.
- Sem custos de API ou limites de token - uma vez installiert, a sua utilização é gratuita.
- Tempos de resposta muito curtos, uma vez que não existe latência de rede entre eles.
- Controlo total sobre os dados de formação, afinação e versão do modelo.
Trata-se de um verdadeiro fator de mudança, especialmente para aplicações internas, soluções industriais ou processos sensíveis. - Existem algumas restrições ou cuidados a ter?
Sim - o MLX só funciona em Apple Silicon, ou seja, um servidor Intel está excluído. Também é necessária uma quantidade suficiente de RAM para que os modelos maiores possam funcionar de forma fiável. Nem todos os modelos são imediatamente compatíveis - alguns precisam de ser convertidos. E finalmente: Embora muitas coisas funcionem "automaticamente", deve sempre efetuar um teste dedicado para uma utilização produtiva - por exemplo, com pequenas quantidades de dados, definições de objectivos claras e uma boa estratégia de registo.
Material de imagem (c) Claris Inc. e Kohji Asakawa no Pixabay



