Integração do MLX no FileMaker 2025: IA local como a nova norma

Embora o MLX tenha sido originalmente lançado como uma estrutura experimental pela Apple Research, um desenvolvimento silencioso, mas significativo, ocorreu nos últimos meses: Com o lançamento do FileMaker 2025, a Claris integrou firmemente o MLX no servidor como uma infraestrutura de IA nativa para o Apple Silicon. Isto significa que qualquer pessoa que trabalhe com um Mac e utilize o Apple Silicon pode não só executar modelos MLX localmente, mas também utilizá-los diretamente no FileMaker - com funções nativas, sem quaisquer camadas intermédias.


Tópicos actuais em torno do Claris FileMaker

As fronteiras entre a experiência MLX local e a aplicação FileMaker profissional começam a esbater-se - a favor de um fluxo de trabalho de IA totalmente integrado, rastreável e controlável.

A nova área de IA no servidor FileMaker: "Serviços de IA"

A peça central desta nova arquitetura é a área "AI Services" na consola de administração do FileMaker Server 2025, onde os programadores e administradores podem:

  • ativar o servidor de modelos de IA,
  • Gerir modelos (descarregar, fornecer, afinar),
  • Atribuir chaves API a clientes autorizados,
  • e monitorizar as operações de IA em curso de uma forma orientada.

Se o servidor FileMaker estiver a ser executado num Mac com Apple Silicon, o AI Model Server integrado utiliza automaticamente o MLX como backend de inferência. Isto traz consigo todas as vantagens que o MLX oferece nos dispositivos Apple: elevada eficiência de memória, utilização nativa de GPU através do Metal e uma separação clara entre modelo e infraestrutura - tal como no mundo Apple.

Fornecimento de modelos MLX diretamente através da consola do servidor

A implantação de um modelo MLX é mais fácil do que o esperado: Na consola de administração da IA, os modelos suportados podem ser selecionados diretamente a partir de uma lista crescente de modelos de linguagem compatíveis com a Claris e implementados no servidor installier. Estes são modelos de código aberto (por exemplo, variantes de Mistral, LLaMA ou Phi) que estão disponíveis no formato .npz e foram especialmente convertidos para MLX. Atualmente (em setembro de 2025), contudo, o número de modelos disponíveis é ainda bastante limitado.

Em alternativa, pode preparar os seus próprios modelos - por exemplo, convertendo modelos de rostos abraçados com a ferramenta mlx-lm. Com um único comando, pode descarregar um modelo, quantificá-lo e convertê-lo para o formato apropriado. Este pode então ser disponibilizado no diretório do servidor - de acordo com o mesmo esquema que a Claris utiliza internamente. Uma vez no installiert, estes modelos estão imediatamente disponíveis para todas as funções de IA suportadas no FileMaker.

Funções de IA nativas no FileMaker Pro: scripts em vez de desvios

O que costumava ser executado através de APIs externas, chamadas REST e rotinas JSON construídas manualmente está agora disponível no FileMaker 2025 sob a forma de comandos de script dedicados. Uma vez criada uma conta de IA - com o nome do modelo e a ligação ao servidor - as tarefas de IA podem ser perfeitamente integradas na interface do utilizador e na lógica comercial.

Os comandos mais importantes incluem

  • "Gerar resposta do modelo"que pode ser utilizado para gerar respostas de texto - por exemplo, para sugestões de texto automáticas, funções de conversação ou rascunhos de correio eletrónico.
  • "Executar pesquisa por linguagem natural"que traduz uma formulação simples ("Mostre-me todos os clientes de Berlim com facturas em aberto") numa consulta precisa da base de dados.
  • "Executar consulta SQL por linguagem natural"que também pode ser utilizado para gerar e processar estruturas SQL complexas - incluindo junções e subconsultas.
  • "Obter incorporação" e funções relacionadas que permitem análises vectoriais semânticas - por exemplo, para procurar textos com conteúdo semelhante ou pedidos de informação de clientes.

Todos estes comandos acedem ao modelo MLX atualmente selecionado e executado em segundo plano no AI Model Server. As respostas estão imediatamente disponíveis e podem ser processadas diretamente - como texto, JSON ou vetor incorporado.

Etapas do guião e possibilidades da IA no FileMaker

Os passos do guião para a inteligência artificial permitem a integração direta de modelos de IA potentes - como os modelos de linguagem ampla (LLM) ou o Core ML - nos fluxos de trabalho do FileMaker. Criam a base técnica para combinar linguagem natural, conhecimento de bases de dados e aprendizagem automática. Estão disponíveis as seguintes funções:

  1. Configuração de uma conta AI nomeada
    Pode configurar e nomear uma conta de IA específica, que é depois utilizada em todas as etapas e funções adicionais do script. Isto permite-lhe manter o controlo sobre a autenticação e o acesso a modelos ou serviços externos.
  2. Recuperar uma resposta de texto com base num pedido
    Um modelo de IA pode reagir a uma mensagem introduzida pelo utilizador e gerar uma resposta de texto correspondente. Isto permite a criação automática de texto, sugestões ou funções de diálogo.
  3. Consulta da base de dados com base num pedido e no esquema da base de dados
    Ao passar uma mensagem em linguagem natural juntamente com o esquema estrutural da sua base de dados, o modelo pode identificar conteúdos relevantes e devolver um resultado direcionado.
  4. Gerar consultas SQL
    O modelo também pode gerar consultas SQL com base num pedido e no esquema de base de dados subjacente. Isto permite gerar automaticamente consultas complexas, que podem depois ser utilizadas para operações na base de dados.
  5. Consultas de pesquisa FileMaker baseadas em campos de layout
    Ao passar os campos do layout atual para o modelo, juntamente com uma pergunta em linguagem natural, as consultas de pesquisa podem ser formuladas automaticamente e os conjuntos de resultados adequados recuperados.
  6. Inserir vectores de incorporação nos registos de dados
    Tem a opção de inserir incorporações semânticas - ou seja, vectores numéricos que representam significados - em campos de registos de dados individuais ou conjuntos de resultados inteiros. Isto constitui a base para comparações semânticas subsequentes ou análises de IA.
  7. Efetuar uma pesquisa semântica
    Com base no significado de uma consulta de pesquisa, o sistema pode identificar registos de dados cujos dados de campo têm significados semelhantes - mesmo que as palavras não correspondam exatamente. Isto abre novos caminhos para pesquisas de dados inteligentes.
  8. Configurar modelos de mensagens
    É possível definir modelos de prompts reutilizáveis que podem ser utilizados noutras etapas ou funções do script. Isto assegura a consistência e poupa tempo na criação de prompts estruturados.
  9. Configurar o modelo de regressão
    Um modelo de regressão pode ser configurado para tarefas como previsões, estimativas ou análises de tendências, operando depois em conjuntos de dados numéricos. É adequado para analisar a evolução das vendas ou avaliações de risco, por exemplo.
  10. Configurar e gerir a sua conta RAG
    Pode ser criada uma conta RAG (Retrieval Augmented Generation). Isto permite-lhe adicionar ou remover dados e enviar avisos específicos para um espaço RAG. Os sistemas RAG combinam pesquisas clássicas com respostas geradas por IA.
  11. Afinação de um modelo com dados de treino
    Pode treinar novamente um modelo existente com o seu próprio conjunto de dados para o adaptar melhor a requisitos específicos, estilos de linguagem ou áreas de trabalho. O ajuste fino aumenta a relevância e a qualidade do resultado.
  12. Registar chamadas de IA
    O registo de todas as chamadas de IA pode ser ativado para acompanhamento e análise. Isto é útil para otimizar os avisos, a resolução de problemas ou a documentação
  13. Configurar modelos do Core ML
    Para além dos LLMs baseados na nuvem, os modelos Core ML executados localmente também podem ser configurados. Isto é particularmente útil para aplicações offline ou para utilização em dispositivos Apple com suporte ML integrado.

Inquérito atual sobre o futuro do Claris FileMaker e da IA

Pensa que o Claris FileMaker estará mais associado à IA nos próximos anos?

Ajuste fino diretamente a partir do FileMaker: LoRA como novo padrão

Uma das novas funcionalidades mais interessantes é a possibilidade de afinar os seus próprios modelos diretamente no FileMaker - completamente dentro da interface familiar. Tudo o que precisa é de um comando de script: "Fine-Tune Model".

Os registos de dados das tabelas FileMaker (por exemplo, históricos de apoio, diálogos com clientes, amostras de texto) podem ser utilizados como dados de treino. O método de afinação baseia-se no LoRA (Low-Rank Adaptation), um procedimento que poupa recursos e que altera apenas uma pequena parte dos parâmetros do modelo, permitindo assim ajustes rápidos - mesmo em dispositivos com memória limitada.

Os dados de treino são retirados de um conjunto encontrado atualmente ou importados através de um ficheiro JSONL. Após o treino, é atribuído um novo nome ao modelo - por exemplo, "fm-mlx-support-v1" - e o resultado fica imediatamente disponível para outras funções de IA. Isto permite a criação de modelos linguísticos personalizados que são precisamente adaptados à respectiva aplicação em termos de tom, vocabulário e comportamento.

Proteção de dados e desempenho - duas faces da mesma moeda

O facto de o FileMaker 2025 se basear em modelos locais com MLX não é uma coincidência. Numa altura em que a soberania dos dados, a conformidade com o RGPD e as diretrizes de segurança interna estão a tornar-se cada vez mais importantes, esta abordagem oferece várias vantagens:

  • Sem nuvem, sem servidores externos, sem custos de APITodos os pedidos permanecem na sua própria rede.
  • Tempos de resposta mais rápidos graças ao processamento local - especialmente para processos recorrentes.
  • Elevada transparência e capacidade de controloTodas as respostas podem ser verificadas, todas as alterações acompanhadas, todas as etapas de formação documentadas.
  • Ajuste fino aos seus próprios dadosO conhecimento específico da empresa já não é canalizado através de fornecedores externos, mas permanece inteiramente dentro do próprio sistema da empresa.

Ao mesmo tempo, é importante avaliar os recursos de forma realista: Os modelos de grandes dimensões também requerem uma infraestrutura local sólida - como um Mac Apple Silicon com 32 ou 64 GB de RAM, possivelmente com cache SSD e um perfil de servidor dedicado. Mas quem optar por esta via beneficiará, a longo prazo, de um controlo máximo com total flexibilidade.

MLX e FileMaker - uma nova aliança para profissionais

O que inicialmente parecia ser um caminho paralelo - por um lado, o MLX como quadro de investigação do Apple e, por outro, o FileMaker como plataforma de base de dados clássica - transformou-se agora num sistema fechado.

A Claris reconheceu que as aplicações empresariais modernas precisam de mais do que formulários, tabelas e relatórios. Precisam de IA adaptativa e compreensiva - integrada, e não aparafusada. Com suporte nativo para MLX, os novos comandos de IA e a opção de ajuste fino local, o FileMaker 2025 oferece uma plataforma completa para criar, controlar e usar produtivamente seus próprios processos de IA pela primeira vez - sem ter que depender de provedores externos ou nuvens externas.

Para os programadores que, como você, apreciam uma arquitetura clara, conservadora e segura dos dados, isto é mais do que um progresso - é o início de uma nova forma de trabalhar.


Tópicos actuais sobre inteligência artificial

Perguntas mais frequentes

  1. O que significa exatamente que o FileMaker 2025 "suporta MLX"?
    O FileMaker Server 2025 contém um AI Model Server integrado pela primeira vez, que - se instalado em um Apple Silicon Mac install - usa modelos MLX nativamente. Isso significa que você pode implantar um modelo compatível com MLX (por exemplo, Mistral ou Phi-2) diretamente através do Admin Console e usá-lo em sua solução FileMaker - sem desvios através de serviços externos ou chamadas REST.
  2. De que hardware e software específico necessito para o efeito?
    - Um Mac com Apple Silicon (M1, M2, M3, M4), idealmente com 32-64 GB de RAM,
    - FileMaker Server 2025, neste Mac installiert,
    - FileMaker Pro 2025 para a solução efectiva,
    - e um ou mais modelos compatíveis com MLX - fornecidos pela Claris ou convertidos por si (por exemplo, através de mlx-lm).
  3. Como é que integro um modelo deste tipo na minha solução FileMaker?
    Pode utilizar a nova função "Configurar conta AI" nos Scripts FileMaker para especificar o modelo a utilizar. O nome do servidor, o nome do modelo e a chave de autenticação são definidos. Pode então utilizar imediatamente as outras funções de IA - por exemplo, para geração de texto, incorporação ou pesquisa semântica. Tudo é executado através de passos de script nativos, sem necessidade de visualizador Web ou de "Inserir a partir de URL".
  4. Que funções de IA posso utilizar no FileMaker?
    Estão disponíveis as seguintes funções (consoante o tipo de modelo):
    - Geração de texto ("Gerar resposta a partir do modelo")
    - Pesquisa natural ("Efetuar pesquisa por linguagem natural")
    - SQL em linguagem corrente ("Executar consulta SQL em linguagem natural")
    - Vectores semânticos ("Get Embedding", "Cosine Similarity")
    - Gestão de modelos de prompts ("Configurar modelo de prompts")
    - Afinação de LoRA através de dados próprios ("Fine-Tune Model")
    Todas as funções são baseadas em scripts e podem ser perfeitamente integradas em soluções existentes.
  5. Como funciona o ajuste fino diretamente no FileMaker?
    No FileMaker 2025, pode ajustar um modelo MLX existente diretamente através do LoRA, ou seja, personalizá-lo com os seus próprios dados. Para tal, pode utilizar registos de dados numa tabela (por exemplo, perguntas + respostas) ou um ficheiro JSONL. Um único comando de script ("Fine-Tune Model") é suficiente para criar um modelo novo e personalizado, que fica imediatamente disponível na solução.
  6. Continuo a precisar de estar familiarizado com Python, JSON, APIs ou formatos de modelos?
    Não, não necessariamente. A Claris certificou-se deliberadamente de que muitos destes pormenores técnicos se desvanecem em segundo plano. Pode trabalhar com comandos de script nativos, gerir os dados no FileMaker e simplesmente processar os retornos como texto ou vetor. Se quiser, pode ir mais longe - mas agora pode fazê-lo sem conhecimentos de programação.
  7. Quais são as vantagens de utilizar o MLX através do FileMaker em comparação com APIs externas?
    As vantagens residem na segurança dos dados, no controlo dos custos e no desempenho:
    - Não é necessária qualquer ligação à nuvem, todos os dados permanecem na sua própria rede.
    - Sem custos de API ou limites de token - uma vez installiert, a sua utilização é gratuita.
    - Tempos de resposta muito curtos, uma vez que não existe latência de rede entre eles.
    - Controlo total sobre os dados de formação, afinação e versão do modelo.
    Trata-se de um verdadeiro fator de mudança, especialmente para aplicações internas, soluções industriais ou processos sensíveis.
  8. Existem algumas restrições ou cuidados a ter?
    Sim - o MLX só funciona em Apple Silicon, ou seja, um servidor Intel está excluído. Também é necessária uma quantidade suficiente de RAM para que os modelos maiores possam funcionar de forma fiável. Nem todos os modelos são imediatamente compatíveis - alguns precisam de ser convertidos. E finalmente: Embora muitas coisas funcionem "automaticamente", deve sempre efetuar um teste dedicado para uma utilização produtiva - por exemplo, com pequenas quantidades de dados, definições de objectivos claras e uma boa estratégia de registo.

Material de imagem (c) Claris Inc. e Kohji Asakawa no Pixabay

Deixe um comentário