Integrazione di MLX in FileMaker 2025: AI locale come nuovo standard

Mentre MLX è stato originariamente lanciato come framework sperimentale da Apple Research, negli ultimi mesi si è verificato uno sviluppo silenzioso ma significativo: Con il rilascio di FileMaker 2025, Claris ha integrato stabilmente MLX nel server come infrastruttura AI nativa per Apple Silicon. Ciò significa che chiunque lavori con un Mac e utilizzi Apple Silicon può non solo eseguire i modelli MLX localmente, ma anche utilizzarli direttamente in FileMaker - con funzioni native, senza alcun livello intermedio.


Argomenti attuali intorno a Claris FileMaker

I confini tra l'esperimento MLX locale e l'applicazione professionale FileMaker iniziano a sfumare, a favore di un flusso di lavoro AI completamente integrato, tracciabile e controllabile.

La nuova area AI nel server FileMaker: "Servizi AI".

Il fulcro di questa nuova architettura è l'area "Servizi AI" nella console di amministrazione di FileMaker Server 2025, dove gli sviluppatori e gli amministratori possono:

  • attivare l'AI Model Server,
  • Gestire i modelli (scaricare, fornire, mettere a punto),
  • Assegnare chiavi API per i clienti autorizzati,
  • e monitorare le operazioni di IA in corso in modo mirato.

Se il server FileMaker è in esecuzione su un Mac con Apple Silicon, l'AI Model Server integrato utilizza automaticamente MLX come backend di inferenza. Ciò comporta tutti i vantaggi offerti da MLX sui dispositivi Apple: elevata efficienza della memoria, utilizzo nativo della GPU tramite Metal e una chiara separazione tra modello e infrastruttura, proprio come nel mondo Apple.

Fornitura dei modelli MLX direttamente tramite la console del server

La distribuzione di un modello MLX è più semplice del previsto: Nella console di amministrazione dell'AI, i modelli supportati possono essere selezionati direttamente da un elenco crescente di modelli linguistici compatibili con Claris e distribuiti sul server installier. Si tratta di modelli open source (ad esempio varianti di Mistral, LLaMA o Phi) disponibili in formato .npz e appositamente convertiti per MLX. Al momento (da settembre 2025), tuttavia, il numero di modelli disponibili è ancora piuttosto limitato.

In alternativa, è possibile preparare i propri modelli, ad esempio convertendo i modelli di volti abbracciati con lo strumento mlx-lm. Con un solo comando è possibile scaricare un modello, quantizzarlo e convertirlo nel formato appropriato. Questo può poi essere reso disponibile nella directory del server, secondo lo stesso schema utilizzato internamente da Claris. Una volta che la installiert, questi modelli sono immediatamente disponibili per tutte le funzioni AI supportate nella FileMaker.

Funzioni AI native in FileMaker Pro: scripting al posto delle deviazioni

Ciò che prima veniva eseguito tramite API esterne, chiamate REST e routine JSON costruite manualmente è ora disponibile in FileMaker 2025 sotto forma di comandi di script dedicati. Una volta configurato un account AI, con il nome del modello e la connessione al server, le attività AI possono essere integrate senza problemi nell'interfaccia utente e nella logica aziendale.

I comandi più importanti sono

  • "Generare una risposta dal modello"che possono essere utilizzati per generare risposte testuali, ad esempio per suggerimenti automatici di testo, funzioni di chat o bozze di e-mail.
  • "Eseguire ricerche in linguaggio naturale"che traduce una semplice formulazione ("Mostrami tutti i clienti di Berlino con fatture in sospeso") in una precisa interrogazione del database.
  • "Eseguire una query SQL in linguaggio naturale"che può essere utilizzato anche per generare ed elaborare strutture SQL complesse, tra cui join e subquery.
  • "Incorporare" e le relative funzioni che consentono di effettuare analisi vettoriali semantiche, ad esempio per cercare testi con contenuti simili o richieste di clienti.

Tutti questi comandi accedono al modello MLX attualmente selezionato e in esecuzione sull'AI Model Server in background. Le risposte sono immediatamente disponibili e possono essere elaborate direttamente, come testo, JSON o vettore incorporato.

Fasi di script e possibilità per l'IA in FileMaker

Le fasi di script per l'intelligenza artificiale consentono l'integrazione diretta di potenti modelli di intelligenza artificiale, come i Large Language Models (LLM) o i Core ML, nei flussi di lavoro FileMaker. Creano la base tecnica per combinare il linguaggio naturale, la conoscenza del database e l'apprendimento automatico. Sono disponibili le seguenti funzioni:

  1. Configurazione di un account AI denominato
    È possibile impostare e denominare un account AI specifico, che verrà poi utilizzato in tutte le fasi e le funzioni di script successive. Ciò consente di mantenere il controllo sull'autenticazione e sull'accesso a modelli o servizi esterni.
  2. Recupero di una risposta testuale basata su un prompt
    Un modello di intelligenza artificiale può reagire a una richiesta inserita dall'utente e generare una risposta testuale corrispondente. Ciò consente la generazione automatica di testi, suggerimenti o funzioni di dialogo.
  3. Interrogazione del database basata su una richiesta e sullo schema del database
    Passando una richiesta in linguaggio naturale insieme allo schema strutturale del database, il modello può identificare i contenuti rilevanti e restituire un risultato mirato.
  4. Generare query SQL
    Il modello può anche generare query SQL basate su un prompt e sullo schema del database sottostante. Ciò consente di generare automaticamente query complesse, che possono essere utilizzate per le operazioni sul database.
  5. FileMaker query di ricerca basate sui campi di layout
    Passando al modello i campi del layout corrente insieme a una richiesta in linguaggio naturale, è possibile formulare automaticamente le query di ricerca e recuperare i set di risultati adeguati.
  6. Inserire i vettori di incorporamento nei record di dati
    È possibile inserire embeddings semantici - cioè vettori numerici che rappresentano significati - nei campi di singoli record di dati o di interi set di risultati. Questo costituisce la base per successivi confronti semantici o analisi di intelligenza artificiale.
  7. Eseguire una ricerca semantica
    In base al significato di una query di ricerca, il sistema può identificare i record di dati i cui campi hanno significati simili, anche se le parole non corrispondono esattamente. Questo apre nuove strade per la ricerca intelligente dei dati.
  8. Impostare i modelli di prompt
    È possibile definire modelli di prompt riutilizzabili che possono essere utilizzati in altre fasi o funzioni di script. In questo modo si garantisce la coerenza e si risparmia tempo nella creazione di prompt strutturati.
  9. Configurare il modello di regressione
    Per compiti quali previsioni, stime o analisi delle tendenze, è possibile impostare un modello di regressione che opera su serie di dati numerici. È adatto, ad esempio, per analizzare l'andamento delle vendite o la valutazione dei rischi.
  10. Configurare e gestire l'account RAG
    È possibile impostare un account RAG (Retrieval Augmented Generation) con nome. Ciò consente di aggiungere o rimuovere dati e di inviare richieste specifiche a uno spazio RAG. I sistemi RAG combinano ricerche classiche con risposte generate dall'intelligenza artificiale.
  11. Messa a punto di un modello con i dati di addestramento
    È possibile riqualificare un modello esistente con il proprio set di dati per personalizzarlo meglio in base a requisiti specifici, stili linguistici o aree di attività. La messa a punto aumenta la pertinenza e la qualità del risultato.
  12. Registro delle chiamate AI
    È possibile attivare la registrazione di tutte le chiamate AI per il monitoraggio e l'analisi. Ciò è utile per ottimizzare le richieste, la risoluzione dei problemi o la documentazione.
  13. Configurare i modelli Core ML
    Oltre agli LLM basati su cloud, è possibile configurare anche modelli Core ML eseguiti localmente. Ciò è particolarmente utile per le applicazioni offline o per l'uso su dispositivi Apple con supporto ML integrato.

Sondaggio in corso sul futuro di Claris FileMaker e AI

Pensa che Claris FileMaker sarà più strettamente associato all'IA nei prossimi anni?

Messa a punto direttamente dall'FileMaker: LoRA come nuovo standard

Una delle novità più interessanti è la possibilità di mettere a punto i propri modelli direttamente in FileMaker, completamente all'interno dell'interfaccia familiare. Tutto ciò che serve è un comando di script: "Fine-Tune Model".

I record di dati delle tabelle FileMaker (ad esempio, cronologie di assistenza, dialoghi con i clienti, campioni di testo) possono essere utilizzati come dati di addestramento. Il metodo di messa a punto si basa su LoRA (Low-Rank Adaptation), una procedura di risparmio delle risorse che modifica solo una piccola parte dei parametri del modello e consente quindi regolazioni rapide, anche su dispositivi con memoria limitata.

I dati di addestramento possono essere presi da un set trovato correntemente o importati tramite un file JSONL. Dopo l'addestramento, viene assegnato un nuovo nome al modello, ad esempio "fm-mlx-support-v1", e il risultato è immediatamente disponibile per ulteriori funzioni AI. In questo modo è possibile creare modelli linguistici personalizzati, adattati con precisione alla rispettiva applicazione in termini di tono, vocabolario e comportamento.

Protezione dei dati e prestazioni: due facce della stessa medaglia

Il fatto che FileMaker 2025 si affidi a modelli locali con MLX non è un caso. In un momento in cui la sovranità dei dati, la conformità al GDPR e le linee guida sulla sicurezza interna stanno diventando sempre più importanti, questo approccio offre diversi vantaggi:

  • Nessun cloud, nessun server esterno, nessun costo APITutte le richieste rimangono nella propria rete.
  • Tempi di risposta più rapidi grazie all'elaborazione locale - soprattutto per i processi ricorrenti.
  • Elevata trasparenza e controllabilitàOgni risposta può essere controllata, ogni modifica tracciata, ogni fase di formazione documentata.
  • Messa a punto in base ai propri datiLe conoscenze specifiche dell'azienda non vengono più convogliate attraverso fornitori esterni, ma rimangono interamente all'interno del sistema aziendale.

Allo stesso tempo, è importante valutare realisticamente le risorse: I modelli di grandi dimensioni richiedono anche una solida infrastruttura locale, ad esempio un Mac Apple Silicon con 32 o 64 GB di RAM, eventualmente con cache SSD e un profilo server dedicato. Ma chi sceglie questa strada beneficerà a lungo termine del massimo controllo e della massima flessibilità.

MLX e FileMaker: una nuova alleanza per i professionisti

Quello che inizialmente sembrava un percorso parallelo - da un lato MLX come struttura di ricerca dell'Apple, dall'altro l'FileMaker come piattaforma di database classica - è ora cresciuto insieme in un sistema chiuso.

Claris ha riconosciuto che le moderne applicazioni aziendali hanno bisogno di qualcosa di più di moduli, tabelle e report. Hanno bisogno di un'intelligenza artificiale adattiva e comprensiva, integrata e non integrata. Con il supporto nativo per MLX, i nuovi comandi AI e l'opzione di messa a punto locale, FileMaker 2025 offre una piattaforma completa per la creazione, il controllo e l'utilizzo produttivo dei propri processi AI per la prima volta, senza dover fare affidamento su fornitori esterni o cloud esterni.

Per gli sviluppatori che, come voi, apprezzano un'architettura chiara, prudente e sicura per i dati, questo è più che un progresso: è l'inizio di un nuovo modo di lavorare.

In un altro articolo presento un Confronto tra Apple Silicon e NVIDIA e spiegare quale hardware è adatto all'esecuzione di modelli linguistici locali su un Mac.


Argomenti attuali sull'intelligenza artificiale

Domande frequenti

  1. Cosa significa esattamente che FileMaker 2025 "supporta MLX"?
    FileMaker Server 2025 contiene per la prima volta un AI Model Server integrato che, se installato su una Apple Silicon Mac install, utilizza i modelli MLX in modo nativo. Ciò significa che è possibile distribuire un modello compatibile con MLX (ad esempio, Mistral o Phi-2) direttamente tramite la console amministrativa e utilizzarlo nella propria soluzione FileMaker, senza dover ricorrere a servizi esterni o chiamate REST.
  2. Di quale hardware e software specifico ho bisogno per questo?
    - Un Mac con Apple Silicon (M1, M2, M3, M4), idealmente con 32-64 GB di RAM,
    - FileMaker Server 2025, su questo Mac installiert,
    - FileMaker Pro 2025 per la soluzione attuale,
    - e uno o più modelli compatibili con MLX, forniti da Claris o convertiti da voi stessi (ad esempio tramite mlx-lm).
  3. Come posso integrare questo modello nella mia soluzione FileMaker?
    Utilizzare la nuova funzione "Configura account AI" negli script FileMaker per specificare il modello da utilizzare. Vengono definiti il nome del server, il nome del modello e la chiave di autenticazione. È quindi possibile utilizzare immediatamente le altre funzioni AI, ad esempio per la generazione di testo, l'incorporamento o la ricerca semantica. Tutto viene eseguito tramite passaggi di script nativi, senza dover ricorrere a visualizzatori web o a "Inserisci da URL".
  4. Quali funzioni AI posso utilizzare nell'FileMaker?
    Sono disponibili le seguenti funzioni (a seconda del tipo di modello):
    - Generazione di testo ("Genera risposta dal modello")
    - Ricerca naturale ("Esegui ricerca in linguaggio naturale")
    - SQL nel linguaggio quotidiano ("Eseguire una query SQL in linguaggio naturale")
    - Vettori semantici ("Incorpora", "Similitudine del coseno")
    - Gestione dei modelli di prompt ("Configura modello di prompt")
    - Messa a punto LoRA tramite i propri dati ("Fine-Tune Model")
    Tutte le funzioni sono basate su script e possono essere integrate senza problemi nelle soluzioni esistenti.
  5. Come funziona la regolazione fine direttamente nell'FileMaker?
    In FileMaker 2025, è possibile perfezionare un modello MLX esistente direttamente tramite LoRA, ossia personalizzarlo con i propri dati. A tale scopo, è possibile utilizzare i record di dati in una tabella (ad esempio, domande + risposte) o un file JSONL. È sufficiente un solo comando di script ("Fine-Tune Model") per creare un nuovo modello personalizzato, immediatamente disponibile nella soluzione.
  6. Devo ancora avere familiarità con Python, JSON, API o formati di modelli?
    No, non necessariamente. Claris ha deliberatamente fatto in modo che molti di questi dettagli tecnici passino in secondo piano. È possibile lavorare con i comandi di script nativi, gestire i dati in FileMaker ed elaborare semplicemente i risultati come testo o vettore. Se volete, potete andare più a fondo, ma ora potete farlo senza avere conoscenze di programmazione.
  7. Quali sono i vantaggi dell'utilizzo di MLX tramite FileMaker rispetto alle API esterne?
    I vantaggi risiedono nella sicurezza dei dati, nel controllo dei costi e nelle prestazioni:
    - Non è necessaria alcuna connessione al cloud, tutti i dati rimangono nella vostra rete.
    - Non ci sono costi API o limiti di token: una volta installiert, l'utilizzo è gratuito.
    - Tempi di risposta molto brevi, poiché non c'è latenza di rete.
    - Pieno controllo sui dati di formazione, sulla messa a punto e sulla versione del modello.
    Si tratta di una vera e propria svolta, soprattutto per le applicazioni interne, le soluzioni industriali o i processi sensibili.
  8. Ci sono restrizioni o cose a cui fare attenzione?
    Sì, MLX funziona solo su Apple Silicon, quindi un server Intel è escluso. È inoltre necessario disporre di una quantità di RAM sufficiente affinché i modelli più grandi possano funzionare in modo affidabile. Non tutti i modelli sono immediatamente compatibili: alcuni devono essere convertiti. Infine: anche se molte cose funzionano "automaticamente", per un uso produttivo è sempre necessario eseguire un test dedicato, ad esempio con piccole quantità di dati, definizioni chiare dei target e una buona strategia di registrazione.

Materiale dell'immagine (c) Claris Inc. e Kohji Asakawa su Pixabay

Lascia un commento