{"id":2860,"date":"2025-09-16T08:51:57","date_gmt":"2025-09-16T08:51:57","guid":{"rendered":"https:\/\/www.markus-schall.de\/?p=2860"},"modified":"2025-11-12T09:12:04","modified_gmt":"2025-11-12T09:12:04","slug":"integrazione-di-mlx-in-filemaker-2025-local-ki-come-nuovo-standard","status":"publish","type":"post","link":"https:\/\/www.markus-schall.de\/it\/2025\/09\/integrazione-di-mlx-in-filemaker-2025-local-ki-come-nuovo-standard\/","title":{"rendered":"Integrazione di MLX in FileMaker 2025: AI locale come nuovo standard"},"content":{"rendered":"<p>Mentre MLX \u00e8 stato originariamente lanciato come framework sperimentale da Apple Research, negli ultimi mesi si \u00e8 verificato uno sviluppo silenzioso ma significativo: Con il rilascio di FileMaker 2025, Claris ha integrato stabilmente MLX nel server come infrastruttura AI nativa per Apple Silicon. Ci\u00f2 significa che chiunque lavori con un Mac e utilizzi Apple Silicon pu\u00f2 non solo eseguire i modelli MLX localmente, ma anche utilizzarli direttamente in FileMaker - con funzioni native, senza alcun livello intermedio.<!--more--><\/p>\n<hr \/>\n\n\t\t\t<div class=\"display-post-types\">\n\n\t\t\t\t\t\t\t<style type=\"text\/css\">\n\t\t\t#dpt-wrapper-861 { --dpt-text-align: left;--dpt-image-crop: center;--dpt-border-radius: 5px;--dpt-small-grid-column: 33.33%;--dpt-large-grid-column: 33.3333333333%;--dpt-h-gutter: 10px;--dpt-v-gutter: 10px; }\t\t\t<\/style>\n\t\t\t<style type=\"text\/css\">#dpt-wrapper-861 { --dpt-title-font-style:normal;--dpt-title-font-weight:600;--dpt-title-line-height:1.5;--dpt-title-text-decoration:none;--dpt-title-text-transform:none;--dpt-excerpt-font-style:normal;--dpt-excerpt-font-weight:400;--dpt-excerpt-line-height:1.5;--dpt-excerpt-text-decoration:none;--dpt-excerpt-text-transform:none;--dpt-meta1-font-style:normal;--dpt-meta1-font-weight:400;--dpt-meta1-line-height:1.9;--dpt-meta1-text-decoration:none;--dpt-meta1-text-transform:none;--dpt-meta2-font-style:normal;--dpt-meta2-font-weight:400;--dpt-meta2-line-height:1.9;--dpt-meta2-text-decoration:none;--dpt-meta2-text-transform:none; }<\/style><div class=\"dpt-main-header\">\n\t\t\t\t\t\t<div class=\"dpt-main-title\">\n\t\t\t\t\t\t\t<span class=\"dpt-main-title-text\">Argomenti attuali intorno a Claris FileMaker<\/span>\n\t\t\t\t\t\t<\/div>\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t<\/div>\t\t\t\n\t\t\t\t<div id=\"dpt-wrapper-861\" class=\"dpt-wrapper dpt-grid1 multi-col dpt-mason-wrap\" >\n\n\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry no-thumbnail\" data-title=\"fmm-award auf der filemaker-konferenz 2011: danke!\" data-id=\"527\"  data-category=\"allgemein filemaker &amp; erp\" data-post_tag=\"filemaker\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/it\/2011\/06\/premio-fmm-alla-conferenza-filemaker-2011-grazie\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Premio FMM alla Conferenza FileMaker 2011: GRAZIE!<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 100%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/it\/2011\/06\/premio-fmm-alla-conferenza-filemaker-2011-grazie\/\" rel=\"bookmark\">Premio FMM alla Conferenza FileMaker 2011: GRAZIE!<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"filemaker datenbankentwicklung: wie l\u00e4uft so ein projekt ab?\" data-id=\"1510\"  data-category=\"filemaker &amp; erp\" data-post_tag=\"datenbanken filemaker\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/it\/2012\/11\/sviluppo-di-database-filemaker-come-eseguire-un-progetto\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">FileMaker Sviluppo del database: come funziona un progetto come questo?<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"2000\" height=\"576\" class=\"attachment-full size-full\" alt=\"\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/crm-kundenverwaltung-farbe.jpg\" data-dpt-sizes=\"(max-width: 2000px) 100vw, 2000px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/crm-kundenverwaltung-farbe.jpg 2000w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/crm-kundenverwaltung-farbe-300x86.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/crm-kundenverwaltung-farbe-1024x295.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/crm-kundenverwaltung-farbe-768x221.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/crm-kundenverwaltung-farbe-1536x442.jpg 1536w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/crm-kundenverwaltung-farbe-1000x288.jpg 1000w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/crm-kundenverwaltung-farbe-500x144.jpg 500w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 29%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/it\/2012\/11\/sviluppo-di-database-filemaker-come-eseguire-un-progetto\/\" rel=\"bookmark\">FileMaker Sviluppo del database: come funziona un progetto come questo?<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"gfm-dental 1.1 enth\u00e4lt konstanzpr\u00fcfung nach din 6868-157.\" data-id=\"2059\"  data-category=\"apple macos filemaker &amp; erp\" data-post_tag=\"apple erp-software filemaker\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/it\/2015\/05\/gfm-dental-11-contiene-il-test-di-costanza-secondo-din-6868-157\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">gFM-Dental 1.1 contiene il test di costanza secondo la norma DIN 6868-157.<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"630\" height=\"444\" class=\"attachment-full size-full\" alt=\"Eseguire il controllo di costanza in gFM-Dental\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/neue_konstanzpruefung_630.jpg\" data-dpt-sizes=\"(max-width: 630px) 100vw, 630px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/neue_konstanzpruefung_630.jpg 630w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/neue_konstanzpruefung_630-300x211.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/neue_konstanzpruefung_630-150x105.jpg 150w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 70%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/it\/2015\/05\/gfm-dental-11-contiene-il-test-di-costanza-secondo-din-6868-157\/\" rel=\"bookmark\">gFM-Dental 1.1 contiene il test di costanza secondo la norma DIN 6868-157.<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\n\t\t\t\t<\/div>\n\t\t\t\t\t\t<\/div>\n\t\t\t\n<hr \/>\n<p>I confini tra l'esperimento MLX locale e l'applicazione professionale FileMaker iniziano a sfumare, a favore di un flusso di lavoro AI completamente integrato, tracciabile e controllabile.<\/p>\n<h2>La nuova area AI nel server FileMaker: \"Servizi AI\".<\/h2>\n<p>Il fulcro di questa nuova architettura \u00e8 l'area \"Servizi AI\" nella console di amministrazione di FileMaker Server 2025, dove gli sviluppatori e gli amministratori possono:<\/p>\n<ul>\n<li>attivare l'AI Model Server,<\/li>\n<li>Gestire i modelli (scaricare, fornire, mettere a punto),<\/li>\n<li>Assegnare chiavi API per i clienti autorizzati,<\/li>\n<li>e monitorare le operazioni di IA in corso in modo mirato.<\/li>\n<\/ul>\n<p>Se il server FileMaker \u00e8 in esecuzione su un Mac con Apple Silicon, l'AI Model Server integrato utilizza automaticamente MLX come backend di inferenza. Ci\u00f2 comporta tutti i vantaggi offerti da MLX sui dispositivi Apple: elevata efficienza della memoria, utilizzo nativo della GPU tramite Metal e una chiara separazione tra modello e infrastruttura, proprio come nel mondo Apple.<\/p>\n<h3>Fornitura dei modelli MLX direttamente tramite la console del server<\/h3>\n<p>La distribuzione di un modello MLX \u00e8 pi\u00f9 semplice del previsto: Nella console di amministrazione dell'AI, i modelli supportati possono essere selezionati direttamente da un elenco crescente di modelli linguistici compatibili con Claris e distribuiti sul server installier. Si tratta di modelli open source (ad esempio varianti di Mistral, LLaMA o Phi) disponibili in formato .npz e appositamente convertiti per MLX. Al momento (da settembre 2025), tuttavia, il numero di modelli disponibili \u00e8 ancora piuttosto limitato.<\/p>\n<p>In alternativa, \u00e8 possibile preparare i propri modelli, ad esempio convertendo i modelli di volti abbracciati con lo strumento mlx-lm. Con un solo comando \u00e8 possibile scaricare un modello, quantizzarlo e convertirlo nel formato appropriato. Questo pu\u00f2 poi essere reso disponibile nella directory del server, secondo lo stesso schema utilizzato internamente da Claris. Una volta che la installiert, questi modelli sono immediatamente disponibili per tutte le funzioni AI supportate nella FileMaker.<\/p>\n<h3>Funzioni AI native in FileMaker Pro: scripting al posto delle deviazioni<\/h3>\n<p>Ci\u00f2 che prima veniva eseguito tramite API esterne, chiamate REST e routine JSON costruite manualmente \u00e8 ora disponibile in FileMaker 2025 sotto forma di comandi di script dedicati. Una volta configurato un account AI, con il nome del modello e la connessione al server, le attivit\u00e0 AI possono essere integrate senza problemi nell'interfaccia utente e nella logica aziendale.<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-full wp-image-2891\" src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Claris-FileMaker-AI-Power.png\" alt=\"\" width=\"2000\" height=\"1064\" srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Claris-FileMaker-AI-Power.png 2000w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Claris-FileMaker-AI-Power-300x160.png 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Claris-FileMaker-AI-Power-1024x545.png 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Claris-FileMaker-AI-Power-768x409.png 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Claris-FileMaker-AI-Power-1536x817.png 1536w\" sizes=\"auto, (max-width: 2000px) 100vw, 2000px\" \/><\/p>\n<p>I comandi pi\u00f9 importanti sono<\/p>\n<ul>\n<li><strong>\"Generare una risposta dal modello\"<\/strong>che possono essere utilizzati per generare risposte testuali, ad esempio per suggerimenti automatici di testo, funzioni di chat o bozze di e-mail.<\/li>\n<li><strong>\"Eseguire ricerche in linguaggio naturale\"<\/strong>che traduce una semplice formulazione (\"Mostrami tutti i clienti di Berlino con fatture in sospeso\") in una precisa interrogazione del database.<\/li>\n<li><strong>\"Eseguire una query SQL in linguaggio naturale\"<\/strong>che pu\u00f2 essere utilizzato anche per generare ed elaborare strutture SQL complesse, tra cui join e subquery.<\/li>\n<li><strong>\"Incorporare\"<\/strong> e le relative funzioni che consentono di effettuare analisi vettoriali semantiche, ad esempio per cercare testi con contenuti simili o richieste di clienti.<\/li>\n<\/ul>\n<p>Tutti questi comandi accedono al modello MLX attualmente selezionato e in esecuzione sull'AI Model Server in background. Le risposte sono immediatamente disponibili e possono essere elaborate direttamente, come testo, JSON o vettore incorporato.<\/p>\n<h3>Fasi di script e possibilit\u00e0 per l'IA in FileMaker<\/h3>\n<p>Le fasi di script per l'intelligenza artificiale consentono l'integrazione diretta di potenti modelli di intelligenza artificiale, come i Large Language Models (LLM) o i Core ML, nei flussi di lavoro FileMaker. Creano la base tecnica per combinare il linguaggio naturale, la conoscenza del database e l'apprendimento automatico. Sono disponibili le seguenti funzioni:<\/p>\n<ol>\n<li><strong>Configurazione di un account AI denominato<\/strong><br \/>\n\u00c8 possibile impostare e denominare un account AI specifico, che verr\u00e0 poi utilizzato in tutte le fasi e le funzioni di script successive. Ci\u00f2 consente di mantenere il controllo sull'autenticazione e sull'accesso a modelli o servizi esterni.<\/li>\n<li><strong>Recupero di una risposta testuale basata su un prompt<\/strong><br \/>\nUn modello di intelligenza artificiale pu\u00f2 reagire a una richiesta inserita dall'utente e generare una risposta testuale corrispondente. Ci\u00f2 consente la generazione automatica di testi, suggerimenti o funzioni di dialogo.<\/li>\n<li><strong>Interrogazione del database basata su una richiesta e sullo schema del database<\/strong><br \/>\nPassando una richiesta in linguaggio naturale insieme allo schema strutturale del database, il modello pu\u00f2 identificare i contenuti rilevanti e restituire un risultato mirato.<\/li>\n<li><strong>Generare query SQL<\/strong><br \/>\nIl modello pu\u00f2 anche generare query SQL basate su un prompt e sullo schema del database sottostante. Ci\u00f2 consente di generare automaticamente query complesse, che possono essere utilizzate per le operazioni sul database.<\/li>\n<li><strong>FileMaker query di ricerca basate sui campi di layout<\/strong><br \/>\nPassando al modello i campi del layout corrente insieme a una richiesta in linguaggio naturale, \u00e8 possibile formulare automaticamente le query di ricerca e recuperare i set di risultati adeguati.<\/li>\n<li><strong>Inserire i vettori di incorporamento nei record di dati<\/strong><br \/>\n\u00c8 possibile inserire embeddings semantici - cio\u00e8 vettori numerici che rappresentano significati - nei campi di singoli record di dati o di interi set di risultati. Questo costituisce la base per successivi confronti semantici o analisi di intelligenza artificiale.<\/li>\n<li><strong>Eseguire una ricerca semantica<\/strong><br \/>\nIn base al significato di una query di ricerca, il sistema pu\u00f2 identificare i record di dati i cui campi hanno significati simili, anche se le parole non corrispondono esattamente. Questo apre nuove strade per la ricerca intelligente dei dati.<\/li>\n<li><strong>Impostare i modelli di prompt<\/strong><br \/>\n\u00c8 possibile definire modelli di prompt riutilizzabili che possono essere utilizzati in altre fasi o funzioni di script. In questo modo si garantisce la coerenza e si risparmia tempo nella creazione di prompt strutturati.<\/li>\n<li><strong>Configurare il modello di regressione<\/strong><br \/>\nPer compiti quali previsioni, stime o analisi delle tendenze, \u00e8 possibile impostare un modello di regressione che opera su serie di dati numerici. \u00c8 adatto, ad esempio, per analizzare l'andamento delle vendite o la valutazione dei rischi.<\/li>\n<li><strong>Configurare e gestire l'account RAG<\/strong><br \/>\n\u00c8 possibile impostare un account RAG (Retrieval Augmented Generation) con nome. Ci\u00f2 consente di aggiungere o rimuovere dati e di inviare richieste specifiche a uno spazio RAG. I sistemi RAG combinano ricerche classiche con risposte generate dall'intelligenza artificiale.<\/li>\n<li><strong>Messa a punto di un modello con i dati di addestramento<\/strong><br \/>\n\u00c8 possibile riqualificare un modello esistente con il proprio set di dati per personalizzarlo meglio in base a requisiti specifici, stili linguistici o aree di attivit\u00e0. La messa a punto aumenta la pertinenza e la qualit\u00e0 del risultato.<\/li>\n<li><strong>Registro delle chiamate AI<\/strong><br \/>\n\u00c8 possibile attivare la registrazione di tutte le chiamate AI per il monitoraggio e l'analisi. Ci\u00f2 \u00e8 utile per ottimizzare le richieste, la risoluzione dei problemi o la documentazione.<\/li>\n<li><strong>Configurare i modelli Core ML<\/strong><br \/>\nOltre agli LLM basati su cloud, \u00e8 possibile configurare anche modelli Core ML eseguiti localmente. Ci\u00f2 \u00e8 particolarmente utile per le applicazioni offline o per l'uso su dispositivi Apple con supporto ML integrato.<\/li>\n<\/ol>\n<hr \/>\n<h3>Sondaggio in corso sul futuro di Claris FileMaker e AI<\/h3>\n<div class='bootstrap-yop yop-poll-mc'>\n\t\t\t\t\t\t\t<div class=\"basic-yop-poll-container\" style=\"background-color:#ffffff; border:0px; border-style:solid; border-color:#000000; border-radius:5px; padding:0px 5px;\" data-id=\"10\" data-temp=\"basic-pretty\" data-skin=\"square\" data-cscheme=\"blue\" data-cap=\"0\" data-access=\"guest\" data-tid=\"\" data-uid=\"53ff28e7a1ca3629d00f3b4fcb181153\" data-pid=\"2059\" data-resdet=\"votes-number,percentages\" data-show-results-to=\"guest\" data-show-results-moment=\"after-vote\" data-show-results-only=\"false\" data-show-message=\"true\" data-show-results-as=\"bar\" data-sort-results-by=\"as-defined\" data-sort-results-rule=\"asc\"data-is-ended=\"0\" data-percentages-decimals=\"2\" data-gdpr=\"yes\" data-gdpr-sol=\"nostore\" data-css=\".basic-yop-poll-container[data-uid] .basic-vote {\t\t\t\t\t\t\t\t\ttext-align: center;\t\t\t\t\t\t\t\t}\" data-counter=\"0\" data-load-with=\"1\" data-notification-section=\"top\"><div class=\"row\"><div class=\"col-md-12\"><div class=\"basic-inner\"><div class=\"basic-message hide\" style=\"border-left: 10px solid #008000; padding: 0px 10px;\" data-error=\"#ff0000\" data-success=\"#008000\"><p class=\"basic-message-text\" style=\"color:#000000; font-size:14px; font-weight:normal;\"><\/p><\/div><div class=\"basic-overlay hide\"><div class=\"basic-vote-options\"><\/div><div class=\"basic-preloader\"><div class=\"basic-windows8\"><div class=\"basic-wBall basic-wBall_1\"><div class=\"basic-wInnerBall\"><\/div><\/div><div class=\"basic-wBall basic-wBall_2\"><div class=\"basic-wInnerBall\"><\/div><\/div><div class=\"basic-wBall basic-wBall_3\"><div class=\"basic-wInnerBall\"><\/div><\/div><div class=\"basic-wBall basic-wBall_4\"><div class=\"basic-wInnerBall\"><\/div><\/div><div class=\"basic-wBall basic-wBall_5\"><div class=\"basic-wInnerBall\"><\/div><\/div><\/div><\/div><\/div><form class=\"basic-form\" action=\"\"><input type=\"hidden\" name=\"_token\" value=\"42bbba39b7\" autocomplete=\"off\"><div class=\"basic-elements\"><div class=\"basic-element basic-question basic-question-text-vertical\" data-id=\"10\" data-uid=\"97b344cd0ab5053e261906c1807589cc\" data-type=\"question\" data-question-type=\"text\" data-required=\"yes\" data-allow-multiple=\"no\" data-min=\"1\" data-max=\"7\" data-display=\"vertical\" data-colnum=\"\" data-display-others=\"no\" data-others-color=\"\" data-others=\"\" data-others-max-chars=\"0\"><div class=\"basic-question-title\"><h5 style=\"color:#000000; font-size:16px; font-weight:normal; text-align:left;\">Pensa che Claris FileMaker sar\u00e0 pi\u00f9 strettamente associato all'IA nei prossimi anni?<\/h5><\/div><ul class=\"basic-answers\"><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"52\" data-type=\"text\" data-vn=\"5\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[52]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[52]\" name=\"answer[10]\" value=\"52\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">S\u00ec, questo sta diventando un problema fondamentale ovunque<\/span><\/label><\/div><\/li><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"53\" data-type=\"text\" data-vn=\"0\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[53]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[53]\" name=\"answer[10]\" value=\"53\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">S\u00ec, soprattutto per la formazione LoRA dei LLM<\/span><\/label><\/div><\/li><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"54\" data-type=\"text\" data-vn=\"0\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[54]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[54]\" name=\"answer[10]\" value=\"54\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">Forse nel backend, ma non visibile<\/span><\/label><\/div><\/li><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"55\" data-type=\"text\" data-vn=\"1\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[55]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[55]\" name=\"answer[10]\" value=\"55\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">No, l'FileMaker rimane un database classico.<\/span><\/label><\/div><\/li><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"56\" data-type=\"text\" data-vn=\"3\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[56]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[56]\" name=\"answer[10]\" value=\"56\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">Non ne ho idea, non utilizzare FileMaker<\/span><\/label><\/div><\/li><\/ul><\/div><div class=\"clearfix\"><\/div><\/div><div class=\"basic-vote\"><a href=\"#\" class=\"button basic-vote-button\" role=\"button\" style=\"background:#027bb8; border:0px; border-style: solid; border-color:#000000; border-radius:5px; padding:10px 10px; color:#ffffff; font-size:14px; font-weight:normal;\">Voto<\/a><\/div><input type=\"hidden\" name=\"trp-form-language\" value=\"it\"\/><\/form><\/div><\/div><\/div><\/div>\n\t\t\t\t\t\t<\/div>\n<hr \/>\n<h3>Messa a punto direttamente dall'FileMaker: LoRA come nuovo standard<\/h3>\n<p>Una delle novit\u00e0 pi\u00f9 interessanti \u00e8 la possibilit\u00e0 di mettere a punto i propri modelli direttamente in FileMaker, completamente all'interno dell'interfaccia familiare. Tutto ci\u00f2 che serve \u00e8 un comando di script: \"Fine-Tune Model\".<\/p>\n<p>I record di dati delle tabelle FileMaker (ad esempio, cronologie di assistenza, dialoghi con i clienti, campioni di testo) possono essere utilizzati come dati di addestramento. Il metodo di messa a punto si basa su LoRA (Low-Rank Adaptation), una procedura di risparmio delle risorse che modifica solo una piccola parte dei parametri del modello e consente quindi regolazioni rapide, anche su dispositivi con memoria limitata.<\/p>\n<p>I dati di addestramento possono essere presi da un set trovato correntemente o importati tramite un file JSONL. Dopo l'addestramento, viene assegnato un nuovo nome al modello, ad esempio \"fm-mlx-support-v1\", e il risultato \u00e8 immediatamente disponibile per ulteriori funzioni AI. In questo modo \u00e8 possibile creare modelli linguistici personalizzati, adattati con precisione alla rispettiva applicazione in termini di tono, vocabolario e comportamento.<\/p>\n<h3>Protezione dei dati e prestazioni: due facce della stessa medaglia<\/h3>\n<p>Il fatto che FileMaker 2025 si affidi a modelli locali con MLX non \u00e8 un caso. In un momento in cui la sovranit\u00e0 dei dati, la conformit\u00e0 al GDPR e le linee guida sulla sicurezza interna stanno diventando sempre pi\u00f9 importanti, questo approccio offre diversi vantaggi:<\/p>\n<ul>\n<li><strong>Nessun cloud, nessun server esterno, nessun costo API<\/strong>Tutte le richieste rimangono nella propria rete.<\/li>\n<li><strong>Tempi di risposta pi\u00f9 rapidi grazie all'elaborazione locale<\/strong> - soprattutto per i processi ricorrenti.<\/li>\n<li><strong>Elevata trasparenza e controllabilit\u00e0<\/strong>Ogni risposta pu\u00f2 essere controllata, ogni modifica tracciata, ogni fase di formazione documentata.<\/li>\n<li><strong>Messa a punto in base ai propri dati<\/strong>Le conoscenze specifiche dell'azienda non vengono pi\u00f9 convogliate attraverso fornitori esterni, ma rimangono interamente all'interno del sistema aziendale.<\/li>\n<\/ul>\n<p>Allo stesso tempo, \u00e8 importante valutare realisticamente le risorse: I modelli di grandi dimensioni richiedono anche una solida infrastruttura locale, ad esempio un Mac Apple Silicon con 32 o 64 GB di RAM, eventualmente con cache SSD e un profilo server dedicato. Ma chi sceglie questa strada beneficer\u00e0 a lungo termine del massimo controllo e della massima flessibilit\u00e0.<\/p>\n<h2>MLX e FileMaker: una nuova alleanza per i professionisti<\/h2>\n<p>Quello che inizialmente sembrava un percorso parallelo - da un lato MLX come struttura di ricerca dell'Apple, dall'altro l'FileMaker come piattaforma di database classica - \u00e8 ora cresciuto insieme in un sistema chiuso.<\/p>\n<p>Claris ha riconosciuto che le moderne applicazioni aziendali hanno bisogno di qualcosa di pi\u00f9 di moduli, tabelle e report. Hanno bisogno di un'intelligenza artificiale adattiva e comprensiva, integrata e non integrata. Con il supporto nativo per MLX, i nuovi comandi AI e l'opzione di messa a punto locale, FileMaker 2025 offre una piattaforma completa per la creazione, il controllo e l'utilizzo produttivo dei propri processi AI per la prima volta, senza dover fare affidamento su fornitori esterni o cloud esterni.<\/p>\n<p>Per gli sviluppatori che, come voi, apprezzano un'architettura chiara, prudente e sicura per i dati, questo \u00e8 pi\u00f9 che un progresso: \u00e8 l'inizio di un nuovo modo di lavorare.<\/p>\n<p>In un altro articolo presento un <a href=\"https:\/\/www.markus-schall.de\/it\/2025\/11\/apple-mlx-vs-nvidia-come-funziona-linferenza-ki-locale-sul-mac\/\"><strong>Confronto tra Apple Silicon e NVIDIA<\/strong><\/a> e spiegare quale hardware \u00e8 adatto all'esecuzione di modelli linguistici locali su un Mac.<\/p>\n<hr \/>\n\n\t\t\t<div class=\"display-post-types\">\n\n\t\t\t\t\t\t\t<style type=\"text\/css\">\n\t\t\t#dpt-wrapper-862 { --dpt-text-align: left;--dpt-image-crop: center;--dpt-border-radius: 5px;--dpt-small-grid-column: 33.33%;--dpt-large-grid-column: 33.3333333333%;--dpt-h-gutter: 10px;--dpt-v-gutter: 10px; }\t\t\t<\/style>\n\t\t\t<style type=\"text\/css\">#dpt-wrapper-862 { --dpt-title-font-style:normal;--dpt-title-font-weight:600;--dpt-title-line-height:1.5;--dpt-title-text-decoration:none;--dpt-title-text-transform:none;--dpt-excerpt-font-style:normal;--dpt-excerpt-font-weight:400;--dpt-excerpt-line-height:1.5;--dpt-excerpt-text-decoration:none;--dpt-excerpt-text-transform:none;--dpt-meta1-font-style:normal;--dpt-meta1-font-weight:400;--dpt-meta1-line-height:1.9;--dpt-meta1-text-decoration:none;--dpt-meta1-text-transform:none;--dpt-meta2-font-style:normal;--dpt-meta2-font-weight:400;--dpt-meta2-line-height:1.9;--dpt-meta2-text-decoration:none;--dpt-meta2-text-transform:none; }<\/style><div class=\"dpt-main-header\">\n\t\t\t\t\t\t<div class=\"dpt-main-title\">\n\t\t\t\t\t\t\t<span class=\"dpt-main-title-text\">Argomenti attuali sull'intelligenza artificiale<\/span>\n\t\t\t\t\t\t<\/div>\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t<\/div>\t\t\t\n\t\t\t\t<div id=\"dpt-wrapper-862\" class=\"dpt-wrapper dpt-grid1 multi-col dpt-mason-wrap\" >\n\n\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"mlx auf apple silicon als lokale ki im vergleich mit ollama &#038; co.\" data-id=\"2857\"  data-category=\"apple macos ki-systeme\" data-post_tag=\"datenschutz k\u00fcnstliche intelligenz llama llm mistral mlx ollama sprachmodell\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/it\/2025\/09\/mlx-su-apple-silicon-come-ki-locale-rispetto-a-ollama-co\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">MLX su Apple Silicon come AI locale rispetto a Ollama &amp; Co.<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1280\" height=\"720\" class=\"attachment-full size-full\" alt=\"IA locale su Mac con MLX\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/mlx-lokale-ki-apple-silicon.jpg\" data-dpt-sizes=\"(max-width: 1280px) 100vw, 1280px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/mlx-lokale-ki-apple-silicon.jpg 1280w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/mlx-lokale-ki-apple-silicon-300x169.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/mlx-lokale-ki-apple-silicon-1024x576.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/mlx-lokale-ki-apple-silicon-768x432.jpg 768w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 56%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/it\/2025\/09\/mlx-su-apple-silicon-come-ki-locale-rispetto-a-ollama-co\/\" rel=\"bookmark\">MLX su Apple Silicon come AI locale rispetto a Ollama &amp; Co.<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"unsterblichkeit durch technik: wie weit forschung und ki wirklich sind\" data-id=\"3624\"  data-category=\"allgemein gesellschaft ki-systeme\" data-post_tag=\"denkmodelle k\u00fcnstliche intelligenz lernen llm prozesse sprachmodell\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/it\/2025\/11\/limmortalita-attraverso-la-tecnologia-quanto-sono-lontani-la-ricerca-e-il-ki\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Immortalit\u00e0 attraverso la tecnologia: a che punto sono la ricerca e l'intelligenza artificiale<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1536\" height=\"1024\" class=\"attachment-full size-full\" alt=\"L&#039;immortalit\u00e0 digitale\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/digitale-unsterblichkeit.jpg\" data-dpt-sizes=\"(max-width: 1536px) 100vw, 1536px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/digitale-unsterblichkeit.jpg 1536w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/digitale-unsterblichkeit-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/digitale-unsterblichkeit-1024x683.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/digitale-unsterblichkeit-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/digitale-unsterblichkeit-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 67%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/it\/2025\/11\/limmortalita-attraverso-la-tecnologia-quanto-sono-lontani-la-ricerca-e-il-ki\/\" rel=\"bookmark\">Immortalit\u00e0 attraverso la tecnologia: a che punto sono la ricerca e l'intelligenza artificiale<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"rag mit ollama und qdrant als universelle suchmaschine f\u00fcr eigene daten\" data-id=\"2764\"  data-category=\"filemaker &amp; erp ki-systeme\" data-post_tag=\"datenbanken docker k\u00fcnstliche intelligenz llama llm mistral ollama qdrant vektordatenbank\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/it\/2025\/08\/rag-con-ollama-e-qdrant-come-motore-di-ricerca-universale-per-i-propri-dati\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">RAG con Ollama e Qdrant come motore di ricerca universale per i dati propri<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1920\" height=\"640\" class=\"attachment-full size-full\" alt=\"Estendere l&#039;IA locale con i database utilizzando RAG, Ollama e Qdrant\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/lokale-ki-rag-ollama-qdrant.jpg\" data-dpt-sizes=\"(max-width: 1920px) 100vw, 1920px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/lokale-ki-rag-ollama-qdrant.jpg 1920w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/lokale-ki-rag-ollama-qdrant-300x100.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/lokale-ki-rag-ollama-qdrant-1024x341.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/lokale-ki-rag-ollama-qdrant-768x256.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/lokale-ki-rag-ollama-qdrant-1536x512.jpg 1536w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 33%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/it\/2025\/08\/rag-con-ollama-e-qdrant-come-motore-di-ricerca-universale-per-i-propri-dati\/\" rel=\"bookmark\">RAG con Ollama e Qdrant come motore di ricerca universale per i dati propri<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\n\t\t\t\t<\/div>\n\t\t\t\t\t\t<\/div>\n\t\t\t\n<hr \/>\n<h2>Domande frequenti<\/h2>\n<ol>\n<li><strong>Cosa significa esattamente che FileMaker 2025 \"supporta MLX\"?<\/strong><br \/>\nFileMaker Server 2025 contiene per la prima volta un AI Model Server integrato che, se installato su una Apple Silicon Mac install, utilizza i modelli MLX in modo nativo. Ci\u00f2 significa che \u00e8 possibile distribuire un modello compatibile con MLX (ad esempio, Mistral o Phi-2) direttamente tramite la console amministrativa e utilizzarlo nella propria soluzione FileMaker, senza dover ricorrere a servizi esterni o chiamate REST.<\/li>\n<li><strong>Di quale hardware e software specifico ho bisogno per questo?<\/strong><br \/>\n- Un Mac con Apple Silicon (M1, M2, M3, M4), idealmente con 32-64 GB di RAM,<br \/>\n- FileMaker Server 2025, su questo Mac installiert,<br \/>\n- FileMaker Pro 2025 per la soluzione attuale,<br \/>\n- e uno o pi\u00f9 modelli compatibili con MLX, forniti da Claris o convertiti da voi stessi (ad esempio tramite mlx-lm).<\/li>\n<li><strong>Come posso integrare questo modello nella mia soluzione FileMaker?<\/strong><br \/>\nUtilizzare la nuova funzione \"Configura account AI\" negli script FileMaker per specificare il modello da utilizzare. Vengono definiti il nome del server, il nome del modello e la chiave di autenticazione. \u00c8 quindi possibile utilizzare immediatamente le altre funzioni AI, ad esempio per la generazione di testo, l'incorporamento o la ricerca semantica. Tutto viene eseguito tramite passaggi di script nativi, senza dover ricorrere a visualizzatori web o a \"Inserisci da URL\".<\/li>\n<li><strong>Quali funzioni AI posso utilizzare nell'FileMaker?<\/strong><br \/>\nSono disponibili le seguenti funzioni (a seconda del tipo di modello):<br \/>\n- Generazione di testo (\"Genera risposta dal modello\")<br \/>\n- Ricerca naturale (\"Esegui ricerca in linguaggio naturale\")<br \/>\n- SQL nel linguaggio quotidiano (\"Eseguire una query SQL in linguaggio naturale\")<br \/>\n- Vettori semantici (\"Incorpora\", \"Similitudine del coseno\")<br \/>\n- Gestione dei modelli di prompt (\"Configura modello di prompt\")<br \/>\n- Messa a punto LoRA tramite i propri dati (\"Fine-Tune Model\")<br \/>\nTutte le funzioni sono basate su script e possono essere integrate senza problemi nelle soluzioni esistenti.<\/li>\n<li><strong>Come funziona la regolazione fine direttamente nell'FileMaker?<\/strong><br \/>\nIn FileMaker 2025, \u00e8 possibile perfezionare un modello MLX esistente direttamente tramite LoRA, ossia personalizzarlo con i propri dati. A tale scopo, \u00e8 possibile utilizzare i record di dati in una tabella (ad esempio, domande + risposte) o un file JSONL. \u00c8 sufficiente un solo comando di script (\"Fine-Tune Model\") per creare un nuovo modello personalizzato, immediatamente disponibile nella soluzione.<\/li>\n<li><strong>Devo ancora avere familiarit\u00e0 con Python, JSON, API o formati di modelli?<\/strong><br \/>\nNo, non necessariamente. Claris ha deliberatamente fatto in modo che molti di questi dettagli tecnici passino in secondo piano. \u00c8 possibile lavorare con i comandi di script nativi, gestire i dati in FileMaker ed elaborare semplicemente i risultati come testo o vettore. Se volete, potete andare pi\u00f9 a fondo, ma ora potete farlo senza avere conoscenze di programmazione.<\/li>\n<li><strong>Quali sono i vantaggi dell'utilizzo di MLX tramite FileMaker rispetto alle API esterne?<\/strong><br \/>\nI vantaggi risiedono nella sicurezza dei dati, nel controllo dei costi e nelle prestazioni:<br \/>\n- Non \u00e8 necessaria alcuna connessione al cloud, tutti i dati rimangono nella vostra rete.<br \/>\n- Non ci sono costi API o limiti di token: una volta installiert, l'utilizzo \u00e8 gratuito.<br \/>\n- Tempi di risposta molto brevi, poich\u00e9 non c'\u00e8 latenza di rete.<br \/>\n- Pieno controllo sui dati di formazione, sulla messa a punto e sulla versione del modello.<br \/>\nSi tratta di una vera e propria svolta, soprattutto per le applicazioni interne, le soluzioni industriali o i processi sensibili.<\/li>\n<li><strong>Ci sono restrizioni o cose a cui fare attenzione?<\/strong><br \/>\nS\u00ec, MLX funziona solo su Apple Silicon, quindi un server Intel \u00e8 escluso. \u00c8 inoltre necessario disporre di una quantit\u00e0 di RAM sufficiente affinch\u00e9 i modelli pi\u00f9 grandi possano funzionare in modo affidabile. Non tutti i modelli sono immediatamente compatibili: alcuni devono essere convertiti. Infine: anche se molte cose funzionano \"automaticamente\", per un uso produttivo \u00e8 sempre necessario eseguire un test dedicato, ad esempio con piccole quantit\u00e0 di dati, definizioni chiare dei target e una buona strategia di registrazione.<\/li>\n<\/ol>\n<p>Materiale dell'immagine (c) Claris Inc. e Kohji Asakawa su Pixabay<\/p>","protected":false},"excerpt":{"rendered":"<p>Mentre MLX \u00e8 stato originariamente lanciato come framework sperimentale da Apple Research, negli ultimi mesi si \u00e8 verificato uno sviluppo silenzioso ma significativo: Con il rilascio di FileMaker 2025, Claris ha integrato stabilmente MLX nel server come infrastruttura AI nativa per Apple Silicon. Ci\u00f2 significa che chiunque lavori con un Mac e si affidi a Apple Silicon ... <a title=\"RAG con Ollama e Qdrant come motore di ricerca universale per i dati propri\" class=\"read-more\" href=\"https:\/\/www.markus-schall.de\/it\/2025\/08\/rag-con-ollama-e-qdrant-come-motore-di-ricerca-universale-per-i-propri-dati\/\" aria-label=\"Per saperne di pi\u00f9 su RAG con Ollama e Qdrant come motore di ricerca universale per i propri dati\">Leggi tutto<\/a><\/p>","protected":false},"author":1,"featured_media":2894,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"iawp_total_views":110,"footnotes":""},"categories":[3,431,4],"tags":[440,469,410,11,465,434,451],"class_list":["post-2860","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-filemaker","category-ki-systeme","category-tipps-anleitungen","tag-datenbanken","tag-datenschutz","tag-filemaker","tag-mac","tag-mlx","tag-sprachmodell","tag-vektordatenbank"],"_links":{"self":[{"href":"https:\/\/www.markus-schall.de\/it\/wp-json\/wp\/v2\/posts\/2860","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.markus-schall.de\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.markus-schall.de\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.markus-schall.de\/it\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.markus-schall.de\/it\/wp-json\/wp\/v2\/comments?post=2860"}],"version-history":[{"count":10,"href":"https:\/\/www.markus-schall.de\/it\/wp-json\/wp\/v2\/posts\/2860\/revisions"}],"predecessor-version":[{"id":3474,"href":"https:\/\/www.markus-schall.de\/it\/wp-json\/wp\/v2\/posts\/2860\/revisions\/3474"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.markus-schall.de\/it\/wp-json\/wp\/v2\/media\/2894"}],"wp:attachment":[{"href":"https:\/\/www.markus-schall.de\/it\/wp-json\/wp\/v2\/media?parent=2860"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.markus-schall.de\/it\/wp-json\/wp\/v2\/categories?post=2860"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.markus-schall.de\/it\/wp-json\/wp\/v2\/tags?post=2860"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}