gFM-Business e il futuro dell'ERP: intelligenza locale anziché dipendenza dal cloud

gFM-Business e AI + grafico della conoscenza

Da oltre un decennio, il software gFM-Business rappresenta qualcosa di speciale nel mercato ERP tedesco: non si basa su un sistema ingombrante e difficile da mantenere, ma sulla piattaforma FileMaker, leggera, personalizzabile e modellata visivamente. Ciò comporta numerosi vantaggi: gFM-Business può essere espanso individualmente, funziona su Windows, macOS e iOS e può essere personalizzato sia da sviluppatori che da power user ambiziosi.

Con l'avvento dell'intelligenza artificiale (AI) - in particolare attraverso i cosiddetti modelli linguistici come ChatGPT - stanno emergendo nuove opportunità che vanno ben oltre l'automazione tradizionale. gFM-Business si sta preparando attivamente per questo futuro: con l'obiettivo non solo di gestire i dati, ma anche di sbloccare la conoscenza.

Leggi tutto

Integrazione di MLX in FileMaker 2025: AI locale come nuovo standard

AI locale con MLX e FileMaker

Mentre MLX è stato originariamente lanciato come framework sperimentale da Apple Research, negli ultimi mesi si è verificato uno sviluppo silenzioso ma significativo: Con il rilascio di FileMaker 2025, Claris ha integrato stabilmente MLX nel server come infrastruttura AI nativa per Apple Silicon. Ciò significa che chiunque lavori con un Mac e utilizzi Apple Silicon può non solo eseguire i modelli MLX localmente, ma anche utilizzarli direttamente in FileMaker - con funzioni native, senza alcun livello intermedio.

Leggi tutto

MLX su Apple Silicon come AI locale rispetto a Ollama & Co.

IA locale su Mac con MLX

In un momento in cui i servizi di IA centralizzati come ChatGPT, Claude o Gemini dominano le prime pagine dei giornali, molti utenti professionali hanno sempre più bisogno di un'alternativa: un'infrastruttura di IA locale e autocontrollabile. Soprattutto per i processi creativi, i dati sensibili o i flussi di lavoro ricorrenti, una soluzione locale è spesso l'opzione più sostenibile e sicura.

Chiunque lavori con un Mac, in particolare con Apple Silicon (M1, M2, M3 o M4), può ora trovare strumenti incredibilmente potenti per eseguire i propri modelli linguistici direttamente sul dispositivo. Al centro di tutto questo c'è un nuovo componente, in gran parte sconosciuto: MLX, un framework di apprendimento automatico sviluppato da Apple che probabilmente avrà un ruolo sempre più centrale nell'ecosistema AI dell'azienda nei prossimi anni.

Leggi tutto

IA locale su Mac: come installiere un modello linguistico con Ollama

L'intelligenza artificiale locale su Mac è da tempo pratica, soprattutto sui computer Apple-Silicon (serie M). Con Ollama si ottiene un ambiente di runtime snello per molti modelli linguistici open source (ad esempio Llama 3.1/3.2, Mistral, Gemma, Qwen). L'attuale versione Ollama è dotata di un'applicazione di facile utilizzo che consente di configurare un modello linguistico locale sul Mac con un semplice clic del mouse. In questo articolo troverete una guida pragmatica dall'installazione al primo prompt, con consigli pratici su dove tradizionalmente le cose tendono ad andare storte.

Leggi tutto