Apple MLX vs. NVIDIA: come funziona l'inferenza AI locale sul Mac

AI locale su Silicon con Apple Mac

Chi si occupa di intelligenza artificiale oggi pensa spesso a ChatGPT o a servizi online simili. Si digita una domanda, si attende qualche secondo e si riceve una risposta come se all'altro capo del filo ci fosse un interlocutore molto colto e paziente. Ma ciò che è facilmente dimenticabile: Ogni input, ogni frase, ogni parola viene inviata a server esterni via Internet. È lì che si svolge il lavoro vero e proprio, su enormi computer che non si vedono mai di persona.

In linea di principio, un modello linguistico locale funziona esattamente nello stesso modo, ma senza Internet. Il modello è memorizzato come file sul computer dell'utente, viene caricato nella memoria di lavoro all'avvio e risponde alle domande direttamente sul dispositivo. La tecnologia alla base è la stessa: una rete neurale che comprende il linguaggio, genera testi e riconosce modelli. L'unica differenza è che l'intero calcolo rimane interno all'azienda. Si potrebbe dire: ChatGPT senza cloud.

Leggi tutto

Formazione LoRA: come FileMaker 2025 semplifica la messa a punto di modelli linguistici di grandi dimensioni

Messa a punto LoRA - FileMaker 2025

Il mondo dell'intelligenza artificiale è in continuo movimento. Quasi ogni settimana emergono nuovi modelli, nuovi metodi e, soprattutto, nuove possibilità - eppure una constatazione rimane costante: non tutte le innovazioni tecniche portano automaticamente a una vita quotidiana migliore. Molte cose rimangono sperimentali, complesse o semplicemente troppo costose per un uso produttivo. Ciò è particolarmente evidente nella cosiddetta messa a punto dei modelli linguistici di grandi dimensioni, un metodo per specializzare l'IA generativa in base ai propri contenuti, termini e tonalità.

Ho accompagnato questo processo in modo intensivo negli ultimi mesi - prima nella forma classica, con Python, terminale, messaggi di errore e snervanti cicli di configurazione. E poi: con FileMaker 2025, un passo che mi ha sorpreso - perché non era forte, ma chiaro. E perché ha dimostrato che esiste un'altra strada.

Leggi tutto

Fatture elettroniche per le PMI: XRechnung, ZUGFeRD e ERP in un colpo d'occhio

Panoramica dell'obbligo di emettere fatture elettroniche

La Germania non ha inventato la fattura elettronica da un giorno all'altro: è il risultato di anni di lavoro di standardizzazione (EN 16931), di normative federali e statali (B2G) e ora, attraverso la legge sulle opportunità di crescita, della graduale espansione nella vita quotidiana B2B. Dal 1° gennaio 2025, si applica una nuova situazione giuridica: una "fattura elettronica" è tale solo se è strutturata e leggibile dal computer - i puri allegati PDF via e-mail non sono più una fattura elettronica secondo la definizione. Questo sembra un aspetto tecnico, ma ha conseguenze operative, dalla ricezione delle fatture alla contabilità e all'archiviazione.

Leggi tutto

gFM-Business e il futuro dell'ERP: intelligenza locale anziché dipendenza dal cloud

gFM-Business e AI + grafico della conoscenza

Da oltre un decennio, il software gFM-Business rappresenta qualcosa di speciale nel mercato ERP tedesco: non si basa su un sistema ingombrante e difficile da mantenere, ma sulla piattaforma FileMaker, leggera, personalizzabile e modellata visivamente. Ciò comporta numerosi vantaggi: gFM-Business può essere espanso individualmente, funziona su Windows, macOS e iOS e può essere personalizzato sia da sviluppatori che da power user ambiziosi.

Con l'avvento dell'intelligenza artificiale (AI) - in particolare attraverso i cosiddetti modelli linguistici come ChatGPT - stanno emergendo nuove opportunità che vanno ben oltre l'automazione tradizionale. gFM-Business si sta preparando attivamente per questo futuro: con l'obiettivo non solo di gestire i dati, ma anche di sbloccare la conoscenza.

Leggi tutto

FileMaker Conferenza 2025: AI, comunità e un incidente inaspettato

FileMaker Conferenza 2025: allarme antincendio con i vigili del fuoco

La Conferenza FileMaker 2025 di Amburgo si è conclusa ed è stata una tappa speciale sotto molti aspetti. Non solo perché la conferenza di quest'anno si è concentrata su molti argomenti legati all'intelligenza artificiale, alle prestazioni e ai flussi di lavoro moderni, ma anche perché lo scambio personale e l'atmosfera "familiare" della comunità FileMaker si sono fatti sentire ancora una volta. Per me personalmente è stato un momento intenso, stimolante e di arricchimento generale, fin dalla prima sera.

Leggi tutto

Integrazione di MLX in FileMaker 2025: AI locale come nuovo standard

AI locale con MLX e FileMaker

Mentre MLX è stato originariamente lanciato come framework sperimentale da Apple Research, negli ultimi mesi si è verificato uno sviluppo silenzioso ma significativo: Con il rilascio di FileMaker 2025, Claris ha integrato stabilmente MLX nel server come infrastruttura AI nativa per Apple Silicon. Ciò significa che chiunque lavori con un Mac e utilizzi Apple Silicon può non solo eseguire i modelli MLX localmente, ma anche utilizzarli direttamente in FileMaker - con funzioni native, senza alcun livello intermedio.

Leggi tutto

Ci vediamo alla conferenza FileMaker FMK 2025 ad Amburgo?

FileMaker Conferenza FMK2025

Dal 15 al 17 settembre 2025, la comunità FileMaker di lingua tedesca si riunirà al JUFA Hotel Hamburg HafenCity per discutere gli ultimi sviluppi, le tendenze e le migliori pratiche in occasione della Conferenza FileMaker (FMK 2025). Da oltre dieci anni, questa conferenza è considerata l'evento più importante per gli sviluppatori, gli utenti e i decisori del settore FileMaker di Claris e sono lieto di essere presente di persona anche quest'anno.

Leggi tutto

Ollama incontra Qdrant: una memoria locale per la vostra AI su Mac

Memoria per AI locale con Ollama e Qdrant

IA locale con memoria - senza cloud, senza abbonamento, senza distrazioni

In un articoli precedenti Ho spiegato come configurare l'Ollama sul Mac install. Se avete già completato questo passaggio, ora disponete di un potente modello di lingua locale, come Mistral, LLaMA3 o un altro modello compatibile che può essere indirizzato tramite API REST.

Tuttavia, il modello "sa" solo cosa c'è nel prompt corrente. Non ricorda le conversazioni precedenti. Ciò che manca è la memoria.

Leggi tutto