AI Studio 2025: quale hardware vale davvero la pena: dal Mac Studio alla RTX 3090

Hardware 2025 per lo studio AI

Chiunque lavori con l'IA oggi è quasi automaticamente spinto nel cloud: OpenAI, Microsoft, Google, qualsiasi interfaccia web, token, limiti, termini e condizioni. Questo sembra moderno, ma è essenzialmente un ritorno alla dipendenza: altri determinano quali modelli si possono usare, con quale frequenza, con quali filtri e a quale costo. Io sto deliberatamente andando nella direzione opposta: attualmente sto costruendo il mio piccolo studio di IA a casa. Con il mio hardware, i miei modelli e i miei flussi di lavoro.

Il mio obiettivo è chiaro: IA locale per i testi, IA locale per le immagini, apprendimento dei miei modelli (LoRA, fine-tuning) e tutto questo in modo tale che io, come libero professionista e in seguito anche cliente di una PMI, non dipenda dai capricci quotidiani di qualche fornitore di cloud. Si potrebbe dire che è un ritorno a un vecchio atteggiamento che una volta era abbastanza normale: „Le cose importanti le fai da solo“. Solo che questa volta non si tratta del proprio banco di lavoro, ma della potenza di calcolo e della sovranità dei dati.

Leggi tutto

Apple MLX vs. NVIDIA: come funziona l'inferenza AI locale sul Mac

AI locale su Silicon con Apple Mac

Chi si occupa di intelligenza artificiale oggi pensa spesso a ChatGPT o a servizi online simili. Si digita una domanda, si attende qualche secondo e si riceve una risposta come se all'altro capo del filo ci fosse un interlocutore molto colto e paziente. Ma ciò che è facilmente dimenticabile: Ogni input, ogni frase, ogni parola viene inviata a server esterni via Internet. È lì che si svolge il lavoro vero e proprio, su enormi computer che non si vedono mai di persona.

In linea di principio, un modello linguistico locale funziona esattamente nello stesso modo, ma senza Internet. Il modello è memorizzato come file sul computer dell'utente, viene caricato nella memoria di lavoro all'avvio e risponde alle domande direttamente sul dispositivo. La tecnologia alla base è la stessa: una rete neurale che comprende il linguaggio, genera testi e riconosce modelli. L'unica differenza è che l'intero calcolo rimane interno all'azienda. Si potrebbe dire: ChatGPT senza cloud.

Leggi tutto

Formazione LoRA: come FileMaker 2025 semplifica la messa a punto di modelli linguistici di grandi dimensioni

Messa a punto LoRA - FileMaker 2025

Il mondo dell'intelligenza artificiale è in continuo movimento. Quasi ogni settimana emergono nuovi modelli, nuovi metodi e, soprattutto, nuove possibilità - eppure una constatazione rimane costante: non tutte le innovazioni tecniche portano automaticamente a una vita quotidiana migliore. Molte cose rimangono sperimentali, complesse o semplicemente troppo costose per un uso produttivo. Ciò è particolarmente evidente nella cosiddetta messa a punto dei modelli linguistici di grandi dimensioni, un metodo per specializzare l'IA generativa in base ai propri contenuti, termini e tonalità.

Ho accompagnato questo processo in modo intensivo negli ultimi mesi - prima nella forma classica, con Python, terminale, messaggi di errore e snervanti cicli di configurazione. E poi: con FileMaker 2025, un passo che mi ha sorpreso - perché non era forte, ma chiaro. E perché ha dimostrato che esiste un'altra strada.

Leggi tutto

Intelligenza artificiale: quali sono i posti di lavoro a rischio e come possiamo armarci ora

Quali lavori saranno eliminati dall'IA in futuro

Quasi nessun altro cambiamento tecnologico si è insinuato nella nostra vita quotidiana con la stessa rapidità dell'intelligenza artificiale. Quella che ieri era considerata una tecnologia visionaria del futuro, oggi è già una realtà, che si tratti di messaggiare, programmare, diagnosticare, tradurre o persino creare musica, arte o documenti legali.

Leggi tutto

Integrazione di MLX in FileMaker 2025: AI locale come nuovo standard

AI locale con MLX e FileMaker

Mentre MLX è stato originariamente lanciato come framework sperimentale da Apple Research, negli ultimi mesi si è verificato uno sviluppo silenzioso ma significativo: Con il rilascio di FileMaker 2025, Claris ha integrato stabilmente MLX nel server come infrastruttura AI nativa per Apple Silicon. Ciò significa che chiunque lavori con un Mac e utilizzi Apple Silicon può non solo eseguire i modelli MLX localmente, ma anche utilizzarli direttamente in FileMaker - con funzioni native, senza alcun livello intermedio.

Leggi tutto

MLX su Apple Silicon come AI locale rispetto a Ollama & Co.

IA locale su Mac con MLX

In un momento in cui i servizi di IA centralizzati come ChatGPT, Claude o Gemini dominano le prime pagine dei giornali, molti utenti professionali hanno sempre più bisogno di un'alternativa: un'infrastruttura di IA locale e autocontrollabile. Soprattutto per i processi creativi, i dati sensibili o i flussi di lavoro ricorrenti, una soluzione locale è spesso l'opzione più sostenibile e sicura.

Chiunque lavori con un Mac, in particolare con Apple Silicon (M1, M2, M3 o M4), può ora trovare strumenti incredibilmente potenti per eseguire i propri modelli linguistici direttamente sul dispositivo. Al centro di tutto questo c'è un nuovo componente, in gran parte sconosciuto: MLX, un framework di apprendimento automatico sviluppato da Apple che probabilmente avrà un ruolo sempre più centrale nell'ecosistema AI dell'azienda nei prossimi anni.

Leggi tutto