Formazione LoRA: come FileMaker 2025 semplifica la messa a punto di modelli linguistici di grandi dimensioni

Messa a punto LoRA - FileMaker 2025

Il mondo dell'intelligenza artificiale è in continuo movimento. Quasi ogni settimana emergono nuovi modelli, nuovi metodi e, soprattutto, nuove possibilità - eppure una constatazione rimane costante: non tutte le innovazioni tecniche portano automaticamente a una vita quotidiana migliore. Molte cose rimangono sperimentali, complesse o semplicemente troppo costose per un uso produttivo. Ciò è particolarmente evidente nella cosiddetta messa a punto dei modelli linguistici di grandi dimensioni, un metodo per specializzare l'IA generativa in base ai propri contenuti, termini e tonalità.

Ho accompagnato questo processo in modo intensivo negli ultimi mesi - prima nella forma classica, con Python, terminale, messaggi di errore e snervanti cicli di configurazione. E poi: con FileMaker 2025, un passo che mi ha sorpreso - perché non era forte, ma chiaro. E perché ha dimostrato che esiste un'altra strada.

Leggi tutto

Come si possono formare oggi gli specialisti dell'IA - opportunità per aziende e tirocinanti

Formazione di specialisti dell'intelligenza artificiale

Solo pochi anni fa, l'intelligenza artificiale era un argomento riservato agli istituti di ricerca e alle grandi aziende. Si parlava di reti neurali, di deep learning e di riconoscimento vocale, ma non aveva praticamente alcun ruolo nella vita di tutti i giorni. Oggi l'intelligenza artificiale non è più un tema del futuro, ma una realtà: scrive testi, crea immagini, analizza dati e controlla processi produttivi. Che si tratti di amministrazione, commercio o industria, è ormai presente ovunque.

Leggi tutto

gFM-Business e il futuro dell'ERP: intelligenza locale anziché dipendenza dal cloud

gFM-Business e AI + grafico della conoscenza

Da oltre un decennio, il software gFM-Business rappresenta qualcosa di speciale nel mercato ERP tedesco: non si basa su un sistema ingombrante e difficile da mantenere, ma sulla piattaforma FileMaker, leggera, personalizzabile e modellata visivamente. Ciò comporta numerosi vantaggi: gFM-Business può essere espanso individualmente, funziona su Windows, macOS e iOS e può essere personalizzato sia da sviluppatori che da power user ambiziosi.

Con l'avvento dell'intelligenza artificiale (AI) - in particolare attraverso i cosiddetti modelli linguistici come ChatGPT - stanno emergendo nuove opportunità che vanno ben oltre l'automazione tradizionale. gFM-Business si sta preparando attivamente per questo futuro: con l'obiettivo non solo di gestire i dati, ma anche di sbloccare la conoscenza.

Leggi tutto

Intelligenza artificiale: quali sono i posti di lavoro a rischio e come possiamo armarci ora

Quali lavori saranno eliminati dall'IA in futuro

Quasi nessun altro cambiamento tecnologico si è insinuato nella nostra vita quotidiana con la stessa rapidità dell'intelligenza artificiale. Quella che ieri era considerata una tecnologia visionaria del futuro, oggi è già una realtà, che si tratti di messaggiare, programmare, diagnosticare, tradurre o persino creare musica, arte o documenti legali.

Leggi tutto

MLX su Apple Silicon come AI locale rispetto a Ollama & Co.

IA locale su Mac con MLX

In un momento in cui i servizi di IA centralizzati come ChatGPT, Claude o Gemini dominano le prime pagine dei giornali, molti utenti professionali hanno sempre più bisogno di un'alternativa: un'infrastruttura di IA locale e autocontrollabile. Soprattutto per i processi creativi, i dati sensibili o i flussi di lavoro ricorrenti, una soluzione locale è spesso l'opzione più sostenibile e sicura.

Chiunque lavori con un Mac, in particolare con Apple Silicon (M1, M2, M3 o M4), può ora trovare strumenti incredibilmente potenti per eseguire i propri modelli linguistici direttamente sul dispositivo. Al centro di tutto questo c'è un nuovo componente, in gran parte sconosciuto: MLX, un framework di apprendimento automatico sviluppato da Apple che probabilmente avrà un ruolo sempre più centrale nell'ecosistema AI dell'azienda nei prossimi anni.

Leggi tutto

RAG con Ollama e Qdrant come motore di ricerca universale per i dati propri

Estendere l'IA locale con i database utilizzando RAG, Ollama e Qdrant

In un mondo di informazioni sempre più confuso, diventa sempre più importante rendere i propri database ricercabili in modo mirato, non attraverso le classiche ricerche full-text, ma attraverso risposte semanticamente rilevanti. È proprio qui che entra in gioco il principio del database RAG, una soluzione di ricerca supportata dall'intelligenza artificiale e composta da due componenti centrali:

Leggi tutto

Ollama incontra Qdrant: una memoria locale per la vostra AI su Mac

Memoria per AI locale con Ollama e Qdrant

IA locale con memoria - senza cloud, senza abbonamento, senza distrazioni

In un articoli precedenti Ho spiegato come configurare l'Ollama sul Mac install. Se avete già completato questo passaggio, ora disponete di un potente modello di lingua locale, come Mistral, LLaMA3 o un altro modello compatibile che può essere indirizzato tramite API REST.

Tuttavia, il modello "sa" solo cosa c'è nel prompt corrente. Non ricorda le conversazioni precedenti. Ciò che manca è la memoria.

Leggi tutto

IA locale su Mac: come installiere un modello linguistico con Ollama

L'intelligenza artificiale locale su Mac è da tempo pratica, soprattutto sui computer Apple-Silicon (serie M). Con Ollama si ottiene un ambiente di runtime snello per molti modelli linguistici open source (ad esempio Llama 3.1/3.2, Mistral, Gemma, Qwen). L'attuale versione Ollama è dotata di un'applicazione di facile utilizzo che consente di configurare un modello linguistico locale sul Mac con un semplice clic del mouse. In questo articolo troverete una guida pragmatica dall'installazione al primo prompt, con consigli pratici su dove tradizionalmente le cose tendono ad andare storte.

Leggi tutto