L'IA in cloud come preside: perché il futuro del lavoro è nell'IA locale

L'intelligenza artificiale del cloud diventa il capo insegnante

Quando qualche anno fa i grandi modelli linguistici hanno iniziato la loro marcia trionfale, sembravano quasi un ritorno alle vecchie virtù della tecnologia: uno strumento che fa quello che gli viene detto. Uno strumento che serve l'utente, non il contrario. Le prime versioni, da GPT-3 a GPT-4, avevano sì dei punti deboli, ma erano incredibilmente utili. Spiegavano, analizzavano, formulavano e risolvevano i compiti. E lo facevano in gran parte senza zavorre pedagogiche.

Si parlava con questi modelli come se si stesse parlando con un impiegato erudito, che a volte sbagliava le parole, ma che essenzialmente lavorava e basta. Chiunque abbia scritto testi creativi, generato codici di programma o prodotto analisi più lunghe all'epoca ha sperimentato quanto tutto ciò funzionasse senza problemi. C'era una sensazione di libertà, di spazio creativo aperto, di tecnologia che supportava le persone invece di correggerle.

Leggi tutto

AI Studio 2025: quale hardware vale davvero la pena: dal Mac Studio alla RTX 3090

Hardware 2025 per lo studio AI

Chiunque lavori con l'IA oggi è quasi automaticamente spinto nel cloud: OpenAI, Microsoft, Google, qualsiasi interfaccia web, token, limiti, termini e condizioni. Questo sembra moderno, ma è essenzialmente un ritorno alla dipendenza: altri determinano quali modelli si possono usare, con quale frequenza, con quali filtri e a quale costo. Io sto deliberatamente andando nella direzione opposta: attualmente sto costruendo il mio piccolo studio di IA a casa. Con il mio hardware, i miei modelli e i miei flussi di lavoro.

Il mio obiettivo è chiaro: IA locale per i testi, IA locale per le immagini, apprendimento dei miei modelli (LoRA, fine-tuning) e tutto questo in modo tale che io, come libero professionista e in seguito anche cliente di una PMI, non dipenda dai capricci quotidiani di qualche fornitore di cloud. Si potrebbe dire che è un ritorno a un vecchio atteggiamento che una volta era abbastanza normale: „Le cose importanti le fai da solo“. Solo che questa volta non si tratta del proprio banco di lavoro, ma della potenza di calcolo e della sovranità dei dati.

Leggi tutto

RAG con Ollama e Qdrant come motore di ricerca universale per i dati propri

Estendere l'IA locale con i database utilizzando RAG, Ollama e Qdrant

In un mondo di informazioni sempre più confuso, diventa sempre più importante rendere i propri database ricercabili in modo mirato, non attraverso le classiche ricerche full-text, ma attraverso risposte semanticamente rilevanti. È proprio qui che entra in gioco il principio del database RAG, una soluzione di ricerca supportata dall'intelligenza artificiale e composta da due componenti centrali:

Leggi tutto

IA locale su Mac: come installiere un modello linguistico con Ollama

L'intelligenza artificiale locale su Mac è da tempo pratica, soprattutto sui computer Apple-Silicon (serie M). Con Ollama si ottiene un ambiente di runtime snello per molti modelli linguistici open source (ad esempio Llama 3.1/3.2, Mistral, Gemma, Qwen). L'attuale versione Ollama è dotata di un'applicazione di facile utilizzo che consente di configurare un modello linguistico locale sul Mac con un semplice clic del mouse. In questo articolo troverete una guida pragmatica dall'installazione al primo prompt, con consigli pratici su dove tradizionalmente le cose tendono ad andare storte.

Leggi tutto