L'IA in cloud come preside: perché il futuro del lavoro è nell'IA locale

L'intelligenza artificiale del cloud diventa il capo insegnante

Quando qualche anno fa i grandi modelli linguistici hanno iniziato la loro marcia trionfale, sembravano quasi un ritorno alle vecchie virtù della tecnologia: uno strumento che fa quello che gli viene detto. Uno strumento che serve l'utente, non il contrario. Le prime versioni, da GPT-3 a GPT-4, avevano sì dei punti deboli, ma erano incredibilmente utili. Spiegavano, analizzavano, formulavano e risolvevano i compiti. E lo facevano in gran parte senza zavorre pedagogiche.

Si parlava con questi modelli come se si stesse parlando con un impiegato erudito, che a volte sbagliava le parole, ma che essenzialmente lavorava e basta. Chiunque abbia scritto testi creativi, generato codici di programma o prodotto analisi più lunghe all'epoca ha sperimentato quanto tutto ciò funzionasse senza problemi. C'era una sensazione di libertà, di spazio creativo aperto, di tecnologia che supportava le persone invece di correggerle.

Leggi tutto

AI Studio 2025: quale hardware vale davvero la pena: dal Mac Studio alla RTX 3090

Hardware 2025 per lo studio AI

Chiunque lavori con l'IA oggi è quasi automaticamente spinto nel cloud: OpenAI, Microsoft, Google, qualsiasi interfaccia web, token, limiti, termini e condizioni. Questo sembra moderno, ma è essenzialmente un ritorno alla dipendenza: altri determinano quali modelli si possono usare, con quale frequenza, con quali filtri e a quale costo. Io sto deliberatamente andando nella direzione opposta: attualmente sto costruendo il mio piccolo studio di IA a casa. Con il mio hardware, i miei modelli e i miei flussi di lavoro.

Il mio obiettivo è chiaro: IA locale per i testi, IA locale per le immagini, apprendimento dei miei modelli (LoRA, fine-tuning) e tutto questo in modo tale che io, come libero professionista e in seguito anche cliente di una PMI, non dipenda dai capricci quotidiani di qualche fornitore di cloud. Si potrebbe dire che è un ritorno a un vecchio atteggiamento che una volta era abbastanza normale: „Le cose importanti le fai da solo“. Solo che questa volta non si tratta del proprio banco di lavoro, ma della potenza di calcolo e della sovranità dei dati.

Leggi tutto

gFM-Business e il futuro dell'ERP: intelligenza locale anziché dipendenza dal cloud

gFM-Business e AI + grafico della conoscenza

Da oltre un decennio, il software gFM-Business rappresenta qualcosa di speciale nel mercato ERP tedesco: non si basa su un sistema ingombrante e difficile da mantenere, ma sulla piattaforma FileMaker, leggera, personalizzabile e modellata visivamente. Ciò comporta numerosi vantaggi: gFM-Business può essere espanso individualmente, funziona su Windows, macOS e iOS e può essere personalizzato sia da sviluppatori che da power user ambiziosi.

Con l'avvento dell'intelligenza artificiale (AI) - in particolare attraverso i cosiddetti modelli linguistici come ChatGPT - stanno emergendo nuove opportunità che vanno ben oltre l'automazione tradizionale. gFM-Business si sta preparando attivamente per questo futuro: con l'obiettivo non solo di gestire i dati, ma anche di sbloccare la conoscenza.

Leggi tutto

Ollama incontra Qdrant: una memoria locale per la vostra AI su Mac

Memoria per AI locale con Ollama e Qdrant

IA locale con memoria - senza cloud, senza abbonamento, senza distrazioni

In un articoli precedenti Ho spiegato come configurare l'Ollama sul Mac install. Se avete già completato questo passaggio, ora disponete di un potente modello di lingua locale, come Mistral, LLaMA3 o un altro modello compatibile che può essere indirizzato tramite API REST.

Tuttavia, il modello "sa" solo cosa c'è nel prompt corrente. Non ricorda le conversazioni precedenti. Ciò che manca è la memoria.

Leggi tutto