AI Studio 2025: quale hardware vale davvero la pena: dal Mac Studio alla RTX 3090

Hardware 2025 per lo studio AI

Chiunque lavori con l'IA oggi è quasi automaticamente spinto nel cloud: OpenAI, Microsoft, Google, qualsiasi interfaccia web, token, limiti, termini e condizioni. Questo sembra moderno, ma è essenzialmente un ritorno alla dipendenza: altri determinano quali modelli si possono usare, con quale frequenza, con quali filtri e a quale costo. Io sto deliberatamente andando nella direzione opposta: attualmente sto costruendo il mio piccolo studio di IA a casa. Con il mio hardware, i miei modelli e i miei flussi di lavoro.

Il mio obiettivo è chiaro: IA locale per i testi, IA locale per le immagini, apprendimento dei miei modelli (LoRA, fine-tuning) e tutto questo in modo tale che io, come libero professionista e in seguito anche cliente di una PMI, non dipenda dai capricci quotidiani di qualche fornitore di cloud. Si potrebbe dire che è un ritorno a un vecchio atteggiamento che una volta era abbastanza normale: „Le cose importanti le fai da solo“. Solo che questa volta non si tratta del proprio banco di lavoro, ma della potenza di calcolo e della sovranità dei dati.

Leggi tutto

gFM-Business e il futuro dell'ERP: intelligenza locale anziché dipendenza dal cloud

gFM-Business e AI + grafico della conoscenza

Da oltre un decennio, il software gFM-Business rappresenta qualcosa di speciale nel mercato ERP tedesco: non si basa su un sistema ingombrante e difficile da mantenere, ma sulla piattaforma FileMaker, leggera, personalizzabile e modellata visivamente. Ciò comporta numerosi vantaggi: gFM-Business può essere espanso individualmente, funziona su Windows, macOS e iOS e può essere personalizzato sia da sviluppatori che da power user ambiziosi.

Con l'avvento dell'intelligenza artificiale (AI) - in particolare attraverso i cosiddetti modelli linguistici come ChatGPT - stanno emergendo nuove opportunità che vanno ben oltre l'automazione tradizionale. gFM-Business si sta preparando attivamente per questo futuro: con l'obiettivo non solo di gestire i dati, ma anche di sbloccare la conoscenza.

Leggi tutto

Ollama incontra Qdrant: una memoria locale per la vostra AI su Mac

Memoria per AI locale con Ollama e Qdrant

IA locale con memoria - senza cloud, senza abbonamento, senza distrazioni

In un articoli precedenti Ho spiegato come configurare l'Ollama sul Mac install. Se avete già completato questo passaggio, ora disponete di un potente modello di lingua locale, come Mistral, LLaMA3 o un altro modello compatibile che può essere indirizzato tramite API REST.

Tuttavia, il modello "sa" solo cosa c'è nel prompt corrente. Non ricorda le conversazioni precedenti. Ciò che manca è la memoria.

Leggi tutto