Quasi nessun altro cambiamento tecnologico si è insinuato nella nostra vita quotidiana con la stessa rapidità dell'intelligenza artificiale. Quella che ieri era considerata una tecnologia visionaria del futuro, oggi è già una realtà, che si tratti di messaggiare, programmare, diagnosticare, tradurre o persino creare musica, arte o documenti legali.
Mistral
Articoli sui modelli Mistral AI. Questa sezione si occupa di nozioni tecniche di base, benchmark, confronti con altri LLM e scenari applicativi pratici.
MLX su Apple Silicon come AI locale rispetto a Ollama & Co.
In un momento in cui i servizi di IA centralizzati come ChatGPT, Claude o Gemini dominano le prime pagine dei giornali, molti utenti professionali hanno sempre più bisogno di un'alternativa: un'infrastruttura di IA locale e autocontrollabile. Soprattutto per i processi creativi, i dati sensibili o i flussi di lavoro ricorrenti, una soluzione locale è spesso l'opzione più sostenibile e sicura.
Chiunque lavori con un Mac, in particolare con Apple Silicon (M1, M2, M3 o M4), può ora trovare strumenti incredibilmente potenti per eseguire i propri modelli linguistici direttamente sul dispositivo. Al centro di tutto questo c'è un nuovo componente, in gran parte sconosciuto: MLX, un framework di apprendimento automatico sviluppato da Apple che probabilmente avrà un ruolo sempre più centrale nell'ecosistema AI dell'azienda nei prossimi anni.
RAG con Ollama e Qdrant come motore di ricerca universale per i dati propri
In un mondo di informazioni sempre più confuso, diventa sempre più importante rendere i propri database ricercabili in modo mirato, non attraverso le classiche ricerche full-text, ma attraverso risposte semanticamente rilevanti. È proprio qui che entra in gioco il principio del database RAG, una soluzione di ricerca supportata dall'intelligenza artificiale e composta da due componenti centrali:
Ollama incontra Qdrant: una memoria locale per la vostra AI su Mac
IA locale con memoria - senza cloud, senza abbonamento, senza distrazioni
In un articoli precedenti Ho spiegato come configurare l'Ollama sul Mac install. Se avete già completato questo passaggio, ora disponete di un potente modello di lingua locale, come Mistral, LLaMA3 o un altro modello compatibile che può essere indirizzato tramite API REST.
Tuttavia, il modello "sa" solo cosa c'è nel prompt corrente. Non ricorda le conversazioni precedenti. Ciò che manca è la memoria.
IA locale su Mac: come installiere un modello linguistico con Ollama
L'intelligenza artificiale locale su Mac è da tempo pratica, soprattutto sui computer Apple-Silicon (serie M). Con Ollama si ottiene un ambiente di runtime snello per molti modelli linguistici open source (ad esempio Llama 3.1/3.2, Mistral, Gemma, Qwen). L'attuale versione Ollama è dotata di un'applicazione di facile utilizzo che consente di configurare un modello linguistico locale sul Mac con un semplice clic del mouse. In questo articolo troverete una guida pragmatica dall'installazione al primo prompt, con consigli pratici su dove tradizionalmente le cose tendono ad andare storte.