Litio: l'oligoelemento dimenticato? Uno sguardo al microdosaggio

Litio orotato in microdosi

Quando si sente la parola litio, molti pensano alle moderne batterie ricaricabili, alla tecnologia delle pile o, con sguardo scettico, agli psicofarmaci. Ma il litio è in realtà molto di più: è un oligoelemento naturale presente nel nostro ambiente da tempo immemorabile - nelle rocce, nell'acqua e anche in piccole quantità negli alimenti di origine vegetale.

Leggi tutto

Integrazione di MLX in FileMaker 2025: AI locale come nuovo standard

AI locale con MLX e FileMaker

Mentre MLX è stato originariamente lanciato come framework sperimentale da Apple Research, negli ultimi mesi si è verificato uno sviluppo silenzioso ma significativo: Con il rilascio di FileMaker 2025, Claris ha integrato stabilmente MLX nel server come infrastruttura AI nativa per Apple Silicon. Ciò significa che chiunque lavori con un Mac e utilizzi Apple Silicon può non solo eseguire i modelli MLX localmente, ma anche utilizzarli direttamente in FileMaker - con funzioni native, senza alcun livello intermedio.

Leggi tutto

Perché il software ERP da solo non basta e come capire davvero i processi

Software ERP: capire i processi operativi prima della digitalizzazione

In molte aziende si ripete sempre lo stesso schema: a un certo punto la direzione si rende conto che "qualcosa non funziona più bene". Forse i processi sono diventati troppo lenti, gli errori si stanno accumulando o l'azienda sta perdendo sempre più traccia di cifre, clienti o processi interni. La richiesta di una nuova soluzione software diventa forte, preferibilmente un software ERP moderno e potente che "può fare tutto". Ma spesso è qui che inizia un errore fatale.

Leggi tutto

Come ho scritto cinque libri in due lingue in quattro mesi

Scrivere libri con Affinity e BoD

... e perché non si tratta di un miracolo, ma del risultato di una chiara strategia

Per molto tempo, scrivere libri è stato visto come qualcosa di noioso, un progetto solitario che si trascina per mesi o addirittura anni. Ma cosa succederebbe se si abbandonasse questa immagine? E se si ripensasse alla scrittura, con un focus chiaro, processi ben studiati e un uso mirato dell'intelligenza artificiale?

Nel mio nuovo libro "Scrivere libri 2.0 - una guida pratica per gli autori nell'era dell'intelligenza artificiale" Io descrivo esattamente questo percorso. Un percorso che mi ha permesso di scrivere cinque libri in soli quattro mesi, pubblicarli in due lingue e non accettare alcuna perdita di qualità rispetto all'editoria tradizionale.

Leggi tutto

Scrivere libri 2.0 - Guida pratica per autori nell'era dell'IA

Copertina: Scrivere libri 2.0 - una guida pratica per gli autori nell'era dell'IA

Questo libro non fornisce visioni speculative del futuro, ma una risposta pratica e fondata, tratta dalla vita quotidiana di un autore che scrive con l'IA in prima persona e che volutamente non si concentra sull'automazione, ma sull'autonomia. "Scrivere libri 2.0" si rivolge a tutti coloro che stanno pensando di scrivere il proprio libro - o sono già in procinto di farlo - e si chiedono come strumenti moderni come ChatGPT, generatori di immagini AI o ausili per la traduzione possano essere utilizzati al meglio. L'attenzione non è rivolta a "prodotti AI finiti", ma a un approccio olistico: l'AI come strumento, gli esseri umani come autori.

Leggi tutto

Ollama incontra Qdrant: una memoria locale per la vostra AI su Mac

Memoria per AI locale con Ollama e Qdrant

IA locale con memoria - senza cloud, senza abbonamento, senza distrazioni

In un articoli precedenti Ho spiegato come configurare l'Ollama sul Mac install. Se avete già completato questo passaggio, ora disponete di un potente modello di lingua locale, come Mistral, LLaMA3 o un altro modello compatibile che può essere indirizzato tramite API REST.

Tuttavia, il modello "sa" solo cosa c'è nel prompt corrente. Non ricorda le conversazioni precedenti. Ciò che manca è la memoria.

Leggi tutto

IA locale su Mac: come installiere un modello linguistico con Ollama

L'intelligenza artificiale locale su Mac è da tempo pratica, soprattutto sui computer Apple-Silicon (serie M). Con Ollama si ottiene un ambiente di runtime snello per molti modelli linguistici open source (ad esempio Llama 3.1/3.2, Mistral, Gemma, Qwen). L'attuale versione Ollama è dotata di un'applicazione di facile utilizzo che consente di configurare un modello linguistico locale sul Mac con un semplice clic del mouse. In questo articolo troverete una guida pragmatica dall'installazione al primo prompt, con consigli pratici su dove tradizionalmente le cose tendono ad andare storte.

Leggi tutto

Consigli per la salute (non solo) per gli utenti di FileMaker

Consigli per la salute

Lo sviluppo del software gFM-Business ERP è stato un po' più lento del solito nell'ultimo anno e mezzo perché, in qualità di sviluppatore del software, ho avuto a che fare con alcuni strani sintomi di malattie di cui non era facile trovare la causa. Anche se la medicina convenzionale non è stata di grande aiuto nel mio caso, sono riuscito a trovare le cause e a eliminare i miei problemi con il supporto attivo di alcuni praticanti alternativi e di un dentista olistico. Poiché i risultati di questa ricerca sono così interessanti, ho deciso di scrivere un breve articolo al riguardo, in modo che anche voi lettori possiate trarne beneficio. Qui di seguito troverete i miei consigli preferiti, senza alcun guadagno e senza l'utilizzo di alcun link di riferimento.

Leggi tutto