Quando si sente la parola litio, molti pensano alle moderne batterie ricaricabili, alla tecnologia delle pile o, con sguardo scettico, agli psicofarmaci. Ma il litio è in realtà molto di più: è un oligoelemento naturale presente nel nostro ambiente da tempo immemorabile - nelle rocce, nell'acqua e anche in piccole quantità negli alimenti di origine vegetale.
Suggerimenti e istruzioni
In questa categoria troverete Consigli pratici, istruzioni passo-passo e guide pratiche su vari argomenti di tecnologia, economia e vita quotidiana. Gli articoli mostrano in modo comprensibile e comprensibile come risolvere i problemi tipici, usare il software in modo efficiente o sperimentare nuovi modi di lavorare. Che si tratti di Dispositivi Apple, FileMaker, Software ERP, Argomenti di salute o altre questioni pratiche: qui l'attenzione è rivolta ai vantaggi concreti. Le istruzioni sono strutturate in modo tale da poter essere implementate direttamente e aiutare rapidamente nella vita quotidiana o in azienda.
Integrazione di MLX in FileMaker 2025: AI locale come nuovo standard
Mentre MLX è stato originariamente lanciato come framework sperimentale da Apple Research, negli ultimi mesi si è verificato uno sviluppo silenzioso ma significativo: Con il rilascio di FileMaker 2025, Claris ha integrato stabilmente MLX nel server come infrastruttura AI nativa per Apple Silicon. Ciò significa che chiunque lavori con un Mac e utilizzi Apple Silicon può non solo eseguire i modelli MLX localmente, ma anche utilizzarli direttamente in FileMaker - con funzioni native, senza alcun livello intermedio.
Perché il software ERP da solo non basta e come capire davvero i processi
In molte aziende si ripete sempre lo stesso schema: a un certo punto la direzione si rende conto che "qualcosa non funziona più bene". Forse i processi sono diventati troppo lenti, gli errori si stanno accumulando o l'azienda sta perdendo sempre più traccia di cifre, clienti o processi interni. La richiesta di una nuova soluzione software diventa forte, preferibilmente un software ERP moderno e potente che "può fare tutto". Ma spesso è qui che inizia un errore fatale.
Come ho scritto cinque libri in due lingue in quattro mesi
... e perché non si tratta di un miracolo, ma del risultato di una chiara strategia
Per molto tempo, scrivere libri è stato visto come qualcosa di noioso, un progetto solitario che si trascina per mesi o addirittura anni. Ma cosa succederebbe se si abbandonasse questa immagine? E se si ripensasse alla scrittura, con un focus chiaro, processi ben studiati e un uso mirato dell'intelligenza artificiale?
Nel mio nuovo libro "Scrivere libri 2.0 - una guida pratica per gli autori nell'era dell'intelligenza artificiale" Io descrivo esattamente questo percorso. Un percorso che mi ha permesso di scrivere cinque libri in soli quattro mesi, pubblicarli in due lingue e non accettare alcuna perdita di qualità rispetto all'editoria tradizionale.
Scrivere libri 2.0 - Guida pratica per autori nell'era dell'IA
Questo libro non fornisce visioni speculative del futuro, ma una risposta pratica e fondata, tratta dalla vita quotidiana di un autore che scrive con l'IA in prima persona e che volutamente non si concentra sull'automazione, ma sull'autonomia. "Scrivere libri 2.0" si rivolge a tutti coloro che stanno pensando di scrivere il proprio libro - o sono già in procinto di farlo - e si chiedono come strumenti moderni come ChatGPT, generatori di immagini AI o ausili per la traduzione possano essere utilizzati al meglio. L'attenzione non è rivolta a "prodotti AI finiti", ma a un approccio olistico: l'AI come strumento, gli esseri umani come autori.
Ollama incontra Qdrant: una memoria locale per la vostra AI su Mac
IA locale con memoria - senza cloud, senza abbonamento, senza distrazioni
In un articoli precedenti Ho spiegato come configurare l'Ollama sul Mac install. Se avete già completato questo passaggio, ora disponete di un potente modello di lingua locale, come Mistral, LLaMA3 o un altro modello compatibile che può essere indirizzato tramite API REST.
Tuttavia, il modello "sa" solo cosa c'è nel prompt corrente. Non ricorda le conversazioni precedenti. Ciò che manca è la memoria.
IA locale su Mac: come installiere un modello linguistico con Ollama
L'intelligenza artificiale locale su Mac è da tempo pratica, soprattutto sui computer Apple-Silicon (serie M). Con Ollama si ottiene un ambiente di runtime snello per molti modelli linguistici open source (ad esempio Llama 3.1/3.2, Mistral, Gemma, Qwen). L'attuale versione Ollama è dotata di un'applicazione di facile utilizzo che consente di configurare un modello linguistico locale sul Mac con un semplice clic del mouse. In questo articolo troverete una guida pragmatica dall'installazione al primo prompt, con consigli pratici su dove tradizionalmente le cose tendono ad andare storte.
Consigli per la salute (non solo) per gli utenti di FileMaker
Lo sviluppo del software gFM-Business ERP è stato un po' più lento del solito nell'ultimo anno e mezzo perché, in qualità di sviluppatore del software, ho avuto a che fare con alcuni strani sintomi di malattie di cui non era facile trovare la causa. Anche se la medicina convenzionale non è stata di grande aiuto nel mio caso, sono riuscito a trovare le cause e a eliminare i miei problemi con il supporto attivo di alcuni praticanti alternativi e di un dentista olistico. Poiché i risultati di questa ricerca sono così interessanti, ho deciso di scrivere un breve articolo al riguardo, in modo che anche voi lettori possiate trarne beneficio. Qui di seguito troverete i miei consigli preferiti, senza alcun guadagno e senza l'utilizzo di alcun link di riferimento.