Integrazione di MLX in FileMaker 2025: AI locale come nuovo standard

AI locale con MLX e FileMaker

Mentre MLX è stato originariamente lanciato come framework sperimentale da Apple Research, negli ultimi mesi si è verificato uno sviluppo silenzioso ma significativo: Con il rilascio di FileMaker 2025, Claris ha integrato stabilmente MLX nel server come infrastruttura AI nativa per Apple Silicon. Ciò significa che chiunque lavori con un Mac e utilizzi Apple Silicon può non solo eseguire i modelli MLX localmente, ma anche utilizzarli direttamente in FileMaker - con funzioni native, senza alcun livello intermedio.

Leggi tutto

RAG con Ollama e Qdrant come motore di ricerca universale per i dati propri

Estendere l'IA locale con i database utilizzando RAG, Ollama e Qdrant

In un mondo di informazioni sempre più confuso, diventa sempre più importante rendere i propri database ricercabili in modo mirato, non attraverso le classiche ricerche full-text, ma attraverso risposte semanticamente rilevanti. È proprio qui che entra in gioco il principio del database RAG, una soluzione di ricerca supportata dall'intelligenza artificiale e composta da due componenti centrali:

Leggi tutto

Ollama incontra Qdrant: una memoria locale per la vostra AI su Mac

Memoria per AI locale con Ollama e Qdrant

IA locale con memoria - senza cloud, senza abbonamento, senza distrazioni

In un articoli precedenti Ho spiegato come configurare l'Ollama sul Mac install. Se avete già completato questo passaggio, ora disponete di un potente modello di lingua locale, come Mistral, LLaMA3 o un altro modello compatibile che può essere indirizzato tramite API REST.

Tuttavia, il modello "sa" solo cosa c'è nel prompt corrente. Non ricorda le conversazioni precedenti. Ciò che manca è la memoria.

Leggi tutto