Apple MLX vs. NVIDIA: Hoe lokale AI-inferentie werkt op de Mac

Lokale AI op Silicon met Apple Mac

Wie tegenwoordig met kunstmatige intelligentie werkt, denkt vaak als eerste aan ChatGPT of soortgelijke online diensten. Je typt een vraag in, wacht een paar seconden - en krijgt antwoord alsof er een zeer belezen, geduldige gesprekspartner aan de andere kant van de lijn zit. Maar wat wordt gemakkelijk vergeten: Elke input, elke zin, elk woord reist via het internet naar externe servers. Daar wordt het echte werk gedaan - op enorme computers die je zelf nooit te zien krijgt.

In principe werkt een lokaal taalmodel op precies dezelfde manier - maar dan zonder internet. Het model wordt als bestand opgeslagen op de computer van de gebruiker, wordt bij het opstarten in het werkgeheugen geladen en beantwoordt vragen direct op het apparaat. De achterliggende technologie is hetzelfde: een neuraal netwerk dat taal begrijpt, teksten genereert en patronen herkent. Het enige verschil is dat de hele berekening binnenshuis blijft. Je zou kunnen zeggen: ChatGPT zonder de cloud.

Meer lezen

Kunstmatige intelligentie: welke banen staan op de tocht en hoe kunnen we ons nu wapenen?

Welke banen zullen in de toekomst verdwijnen door AI

Bijna geen enkele andere technologische verandering is zo snel ons dagelijks leven binnengeslopen als kunstmatige intelligentie. Wat gisteren nog werd beschouwd als een visionaire technologie van de toekomst, is nu al realiteit - of het nu gaat om sms'en, programmeren, diagnoses stellen, vertalen of zelfs het creëren van muziek, kunst of juridische stukken.

Meer lezen

MLX op Apple Silicon als lokale AI in vergelijking met Ollama & Co.

Lokale AI op de Mac met MLX

In een tijd waarin gecentraliseerde AI-diensten zoals ChatGPT, Claude of Gemini de krantenkoppen domineren, hebben veel professionele gebruikers een groeiende behoefte aan een alternatief - een lokale, zelfcontroleerbare AI-infrastructuur. Vooral voor creatieve processen, gevoelige gegevens of terugkerende workflows is een lokale oplossing vaak de duurzamere en veiligere optie.

Iedereen die met een Mac werkt - vooral met Apple Silicon (M1, M2, M3 of M4) - kan nu verbazingwekkend krachtige tools vinden om hun eigen taalmodellen rechtstreeks op het apparaat uit te voeren. Centraal hierin staat een nieuwe, grotendeels onbekende component: MLX, een machine learning framework ontwikkeld door Apple dat de komende jaren waarschijnlijk een steeds centralere rol zal spelen in het AI-ecosysteem van het bedrijf.

Meer lezen

RAG met Ollama en Qdrant als universele zoekmachine voor eigen gegevens

Lokale AI uitbreiden met databases met RAG, Ollama en Qdrant

In een steeds onoverzichtelijker wordende wereld van informatie wordt het steeds belangrijker om je eigen databases gericht doorzoekbaar te maken - niet via klassieke full-text zoekopdrachten, maar via semantisch relevante antwoorden. Dit is precies waar het principe van de RAG database om de hoek komt kijken - een AI-ondersteunde zoekoplossing die bestaat uit twee centrale componenten:

Meer lezen

Ollama ontmoet Qdrant: Een lokaal geheugen voor je AI op de Mac

Geheugen voor lokale AI met Ollama en Qdrant

Lokale AI met geheugen - zonder cloud, zonder abonnement, zonder omleidingen

In een vorige artikelen Ik heb uitgelegd hoe je Ollama configureert op de Mac install. Als je deze stap al hebt voltooid, heb je nu een krachtig lokaal taalmodel - zoals Mistral, LLaMA3 of een ander compatibel model dat via REST API kan worden aangesproken.

Het model "weet" echter alleen wat er in de huidige prompt staat. Het herinnert zich geen eerdere gesprekken. Wat ontbreekt is een herinnering.

Meer lezen

Lokale AI op de Mac: Hoe installiere een taalmodel met Ollama

Lokale AI op de Mac is al lang praktisch - vooral op Apple-Silicon computers (M-serie). Met Ollama krijg je een slanke runtime-omgeving voor veel open source taalmodellen (bijv. Llama 3.1/3.2, Mistral, Gemma, Qwen). De huidige Ollama versie komt nu ook met een gebruiksvriendelijke app waarmee je met een muisklik een lokaal taalmodel op je Mac kunt instellen. In dit artikel vind je een pragmatische gids van installatie tot de eerste prompt - met praktische tips over waar het traditioneel vaak misgaat.

Meer lezen