Cloud AI als schoolhoofd: waarom de toekomst van werk bij lokale AI ligt

Cloud AI wordt hoofdonderwijzer

Toen de grote taalmodellen een paar jaar geleden aan hun zegetocht begonnen, leken ze bijna een terugkeer naar de oude deugden van technologie: een hulpmiddel dat doet wat het wordt opgedragen. Een hulpmiddel dat de gebruiker dient, niet andersom. De eerste versies - van GPT-3 tot GPT-4 - hadden zwakke punten, dat wel, maar ze waren verbazingwekkend nuttig. Ze legden uit, analyseerden, formuleerden en losten opgaven op. En ze deden dit grotendeels zonder pedagogische ballast.

Je sprak met deze modellen alsof je met een erudiete medewerker sprak, die soms zijn woorden verkeerd gebruikte, maar in wezen gewoon werkte. Iedereen die in die tijd creatieve teksten schreef, programmacode genereerde of langere analyses maakte, ervoer hoe soepel het werkte. Er was een gevoel van vrijheid, van een open creatieve ruimte, van technologie die mensen ondersteunde in plaats van corrigeerde.

Meer lezen

AI Studio 2025: Welke hardware is echt de moeite waard - van de Mac Studio tot de RTX 3090

Hardware 2025 voor AI-studio

Wie vandaag met AI werkt, wordt bijna automatisch in de cloud geduwd: OpenAI, Microsoft, Google, alle web UI's, tokens, limieten, voorwaarden. Dit lijkt modern - maar is in wezen een terugkeer naar afhankelijkheid: anderen bepalen welke modellen je mag gebruiken, hoe vaak, met welke filters en tegen welke kosten. Ik ga bewust de andere kant op: ik bouw momenteel thuis mijn eigen kleine AI-studio. Met mijn eigen hardware, mijn eigen modellen en mijn eigen workflows.

Mijn doel is duidelijk: lokale tekst-AI, lokale beeld-AI, mijn eigen modellen leren (LoRA, fine-tuning) en dat alles op zo'n manier dat ik als freelancer en later ook MKB-klant niet afhankelijk ben van de dagelijkse grillen van een of andere cloudprovider. Je zou kunnen zeggen dat het een terugkeer is naar een oude houding die vroeger heel normaal was: „Belangrijke dingen doe je zelf“. Alleen gaat het deze keer niet om je eigen werkbank, maar om rekenkracht en gegevenssoevereiniteit.

Meer lezen

Apple MLX vs. NVIDIA: Hoe lokale AI-inferentie werkt op de Mac

Lokale AI op Silicon met Apple Mac

Wie tegenwoordig met kunstmatige intelligentie werkt, denkt vaak als eerste aan ChatGPT of soortgelijke online diensten. Je typt een vraag in, wacht een paar seconden - en krijgt antwoord alsof er een zeer belezen, geduldige gesprekspartner aan de andere kant van de lijn zit. Maar wat wordt gemakkelijk vergeten: Elke input, elke zin, elk woord reist via het internet naar externe servers. Daar wordt het echte werk gedaan - op enorme computers die je zelf nooit te zien krijgt.

In principe werkt een lokaal taalmodel op precies dezelfde manier - maar dan zonder internet. Het model wordt als bestand opgeslagen op de computer van de gebruiker, wordt bij het opstarten in het werkgeheugen geladen en beantwoordt vragen direct op het apparaat. De achterliggende technologie is hetzelfde: een neuraal netwerk dat taal begrijpt, teksten genereert en patronen herkent. Het enige verschil is dat de hele berekening binnenshuis blijft. Je zou kunnen zeggen: ChatGPT zonder de cloud.

Meer lezen

LoRA-training: Hoe FileMaker 2025 het fine-tunen van grote taalmodellen vereenvoudigt

LoRA fijnafstemming - FileMaker 2025

De wereld van kunstmatige intelligentie is in beweging. Bijna elke week duiken er nieuwe modellen, nieuwe methoden en vooral nieuwe mogelijkheden op - en toch blijft één besef constant: niet elke technische innovatie leidt automatisch tot een beter dagelijks leven. Veel dingen blijven experimenteel, complex of gewoon te duur voor productief gebruik. Dit is vooral duidelijk bij de zogenaamde fine-tuning van grote taalmodellen - een methode om generatieve AI te specialiseren naar eigen inhoud, termen en toonaarden.

Ik heb dit proces de afgelopen maanden intensief begeleid - eerst in de klassieke vorm, met Python, terminal, foutmeldingen en zenuwslopende instellussen. En toen: met FileMaker 2025, een stap die me verraste - omdat het niet luid was, maar duidelijk. En omdat het liet zien dat er een andere manier is.

Meer lezen

Kunstmatige intelligentie: welke banen staan op de tocht en hoe kunnen we ons nu wapenen?

Welke banen zullen in de toekomst verdwijnen door AI

Bijna geen enkele andere technologische verandering is zo snel ons dagelijks leven binnengeslopen als kunstmatige intelligentie. Wat gisteren nog werd beschouwd als een visionaire technologie van de toekomst, is nu al realiteit - of het nu gaat om sms'en, programmeren, diagnoses stellen, vertalen of zelfs het creëren van muziek, kunst of juridische stukken.

Meer lezen

Integratie van MLX in FileMaker 2025: lokale AI als nieuwe standaard

Lokale AI met MLX en FileMaker

Hoewel MLX oorspronkelijk werd gelanceerd als een experimenteel framework door Apple Research, heeft er de afgelopen maanden een stille maar belangrijke ontwikkeling plaatsgevonden: Met de release van FileMaker 2025 heeft Claris MLX stevig geïntegreerd in de server als een native AI-infrastructuur voor Apple Silicon. Dit betekent dat iedereen die met een Mac werkt en Apple Silicon gebruikt, MLX-modellen niet alleen lokaal kan uitvoeren, maar ze ook direct in FileMaker kan gebruiken - met native functies, zonder tussenlagen.

Meer lezen

MLX op Apple Silicon als lokale AI in vergelijking met Ollama & Co.

Lokale AI op de Mac met MLX

In een tijd waarin gecentraliseerde AI-diensten zoals ChatGPT, Claude of Gemini de krantenkoppen domineren, hebben veel professionele gebruikers een groeiende behoefte aan een alternatief - een lokale, zelfcontroleerbare AI-infrastructuur. Vooral voor creatieve processen, gevoelige gegevens of terugkerende workflows is een lokale oplossing vaak de duurzamere en veiligere optie.

Iedereen die met een Mac werkt - vooral met Apple Silicon (M1, M2, M3 of M4) - kan nu verbazingwekkend krachtige tools vinden om hun eigen taalmodellen rechtstreeks op het apparaat uit te voeren. Centraal hierin staat een nieuwe, grotendeels onbekende component: MLX, een machine learning framework ontwikkeld door Apple dat de komende jaren waarschijnlijk een steeds centralere rol zal spelen in het AI-ecosysteem van het bedrijf.

Meer lezen