Cloud AI als schoolhoofd: waarom de toekomst van werk bij lokale AI ligt

Cloud AI wordt hoofdonderwijzer

Toen de grote taalmodellen een paar jaar geleden aan hun zegetocht begonnen, leken ze bijna een terugkeer naar de oude deugden van technologie: een hulpmiddel dat doet wat het wordt opgedragen. Een hulpmiddel dat de gebruiker dient, niet andersom. De eerste versies - van GPT-3 tot GPT-4 - hadden zwakke punten, dat wel, maar ze waren verbazingwekkend nuttig. Ze legden uit, analyseerden, formuleerden en losten opgaven op. En ze deden dit grotendeels zonder pedagogische ballast.

Je sprak met deze modellen alsof je met een erudiete medewerker sprak, die soms zijn woorden verkeerd gebruikte, maar in wezen gewoon werkte. Iedereen die in die tijd creatieve teksten schreef, programmacode genereerde of langere analyses maakte, ervoer hoe soepel het werkte. Er was een gevoel van vrijheid, van een open creatieve ruimte, van technologie die mensen ondersteunde in plaats van corrigeerde.

Meer lezen

AI Studio 2025: Welke hardware is echt de moeite waard - van de Mac Studio tot de RTX 3090

Hardware 2025 voor AI-studio

Wie vandaag met AI werkt, wordt bijna automatisch in de cloud geduwd: OpenAI, Microsoft, Google, alle web UI's, tokens, limieten, voorwaarden. Dit lijkt modern - maar is in wezen een terugkeer naar afhankelijkheid: anderen bepalen welke modellen je mag gebruiken, hoe vaak, met welke filters en tegen welke kosten. Ik ga bewust de andere kant op: ik bouw momenteel thuis mijn eigen kleine AI-studio. Met mijn eigen hardware, mijn eigen modellen en mijn eigen workflows.

Mijn doel is duidelijk: lokale tekst-AI, lokale beeld-AI, mijn eigen modellen leren (LoRA, fine-tuning) en dat alles op zo'n manier dat ik als freelancer en later ook MKB-klant niet afhankelijk ben van de dagelijkse grillen van een of andere cloudprovider. Je zou kunnen zeggen dat het een terugkeer is naar een oude houding die vroeger heel normaal was: „Belangrijke dingen doe je zelf“. Alleen gaat het deze keer niet om je eigen werkbank, maar om rekenkracht en gegevenssoevereiniteit.

Meer lezen

Onsterfelijkheid door technologie: hoe ver zijn onderzoek en AI nu echt gekomen?

Digitale onsterfelijkheid

Al sinds het bestaan van de mens bestaat, is er een verlangen om het leven te verlengen - of het liefst onbeperkt. In het verleden waren het mythen, religies, alchemisten of mysterieuze rituelen die mensen hoop gaven. Tegenwoordig zitten er geen tovenaars meer over oude perkamenten, maar enkele van de rijkste mensen ter wereld over de allernieuwste biologie en AI-technologie. Op het eerste gezicht klinkt het als sciencefiction: is het mogelijk om het ouder worden te stoppen? Kun je jezelf digitaal „bewaren“? Kun je je gedachten overbrengen naar een machine?

Maar het onderwerp heeft de ivoren toren allang verlaten. Grote tech-miljardairs investeren nu miljarden in projecten die juist deze vragen serieus onderzoeken. Niet omdat ze onsterfelijke goden willen worden, maar omdat ze het zich kunnen veroorloven om de grenzen van het mogelijke te onderzoeken. Dit artikel legt heel eenvoudig uit wat er achter dit idee zit, welke technische ontwikkelingen er nu al zijn, waar de grenzen liggen - en waarom dit onderwerp de komende 20 jaar steeds belangrijker zal worden.

Meer lezen

De nieuwe EU-censuurwetten: Wat Chatcontrol, DSA, EMFA en de AI-wet betekenen

EU-censuurwetten

In een steeds meer gedigitaliseerde wereld brengen we veel tijd online door: We chatten, winkelen, werken en informeren onszelf. Tegelijkertijd veranderen de regels over hoe inhoud wordt gedeeld, gemodereerd of gecontroleerd. De Digital Services Act (DSA), de European Media Freedom Act (EMFA), de geplande verordening ter voorkoming en bestrijding van seksueel misbruik van kinderen (CSAR, vaak „chatcontrole“ genoemd) en de AI-wet zijn belangrijke wetgevingsvoorstellen van de Europese Unie (EU) om de digitale omgeving te reguleren.

Deze regels lijken op het eerste gezicht ver weg - maar ze hebben invloed op zowel jou als particulier als op kleine en middelgrote bedrijven. Dit artikel zal je stap voor stap begeleiden: van de vraag „Wat is hier gepland?“ naar de achtergrond en tijdlijnen naar de verandering van perspectief: Wat betekent dit voor jou in het dagelijks leven?

Meer lezen

Apple MLX vs. NVIDIA: Hoe lokale AI-inferentie werkt op de Mac

Lokale AI op Silicon met Apple Mac

Wie tegenwoordig met kunstmatige intelligentie werkt, denkt vaak als eerste aan ChatGPT of soortgelijke online diensten. Je typt een vraag in, wacht een paar seconden - en krijgt antwoord alsof er een zeer belezen, geduldige gesprekspartner aan de andere kant van de lijn zit. Maar wat wordt gemakkelijk vergeten: Elke input, elke zin, elk woord reist via het internet naar externe servers. Daar wordt het echte werk gedaan - op enorme computers die je zelf nooit te zien krijgt.

In principe werkt een lokaal taalmodel op precies dezelfde manier - maar dan zonder internet. Het model wordt als bestand opgeslagen op de computer van de gebruiker, wordt bij het opstarten in het werkgeheugen geladen en beantwoordt vragen direct op het apparaat. De achterliggende technologie is hetzelfde: een neuraal netwerk dat taal begrijpt, teksten genereert en patronen herkent. Het enige verschil is dat de hele berekening binnenshuis blijft. Je zou kunnen zeggen: ChatGPT zonder de cloud.

Meer lezen

LoRA-training: Hoe FileMaker 2025 het fine-tunen van grote taalmodellen vereenvoudigt

LoRA fijnafstemming - FileMaker 2025

De wereld van kunstmatige intelligentie is in beweging. Bijna elke week duiken er nieuwe modellen, nieuwe methoden en vooral nieuwe mogelijkheden op - en toch blijft één besef constant: niet elke technische innovatie leidt automatisch tot een beter dagelijks leven. Veel dingen blijven experimenteel, complex of gewoon te duur voor productief gebruik. Dit is vooral duidelijk bij de zogenaamde fine-tuning van grote taalmodellen - een methode om generatieve AI te specialiseren naar eigen inhoud, termen en toonaarden.

Ik heb dit proces de afgelopen maanden intensief begeleid - eerst in de klassieke vorm, met Python, terminal, foutmeldingen en zenuwslopende instellussen. En toen: met FileMaker 2025, een stap die me verraste - omdat het niet luid was, maar duidelijk. En omdat het liet zien dat er een andere manier is.

Meer lezen

Hoe AI-specialisten vandaag de dag kunnen worden opgeleid - mogelijkheden voor bedrijven en cursisten

AI-specialist opleiden

Nog maar een paar jaar geleden was kunstmatige intelligentie een onderwerp voor onderzoeksinstellingen en grote bedrijven. Mensen spraken over neurale netwerken, deep learning en spraakherkenning - maar het speelde nauwelijks een rol in het dagelijks leven. Vandaag de dag is AI niet langer een onderwerp voor de toekomst, maar een realiteit: het schrijft teksten, creëert beelden, analyseert gegevens en bestuurt productieprocessen. Of het nu gaat om administratie, handel of industrie - het is nu overal te vinden.

Meer lezen

gFM-Business en de toekomst van ERP: lokale intelligentie in plaats van cloudafhankelijkheid

gFM-Business en AI + kennisgrafiek

Al meer dan tien jaar staat de gFM-Business-software voor iets bijzonders in de Duitse ERP-markt: het is niet gebaseerd op een omslachtig, moeilijk te onderhouden systeem, maar op het lichtgewicht, aanpasbare en visueel gemodelleerde FileMaker-platform. Dit heeft veel voordelen: gFM-Business kan individueel worden uitgebreid, draait op Windows, macOS en iOS en kan worden aangepast door zowel ontwikkelaars als ambitieuze power users.

Met de komst van kunstmatige intelligentie (AI) - met name door zogenaamde taalmodellen zoals ChatGPT - ontstaan er nu nieuwe mogelijkheden die veel verder gaan dan traditionele automatisering. gFM-Business bereidt zich actief voor op deze toekomst: met als doel niet alleen gegevens te beheren, maar ook kennis te ontsluiten.

Meer lezen