Van ChatGPT data-export naar je eigen kennis AI: stap-voor-stap met Ollama en Qdrant

De weg naar je eigen AI-geheugen

In het eerste deel van deze artikelreeks zagen we dat het exporteren van ChatGPT-gegevens veel meer is dan alleen een technische functie. Je geëxporteerde gegevens bevatten een verzameling gedachten, ideeën, analyses en gesprekken die zich over een lange periode hebben verzameld. Maar zolang deze gegevens alleen als een archief op je harde schijf worden opgeslagen, blijft het alleen dat: een archief. De cruciale stap is om deze informatie weer bruikbaar te maken. Dit is precies waar de ontwikkeling van een persoonlijke kennis-AI begint.

Het idee is eigenlijk verrassend eenvoudig: een AI moet niet alleen met algemene kennis werken, maar ook toegang hebben tot je eigen gegevens. Hij moet eerdere gesprekken doorzoeken, geschikte inhoud vinden en deze verwerken in nieuwe antwoorden. Dit verandert een gewone AI in een soort digitaal geheugen. Dit is het tweede deel van de artikelreeks, waarin nu wordt ingegaan op de praktische kant van de zaak.

Meer lezen

ChatGPT data-export uitgelegd: Hoe je AI-chats een persoonlijk kennissysteem worden

ChatGPT-gegevens exporteren

Als je regelmatig met een AI werkt, dan ken je dit waarschijnlijk wel: de ene gedachte leidt tot de volgende. Je stelt een vraag, krijgt een antwoord, herformuleert, werkt een idee verder uit. Een korte vraag verandert plotseling in een langere dialoog. Soms leidt het zelfs tot hele projecten.

Maar de meeste van deze gesprekken verdwijnen weer. Ze liggen ergens in de chatlijst, glijden naar beneden en worden na verloop van tijd vergeten. Dit is nu juist een van de grote bijzonderheden van moderne AI-systemen: Terwijl eerdere gesprekken met collega's, vrienden of adviseurs alleen in ons geheugen bestonden, worden AI-dialogen volledig bewaard.

Dit betekent iets cruciaals: Met elke conversatie wordt er een digitaal archief van je gedachten gecreëerd. Dit is het eerste deel van een kleine serie artikelen waarmee je je chatgeschiedenis kunt exporteren uit ChatGPT en effectief kunt gebruiken als een persoonlijke schatkamer van kennis met je lokale AI-systeem.

Meer lezen

Kunstmatige intelligentie zonder hype: waarom minder AI-tools vaak beter werk betekenen

Kunstmatige intelligentie zonder de hype

Wie zich tegenwoordig bezighoudt met kunstmatige intelligentie, krijgt bijna onvermijdelijk te maken met een vreemd gevoel: constante rusteloosheid. Je bent nog maar net gewend aan de ene tool of de volgende tien duiken alweer op. Op YouTube volgt de ene video op de andere: „Deze AI-tool verandert alles“, „Je moet dit nu absoluut gebruiken“, „Zij die missen blijven achter“. En elke keer weerklinkt dezelfde boodschap: Je bent te laat. De anderen zijn verder. Je moet ze inhalen.

Dit treft niet alleen IT'ers. Ook zelfstandigen, creatieve professionals, ondernemers en gewone werknemers voelen de druk. Velen weten niet eens precies wat deze tools eigenlijk doen - maar ze hebben het gevoel dat ze iets zouden kunnen missen. En dat is precies wat stress veroorzaakt.

Meer lezen

Cloud AI als schoolhoofd: waarom de toekomst van werk bij lokale AI ligt

Cloud AI wordt hoofdonderwijzer

Toen de grote taalmodellen een paar jaar geleden aan hun zegetocht begonnen, leken ze bijna een terugkeer naar de oude deugden van technologie: een hulpmiddel dat doet wat het wordt opgedragen. Een hulpmiddel dat de gebruiker dient, niet andersom. De eerste versies - van GPT-3 tot GPT-4 - hadden zwakke punten, dat wel, maar ze waren verbazingwekkend nuttig. Ze legden uit, analyseerden, formuleerden en losten opgaven op. En ze deden dit grotendeels zonder pedagogische ballast.

Je sprak met deze modellen alsof je met een erudiete medewerker sprak, die soms zijn woorden verkeerd gebruikte, maar in wezen gewoon werkte. Iedereen die in die tijd creatieve teksten schreef, programmacode genereerde of langere analyses maakte, ervoer hoe soepel het werkte. Er was een gevoel van vrijheid, van een open creatieve ruimte, van technologie die mensen ondersteunde in plaats van corrigeerde.

Meer lezen

AI Studio 2025: Welke hardware is echt de moeite waard - van de Mac Studio tot de RTX 3090

Hardware 2025 voor AI-studio

Wie vandaag met AI werkt, wordt bijna automatisch in de cloud geduwd: OpenAI, Microsoft, Google, alle web UI's, tokens, limieten, voorwaarden. Dit lijkt modern - maar is in wezen een terugkeer naar afhankelijkheid: anderen bepalen welke modellen je mag gebruiken, hoe vaak, met welke filters en tegen welke kosten. Ik ga bewust de andere kant op: ik bouw momenteel thuis mijn eigen kleine AI-studio. Met mijn eigen hardware, mijn eigen modellen en mijn eigen workflows.

Mijn doel is duidelijk: lokale tekst-AI, lokale beeld-AI, mijn eigen modellen leren (LoRA, fine-tuning) en dat alles op zo'n manier dat ik als freelancer en later ook MKB-klant niet afhankelijk ben van de dagelijkse grillen van een of andere cloudprovider. Je zou kunnen zeggen dat het een terugkeer is naar een oude houding die vroeger heel normaal was: „Belangrijke dingen doe je zelf“. Alleen gaat het deze keer niet om je eigen werkbank, maar om rekenkracht en gegevenssoevereiniteit.

Meer lezen

Apple MLX vs. NVIDIA: Hoe lokale AI-inferentie werkt op de Mac

Lokale AI op Silicon met Apple Mac

Wie tegenwoordig met kunstmatige intelligentie werkt, denkt vaak als eerste aan ChatGPT of soortgelijke online diensten. Je typt een vraag in, wacht een paar seconden - en krijgt antwoord alsof er een zeer belezen, geduldige gesprekspartner aan de andere kant van de lijn zit. Maar wat wordt gemakkelijk vergeten: Elke input, elke zin, elk woord reist via het internet naar externe servers. Daar wordt het echte werk gedaan - op enorme computers die je zelf nooit te zien krijgt.

In principe werkt een lokaal taalmodel op precies dezelfde manier - maar dan zonder internet. Het model wordt als bestand opgeslagen op de computer van de gebruiker, wordt bij het opstarten in het werkgeheugen geladen en beantwoordt vragen direct op het apparaat. De achterliggende technologie is hetzelfde: een neuraal netwerk dat taal begrijpt, teksten genereert en patronen herkent. Het enige verschil is dat de hele berekening binnenshuis blijft. Je zou kunnen zeggen: ChatGPT zonder de cloud.

Meer lezen

LoRA-training: Hoe FileMaker 2025 het fine-tunen van grote taalmodellen vereenvoudigt

LoRA fijnafstemming - FileMaker 2025

De wereld van kunstmatige intelligentie is in beweging. Bijna elke week duiken er nieuwe modellen, nieuwe methoden en vooral nieuwe mogelijkheden op - en toch blijft één besef constant: niet elke technische innovatie leidt automatisch tot een beter dagelijks leven. Veel dingen blijven experimenteel, complex of gewoon te duur voor productief gebruik. Dit is vooral duidelijk bij de zogenaamde fine-tuning van grote taalmodellen - een methode om generatieve AI te specialiseren naar eigen inhoud, termen en toonaarden.

Ik heb dit proces de afgelopen maanden intensief begeleid - eerst in de klassieke vorm, met Python, terminal, foutmeldingen en zenuwslopende instellussen. En toen: met FileMaker 2025, een stap die me verraste - omdat het niet luid was, maar duidelijk. En omdat het liet zien dat er een andere manier is.

Meer lezen

Kunstmatige intelligentie: welke banen staan op de tocht en hoe kunnen we ons nu wapenen?

Welke banen zullen in de toekomst verdwijnen door AI

Bijna geen enkele andere technologische verandering is zo snel ons dagelijks leven binnengeslopen als kunstmatige intelligentie. Wat gisteren nog werd beschouwd als een visionaire technologie van de toekomst, is nu al realiteit - of het nu gaat om sms'en, programmeren, diagnoses stellen, vertalen of zelfs het creëren van muziek, kunst of juridische stukken.

Meer lezen