Cloud AI als schoolhoofd: waarom de toekomst van werk bij lokale AI ligt

Cloud AI wordt hoofdonderwijzer

Toen de grote taalmodellen een paar jaar geleden aan hun zegetocht begonnen, leken ze bijna een terugkeer naar de oude deugden van technologie: een hulpmiddel dat doet wat het wordt opgedragen. Een hulpmiddel dat de gebruiker dient, niet andersom. De eerste versies - van GPT-3 tot GPT-4 - hadden zwakke punten, dat wel, maar ze waren verbazingwekkend nuttig. Ze legden uit, analyseerden, formuleerden en losten opgaven op. En ze deden dit grotendeels zonder pedagogische ballast.

Je sprak met deze modellen alsof je met een erudiete medewerker sprak, die soms zijn woorden verkeerd gebruikte, maar in wezen gewoon werkte. Iedereen die in die tijd creatieve teksten schreef, programmacode genereerde of langere analyses maakte, ervoer hoe soepel het werkte. Er was een gevoel van vrijheid, van een open creatieve ruimte, van technologie die mensen ondersteunde in plaats van corrigeerde.

Meer lezen

AI Studio 2025: Welke hardware is echt de moeite waard - van de Mac Studio tot de RTX 3090

Hardware 2025 voor AI-studio

Wie vandaag met AI werkt, wordt bijna automatisch in de cloud geduwd: OpenAI, Microsoft, Google, alle web UI's, tokens, limieten, voorwaarden. Dit lijkt modern - maar is in wezen een terugkeer naar afhankelijkheid: anderen bepalen welke modellen je mag gebruiken, hoe vaak, met welke filters en tegen welke kosten. Ik ga bewust de andere kant op: ik bouw momenteel thuis mijn eigen kleine AI-studio. Met mijn eigen hardware, mijn eigen modellen en mijn eigen workflows.

Mijn doel is duidelijk: lokale tekst-AI, lokale beeld-AI, mijn eigen modellen leren (LoRA, fine-tuning) en dat alles op zo'n manier dat ik als freelancer en later ook MKB-klant niet afhankelijk ben van de dagelijkse grillen van een of andere cloudprovider. Je zou kunnen zeggen dat het een terugkeer is naar een oude houding die vroeger heel normaal was: „Belangrijke dingen doe je zelf“. Alleen gaat het deze keer niet om je eigen werkbank, maar om rekenkracht en gegevenssoevereiniteit.

Meer lezen

gFM-Business en de toekomst van ERP: lokale intelligentie in plaats van cloudafhankelijkheid

gFM-Business en AI + kennisgrafiek

Al meer dan tien jaar staat de gFM-Business-software voor iets bijzonders in de Duitse ERP-markt: het is niet gebaseerd op een omslachtig, moeilijk te onderhouden systeem, maar op het lichtgewicht, aanpasbare en visueel gemodelleerde FileMaker-platform. Dit heeft veel voordelen: gFM-Business kan individueel worden uitgebreid, draait op Windows, macOS en iOS en kan worden aangepast door zowel ontwikkelaars als ambitieuze power users.

Met de komst van kunstmatige intelligentie (AI) - met name door zogenaamde taalmodellen zoals ChatGPT - ontstaan er nu nieuwe mogelijkheden die veel verder gaan dan traditionele automatisering. gFM-Business bereidt zich actief voor op deze toekomst: met als doel niet alleen gegevens te beheren, maar ook kennis te ontsluiten.

Meer lezen

Ollama ontmoet Qdrant: Een lokaal geheugen voor je AI op de Mac

Geheugen voor lokale AI met Ollama en Qdrant

Lokale AI met geheugen - zonder cloud, zonder abonnement, zonder omleidingen

In een vorige artikelen Ik heb uitgelegd hoe je Ollama configureert op de Mac install. Als je deze stap al hebt voltooid, heb je nu een krachtig lokaal taalmodel - zoals Mistral, LLaMA3 of een ander compatibel model dat via REST API kan worden aangesproken.

Het model "weet" echter alleen wat er in de huidige prompt staat. Het herinnert zich geen eerdere gesprekken. Wat ontbreekt is een herinnering.

Meer lezen