Bereik is geen eigendom - Waarom zichtbaarheid vandaag de dag niet meer genoeg is

Bereik vs. eigendom

Ruim tien jaar geleden zag ik toevallig een lezing over de overgang van de informatiemaatschappij naar de kennismaatschappij. Veel klonk toen nog theoretisch, bijna academisch. Het ging over concepten als gegevenssoevereiniteit, eigendom van informatie en de vraag wie in de toekomst zal bepalen wat toegankelijk is - en wat niet. Vandaag, met een beetje afstand, lijkt deze lezing verrassend precies. Veel van wat toen als een ontwikkeling werd beschreven, is nu immers werkelijkheid geworden. Steeds meer gegevens zijn naar de cloud gemigreerd. Steeds meer informatie wordt niet langer opgeslagen op interne systemen, maar op externe infrastructuren. En steeds vaker bepaalt niet langer de gebruiker, maar een provider, een platform of een set regels wat er mogelijk is.

Om deze ontwikkeling te begrijpen, is het de moeite waard om een stap terug te doen. De informatiemaatschappij waarin velen van ons zijn opgegroeid was geen normale toestand. Het was een historische uitzondering.

Meer lezen

Apple MLX vs. NVIDIA: Hoe lokale AI-inferentie werkt op de Mac

Lokale AI op Silicon met Apple Mac

Wie tegenwoordig met kunstmatige intelligentie werkt, denkt vaak als eerste aan ChatGPT of soortgelijke online diensten. Je typt een vraag in, wacht een paar seconden - en krijgt antwoord alsof er een zeer belezen, geduldige gesprekspartner aan de andere kant van de lijn zit. Maar wat wordt gemakkelijk vergeten: Elke input, elke zin, elk woord reist via het internet naar externe servers. Daar wordt het echte werk gedaan - op enorme computers die je zelf nooit te zien krijgt.

In principe werkt een lokaal taalmodel op precies dezelfde manier - maar dan zonder internet. Het model wordt als bestand opgeslagen op de computer van de gebruiker, wordt bij het opstarten in het werkgeheugen geladen en beantwoordt vragen direct op het apparaat. De achterliggende technologie is hetzelfde: een neuraal netwerk dat taal begrijpt, teksten genereert en patronen herkent. Het enige verschil is dat de hele berekening binnenshuis blijft. Je zou kunnen zeggen: ChatGPT zonder de cloud.

Meer lezen

LoRA-training: Hoe FileMaker 2025 het fine-tunen van grote taalmodellen vereenvoudigt

LoRA fijnafstemming - FileMaker 2025

De wereld van kunstmatige intelligentie is in beweging. Bijna elke week duiken er nieuwe modellen, nieuwe methoden en vooral nieuwe mogelijkheden op - en toch blijft één besef constant: niet elke technische innovatie leidt automatisch tot een beter dagelijks leven. Veel dingen blijven experimenteel, complex of gewoon te duur voor productief gebruik. Dit is vooral duidelijk bij de zogenaamde fine-tuning van grote taalmodellen - een methode om generatieve AI te specialiseren naar eigen inhoud, termen en toonaarden.

Ik heb dit proces de afgelopen maanden intensief begeleid - eerst in de klassieke vorm, met Python, terminal, foutmeldingen en zenuwslopende instellussen. En toen: met FileMaker 2025, een stap die me verraste - omdat het niet luid was, maar duidelijk. En omdat het liet zien dat er een andere manier is.

Meer lezen

Elektronische facturen voor KMO's: XRechnung, ZUGFeRD en ERP in één oogopslag

Overzicht van de verplichting om elektronische facturen uit te reiken

Duitsland heeft de e-factuur niet van de ene op de andere dag uitgevonden - het is het resultaat van jarenlang standaardiseringswerk (EN 16931), federale en staatsverordeningen (B2G) en nu, via de Wet op de Groeikansen, de geleidelijke uitbreiding naar het dagelijkse B2B-leven. Sinds 1 januari 2025 is er een nieuwe juridische situatie van toepassing: een "elektronische factuur" is alleen een e-factuur als deze gestructureerd en machinaal leesbaar is - pure PDF-bijlagen per e-mail zijn niet langer een e-factuur volgens de definitie. Dit klinkt technisch, maar heeft operationele gevolgen van factuurontvangst tot boekhouding en archivering.

Meer lezen

Digitale afhankelijkheid: hoe we onze zelfbeschikking zijn kwijtgeraakt aan de cloud

Digitale afhankelijkheid met cloudsystemen

Ik heb het altijd een vergissing gevonden als mensen hun gegevens uit handen geven - of dat nu in de cloud is, via apps of met welke "gratis" dienst dan ook. Voor mij is gegevenssoevereiniteit nooit een modewoord geweest, maar een kwestie van zelfrespect. Iedereen die technologie gebruikt zonder na te denken over de gevolgen, gaat een afhankelijkheid aan die vaak pas jaren later merkbaar wordt - maar dan een nog diepere impact heeft.

Meer lezen

gFM-Business en de toekomst van ERP: lokale intelligentie in plaats van cloudafhankelijkheid

gFM-Business en AI + kennisgrafiek

Al meer dan tien jaar staat de gFM-Business-software voor iets bijzonders in de Duitse ERP-markt: het is niet gebaseerd op een omslachtig, moeilijk te onderhouden systeem, maar op het lichtgewicht, aanpasbare en visueel gemodelleerde FileMaker-platform. Dit heeft veel voordelen: gFM-Business kan individueel worden uitgebreid, draait op Windows, macOS en iOS en kan worden aangepast door zowel ontwikkelaars als ambitieuze power users.

Met de komst van kunstmatige intelligentie (AI) - met name door zogenaamde taalmodellen zoals ChatGPT - ontstaan er nu nieuwe mogelijkheden die veel verder gaan dan traditionele automatisering. gFM-Business bereidt zich actief voor op deze toekomst: met als doel niet alleen gegevens te beheren, maar ook kennis te ontsluiten.

Meer lezen

FileMaker Conferentie 2025: AI, gemeenschap en een onverwacht incident

FileMaker Conferentie 2025: Brandalarm met brandweer

De FileMaker Conference 2025 in Hamburg is voorbij - en het was een bijzondere mijlpaal in vele opzichten. Niet alleen omdat de conferentie zich dit jaar concentreerde op veel onderwerpen met betrekking tot kunstmatige intelligentie, prestaties en moderne workflows - maar ook omdat de persoonlijke uitwisseling en de "familiesfeer" van de FileMaker-community opnieuw tot zijn recht kwam. Voor mij persoonlijk was het een intensieve, inspirerende en allround verrijkende tijd - vanaf de allereerste avond.

Meer lezen

Integratie van MLX in FileMaker 2025: lokale AI als nieuwe standaard

Lokale AI met MLX en FileMaker

Hoewel MLX oorspronkelijk werd gelanceerd als een experimenteel framework door Apple Research, heeft er de afgelopen maanden een stille maar belangrijke ontwikkeling plaatsgevonden: Met de release van FileMaker 2025 heeft Claris MLX stevig geïntegreerd in de server als een native AI-infrastructuur voor Apple Silicon. Dit betekent dat iedereen die met een Mac werkt en Apple Silicon gebruikt, MLX-modellen niet alleen lokaal kan uitvoeren, maar ze ook direct in FileMaker kan gebruiken - met native functies, zonder tussenlagen.

Meer lezen