LoRA-training: Hoe FileMaker 2025 het fine-tunen van grote taalmodellen vereenvoudigt

LoRA fijnafstemming - FileMaker 2025

De wereld van kunstmatige intelligentie is in beweging. Bijna elke week duiken er nieuwe modellen, nieuwe methoden en vooral nieuwe mogelijkheden op - en toch blijft één besef constant: niet elke technische innovatie leidt automatisch tot een beter dagelijks leven. Veel dingen blijven experimenteel, complex of gewoon te duur voor productief gebruik. Dit is vooral duidelijk bij de zogenaamde fine-tuning van grote taalmodellen - een methode om generatieve AI te specialiseren naar eigen inhoud, termen en toonaarden.

Ik heb dit proces de afgelopen maanden intensief begeleid - eerst in de klassieke vorm, met Python, terminal, foutmeldingen en zenuwslopende instellussen. En toen: met FileMaker 2025, een stap die me verraste - omdat het niet luid was, maar duidelijk. En omdat het liet zien dat er een andere manier is.

Meer lezen

Hoe AI-specialisten vandaag de dag kunnen worden opgeleid - mogelijkheden voor bedrijven en cursisten

AI-specialist opleiden

Nog maar een paar jaar geleden was kunstmatige intelligentie een onderwerp voor onderzoeksinstellingen en grote bedrijven. Mensen spraken over neurale netwerken, deep learning en spraakherkenning - maar het speelde nauwelijks een rol in het dagelijks leven. Vandaag de dag is AI niet langer een onderwerp voor de toekomst, maar een realiteit: het schrijft teksten, creëert beelden, analyseert gegevens en bestuurt productieprocessen. Of het nu gaat om administratie, handel of industrie - het is nu overal te vinden.

Meer lezen

Digitale afhankelijkheid: hoe we onze zelfbeschikking zijn kwijtgeraakt aan de cloud

Digitale afhankelijkheid met cloudsystemen

Ik heb het altijd een vergissing gevonden als mensen hun gegevens uit handen geven - of dat nu in de cloud is, via apps of met welke "gratis" dienst dan ook. Voor mij is gegevenssoevereiniteit nooit een modewoord geweest, maar een kwestie van zelfrespect. Iedereen die technologie gebruikt zonder na te denken over de gevolgen, gaat een afhankelijkheid aan die vaak pas jaren later merkbaar wordt - maar dan een nog diepere impact heeft.

Meer lezen

gFM-Business en de toekomst van ERP: lokale intelligentie in plaats van cloudafhankelijkheid

gFM-Business en AI + kennisgrafiek

Al meer dan tien jaar staat de gFM-Business-software voor iets bijzonders in de Duitse ERP-markt: het is niet gebaseerd op een omslachtig, moeilijk te onderhouden systeem, maar op het lichtgewicht, aanpasbare en visueel gemodelleerde FileMaker-platform. Dit heeft veel voordelen: gFM-Business kan individueel worden uitgebreid, draait op Windows, macOS en iOS en kan worden aangepast door zowel ontwikkelaars als ambitieuze power users.

Met de komst van kunstmatige intelligentie (AI) - met name door zogenaamde taalmodellen zoals ChatGPT - ontstaan er nu nieuwe mogelijkheden die veel verder gaan dan traditionele automatisering. gFM-Business bereidt zich actief voor op deze toekomst: met als doel niet alleen gegevens te beheren, maar ook kennis te ontsluiten.

Meer lezen

Kunstmatige intelligentie: welke banen staan op de tocht en hoe kunnen we ons nu wapenen?

Welke banen zullen in de toekomst verdwijnen door AI

Bijna geen enkele andere technologische verandering is zo snel ons dagelijks leven binnengeslopen als kunstmatige intelligentie. Wat gisteren nog werd beschouwd als een visionaire technologie van de toekomst, is nu al realiteit - of het nu gaat om sms'en, programmeren, diagnoses stellen, vertalen of zelfs het creëren van muziek, kunst of juridische stukken.

Meer lezen

Integratie van MLX in FileMaker 2025: lokale AI als nieuwe standaard

Lokale AI met MLX en FileMaker

Hoewel MLX oorspronkelijk werd gelanceerd als een experimenteel framework door Apple Research, heeft er de afgelopen maanden een stille maar belangrijke ontwikkeling plaatsgevonden: Met de release van FileMaker 2025 heeft Claris MLX stevig geïntegreerd in de server als een native AI-infrastructuur voor Apple Silicon. Dit betekent dat iedereen die met een Mac werkt en Apple Silicon gebruikt, MLX-modellen niet alleen lokaal kan uitvoeren, maar ze ook direct in FileMaker kan gebruiken - met native functies, zonder tussenlagen.

Meer lezen

MLX op Apple Silicon als lokale AI in vergelijking met Ollama & Co.

Lokale AI op de Mac met MLX

In een tijd waarin gecentraliseerde AI-diensten zoals ChatGPT, Claude of Gemini de krantenkoppen domineren, hebben veel professionele gebruikers een groeiende behoefte aan een alternatief - een lokale, zelfcontroleerbare AI-infrastructuur. Vooral voor creatieve processen, gevoelige gegevens of terugkerende workflows is een lokale oplossing vaak de duurzamere en veiligere optie.

Iedereen die met een Mac werkt - vooral met Apple Silicon (M1, M2, M3 of M4) - kan nu verbazingwekkend krachtige tools vinden om hun eigen taalmodellen rechtstreeks op het apparaat uit te voeren. Centraal hierin staat een nieuwe, grotendeels onbekende component: MLX, een machine learning framework ontwikkeld door Apple dat de komende jaren waarschijnlijk een steeds centralere rol zal spelen in het AI-ecosysteem van het bedrijf.

Meer lezen

RAG met Ollama en Qdrant als universele zoekmachine voor eigen gegevens

Lokale AI uitbreiden met databases met RAG, Ollama en Qdrant

In een steeds onoverzichtelijker wordende wereld van informatie wordt het steeds belangrijker om je eigen databases gericht doorzoekbaar te maken - niet via klassieke full-text zoekopdrachten, maar via semantisch relevante antwoorden. Dit is precies waar het principe van de RAG database om de hoek komt kijken - een AI-ondersteunde zoekoplossing die bestaat uit twee centrale componenten:

Meer lezen