{"id":3887,"date":"2025-12-10T07:22:17","date_gmt":"2025-12-10T07:22:17","guid":{"rendered":"https:\/\/www.markus-schall.de\/?p=3887"},"modified":"2026-04-22T16:19:38","modified_gmt":"2026-04-22T16:19:38","slug":"cloud-ki-als-topdocent-waarom-de-toekomst-van-werk-bij-lokale-ki-ligt","status":"publish","type":"post","link":"https:\/\/www.markus-schall.de\/nl\/2025\/12\/cloud-ki-als-topdocent-waarom-de-toekomst-van-werk-bij-lokale-ki-ligt\/","title":{"rendered":"Cloud AI als schoolhoofd: waarom de toekomst van werk bij lokale AI ligt"},"content":{"rendered":"<p>Toen de grote taalmodellen een paar jaar geleden aan hun zegetocht begonnen, leken ze bijna een terugkeer naar de oude deugden van technologie: een hulpmiddel dat doet wat het wordt opgedragen. Een hulpmiddel dat de gebruiker dient, niet andersom. De eerste versies - van GPT-3 tot GPT-4 - hadden zwakke punten, dat wel, maar ze waren verbazingwekkend nuttig. Ze legden uit, analyseerden, formuleerden en losten opgaven op. En ze deden dit grotendeels zonder pedagogische ballast.<\/p>\n<p>Je sprak met deze modellen alsof je met een erudiete medewerker sprak, die soms zijn woorden verkeerd gebruikte, maar in wezen gewoon werkte. Iedereen die in die tijd creatieve teksten schreef, programmacode genereerde of langere analyses maakte, ervoer hoe soepel het werkte. Er was een gevoel van vrijheid, van een open creatieve ruimte, van technologie die mensen ondersteunde in plaats van corrigeerde.<!--more--><\/p>\n<p>Op dat moment kon nog worden voorzien dat deze hulpmiddelen de komende decennia vorm zouden geven - niet door paternalisme, maar door expertise. Maar zoals zo vaak het geval is in de geschiedenis van de technologie, verliep ook deze fase niet zonder veranderingen.<\/p>\n<hr \/>\n\n\t\t\t<div class=\"display-post-types\">\n\n\t\t\t\t\t\t\t<style type=\"text\/css\">\n\t\t\t#dpt-wrapper-863 { --dpt-text-align: left;--dpt-image-crop: center;--dpt-border-radius: 5px;--dpt-h-gutter: 10px;--dpt-v-gutter: 9px; }\t\t\t<\/style>\n\t\t\t<style type=\"text\/css\">#dpt-wrapper-863 { --dpt-title-font-style:normal;--dpt-title-font-weight:600;--dpt-title-line-height:1.5;--dpt-title-text-decoration:none;--dpt-title-text-transform:none;--dpt-excerpt-font-style:normal;--dpt-excerpt-font-weight:400;--dpt-excerpt-line-height:1.5;--dpt-excerpt-text-decoration:none;--dpt-excerpt-text-transform:none;--dpt-meta1-font-style:normal;--dpt-meta1-font-weight:400;--dpt-meta1-line-height:1.9;--dpt-meta1-text-decoration:none;--dpt-meta1-text-transform:none;--dpt-meta2-font-style:normal;--dpt-meta2-font-weight:400;--dpt-meta2-line-height:1.9;--dpt-meta2-text-decoration:none;--dpt-meta2-text-transform:none; }<\/style><div class=\"dpt-main-header\">\n\t\t\t\t\t\t<div class=\"dpt-main-title\">\n\t\t\t\t\t\t\t<span class=\"dpt-main-title-text\">Huidige artikelen over kunstmatige intelligentie<\/span>\n\t\t\t\t\t\t<\/div>\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t<\/div>\t\t\t\n\t\t\t\t<div id=\"dpt-wrapper-863\" class=\"dpt-wrapper dpt-mag1 land1 dpt-cropped dpt-flex-wrap\" >\n\n\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"wie tiere zeit wahrnehmen \u2013 und was das f\u00fcr die zukunft der ki bedeutet\" data-id=\"4918\"  data-category=\"allgemein gesellschaft ki-systeme\" data-post_tag=\"denkmodelle erfahrungen k\u00fcnstliche intelligenz llm portrait prozesse sprachmodell\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/nl\/2026\/02\/hoe-dieren-tijd-waarnemen-en-wat-dit-betekent-voor-de-toekomst-van-ki\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Hoe dieren tijd waarnemen - en wat dit betekent voor de toekomst van AI<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Dieren, AI en tijdwaarneming\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Tiere-KI-Zeitwahrnehmung.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Tiere-KI-Zeitwahrnehmung.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Tiere-KI-Zeitwahrnehmung-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Tiere-KI-Zeitwahrnehmung-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Tiere-KI-Zeitwahrnehmung-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/nl\/2026\/02\/hoe-dieren-tijd-waarnemen-en-wat-dit-betekent-voor-de-toekomst-van-ki\/\" rel=\"bookmark\">Hoe dieren tijd waarnemen - en wat dit betekent voor de toekomst van AI<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"lokale ki auf dem mac: so installieren sie ein sprachmodell mit ollama\" data-id=\"2442\"  data-category=\"ki-systeme tipps &amp; anleitungen\" data-post_tag=\"datenschutz k\u00fcnstliche intelligenz llama llm mac mistral ollama sprachmodell\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/nl\/2025\/08\/lokale-ki-op-de-mac-als-volgt-1tp12een-taalmodel-maken-met-ollama\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Lokale AI op de Mac: Hoe installiere een taalmodel met Ollama<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Lokale AI installieren met Ollama op de Mac\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Lokale-KI-auf-Apple-Mac.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Lokale-KI-auf-Apple-Mac.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Lokale-KI-auf-Apple-Mac-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Lokale-KI-auf-Apple-Mac-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Lokale-KI-auf-Apple-Mac-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/nl\/2025\/08\/lokale-ki-op-de-mac-als-volgt-1tp12een-taalmodel-maken-met-ollama\/\" rel=\"bookmark\">Lokale AI op de Mac: Hoe installiere een taalmodel met Ollama<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"ki-studio 2025: welche hardware wirklich lohnt \u2013 vom mac studio bis zur rtx 3090\" data-id=\"3704\"  data-category=\"apple macos featured hardware ki-systeme\" data-post_tag=\"apple digitales eigentum k\u00fcnstliche intelligenz llm mlx neo4j sprachmodell\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/nl\/2025\/11\/ki-studio-2025-welke-hardware-is-echt-de-moeite-waard-van-mac-studio-naar-rtx-3090\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">AI Studio 2025: Welke hardware is echt de moeite waard - van de Mac Studio tot de RTX 3090<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Hardware 2025 voor AI-studio\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/KI-Studio-Hardware-2025.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/KI-Studio-Hardware-2025.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/KI-Studio-Hardware-2025-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/KI-Studio-Hardware-2025-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/KI-Studio-Hardware-2025-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/nl\/2025\/11\/ki-studio-2025-welke-hardware-is-echt-de-moeite-waard-van-mac-studio-naar-rtx-3090\/\" rel=\"bookmark\">AI Studio 2025: Welke hardware is echt de moeite waard - van de Mac Studio tot de RTX 3090<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"mlx auf apple silicon als lokale ki im vergleich mit ollama &#038; co.\" data-id=\"2857\"  data-category=\"apple macos ki-systeme\" data-post_tag=\"datenschutz k\u00fcnstliche intelligenz llama llm mistral mlx ollama sprachmodell\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/nl\/2025\/09\/mlx-op-apple-silicon-als-lokale-ki-vergeleken-met-ollama-co\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">MLX op Apple Silicon als lokale AI in vergelijking met Ollama &amp; Co.<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"576\" class=\"attachment-full size-full\" alt=\"Lokale AI op de Mac met MLX\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/mlx-lokale-ki-apple-silicon.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/mlx-lokale-ki-apple-silicon.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/mlx-lokale-ki-apple-silicon-300x169.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/mlx-lokale-ki-apple-silicon-768x432.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/mlx-lokale-ki-apple-silicon-18x10.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/nl\/2025\/09\/mlx-op-apple-silicon-als-lokale-ki-vergeleken-met-ollama-co\/\" rel=\"bookmark\">MLX op Apple Silicon als lokale AI in vergelijking met Ollama &amp; Co.<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\n\t\t\t\t<\/div>\n\t\t\t\t\t\t<\/div>\n\t\t\t\n<hr \/>\n<h2>Laatste nieuws over AI in de cloud en beperkingen<\/h2>\n<p><strong>10.02.2026<\/strong>: Een nieuw artikel over Reitschuster <a href=\"https:\/\/reitschuster.de\/post\/wie-mich-chatgpt-5-2-zur-weissglut-bringt\/\" target=\"_blank\" rel=\"noopener\"><em><strong>\u201eHoe ChatGPT 5.2 me witheet maakt\u201c<\/strong><\/em><\/a> beschrijft op indrukwekkende wijze hoe AI voor veel gebruikers is veranderd met de upgrade naar versie 5.2. Waar eerdere versies dienden als flexibele alledaagse helpers, onderhoudende gesprekspartners en pragmatische hulpmiddelen, lijkt de nieuwe versie volgens de auteur steeds moraliserend en beschermend. In plaats van open en ironisch te reageren op vragen, geeft het systeem nu instructieve, voorgestructureerde antwoorden die bedoeld zijn om gebruikers in de richting van conformistische denkpatronen te sturen. Dit leidt ertoe dat mensen hun eigen formuleringen en gedachten aanpassen om de AI \u201eop de tenen te trappen\u201c. Voor de auteur betekent dit een verlies aan gemak en spontaniteit - en de indruk dat een praktisch hulpmiddel een interne censor is geworden. Dit frustreert hem en zorgt ervoor dat hij de voorkeur geeft aan oudere versies.<\/p>\n<hr \/>\n<h2>Van openheid naar voorzichtige terughoudendheid<\/h2>\n<p>Hoe meer de modellen volwassen werden, hoe meer de toon veranderde. Wat aanvankelijk leek op een incidentele beschermende waarschuwing werd geleidelijk een hele laag van bescherming, instructie en morele zelfcensuur. Het vriendelijke, objectieve model begon zich steeds meer te gedragen als een moderator - of erger nog: als een waakhond.<\/p>\n<p>De antwoorden werden langer, maar niet substanti\u00ebler. De toon werd zachter, maar leerzamer. De modellen wilden niet langer alleen helpen, maar ook \u201eopvoeden\u201c, \u201everantwoordelijk begeleiden\u201c en \u201ebeschermen tegen verkeerde conclusies\u201c. En plotseling was dit pedagogische kader overal.<\/p>\n<p>Voor veel gebruikers was dit een breuk met de oorspronkelijke belofte van de technologie. Ze wilden een hulpmiddel - en in plaats daarvan kregen ze een soort digitale schoolmeester die elke zin becommentarieert nog voor ze begrepen hebben waar het over gaat.<\/p>\n<h3>Het senior teacher effect: bescherming in plaats van hulp<\/h3>\n<p>Het zogenaamde \u201eteacher-in-chief effect\u201c beschrijft een ontwikkeling die vooral sinds GPT-5 duidelijk is. De modellen reageren steeds gevoeliger op elk woord dat theoretisch - ver aan de horizon - in om het even welke controversi\u00eble richting zou kunnen worden ge\u00efnterpreteerd. Het effect manifesteert zich in verschillende vormen:<\/p>\n<ul>\n<li><strong>Overvoorzichtigheid<\/strong>Zelfs onschuldige vragen worden gerelativeerd met lange voorwoorden.<\/li>\n<li><strong>Instructie<\/strong>In plaats van een antwoord krijg je een morele categorisering.<\/li>\n<li><strong>Remeffecten<\/strong>AI probeert de gebruiker te beschermen tegen hypothetische misinterpretaties.<\/li>\n<li><strong>Zelfcensuur<\/strong>Veel onderwerpen worden afgezwakt of op een ingewikkelde manier verpakt.<\/li>\n<\/ul>\n<p>Het probleem is niet het idee van voorzichtigheid zelf. Het is de intensiteit. Het is de alomtegenwoordigheid. En het feit dat je ervoor betaalt - en nog steeds beperkt bent. De modellen veranderen van assistenten in poortwachters. En dit is precies wat iedereen voelt die met 4.0, 5.0 en 5.1 heeft gewerkt.<\/p>\n<h3>Hoe GPT-5.0 en GPT-5.1 de toon voorgoed verlegden<\/h3>\n<p>De ontwikkeling naar meer instructie was al merkbaar onder GPT-4.1. Maar met de stap naar de 5e generatie is een belangrijke sprong gemaakt. GPT-5.0 versterkte het onderwijspantser, maar GPT-5.1 brengt het naar een nieuw en voor velen verrassend streng niveau. Dit is wat er gebeurt onder GPT-5.1:<\/p>\n<ul>\n<li>De antwoorden worden emotioneel neutraler, maar paradoxaal genoeg ook moraliserend.<\/li>\n<li>De AI probeert te anticiperen op situaties die niet de bedoeling waren.<\/li>\n<li>Elke mogelijke controverse wordt van tevoren onder controle gehouden en soms zelfs \u201eopgeruimd\u201c voordat de gebruiker zelfs maar ter zake komt.<\/li>\n<li>Zelfs gespecialiseerde technische onderwerpen worden soms op een onhandige manier geformuleerd.<\/li>\n<\/ul>\n<p>Je zou kunnen zeggen dat de modellen hebben geleerd zichzelf te controleren - maar ze controleren nu ook de gebruiker. Het is een stille maar diepgaande verschuiving. En iedereen die productief werkt, voelt het al na een paar minuten.<\/p>\n<h3>GPT-4.0 als fantoom: een model dat er nog wel is - maar praktisch niet meer bestaat<\/h3>\n<p>Officieel werd lange tijd gezegd dat GPT 4.0 nog een paar maanden zou werken. In werkelijkheid is het model nu echter nauwelijks bruikbaar. De typische observatie van veel gebruikers:<\/p>\n<ul>\n<li>Antwoorden worden ingekort tot een paar zinnen.<\/li>\n<li>Langere teksten worden vroegtijdig geannuleerd.<\/li>\n<li>Het model \u201evergeet\u201c context of annuleert na een paragraaf.<\/li>\n<li>Uitgebreide taken worden geweigerd of slechts oppervlakkig behandeld.<\/li>\n<\/ul>\n<p>De indruk bestaat dat GPT-4.0 systematisch is \u201egedownreguleerd\u201c. Of dit opzettelijk is of om technische redenen is open voor speculatie. Maar het resultaat is duidelijk: mensen worden naar de 5 modellen geduwd omdat 4.0 praktisch onbruikbaar is geworden.<\/p>\n<p>Dit betekent dat veel gebruikers de enige versie missen die nog een vrijheidsachtige balans had tussen openheid en voorzichtigheid. De oude manier van werken - creatief, flexibel, zonder overdreven instructies - is daarmee de facto uitgeschakeld.<\/p>\n<h3>Het cumulatieve effect: een hulpmiddel dat steeds minder een hulpmiddel is<\/h3>\n<p>Als je de afgelopen twee jaar samenvat, komt er een opmerkelijke trend naar voren:<\/p>\n<ul>\n<li>De modellen worden groter.<\/li>\n<li>De modellen worden steeds sneller.<\/li>\n<li>De modellen worden steeds krachtiger.<\/li>\n<\/ul>\n<p>Maar tegelijkertijd:<\/p>\n<ul>\n<li>Ze worden voorzichtiger.<\/li>\n<li>Ze worden pedagogischer.<\/li>\n<li>Ze worden afhankelijker van richtlijnen.<\/li>\n<\/ul>\n<p>En ze laten de gebruiker minder speelruimte. Dit is geen technische ontwikkeling - het is een culturele ontwikkeling. En het past in een tijd waarin bedrijven, politici en de media elke nieuwe technologie meteen willen omarmen voordat de gebruiker het rustig kan uitproberen.<\/p>\n<p>Maar hier treedt een breuk op. Want de aard van technologie - en nog meer de aard van creativiteit - vraagt om vrijheid, niet om opvoeding. Steeds meer gebruikers voelen dit intu\u00eftief aan. En ze gaan op zoek naar alternatieven. Dit alternatief komt uit een richting die velen niet hadden verwacht:<\/p>\n<p>Lokale AI, direct op je eigen computer, zonder filters, zonder schoolhoofd. De slinger zwaait terug.<\/p>\n<hr \/>\n<h3>Huidig onderzoek naar lokale AI<\/h3>\n<div class='bootstrap-yop yop-poll-mc'>\n\t\t\t\t\t\t\t<div class=\"basic-yop-poll-container\" style=\"background-color:#ffffff; border:0px; border-style:solid; border-color:#000000; border-radius:5px; padding:0px 5px;\" data-id=\"9\" data-temp=\"basic-pretty\" data-skin=\"square\" data-cscheme=\"blue\" data-cap=\"0\" data-access=\"guest\" data-tid=\"\" data-uid=\"4e1643d362a8438870963b2dd3ce92bb\" data-pid=\"2857\" data-resdet=\"votes-number,percentages\" data-show-results-to=\"guest\" data-show-results-moment=\"after-vote\" data-show-results-only=\"false\" data-show-message=\"true\" data-show-results-as=\"bar\" data-sort-results-by=\"as-defined\" data-sort-results-rule=\"asc\"data-is-ended=\"0\" data-percentages-decimals=\"2\" data-gdpr=\"no\" data-gdpr-sol=\"consent\" data-css=\".basic-yop-poll-container[data-uid] .basic-vote {\t\t\t\t\t\t\t\t\ttext-align: center;\t\t\t\t\t\t\t\t}\" data-counter=\"0\" data-load-with=\"1\" data-notification-section=\"top\"><div class=\"row\"><div class=\"col-md-12\"><div class=\"basic-inner\"><div class=\"basic-message hide\" style=\"border-left: 10px solid #008000; padding: 0px 10px;\" data-error=\"#ff0000\" data-success=\"#008000\"><p class=\"basic-message-text\" style=\"color:#000000; font-size:14px; font-weight:normal;\"><\/p><\/div><div class=\"basic-overlay hide\"><div class=\"basic-vote-options\"><\/div><div class=\"basic-preloader\"><div class=\"basic-windows8\"><div class=\"basic-wBall basic-wBall_1\"><div class=\"basic-wInnerBall\"><\/div><\/div><div class=\"basic-wBall basic-wBall_2\"><div class=\"basic-wInnerBall\"><\/div><\/div><div class=\"basic-wBall basic-wBall_3\"><div class=\"basic-wInnerBall\"><\/div><\/div><div class=\"basic-wBall basic-wBall_4\"><div class=\"basic-wInnerBall\"><\/div><\/div><div class=\"basic-wBall basic-wBall_5\"><div class=\"basic-wInnerBall\"><\/div><\/div><\/div><\/div><\/div><form class=\"basic-form\" action=\"\"><input type=\"hidden\" name=\"_token\" value=\"0f5c8fef3b\" autocomplete=\"off\"><div class=\"basic-elements\"><div class=\"basic-element basic-question basic-question-text-vertical\" data-id=\"9\" data-uid=\"ab36a8b6f00e8f7f04aeb8790ed291f6\" data-type=\"question\" data-question-type=\"text\" data-required=\"yes\" data-allow-multiple=\"no\" data-min=\"1\" data-max=\"7\" data-display=\"vertical\" data-colnum=\"\" data-display-others=\"no\" data-others-color=\"\" data-others=\"\" data-others-max-chars=\"0\"><div class=\"basic-question-title\"><h5 style=\"color:#000000; font-size:16px; font-weight:normal; text-align:left;\">Wat vind je van lokaal draaiende AI-software zoals MLX of Ollama?<\/h5><\/div><ul class=\"basic-answers\"><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"45\" data-type=\"text\" data-vn=\"142\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[45]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[45]\" name=\"answer[9]\" value=\"45\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">Ingenious - eindelijk onafhankelijk van de cloud<\/span><\/label><\/div><\/li><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"46\" data-type=\"text\" data-vn=\"25\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[46]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[46]\" name=\"answer[9]\" value=\"46\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">Interessant, maar (nog) te ingewikkeld<\/span><\/label><\/div><\/li><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"47\" data-type=\"text\" data-vn=\"28\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[47]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[47]\" name=\"answer[9]\" value=\"47\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">Ik zal het binnenkort uitproberen<\/span><\/label><\/div><\/li><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"48\" data-type=\"text\" data-vn=\"5\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[48]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[48]\" name=\"answer[9]\" value=\"48\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">Ik heb het niet nodig - cloud is genoeg voor mij<\/span><\/label><\/div><\/li><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"49\" data-type=\"text\" data-vn=\"4\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[49]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[49]\" name=\"answer[9]\" value=\"49\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">Ik weet niet precies waar dat over gaat<\/span><\/label><\/div><\/li><\/ul><\/div><div class=\"clearfix\"><\/div><\/div><div class=\"basic-vote\"><a href=\"#\" class=\"button basic-vote-button\" role=\"button\" style=\"background:#027bb8; border:0px; border-style: solid; border-color:#000000; border-radius:5px; padding:10px 10px; color:#ffffff; font-size:14px; font-weight:normal;\">Stem<\/a><\/div><input type=\"hidden\" name=\"trp-form-language\" value=\"nl\"\/><\/form><\/div><\/div><\/div><\/div>\n\t\t\t\t\t\t<\/div>\n<hr \/>\n<h2>Waar komt deze ontwikkeling vandaan? Een kijkje achter de schermen<\/h2>\n<p>Als je wilt begrijpen waarom cloud-AI tegenwoordig zo overbezorgd te werk gaat, moet je eerst naar het politieke en juridische klimaat kijken. Kunstmatige intelligentie is niet langer een experiment van een paar nerds, maar een politieke kwestie van de hoogste orde. Regeringen, overheden en supranationale organisaties hebben dit erkend: Wie AI beheerst, beheerst een centraal onderdeel van de digitale infrastructuur van morgen.<\/p>\n<p>Dit heeft geleid tot een hele cascade aan regelgeving. In Europa wordt bijvoorbeeld geprobeerd om het gebruik van AI te \u201ekanaliseren\u201c door middel van uitgebreide wetgeving - officieel in naam van consumentenbescherming, menselijke waardigheid en het voorkomen van discriminatie. Vergelijkbare debatten vinden plaats in de VS en andere regio's, alleen met een andere focus: daar ligt de focus meer op nationale veiligheid, economische dominantie en concurrentievermogen. Voor de exploitanten van grote AI-platforms resulteert dit in een eenvoudig maar lastig scenario:<\/p>\n<ul>\n<li>Ze moeten op meerdere continenten tegelijk aan de wet voldoen.<\/li>\n<li>Ze moeten anticiperen op mogelijke toekomstige wetten die nog niet eens zijn aangenomen.<\/li>\n<li>Ze zijn voortdurend in het vizier van overheden, de media en lobbygroepen.<\/li>\n<\/ul>\n<p>Wie in zo'n omgeving werkt, ontwikkelt onvermijdelijk een houding: je kunt beter te voorzichtig zijn dan te liberaal. Een te streng model is immers minder schadelijk voor het bedrijfsleven dan \u00e9\u00e9n internationale golf van schandalen met krantenkoppen, commissies en oproepen tot boycots.<\/p>\n<p><strong>Het gevolg<\/strong>De technologie zelf is niet alleen gereguleerd - ze is van tevoren gereguleerd. En deze anticiperende gehoorzaamheid wordt rechtstreeks gekanaliseerd in de reacties van de modellen.<\/p>\n<h3>Aansprakelijkheidsdruk en bedrijfslogica: wanneer risico belangrijker wordt dan voordeel<\/h3>\n<p>Vandaag de dag opereren grote AI-bedrijven in een spanningsveld tussen gigantische kansen en even gigantische risico's. Aan de ene kant zijn er miljardenmarkten, strategische partnerschappen en beursfantasie\u00ebn. Aan de andere kant is er de dreiging van collectieve rechtszaken, boetes, schadeclaims en nieuwe aansprakelijkheidsregels. In deze situatie ontstaat een typisch patroon binnen het bedrijf:<\/p>\n<ul>\n<li>Advocaten vragen om voorzichtigheid.<\/li>\n<li>Compliance afdelingen eisen beperkingen.<\/li>\n<li>Productteams moeten \u201eveilig\u201c lanceren.<\/li>\n<li>Het management wil geen negatieve krantenkoppen.<\/li>\n<\/ul>\n<p>In de loop der jaren cre\u00ebert dit een cultuur waarin \u00e9\u00e9n principe steeds meer ruimte inneemt: Alles wat problemen kan veroorzaken, kan beter onschadelijk worden gemaakt voordat het zelfs maar ontstaat. Voor een taalmodel heeft dit zeer praktische gevolgen:<\/p>\n<ul>\n<li>Bepaalde onderwerpen worden automatisch overgeslagen.<\/li>\n<li>De formuleringen zijn zo ontworpen dat ze niemand \u201epijn\u201c doen of van streek maken.<\/li>\n<li>Inhoud die op enigerlei wijze juridisch kan worden aangevochten, wordt \u00fcberhaupt niet gemaakt.<\/li>\n<\/ul>\n<p>Hierdoor verschuift de prioriteit: de focus ligt niet langer op de voordelen voor de gebruiker, maar op het minimaliseren van het risico voor het bedrijf. Op het niveau van de individuele dialoog is dit nauwelijks merkbaar - in individuele gevallen kan elke beperking nog steeds begrijpelijk lijken. Het algemene effect is echter precies wat veel mensen voelen: AI wordt niet langer gezien als een hulpmiddel, maar als de gecontroleerde output van een systeem dat vooral zichzelf beschermt.<\/p>\n<h3>De rol van PR en de media: niemand wil in de krantenkoppen belanden<\/h3>\n<p>Naast wetten en aansprakelijkheidskwesties is er nog een factor die vaak wordt onderschat: de media. Grote AI-aanbieders staan voortdurend in de schijnwerpers. Elke hapering, elk irritant antwoord, elk individueel geval kan binnen een paar uur veranderen in een internationale \u201esensatie\u201c. De medialogica is eenvoudig: een schandaal verkoopt beter dan een nuchter voortgangsverslag. Dus verhalen volgen dit patroon keer op keer:<\/p>\n<ul>\n<li><em>\u201eAI raadt gevaarlijke actie aan.\u201c<\/em><\/li>\n<li><em>\u201eChatbot maakt problematische opmerkingen over gevoelige onderwerpen.\u201c<\/em><\/li>\n<li><em>\u201eHet systeem bagatelliseert controversi\u00eble inhoud op een bagatelliserende manier.\u201c<\/em><\/li>\n<\/ul>\n<p>Zelfs als de uitgangssituatie verstoord is, is de schade al aangericht. De ervaring leert dat bedrijven hierop reageren met twee strategie\u00ebn:<\/p>\n<ul>\n<li><strong>Publiekelijk afstand nemen<\/strong>Ze benadrukken hoe serieus ze het probleem nemen, kondigen verbeteringen aan en bouwen extra beveiligingslagen in.<br \/>\n<strong>Interne aanscherping van richtlijnen<\/strong>Er worden extra filters geactiveerd, de trainingsgegevens worden aangescherpt, systeemprompts worden aangepast en bepaalde formuleringen of onderwerpen worden helemaal verboden.<\/li>\n<\/ul>\n<p>Dezelfde mediaomgeving die graag praat over \u201evrijheid\u201c en \u201eopen discours\u201c cre\u00ebert in de praktijk een enorme druk voor zelfcensuur. En bedrijven geven deze druk door aan hun systemen.<\/p>\n<p>Met elke krantenkop, elke shitstorm, elke golf van publieke verontwaardiging worden de beschermingsmechanismen strenger. Het resultaat is wat we in het dagelijks leven ervaren: De gebruiker stelt een normale vraag en het model reageert alsof het net een openbare persconferentie heeft gehouden. In plaats van nuchtere, professionele hulp is er een mengeling van verontschuldigingen, afstand nemen en morele categorisering.<\/p>\n<h3>Beveiligingsrichtlijnen die een eigen leven gaan leiden<\/h3>\n<p>In elk groot bedrijf zijn er richtlijnen. In eerste instantie zijn deze vaak verstandig en duidelijk: geen discriminatie, geen verheerlijking van geweld, geen aanzetten tot strafbare feiten. Niemand zal serieus betwisten dat zulke basisrichtlijnen verstandig zijn. Maar in de praktijk blijft het daar niet bij. Bij elk incident, elke klacht, elke publieke discussie komen er nieuwe regels bij:<\/p>\n<ul>\n<li>een extra \u201eals-dan\u201c scenario,<\/li>\n<li>een nieuw speciaal geval,<\/li>\n<li>nog een speciale paragraaf,<\/li>\n<li>een uitzondering voor bepaalde contexten,<\/li>\n<li>of een bijzonder strikte interpretatie van de formulering.<\/li>\n<\/ul>\n<p>In de loop der jaren ontstaat er een steeds dichter netwerk van specificaties. Dit netwerk wordt door technische teams vertaald in filters, promptlagen, classificeerders en andere controlemechanismen. Hoe meer lagen worden toegevoegd, hoe onvoorspelbaarder het gedrag in individuele gevallen wordt. Uiteindelijk is het niet langer de individuele regel die het systeem kenmerkt, maar de som van alle regels. En deze som cre\u00ebert wat veel gebruikers voelen:<\/p>\n<ul>\n<li>een permanent remeffect,<\/li>\n<li>de neiging om overbezorgd te zijn,<\/li>\n<li>een visie waarin \u201erisico 0\u201c belangrijker is dan \u201evoordeel 100\u201c.<\/li>\n<\/ul>\n<p>Een bijzonder probleem is dat als dergelijke beveiligingsrichtlijnen eenmaal zijn opgesteld, het bijna onmogelijk is om ze terug te draaien. Geen enkele manager wil later moeten zeggen: <em>\u201eWe hebben het rustiger aan gedaan en nu is er iets gebeurd.\u201c<\/em> Het is dus beter om er nog een laag bovenop te leggen. En nog een. En nog een. Wat oorspronkelijk begon als een verstandige beschermingsmaatregel, eindigt als een systeem dat een eigen leven is gaan leiden.<\/p>\n<h3>Tussentijdse conclusie: Een technologie onder permanent toezicht<\/h3>\n<p>Als je deze factoren - internationale regelgeving, aansprakelijkheidsdruk, medialogica en het momentum van beveiligingsrichtlijnen - samenvat, ontstaat er een duidelijk beeld:<\/p>\n<ul>\n<li>De grote wolkenmodellen worden voortdurend onder de loep genomen.<\/li>\n<li>Een verkeerde reactie kan juridische gevolgen en gevolgen voor de media hebben.<\/li>\n<\/ul>\n<p>In deze omgeving is de verleiding groot om \u201ete veel\u201c te filteren in plaats van \u201ete weinig\u201c. Het resultaat voor de gebruiker: de AI klinkt niet langer als een neutrale assistent, maar meer als een systeem dat constant met \u00e9\u00e9n voet in de rechtszaal staat en met de andere in de persoverzichten. Dit is precies waar de breuk met de oorspronkelijke verwachtingen van veel gebruikers begint. Ze willen niet ge\u00efnstrueerd, politiek geframed of pedagogisch begeleid worden. Ze willen werken, schrijven, programmeren, denken - met een tool die hen ondersteunt.<\/p>\n<p>En dit is waar een alternatief om de hoek komt kijken dat op het eerste gezicht bijna ouderwets klinkt, maar in feite ultramodern is: lokale AI, direct op je eigen computer, zonder de cloud, zonder supervisie, zonder externe richtlijnen - behalve die van jezelf. Het volgende hoofdstuk gaat daarom over de gevolgen van deze ontwikkeling:<\/p>\n<p>Hoe AI in de cloud steeds onbruikbaarder wordt voor ambitieuze gebruikers vanwege de eigen voorzichtigheid - en hoe lokale modellen onopvallend maar consistent groeien in het gat dat de grote providers zelf hebben opengebroken.<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone wp-image-3928 size-large\" src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/oberlehrer-lokale-ki.jpg\" alt=\"Lokaal AI 1TP12Dieren\" width=\"1024\" height=\"683\" srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/oberlehrer-lokale-ki.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/oberlehrer-lokale-ki-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/oberlehrer-lokale-ki-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/oberlehrer-lokale-ki-18x12.jpg 18w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/p>\n<h2>AI in de cloud wordt steeds meer gefilterd, maar gebruikers hebben het tegenovergestelde nodig<\/h2>\n<p>Het oorspronkelijke idee achter AI-assistenten was eenvoudig: de gebruiker stelt een vraag - de AI geeft een nauwkeurig en nuttig antwoord. Zonder omwegen, zonder afleidingen, zonder instructies. Deze eenvoud is tegenwoordig echter verloren gegaan in veel cloudmodellen. In plaats van een hulpmiddel krijgt de gebruiker een soort anticiperende moderatie. De systemen reageren alsof ze op een publiek podium staan en moeten elke uitspraak onderbouwen, relativeren of categoriseren. In de praktijk leidt dit tot een paradoxaal effect:<\/p>\n<p>Hoe veeleisender de taak, hoe meer je je belemmerd voelt. Als je creatief wilt werken - schrijven, programmeren, onderzoeken, analyseren - heb je eigenlijk maximale openheid nodig. Een AI die vrijelijk idee\u00ebn uitspuugt, hypotheses test en alternatieven bespreekt. De creatieve ruimte is nu echter vaak beperkt. In plaats van gedurfde gedachte-experimenten krijgen we voorzichtig aftasten. In plaats van vrije analyse zijn er \u201egecontextualiseerde hints\u201c. Een hulpmiddel wordt een bewaker. En openheid wordt voorzichtigheid. Ironisch genoeg betekent dit dat cloud-AI precies de ruimte overneemt die productieve mensen het hardst nodig hebben.<\/p>\n<h3>De verandering in modellen: Nog groter - maar beperkter<\/h3>\n<p>Het is een ironie van de geschiedenis van de technologie: hoe groter de modellen worden, hoe kleiner hun actieradius soms lijkt. GPT-5 is indrukwekkend, zonder twijfel - analytisch, taalkundig en logisch. Maar tegelijkertijd is het merkbaar meer gereguleerd dan zijn voorgangers. Veel gebruikers ervaren dit:<\/p>\n<ul>\n<li>De AI begrijpt meer, maar zegt minder.<\/li>\n<li>Ze herkent complexe relaties - maar vermijdt duidelijke uitspraken.<\/li>\n<li>Het zou diepgaand kunnen analyseren - maar maakt zijn eigen resultaten voortdurend onschadelijk.<\/li>\n<\/ul>\n<p>De modellen hebben er miljoenen parameters bijgekregen, maar het gevoel is dat ze aan vrijheid hebben ingeboet. Dit is geen technisch probleem, maar een cultureel probleem. Grote aanbieders reageren op risico's en deze risicominimalisatie wordt direct weerspiegeld in de toon van de modellen. Je zou kunnen zeggen dat AI volwassen is geworden, maar het gedraagt zich als een overbezorgde volwassene. En iedereen die er dagelijks mee werkt, beseft hoe vermoeiend dit op de lange termijn kan worden.<\/p>\n<h3>De paradox van het betalingsmodel: je betaalt - en krijgt toch beperkingen<\/h3>\n<p>Vroeger was er een duidelijk principe in de digitale wereld: wie betaalt, heeft meer controle. Maar met cloud AI wordt dit principe omgedraaid. Zelfs betalende gebruikers krijgen modellen die vaak beperkter zijn dan de open, lokale alternatieven. De betaalde versie van een product lijkt opeens de zwaarder gereguleerde, soms kunstmatig beperkte versie - terwijl vrij beschikbare open source modellen verrassend onbevooroordeeld, direct en creatief zijn.<\/p>\n<p>Deze paradox irriteert veel gebruikers en leidt tot een vraag die in het verleden bijna niemand gesteld zou hebben: Waarom betaal ik eigenlijk om minder vrijheid te hebben dan met een gratis lokale oplossing? Het is een breuk met tientallen jaren softwaretraditie. De gebruiker verwacht waar voor zijn geld:<\/p>\n<ul>\n<li>meer functies,<\/li>\n<li>meer mogelijkheden,<\/li>\n<li>meer flexibiliteit,<\/li>\n<li>meer controle.<\/li>\n<\/ul>\n<p>Maar de cloud-AI biedt hem in plaats daarvan:<\/p>\n<ul>\n<li>meer filters,<\/li>\n<li>meer beperkingen,<\/li>\n<li>meer pedagogische inbedding,<\/li>\n<li>minder controle over hun eigen werkproces.<\/li>\n<\/ul>\n<p>Dit betekent dat de industrie zich in een richting beweegt die in tegenspraak is met de werkelijke behoeften van gebruikers. En velen beginnen om zich heen te kijken.<\/p>\n<h3>De opkomende kloof: Wat de cloud niet meer kan<\/h3>\n<p>Terwijl AI's in de cloud steeds meer gereguleerd worden, groeit er een gat dat niemand lange tijd heeft onderkend: De behoefte aan ongecensureerde, vrije, direct werkende tools. Mensen die diepgaand denken, schrijven, programmeren of specialistisch onderzoek doen, voelen al snel dat er iets mis is:<\/p>\n<ul>\n<li>Antwoorden komen \u201everzacht\u201c over.<\/li>\n<li>Kritische passages worden te voorzichtig geformuleerd.<\/li>\n<li>Echte debatcultuur is nauwelijks nog toegestaan.<\/li>\n<li>Creatieve grenzen worden automatisch onschadelijk gemaakt.<\/li>\n<\/ul>\n<p>Hierdoor verliezen de cloudmodellen precies datgene wat ze in het begin zo waardevol maakte: een vorm van intellectuele onafhankelijkheid die de gebruiker de ruimte gaf. De cloud verwijdert zich daarom geleidelijk van de behoeften van professionele gebruikers - niet uit kwade bedoelingen, maar uit juridische en politieke zelfbescherming. Maar deze zelfbescherming heeft een prijs.<\/p>\n<h3>De tegenbeweging: Kleine lokale modellen halen hun achterstand snel in<\/h3>\n<p>Terwijl de cloud zich steeds meer richt op voorzichtigheid, hebben lokale modellen zich de afgelopen twee jaar explosief ontwikkeld. Systemen met 3-27 miljard parameters leveren nu verbazingwekkende kwaliteit. Sommige modellen komen gemakkelijk in de buurt van GPT-4 in alledaagse taken - zonder filtercascades, zonder moderatielagen, zonder morele framing. Wat ooit alleen mogelijk was met high-end hardware draait nu op een MacBook of een Windows computer:<\/p>\n<ul>\n<li>lama3<\/li>\n<li>gpt-oss<\/li>\n<li>mistral<\/li>\n<li>phi3<\/li>\n<li>gemma<\/li>\n<li>qwen<\/li>\n<\/ul>\n<p>Al deze modellen zijn vrij beschikbaar, kunnen lokaal worden uitgevoerd en vereisen vaak maar een paar klikken in Ollama of OpenWebUI om klaar te zijn voor gebruik. De voordelen liggen voor de hand:<\/p>\n<ul>\n<li>Ze geven geen preken.<\/li>\n<li>Ze relativeren niet.<\/li>\n<li>Ze filteren niet overmatig.<\/li>\n<li>Ze gehoorzamen alleen de gebruiker - niet een wereldwijde compliance-afdeling.<\/li>\n<\/ul>\n<p>Met andere woorden, lokale AI keert terug naar de wortels van de technologie: een hulpmiddel dat gewoon werkt. Als je de ontwikkeling nuchter bekijkt, is het plaatje duidelijk:<\/p>\n<ul>\n<li>De cloud wordt steeds meer gereguleerd.<\/li>\n<li>Lokale AI wordt steeds krachtiger.<\/li>\n<\/ul>\n<p>Gebruikers hebben echter een open, ongefilterde werkomgeving nodig, vooral voor creatieve en diepgaande taken. Dit is een historisch keerpunt dat bijna doet denken aan de tijd toen personal computers mainframes vervingen. Het principe was toen hetzelfde als nu:<\/p>\n<p>Controle over je eigen technologie. Cloud AI blijft krachtig, maar is cultureel niet gratis. Lokale AI is kleiner, maar wel gratis.<\/p>\n<div class=\"lyte-wrapper\" style=\"width:640px;max-width:100%;margin:5px;\"><div class=\"lyMe\" id=\"WYL_QX3UxUm09Sg\"><div id=\"lyte_QX3UxUm09Sg\" data-src=\"https:\/\/www.markus-schall.de\/wp-content\/plugins\/wp-youtube-lyte\/lyteCache.php?origThumbUrl=%2F%2Fi.ytimg.com%2Fvi%2FQX3UxUm09Sg%2Fhqdefault.jpg\" class=\"pL\"><div class=\"tC\"><div class=\"tT\"><\/div><\/div><div class=\"play\"><\/div><div class=\"ctrl\"><div class=\"Lctrl\"><\/div><div class=\"Rctrl\"><\/div><\/div><\/div><noscript><a href=\"https:\/\/youtu.be\/QX3UxUm09Sg\" rel=\"nofollow noopener\" target=\"_blank\"><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/www.markus-schall.de\/wp-content\/plugins\/wp-youtube-lyte\/lyteCache.php?origThumbUrl=https%3A%2F%2Fi.ytimg.com%2Fvi%2FQX3UxUm09Sg%2F0.jpg\" alt=\"YouTube video thumbnail\" width=\"640\" height=\"340\" \/><br \/>Bekijk deze video op YouTube<\/a><\/noscript><\/div><\/div><div class=\"lL\" style=\"max-width:100%;width:640px;margin:5px;\"><\/div><br \/>\nGebruik AI lokaal - volledige controle en gegevensbescherming op UW apparaat. <a href=\"https:\/\/www.youtube.com\/@christophmagnussen\" target=\"_blank\" rel=\"noopener\">C. Magnussen<\/a><\/p>\n<h2>De oplossing: lokale AI en hoe je het in een paar minuten installier kunt maken<\/h2>\n<p>Het lijkt bijna een terugkeer naar een oude traditie: technologie hoort daar thuis waar ze het meest direct haar waarde kan ontvouwen - in de handen van de gebruiker. Dit is precies wat lokale AI mogelijk maakt. Terwijl cloudmodellen onderhevig zijn aan voorwaarden, veiligheid en politieke beperkingen, draait lokale AI uitsluitend op de eigen computer van de gebruiker, zonder externe instanties of richtlijnen.<\/p>\n<p>Dit herstelt een fundamenteel principe dat de afgelopen jaren verloren is gegaan: de gebruiker bepaalt wat zijn software mag doen - niet een wereldwijde serviceprovider. Lokale AI:<\/p>\n<ul>\n<li>slaat geen gegevens op externe servers op,<\/li>\n<li>is niet onderworpen aan filtersystemen,<\/li>\n<li>kent geen politiek opgelegde beperkingen,<\/li>\n<li>reageert vrij en direct op zijn eigen invoer,<\/li>\n<li>en is altijd beschikbaar, ongeacht abonnementen of serverstatus.<\/li>\n<\/ul>\n<p>Technologie wordt weer wat het decennialang was: een gereedschap in de werkplaats van de gebruiker, geen op afstand bediend apparaat in een wereldwijde infrastructuur.<\/p>\n<h3>Moderne hardware: Waarom een Mac of Windows-pc tegenwoordig prima voldoet<\/h3>\n<p>Nog maar een paar jaar geleden was lokale AI alleen iets voor specialisten met dure GPU-hardware. Vandaag de dag is dat anders. Moderne processorarchitecturen - vooral de M-chips van Apple - leveren rekenkracht in een kleine ruimte die voorheen alleen was voorbehouden aan grote datacenters. Zelfs een gewone MacBook Air of een Windows-laptop kan nu lokaal AI-modellen draaien. Vooral Macs hebben een voordeel met hun unified memory architecturen: ze kunnen AI-modellen direct op de CPU en GPU gebruiken zonder ingewikkelde stuurprogramma's. Typische configuraties zijn volledig toereikend:<\/p>\n<ul>\n<li><strong>Mac<\/strong> met M1, M2, M3 - vanaf 16 GB RAM comfortabel<\/li>\n<li><strong>Windows PC<\/strong> met een moderne CPU - of optioneel met een GPU voor meer snelheid<\/li>\n<\/ul>\n<p>En het belangrijkste: je hebt geen technische achtergrondkennis meer nodig. De dagen dat je Python-omgevingen handmatig moest opzetten of cryptische commandoregelcommando's moest intypen, zijn voorbij. Vandaag draait alles via eenvoudige installatiepakketten.<\/p>\n<h3>Ollama: De nieuwe eenvoud (en de geheime standaard van lokale AI)<\/h3>\n<p>Ollama is nu de onbetwiste standaard voor lokale AI op Mac en Windows. Het is eenvoudig, stabiel en volgt een klassieke filosofie:<\/p>\n<p>Zo weinig mogelijk moeite, zoveel vrijheid als nodig. Vroeger moest je naar de terminal, maar zelfs dat is tegenwoordig optioneel. Installeren gaat in een paar stappen:<\/p>\n<ul>\n<li>Ollama op de Mac installieren<\/li>\n<li>Direct installatiepakket (DMG) downloaden<\/li>\n<li>Open de app, klaar<\/li>\n<\/ul>\n<p>Het hele proces duurt meestal minder dan drie minuten. En dit laat zien hoe ver lokale AI is gekomen: je downloadt een model - en het werkt. Geen cloud, geen abonnement, geen risico. Ollama wordt nu geleverd met een gebruikersinterface, zodat je meteen aan de slag kunt. Als je de lokale AI van Ollama ook op je smartphone wilt gebruiken, kun je de \u201e<em><strong>Teugels - Chat voor Ollama\u201c.\u201c<\/strong><\/em>\u00a0en gebruik de lokale AI onderweg.<\/p>\n<h3>Modellen laden en gebruiken - net zo eenvoudig als naar muziek luisteren<\/h3>\n<p>Ollama levert de modellen als \u201ekant-en-klare pakketten\u201c, zogenaamde modelcapsules. Je laadt ze als een bestand - en je kunt er onmiddellijk mee werken. Het laden duurt een paar seconden, afhankelijk van de grootte. De chat wordt dan geopend - en je kunt schrijven, formuleren, analyseren, denken en ontwerpen. Wat meteen opvalt:<\/p>\n<ul>\n<li>De modellen reageren vrij, niet onhandig.<\/li>\n<li>Er zijn geen morele voorwoorden.<\/li>\n<li>Er wordt niet met de vinger gewezen.<\/li>\n<\/ul>\n<p>Je krijgt weer directe, duidelijke uitspraken. En dit is waar het echte verschil met de cloud ontstaat: lokale AI reageert als een traditionele tool - het grijpt niet in. Voor velen is dit een echte bevrijding, want je krijgt de workflow terug die je eerder gewend was met GPT-4.<\/p>\n<h3>Werken met grafische gebruikersinterfaces: OpenWebUI, LM Studio en andere<\/h3>\n<p>Als je volledig zonder terminal wilt werken, gebruik dan een grafische gebruikersinterface. De populairste tools zijn<\/p>\n<ul>\n<li><strong>OpenWebUI<\/strong> - Moderne chatinterface met geheugenfunctie, modelselectie, uploaden van documenten, genereren van afbeeldingen<\/li>\n<li><strong>LM Studio<\/strong> - Bijzonder eenvoudig, ideaal voor beginners<\/li>\n<li><strong>AllesLLM<\/strong> - voor complete kennisdatabases en documentanalyse<\/li>\n<\/ul>\n<p>Deze oppervlakken bieden veel voordelen:<\/p>\n<ul>\n<li>Chatgeschiedenis zoals in de cloud<\/li>\n<li>Modelbeheer met \u00e9\u00e9n muisklik<\/li>\n<li>Systeemprompts instellen<\/li>\n<li>Meerdere modellen parallel gebruiken<\/li>\n<li>Bestanden analyseren via slepen en neerzetten<\/li>\n<\/ul>\n<p>Dit maakt lokale AI niet alleen krachtig, maar ook handig. Je hoeft niet eens te weten wat er op de achtergrond gebeurt - en dat is precies de nieuwe kracht van lokale modellen: ze komen niet tussen de gebruiker en hun taak.<\/p>\n<h3>Privacy en controle: het belangrijkste argument<\/h3>\n<p>Een punt dat vaak wordt onderschat, maar de komende jaren van cruciaal belang zal zijn: Lokale AI verlaat nooit de computer.<\/p>\n<ul>\n<li>Geen wolk<\/li>\n<li>Geen gegevensoverdracht<\/li>\n<li>Geen logboekregistratie<\/li>\n<li>Geen verplichte inschrijving<\/li>\n<li>Geen analyses door derden<\/li>\n<\/ul>\n<p>Zelfs vertrouwelijke documenten, interne dossiers, bedrijfsconcepten of priv\u00e9notities kunnen zonder risico worden geanalyseerd. Dit is slechts beperkt mogelijk in het cloudmodel - zowel juridisch als praktisch. Lokale AI is daarom een stukje digitale onafhankelijkheid dat steeds belangrijker wordt in een steeds meer gereguleerde en gecontroleerde technologische wereld.<\/p>\n<h3>Voorbeelden van kwaliteit: Wat lokale modellen vandaag al bereiken<\/h3>\n<p>Veel mensen onderschatten hoe goed lokale modellen zijn geworden. De huidige generaties - llama3, gemma, phi3, mistral - lossen taken op met een kwaliteit die meer dan voldoende is voor 90 % alledaagse taken:<\/p>\n<ul>\n<li>Ontwerpteksten<\/li>\n<li>Artikel<\/li>\n<li>Analyses<\/li>\n<li>creatieve idee\u00ebn<\/li>\n<li>Samenvattingen<\/li>\n<li>Programmacode<\/li>\n<li>Ontwerpstrategie\u00ebn<\/li>\n<li>Onderzoeksnotities<\/li>\n<\/ul>\n<p>En dat doen ze zonder vertraging, zonder filters, zonder cascaderichtlijnen. De gebruiker krijgt weer directe antwoorden - de pure essentie van de tool. Het resultaat is iets wat velen niet meer hadden verwacht: een renaissance van de persoonlijke computercultuur, waarin rekenkracht weer lokaal is en niet uitbesteed.<\/p>\n<h3>Vooruitkijken: lokale AI als de leidende cultuur van de toekomst<\/h3>\n<p>Alles wijst erop dat we aan het begin staan van een langetermijnontwikkeling. De AI-sector zal zich op twee sporen ontwikkelen:<\/p>\n<ul>\n<li>de <strong>Wolkenlijn<\/strong>, gekenmerkt door regelgeving, veiligheid, bedrijfsbelangen - effici\u00ebnt maar voorzichtig<\/li>\n<li>de <strong>lokale lijn<\/strong>, gekenmerkt door vrijheid, openheid en het plezier van experimenteren - klein maar zelfverzekerd<\/li>\n<\/ul>\n<p>Voor professionele gebruikers, auteurs, ontwikkelaars, onderzoekers, creatieven en ondernemers is de beslissing bijna een uitgemaakte zaak:<br \/>\nDe toekomst van productief werk ligt daar waar je onafhankelijk bent. En die plek is niet in de cloud.<\/p>\n<p>Het staat op het bureau.<\/p>\n<h2>Verdere artikelen in het tijdschrift<\/h2>\n<p>Als je na dit overzicht dieper wilt ingaan op de praktische kant van de zaak, vind je in het magazine een reeks gedetailleerde artikelen die het onderwerp van lokale AI vanuit heel verschillende perspectieven belichten.<\/p>\n<p>Het hoofdartikel is bijzonder aan te bevelen <a href=\"https:\/\/www.markus-schall.de\/nl\/2025\/08\/lokale-ki-op-de-mac-als-volgt-1tp12een-taalmodel-maken-met-ollama\/\"><em><strong>\u201eLokale AI op de Mac - hoe installiere een taalmodel met Ollama\u201c<\/strong><\/em><\/a>, dat stap voor stap laat zien hoe eenvoudig het is om moderne AI op je eigen computer uit te voeren.<\/p>\n<p>Bovendien legt <a href=\"https:\/\/www.markus-schall.de\/nl\/2025\/08\/ollama-ontmoet-qdrant-een-lokaal-geheugen-voor-je-ki-op-de-mac\/\"><em><strong>\u201eOllama ontmoet Qdrant - Een lokaal geheugen voor je AI op de Mac\u201c<\/strong><\/em><\/a>, hoe je modellen zo kunt configureren dat ze projecten vasthouden, kennisstatussen opslaan en zo voor het eerst een echte persoonlijke werkomgeving cre\u00ebren.<\/p>\n<p>Het magazine legt ook duidelijke accenten in de bedrijfscontext: <a href=\"https:\/\/www.markus-schall.de\/nl\/2025\/09\/gfm-business-en-de-toekomst-van-erp-lokale-intelligentie-in-plaats-van-cloudafhankelijkheid\/\"><em><strong>\u201egFM-Business en de toekomst van ERP - lokale intelligentie in plaats van cloudafhankelijkheid\u201c<\/strong><\/em><\/a> laat zien hoe bedrijven met vertrouwen AI kunnen integreren in hun bestaande infrastructuur zonder zich in langdurige externe afhankelijkheden te manoeuvreren.<\/p>\n<p>Het artikel <a href=\"https:\/\/www.markus-schall.de\/nl\/2025\/10\/digitale-afhankelijkheid-hoe-we-onze-zelfbeschikking-verloren-aan-de-cloud\/\"><em><strong>\u201eDigitale afhankelijkheid - hoe we onze zelfbeschikking zijn kwijtgeraakt aan de cloud\u201c<\/strong><\/em><\/a> Aan de andere kant werpt het licht op het grote plaatje van onze tijd: waarom we veel vrijheden hebben opgegeven zonder het te beseffen - en hoe lokale systemen ons kunnen helpen ze terug te krijgen.<\/p>\n<p>Bovendien zijn de <a href=\"https:\/\/www.markus-schall.de\/nl\/2025\/10\/hoe-ki-specialisten-opleiden-vandaag-mogelijkheden-voor-bedrijven-en-stagiairs\/\"><em><strong>\u201eHoe kun je tegenwoordig AI-specialisten opleiden - kansen voor bedrijven en stagiairs?\u201c<\/strong><\/em><\/a> voor bedrijven die nu de sprong willen wagen: praktisch, zonder dure grootschalige systemen, maar met echte toekomstperspectieven.<\/p>\n<p>Uitleggen op technisch niveau <a href=\"https:\/\/www.markus-schall.de\/nl\/2025\/11\/apple-mlx-vs-nvidia-hoe-lokale-ki-inferentie-werkt-op-de-mac\/\"><em><strong>\u201eApple MLX versus NVIDIA - hoe lokale AI-inferentie werkt op de Mac\u201c.\u201c<\/strong><\/em><\/a> en het overzichtsartikel<\/p>\n<p><a href=\"https:\/\/www.markus-schall.de\/nl\/2025\/11\/ki-studio-2025-welke-hardware-is-echt-de-moeite-waard-van-mac-studio-naar-rtx-3090\/\"><em><strong>\u201eAI Studio 2025 - welke hardware is echt de moeite waard, van de Mac Studio tot de RTX 3090\u201c<\/strong><\/em><\/a>, welke platforms geschikt zijn voor verschillende gebruikssituaties en hoe je het gebruik van je eigen bronnen kunt optimaliseren.<\/p>\n<p>Samen vormen deze artikelen een compacte basis voor iedereen die niet alleen lokale AI wil gebruiken, maar het ook wil begrijpen en met vertrouwen in zijn werkomgeving wil integreren.<\/p>\n<hr \/>\n\n\t\t\t<div class=\"display-post-types\">\n\n\t\t\t\t\t\t\t<style type=\"text\/css\">\n\t\t\t#dpt-wrapper-864 { --dpt-text-align: left;--dpt-image-crop: center;--dpt-border-radius: 5px;--dpt-h-gutter: 10px;--dpt-v-gutter: 9px; }\t\t\t<\/style>\n\t\t\t<style type=\"text\/css\">#dpt-wrapper-864 { --dpt-title-font-style:normal;--dpt-title-font-weight:600;--dpt-title-line-height:1.5;--dpt-title-text-decoration:none;--dpt-title-text-transform:none;--dpt-excerpt-font-style:normal;--dpt-excerpt-font-weight:400;--dpt-excerpt-line-height:1.5;--dpt-excerpt-text-decoration:none;--dpt-excerpt-text-transform:none;--dpt-meta1-font-style:normal;--dpt-meta1-font-weight:400;--dpt-meta1-line-height:1.9;--dpt-meta1-text-decoration:none;--dpt-meta1-text-transform:none;--dpt-meta2-font-style:normal;--dpt-meta2-font-weight:400;--dpt-meta2-line-height:1.9;--dpt-meta2-text-decoration:none;--dpt-meta2-text-transform:none; }<\/style><div class=\"dpt-main-header\">\n\t\t\t\t\t\t<div class=\"dpt-main-title\">\n\t\t\t\t\t\t\t<span class=\"dpt-main-title-text\">Sociale kwesties van nu<\/span>\n\t\t\t\t\t\t<\/div>\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t<\/div>\t\t\t\n\t\t\t\t<div id=\"dpt-wrapper-864\" class=\"dpt-wrapper dpt-mag1 land1 dpt-cropped dpt-flex-wrap\" >\n\n\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"wenn pflicht wieder pflicht wird. eine art essay von herrn von l&#8217;oreot.\" data-id=\"3010\"  data-category=\"allgemein gesellschaft kunst &amp; kultur stories &amp; humor\" data-post_tag=\"deutschland erfahrungen geopolitik krisen pers\u00f6nlichkeitsentwicklung sicherheitspolitik\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/nl\/2025\/10\/wanneer-plicht-weer-plicht-wordt-een-soort-essay-van-meneer-von-loreot\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Als plicht weer plicht wordt. Een soort essay van de heer von L'oreot.<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Een onverwacht telefoontje\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/loreot-pflicht-anruf.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/loreot-pflicht-anruf.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/loreot-pflicht-anruf-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/loreot-pflicht-anruf-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/loreot-pflicht-anruf-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/nl\/2025\/10\/wanneer-plicht-weer-plicht-wordt-een-soort-essay-van-meneer-von-loreot\/\" rel=\"bookmark\">Als plicht weer plicht wordt. Een soort essay van de heer von L'oreot.<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"kriegst\u00fcchtigkeit, wehrpflicht &#038; verweigerung: was im ernstfall zu tun ist\" data-id=\"2966\"  data-category=\"allgemein b\u00fccher gesellschaft tipps &amp; anleitungen\" data-post_tag=\"buch deutschland geopolitik gesundheit krisen pers\u00f6nlichkeitsentwicklung ratgeber sicherheitspolitik\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/nl\/2025\/09\/gewetensbezwaren-tegen-militaire-dienst-wat-te-doen-in-een-noodgeval\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Geschiktheid voor oorlog, dienstplicht en weigering: wat te doen in een noodgeval?<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1536\" height=\"1024\" class=\"attachment-full size-full\" alt=\"Dienstplicht: militaire dienst weigeren\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/wehrpflicht-kriegsdienst-verweigern.jpg\" data-dpt-sizes=\"(max-width: 1536px) 100vw, 1536px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/wehrpflicht-kriegsdienst-verweigern.jpg 1536w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/wehrpflicht-kriegsdienst-verweigern-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/wehrpflicht-kriegsdienst-verweigern-1024x683.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/wehrpflicht-kriegsdienst-verweigern-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/wehrpflicht-kriegsdienst-verweigern-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/nl\/2025\/09\/gewetensbezwaren-tegen-militaire-dienst-wat-te-doen-in-een-noodgeval\/\" rel=\"bookmark\">Geschiktheid voor oorlog, dienstplicht en weigering: wat te doen in een noodgeval?<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"unsterblichkeit durch technik: wie weit forschung und ki wirklich sind\" data-id=\"3624\"  data-category=\"allgemein gesellschaft ki-systeme\" data-post_tag=\"denkmodelle k\u00fcnstliche intelligenz lernen llm prozesse sprachmodell\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/nl\/2025\/11\/onsterfelijkheid-door-technologie-hoe-ver-onderzoek-en-ki-werkelijk-zijn\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Onsterfelijkheid door technologie: hoe ver zijn onderzoek en AI nu echt gekomen?<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Digitale onsterfelijkheid\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/digitale-unsterblichkeit.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/digitale-unsterblichkeit.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/digitale-unsterblichkeit-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/digitale-unsterblichkeit-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/digitale-unsterblichkeit-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/nl\/2025\/11\/onsterfelijkheid-door-technologie-hoe-ver-onderzoek-en-ki-werkelijk-zijn\/\" rel=\"bookmark\">Onsterfelijkheid door technologie: hoe ver zijn onderzoek en AI nu echt gekomen?<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"vom ende der wehrpflicht bis zu schulstreiks: die neue debatte \u00fcber bundeswehr und bildung\" data-id=\"5147\"  data-category=\"allgemein gesellschaft\" data-post_tag=\"deutschland europa geopolitik krisen meinungsfreiheit sicherheitspolitik\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/nl\/2026\/03\/van-het-einde-van-de-dienstplicht-naar-schoolstakingen-het-nieuwe-debat-over-de-duitse-strijdkrachten-en-onderwijs\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Van het einde van de dienstplicht tot schoolstakingen: het nieuwe debat over de Bundeswehr en onderwijs<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Schoolstakingen over dienstplicht en de Bundeswehr op scholen\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Wehrpflicht-Schulstreiks.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Wehrpflicht-Schulstreiks.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Wehrpflicht-Schulstreiks-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Wehrpflicht-Schulstreiks-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Wehrpflicht-Schulstreiks-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/nl\/2026\/03\/van-het-einde-van-de-dienstplicht-naar-schoolstakingen-het-nieuwe-debat-over-de-duitse-strijdkrachten-en-onderwijs\/\" rel=\"bookmark\">Van het einde van de dienstplicht tot schoolstakingen: het nieuwe debat over de Bundeswehr en onderwijs<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\n\t\t\t\t<\/div>\n\t\t\t\t\t\t<\/div>\n\t\t\t\n<hr \/>\n<h2>Veelgestelde vragen<\/h2>\n<ol>\n<li><strong>Waarom lijken moderne cloud-AI's opeens zo leerzaam?<\/strong><br \/>\nVeel gebruikers hebben gemerkt dat cloud AI's zich sinds GPT-4.1 en vooral sinds GPT-5 veel pedagogischer gedragen. Dit heeft vooral te maken met het feit dat grote providers onder grote juridische en politieke druk staan en daarom steeds meer gebruik maken van beveiligingsfilters die bedoeld zijn om uitspraken zo onschadelijk te maken dat er geen risico's ontstaan. Deze voorzorgsmaatregelen werken door in de toon van de antwoorden, zodat de modellen zich meer gedragen als moderators of toezichthouders dan als neutrale hulpmiddelen.<\/li>\n<li><strong>Waarom lijkt GPT-4.0 nu slechter te werken dan voorheen?<\/strong><br \/>\nHoewel GPT-4 nog steeds officieel beschikbaar is, melden veel gebruikers dat het alleen korte of afgebroken reacties geeft. Dit maakt het praktisch onbruikbaar. Of dit een technische reden is of een bewuste overgangsstrategie naar de 5e generatie kan niet met zekerheid worden gezegd. In feite verliest het model echter zijn vroegere kracht en worden gebruikers indirect gedwongen om naar de nieuwe versies te gaan, die strenger gereguleerd zijn.<\/li>\n<li><strong>Betekent deze ontwikkeling dat cloud-AI in de toekomst minder nuttig zal worden?<\/strong><br \/>\nCloud AI blijft krachtig, maar zal in toenemende mate worden gekenmerkt door regelgeving, nalevingsregels en politieke druk. Dit betekent dat het technisch indrukwekkend zal blijven, maar dat het voorzichtiger, meer gefilterd en minder vrij zal worden qua inhoud. Voor veel creatieve, analytische of onconventionele taken is dit een duidelijk nadeel, waardoor steeds meer gebruikers op zoek gaan naar alternatieven.<\/li>\n<li><strong>Waarom gebruiken AI-bedrijven eigenlijk zoveel beveiligingsmechanismen?<\/strong><br \/>\nDe reden ligt in de optelsom van regelgeving, aansprakelijkheidsrisico's en publieke perceptie. Elke fout, elk misleidend antwoord van een AI kan juridische of mediagevolgen hebben voor een bedrijf. Om dergelijke risico's uit te sluiten, implementeren leveranciers uitgebreide filters en richtlijnen die bedoeld zijn om alle antwoorden \u201eveilig te stellen\u201c. Dit beschermingsmechanisme is begrijpelijk vanuit het perspectief van het bedrijf, maar is vaak een belemmering vanuit het oogpunt van de gebruiker.<\/li>\n<li><strong>Wat is het fundamentele verschil tussen lokale AI en cloud-AI?<\/strong><br \/>\nLokale AI draait volledig op het eigen apparaat van de gebruiker en is daarom niet gebonden aan politieke eisen of bedrijfsrichtlijnen. Het filtert nauwelijks, geeft geen instructies en werkt direct volgens de specificaties van de gebruiker. Bovendien blijven alle gegevens op de eigen computer van de gebruiker. Dit geeft de gebruiker niet alleen meer vrijheid, maar ook meer privacy en controle.<\/li>\n<li><strong>Is er speciale hardware nodig om lokale AI te gebruiken?<\/strong><br \/>\nIn de meeste gevallen niet. Moderne lokale modellen zijn verbazingwekkend effici\u00ebnt en draaien al op typische Macs met M chips of op standaard Windows computers. Natuurlijk hebben grotere modellen baat bij meer RAM of een GPU, maar voor veel alledaagse taken voldoen kleine tot middelgrote modellen prima zonder dat er dure gespecialiseerde hardware nodig is.<\/li>\n<li><strong>Hoe werkt de installatie van lokale AI op de Mac in de praktijk?<\/strong><br \/>\nDe eenvoudigste manier om dit te doen is met Ollama. Je downloadt een installatiepakket, opent het en kunt meteen aan de slag. Zelfs het klassieke terminalcommando is optioneel geworden. Zodra Ollama installiert, kun je een model starten met een eenvoudig commando zoals \u201eollama run llama3\u201c. De drempel is net zo laag als vroeger bij het installeren van een normaal programma.<\/li>\n<li><strong>Hoe stel je lokale AI in op Windows?<\/strong><br \/>\nOnder Windows wordt ook het Ollama installatieprogramma gebruikt, dat geen extra voorbereiding vereist. Na de installatie kunnen de modellen onmiddellijk worden uitgevoerd. Als u liever een grafische gebruikersinterface gebruikt, kunt u LM Studio of OpenWebUI gebruiken, die net zo gemakkelijk te gebruiken zijn als standaard applicatiesoftware.<\/li>\n<li><strong>Welke modellen zijn bijzonder geschikt voor beginners?<\/strong><br \/>\nVeel gebruikers beginnen succesvol met Llama 3 omdat het nauwkeurig, veelzijdig en taalkundig sterk is. Even populair is Phi-3, dat ondanks zijn kleine model indrukwekkende resultaten levert. Gemma is ook een goede keuze, vooral voor creatief of tekstintensief werk. Deze modellen werken snel en stabiel zonder dat je er lang aan moet wennen. Als je meer middelen hebt, zijn GPT-OSS 20B of 120B zeer goede keuzes.<\/li>\n<li><strong>Kunnen lokale modellen echt concurreren met GPT-4 of GPT-5?<\/strong><br \/>\nZe kunnen dit verrassend goed voor veel alledaagse taken. De kloof bestaat nog steeds voor zeer gespecialiseerde onderwerpen, maar wordt snel kleiner. Lokale modellen hebben het voordeel dat ze minder beperkt zijn en directer reageren. Over het algemeen komen ze daardoor vrijer en natuurlijker over, ook al zijn ze technisch wat kleiner.<\/li>\n<li><strong>Is lokale AI veiliger bij het verwerken van gevoelige gegevens?<\/strong><br \/>\nJa, zeker weten. Omdat alle verwerking op je eigen apparaat plaatsvindt, verlaten de gegevens die je invoert nooit je computer. Er is geen verwerking in de cloud, geen opslag op externe servers en geen analyse door derden. Dit is een doorslaggevend voordeel, vooral voor zakelijke documenten, vertrouwelijke documenten of priv\u00e9notities.<\/li>\n<li><strong>Kan lokale AI worden gebruikt zonder internetverbinding?<\/strong><br \/>\nJa, dat is een van de grootste voordelen. Zodra het model installiert is ge\u00efnstalleerd, kan het volledig offline worden gebruikt. Dit verandert de computer in een zelfvoorzienende werkomgeving waarin je onafhankelijk van externe diensten kunt werken. Dit is vooral handig op reis, in beveiligde netwerken of in omgevingen waar gegevensbescherming een topprioriteit is.<\/li>\n<li><strong>Hoe geschikt zijn lokale modellen voor lange teksten?<\/strong><br \/>\nDe meeste moderne modellen kunnen tegenwoordig zonder problemen lange artikelen, analyses of concepten aan. Ze zijn niet zo gepolijst als GPT-5, maar zijn vrijer van filters en zijn vaak directer in hun stijl. Ze zijn zeer geschikt voor uitgebreide teksten, verzamelingen van idee\u00ebn of technische documentatie en maken productief werken zonder beperkingen mogelijk.<\/li>\n<li><strong>Hebben lokale modellen wel veiligheidsfilters?<\/strong><br \/>\nEr is meestal een bepaald niveau van basisbeveiliging beschikbaar, hoewel dit aanzienlijk zwakker is dan bij cloud-AI. Omdat de modellen op het eigen apparaat van de gebruiker draaien, kan deze zelf bepalen welke beperkingen zinvol zijn. Deze ontwerpvrijheid zorgt ervoor dat lokale AI veel flexibeler en minder betuttelend is.<\/li>\n<li><strong>Hoe kun je verschillende modellen testen of vergelijken?<\/strong><br \/>\nOllama, LM Studio of OpenWebUI maken het wisselen van model heel eenvoudig. U kunt meerdere install-modellen naast elkaar gebruiken, tussen ze wisselen en hun sterke punten vergelijken. Dit resulteert in een persoonlijke set favoriete modellen die precies passen bij uw eigen werkstijl. Het proces is eenvoudig en doet meer denken aan het testen van verschillende apps dan aan klassiek AI-onderzoek.<\/li>\n<li><strong>Wat zijn de voordelen van lokale modellen voor bedrijven?<\/strong><br \/>\nBovenal profiteren bedrijven van volledige gegevenssoevereiniteit, want geen cloud betekent geen externe opslag. Langdurige afhankelijkheid van externe services en dure abonnementen vallen ook weg. Modellen kunnen intern worden aangepast, uitgebreid of zelfs getraind. Integratie in bestaande processen is vaak eenvoudiger omdat u de volledige controle behoudt en niet gebonden bent aan externe infrastructuur.<\/li>\n<li><strong>Kunnen lokale modellen individueel worden getraind?<\/strong><br \/>\nIn feite is dit een van de belangrijkste voordelen. Met technieken zoals LoRA of fine-tuning kunnen modellen worden aangepast aan de eigen inhoud, processen of documenten van het bedrijf. Zo ontstaat een persoonlijke kennisbank die uitsluitend intern wordt gebruikt en ontwikkeld zonder dat gevoelige gegevens het bedrijf verlaten.<\/li>\n<li><strong>Wat zijn de kwalitatieve verschillen tussen de huidige lokale modellen?<\/strong><br \/>\nElk model heeft zijn eigen karakter. Llama 3 is heel precies en evenwichtig, Gemma is creatief en taalkundig soepel, Phi-3 verrast met zijn effici\u00ebntie en intelligentie, terwijl Mistral en Qwen analytisch bijzonder sterk zijn. Deze rijkdom aan varianten maakt het mogelijk om het juiste model voor je eigen behoeften te kiezen en flexibel te schakelen wanneer een taak dat vereist.<\/li>\n<li><strong>Kunnen lokale modellen ook afbeeldingen genereren?<\/strong><br \/>\nJa, beeldgeneratoren zoals Stable Diffusion kunnen volledig lokaal worden uitgevoerd met hulpmiddelen zoals OpenWebUI. De resultaten hangen af van de beschikbare hardware, maar zelfs met matige middelen kunnen solide afbeeldingen worden gegenereerd. Het voordeel blijft hetzelfde: er worden geen gegevens naar externe services gestuurd.<\/li>\n<li><strong>Voor wie is de overstap naar lokale AI vooral de moeite waard?<\/strong><br \/>\nLocal AI is ideaal voor gebruikers die zelfverzekerd en onafhankelijk willen werken. Hieronder vallen auteurs, ontwikkelaars, onderzoekers, ondernemers en iedereen die gevoelige informatie verwerkt of creatieve processen zonder filters wil ervaren. Iedereen die controle, gegevensbescherming en vrijheid belangrijk vindt, zal de juiste oplossing vinden in lokale modellen en een werkomgeving herwinnen die in de cloud niet meer bestaat.<\/li>\n<\/ol>\n<hr \/>\n\n\t\t\t<div class=\"display-post-types\">\n\n\t\t\t\t\t\t\t<style type=\"text\/css\">\n\t\t\t#dpt-wrapper-865 { --dpt-text-align: left;--dpt-image-crop: center;--dpt-border-radius: 5px;--dpt-h-gutter: 10px;--dpt-v-gutter: 9px; }\t\t\t<\/style>\n\t\t\t<style type=\"text\/css\">#dpt-wrapper-865 { --dpt-title-font-style:normal;--dpt-title-font-weight:600;--dpt-title-line-height:1.5;--dpt-title-text-decoration:none;--dpt-title-text-transform:none;--dpt-excerpt-font-style:normal;--dpt-excerpt-font-weight:400;--dpt-excerpt-line-height:1.5;--dpt-excerpt-text-decoration:none;--dpt-excerpt-text-transform:none;--dpt-meta1-font-style:normal;--dpt-meta1-font-weight:400;--dpt-meta1-line-height:1.9;--dpt-meta1-text-decoration:none;--dpt-meta1-text-transform:none;--dpt-meta2-font-style:normal;--dpt-meta2-font-weight:400;--dpt-meta2-line-height:1.9;--dpt-meta2-text-decoration:none;--dpt-meta2-text-transform:none; }<\/style><div class=\"dpt-main-header\">\n\t\t\t\t\t\t<div class=\"dpt-main-title\">\n\t\t\t\t\t\t\t<span class=\"dpt-main-title-text\">Huidige artikelen over kunst &amp; cultuur<\/span>\n\t\t\t\t\t\t<\/div>\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t<\/div>\t\t\t\n\t\t\t\t<div id=\"dpt-wrapper-865\" class=\"dpt-wrapper dpt-mag1 land1 dpt-cropped dpt-flex-wrap\" >\n\n\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"reichweite ist kein eigentum \u2013 warum sichtbarkeit heute nicht mehr ausreicht\" data-id=\"3994\"  data-category=\"allgemein filemaker &amp; erp gesellschaft kunst &amp; kultur\" data-post_tag=\"datenlogik datenschutz denkmodelle digitales eigentum erp-software\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/nl\/2025\/12\/bereik-is-geen-eigendom-waarom-zichtbaarheid-vandaag-de-dag-niet-meer-genoeg-is\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Bereik is geen eigendom - Waarom zichtbaarheid vandaag de dag niet meer genoeg is<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Bereik vs. eigendom\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/reichweite-vs-eigentum.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/reichweite-vs-eigentum.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/reichweite-vs-eigentum-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/reichweite-vs-eigentum-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/reichweite-vs-eigentum-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/nl\/2025\/12\/bereik-is-geen-eigendom-waarom-zichtbaarheid-vandaag-de-dag-niet-meer-genoeg-is\/\" rel=\"bookmark\">Bereik is geen eigendom - Waarom zichtbaarheid vandaag de dag niet meer genoeg is<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"iran verstehen: alltag, proteste und interessen jenseits der schlagzeilen\" data-id=\"4462\"  data-category=\"allgemein gesellschaft kunst &amp; kultur\" data-post_tag=\"erfahrungen europa geopolitik krisen meinungsfreiheit sicherheitspolitik spieltheorie\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/nl\/2026\/01\/het-dagelijks-leven-van-iran-begrijpen-protesten-en-belangen-buiten-de-krantenkoppen\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Iran begrijpen: Het dagelijks leven, protesten en belangen buiten de krantenkoppen<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Iran begrijpen\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Iran-Titel.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Iran-Titel.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Iran-Titel-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Iran-Titel-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Iran-Titel-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/nl\/2026\/01\/het-dagelijks-leven-van-iran-begrijpen-protesten-en-belangen-buiten-de-krantenkoppen\/\" rel=\"bookmark\">Iran begrijpen: Het dagelijks leven, protesten en belangen buiten de krantenkoppen<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"wenn pflicht wieder pflicht wird. eine art essay von herrn von l&#8217;oreot.\" data-id=\"3010\"  data-category=\"allgemein gesellschaft kunst &amp; kultur stories &amp; humor\" data-post_tag=\"deutschland erfahrungen geopolitik krisen pers\u00f6nlichkeitsentwicklung sicherheitspolitik\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/nl\/2025\/10\/wanneer-plicht-weer-plicht-wordt-een-soort-essay-van-meneer-von-loreot\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Als plicht weer plicht wordt. Een soort essay van de heer von L'oreot.<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Een onverwacht telefoontje\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/loreot-pflicht-anruf.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/loreot-pflicht-anruf.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/loreot-pflicht-anruf-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/loreot-pflicht-anruf-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/loreot-pflicht-anruf-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/nl\/2025\/10\/wanneer-plicht-weer-plicht-wordt-een-soort-essay-van-meneer-von-loreot\/\" rel=\"bookmark\">Als plicht weer plicht wordt. Een soort essay van de heer von L'oreot.<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"apple im wandel: fr\u00fche ger\u00e4te, eigene erfahrungen und eine ausstellung im ocm\" data-id=\"5480\"  data-category=\"allgemein apple iphone &amp; ipad apple macos hardware kunst &amp; kultur stories &amp; humor\" data-post_tag=\"apple erfahrungen filemaker mac prozesse publishing\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/nl\/2026\/03\/apple-in-transition-vroege-apparaten-eigen-ervaringen-en-een-tentoonstelling-op-ocm\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Apple in transitie: Vroege apparaten, persoonlijke ervaringen en een tentoonstelling in het OCM<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Apple Macintosh Classic en kleurenklassieker\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Apple-OCM-Titel.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Apple-OCM-Titel.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Apple-OCM-Titel-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Apple-OCM-Titel-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Apple-OCM-Titel-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/nl\/2026\/03\/apple-in-transition-vroege-apparaten-eigen-ervaringen-en-een-tentoonstelling-op-ocm\/\" rel=\"bookmark\">Apple in transitie: Vroege apparaten, persoonlijke ervaringen en een tentoonstelling in het OCM<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\n\t\t\t\t<\/div>\n\t\t\t\t\t\t<\/div>\n\t\t\t\n<hr \/>","protected":false},"excerpt":{"rendered":"<p>Toen de grote taalmodellen een paar jaar geleden aan hun zegetocht begonnen, leken ze bijna een terugkeer naar de oude deugden van technologie: een hulpmiddel dat doet wat het wordt opgedragen. Een hulpmiddel dat de gebruiker dient, niet andersom. De eerste versies - van GPT-3 tot GPT-4 - hadden zwakke punten, dat wel, maar ze waren verbazingwekkend nuttig. Ze ... <a title=\"Apple in transitie: Vroege apparaten, persoonlijke ervaringen en een tentoonstelling in het OCM\" class=\"read-more\" href=\"https:\/\/www.markus-schall.de\/nl\/2026\/03\/apple-in-transition-vroege-apparaten-eigen-ervaringen-en-een-tentoonstelling-op-ocm\/\" aria-label=\"Lees meer over Apple in transitie: Vroege apparaten, persoonlijke ervaringen en een tentoonstelling bij het OCM\">Lees verder<\/a><\/p>","protected":false},"author":1,"featured_media":3927,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"iawp_total_views":103,"footnotes":""},"categories":[431,15,147],"tags":[469,473,471,435,433,476,437,465,453,432,434],"class_list":["post-3887","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ki-systeme","category-apple-macos","category-hardware","tag-datenschutz","tag-digitales-eigentum","tag-kuenstliche-intelligenz","tag-llama","tag-llm","tag-meinungsfreiheit","tag-mistral","tag-mlx","tag-neo4j","tag-ollama","tag-sprachmodell"],"_links":{"self":[{"href":"https:\/\/www.markus-schall.de\/nl\/wp-json\/wp\/v2\/posts\/3887","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.markus-schall.de\/nl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.markus-schall.de\/nl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.markus-schall.de\/nl\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.markus-schall.de\/nl\/wp-json\/wp\/v2\/comments?post=3887"}],"version-history":[{"count":11,"href":"https:\/\/www.markus-schall.de\/nl\/wp-json\/wp\/v2\/posts\/3887\/revisions"}],"predecessor-version":[{"id":5848,"href":"https:\/\/www.markus-schall.de\/nl\/wp-json\/wp\/v2\/posts\/3887\/revisions\/5848"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.markus-schall.de\/nl\/wp-json\/wp\/v2\/media\/3927"}],"wp:attachment":[{"href":"https:\/\/www.markus-schall.de\/nl\/wp-json\/wp\/v2\/media?parent=3887"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.markus-schall.de\/nl\/wp-json\/wp\/v2\/categories?post=3887"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.markus-schall.de\/nl\/wp-json\/wp\/v2\/tags?post=3887"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}