AI in transitie: informatie die aanzet tot betere besluiten

De lange weg waarlangs AI onze wereld binnenkwam

Wie vandaag een vraag stelt aan een chatbot, krijgt vaak binnen enkele seconden een vloeiend antwoord. Het voelt als magie, of op zijn minst als een plotselinge technologische storm die uit het niets is komen opzetten. Maar onder de motorkap van de moderne kunstmatige intelligentie (AI) ligt een decennialange geschiedenis van fundamentele keuzes, vallen en opstaan. Om te begrijpen waar we nu staan, helpt het om AI niet te zien als één uitvinding, maar als de samensmelting van twee verschillende routes:

  1. de route van de regels,
  2. de route van de voorbeelden.

 

Artificial Intelligence, of wel kunstmatige intelligentie is al decennia lang voer voor de discussie wat intelligentie nu eigenlijk is. Dat laten we hier in het midden en we gaan uit van systemen en oplossing waarbij we ervaren dat ze gedrag vertonen dat lijkt op intelligentie. Kort gezegd dat ze cognitieve dingen kunnen die we als mensen niet, of alleen met heel veel moeite, zelf ook kunnen uitvoeren. En de basis hiervoor ligt in wat we computers noemen.

Computers zijn systemen die berekeningen uit kunnen voeren op basis van rekenregels die we met eenvoudige bewerkingen geautomatiseerd konden laten uitvoeren. Iedere stap in deze bewerking is op zichzelf helmaal niet zo bijzonder maar door de snelheid en hoeveelheid stappen die een computer kon uitvoeren was het resultaat verbluffend. Daar komt bij dat we een computer ook nog instructies konden geven wat een fantastische flexibiliteit in de toepassing opleverde. Niet voor iedere bewerking een apart apparaat maar een apparaat dat je kon vertellen welke bewerking het uit moest voeren. De geboortegrond voor programmeertalen.

Een programmeertaal stelt je in staat om je kennis van een bewerking over te brengen aan de computer. Je gaf instructies, regels, die de bewerking definiëren. De typische structuur hiervan is

ALS dit de situatie is,

DAN doe je iets,

ANDERS doe je iets anders.

De volledige structuur van een set instructies heeft feitelijk maar drie structuur elementen:

  • sequentie, het (heel snel) na elkaar uitvoeren van kleine stapjes,
  • selectie, een keuze afhankelijke van een voorgedefinieerde situatie,
  • iteratie, een herhaling van een serie instructies.

Daarbij zou je kunnen zeggen dat een iteratie eigenlijk gewoon een vorm van selectie is. Deze eenvoud en de snelheid waarmee computers het kunnen uitvoeren leidt tot een gedrag dat we als intelligent zien.

Fase 1 — Regels: ALS…DAN…ANDERS (klassiek programmeren)

Wat het is: Een programmeur beschrijft expliciet wat het systeem moet doen. Geen “leren”, geen statistiek alleen uitvoeren.

Concrete voorbeelden in organisaties

  • Korting/prijsregels: ALS klanttype = “Gold” DAN 10% korting ANDERS 0%.

  • Compliance checks: ALS IBAN ontbreekt DAN blokkeren.

  • Workflow: ALS factuurbedrag > €10.000 DAN extra goedkeuring.

Metafoor
Een 
Standard Operating Procedure (SOP) / werkinstructie: stap-voor-stap, geen interpretatie.

Voordelen

  • Voorspelbaar, testbaar, auditbaar.

  • Perfect voor stabiele regels en harde grenzen.

Nadelen

  • Breekbaar bij uitzonderingen en grijze gevallen.

  • Je krijgt “regelgroei”: steeds meer uitzonderingen, steeds meer onderhoud.

  • Slecht in taal, beelden en menselijke variatie.

Waarom er iets nieuws nodig was
Zodra je iets wilt dat lijkt op “inschatten” (fraude, prioriteit, sentiment), lopen harde regels vast.
De wereld verandert te snel en is te rommelig.

De route van de regels: Kennis vangen in software

In de vroege dagen van AI was de overtuiging: als we de kennis van experts nauwkeurig genoeg opschrijven in regels, dan kan een computer redeneren als een mens. Dit leidde tot de opkomst van kennissystemen, ook wel expert systems genoemd. Een beroemd voorbeeld uit de jaren zeventig is MYCIN, een systeem dat artsen adviseerde over infectieziekten. Het werkte met honderden ‘als-dan-regels’. Als de patiënt deze symptomen heeft en die testuitslag, dan is dit de waarschijnlijke bacterie.

Hoewel MYCIN in tests vaak net zo goed presteerde als menselijke specialisten, liep deze aanpak tegen een harde grens aan. De werkelijkheid is namelijk grillig. Voor elke regel is er een uitzondering, en voor elke uitzondering is weer een nieuwe regel nodig. Zulke systemen bleken ‘rand-gevoelig’: ze werkten uitstekend in het midden van hun vakgebied, maar werden onvoorspelbaar zodra een situatie net even anders was. Bovendien was het onderhoud een nachtmerrie; elke nieuwe wetenschappelijke ontdekking betekende dat duizenden regels handmatig moesten worden nagelopen.

Fase 2 — Regels + kennis: beslisbomen en expertsystemen

Wat het is: Nog steeds regels, maar op grotere schaal en met “redenatie”: als A en B, dan C.

Concrete voorbeelden

  • Callcenter scripts: “Als klant klaagt over levering, vraag X; als X, doe Y.”

  • Storingsdiagnose: foutcodes → mogelijke oorzaken → acties.

  • Risico-classificatie: set van policy-regels en beslisbomen.

Metafoor
Een 
callcenter handboek dat vertakt.

Voordelen

  • In smalle domeinen goed uitlegbaar (“we namen pad 3 in de boom”).

  • Geschikt voor governance: regels zijn zichtbaar.

Nadelen

  • Onderhoud nachtmerrie: één wijziging heeft onverwachte effecten (“Jenga”).

  • De echte expertise blijft vaak impliciet; mensen kunnen het niet volledig opschrijven.

  • Nog steeds zwak bij nieuwe situaties.

Waarom doorontwikkelen
Je
zou willen dat systemen leren uit voorbeelden in plaats van dat experts alles vooraf moeten coderen.

Later probeerden we dit op te lossen met ontologieën: digitale begrippenmodellen die niet alleen regels, maar ook de relaties tussen begrippen vastlegden. Het doel was om software echt te laten ‘begrijpen‘ wat een woord betekent in een specifieke context. Maar ook hier bleef het knelpunt hetzelfde: het expliciteren van menselijke kennis is traag, duur en altijd achterhaald door de actualiteit.

Fase 3 — Zoeken, optimalisatie en heuristieken (de computer als planner)

Wat het is: Niet alles in regels, maar: “zoek de beste oplossing” binnen constraints. Vaak met optimalisatie, planning, operations research.

Concrete voorbeelden

  • Route- en ritplanning (logistiek).

  • Roosteren (zorg, productie, service).

  • Voorraadoptimalisatie (kosten vs beschikbaarheid).

Metafoor
Een 
planner met een enorme whiteboard-ruimte, hij probeert en vergelijkt verschillende opties, en gebruikt slimme shortcuts.

Voordelen

  • Sterk bij planning en allocatieproblemen.

  • Resultaat kan objectief geoptimaliseerd worden (tijd, kosten, servicelevels).

Nadelen

  • Problemen worden snel heel groot (combinatorische explosie).

  • Vereist heldere doelen en constraints; “vage” doelen werken slecht.

Waarom doorontwikkelen
Optimalisatie
zorgt voor planning, maar begrijpt je data niet vanzelf. Voor patronen in e-mails, transacties, sensordata heb je modellen nodig die uit data leren.

De route van de voorbeelden: Leren van patronen

Terwijl de ene groep wetenschappers regels schreef, werkte een andere groep aan een radicaal ander idee: machine learning. In plaats van een computer te vertellen wat de regels zijn, geef je hem duizenden voorbeelden en laat je hem zelf de patronen ontdekken. Dit spoor kreeg een enorme versnelling door zogenaamde neurale netwerken, computermodellen die losjes zijn geïnspireerd op de werking van ons brein.

Fase 4 — Machine Learning (klassiek): leren voorspellen op basis van data

Wat het is: Je traint een model op historische data: het leert correlaties en patronen.

Concrete voorbeelden

  • Fraude/anomalie-detectie: welke transactie wijkt af van normaal?

  • Lead scoring: welke klant is waarschijnlijk koopbereid?

  • Predictive maintenance: faalkans op basis van sensordata.

Metafoor
Een ervaren medewerker die zegt: “Dit lijkt op eerdere gevallen; ik verwacht X.” Alleen is het een statistisch model.

Voordelen

  • Kan meebewegen met variatie; wordt vaak beter met meer (goede) data.

  • Goed voor probabilistische beslissingen (risicoscores).

Nadelen

  • Bias en datakwaliteit: “garbage in, garbage out”.

  • Uitlegbaarheid is lastiger dan bij regels.

  • Werkt slecht buiten het domein van de trainingsdata (concept drift).

Waarom doorontwikkelen
Voor taal, beelden en complexe signalen
zijn de features en modellen nog te beperkt. Je zou modellen willen die zelf de benodigde representaties leren.

Spellen bleken de perfecte proeftuin voor deze techniek. Een spel heeft drie eigenschappen die ideaal zijn voor onderzoek:

  • De regels zijn volledig en ondubbelzinnig.

  • Elke zet verandert de toestand van het systeem.

  • De uitkomst is meetbaar: winst of verlies.

Bij schaak bleek brute rekenkracht gecombineerd met slimme evaluatiefuncties al ver te komen. In 1997 versloeg IBM’s Deep Blue wereldkampioen schaken Garry Kasparov. Dat was een mijlpaal, maar Deep Blue vertrouwde naast brute rekenkracht nog op door mensen ingegeven waarderingscijfers voor schaakposities. De echte aardbeving kwam in 2016 met AlphaGo. Het spel Go is zo complex dat je het niet kunt winnen met alleen rekenkracht of handmatige regels. AlphaGo leerde door miljoenen partijen te bestuderen en daarna tegen zichzelf te spelen. Het ontdekte zetten die geen mens ooit had bedacht. Hier zagen we voor het eerst de kracht van een systeem dat zijn eigen ‘kennis’ opbouwt uit data.

AlphaGo combineerde drie elementen:

  • diepe neurale netwerken die patronen in bordposities leerden herkennen

  • reinforcement learning via zelfspel

  • een zoekmechanisme (tree search) om mogelijke toekomstvarianten te verkennen

Het neurale netwerk leerde welke zetten waarschijnlijk sterk waren (policy network) en hoe kansrijk een positie was (value network). De zoekboom gebruikte die inschattingen om vooruit te kijken in mogelijke toekomstscenario’s. Hier gebeurde iets fundamenteels. Niet langer probeerden mensen het spel in regels te vangen. Het systeem leerde zelf de patronen in miljoenen posities en het gebruikte die patronen om beter te zoeken.

Dat is de echte betekenis van AlphaGo. Het liet zien dat je complexe beslisstructuren niet hoeft te programmeren als regels. Je kunt een systeem trainen om waarde en waarschijnlijkheid te schatten.

Op basis van deep learning leerde de computer voor het eerst echt ‘kijken’. Waar vroeger op pixelniveau geprogrammeerd moest worden om een rand of een vorm te herkennen, leerden diepe neurale netwerken (zoals Convolutional Neural Networks) zelf visuele patronen te ontdekken. Van het herkennen van een kat op een foto tot het detecteren van tumoren op röntgenfoto’s, AI leerde de visuele wereld te interpreteren.

Fase 5 — Neurale netwerken en deep learning: representaties leren

Wat het is: Modellen leren meerdere niveaus van patronen (van simpele signalen naar complexere concepten).

Concrete voorbeelden

  • Documentclassificatie (contracttype, onderwerp, urgentie).

  • Spraak-naar-tekst in klantenservice.

  • Beeldherkenning (kwaliteitscontrole in productie).

Metafoor
Een fabriek met meerdere inspectiestations: elk station ziet een ander detailniveau.

Voordelen

  • Sterk in “rommelige” data: beeld, spraak, tekst.

  • Minder handmatige feature engineering.

Nadelen

  • Black box”-gevoel, lastig te auditen.

  • Vraagt niet alleen een model, maar ook een volwassen ecosysteem van data, infrastructuur en beheer.

Waarom doorontwikkelen
Er was nog één grote wens: één model dat breed inzetbaar is op taal, samenvatten, schrijven, redeneren over tekst, zonder voor elke taak een nieuw model te bouwen.

De grote sprong: De Transformer en de taalmachine

De volgende grote sprong kwam niet uit spellen, maar uit de behoefte om complexe sequenties zoals taal te begrijpen. De techniek die AlphaGo zo sterk maakte, werd losgelaten op taal. Taal is in feite ook een systeem van toestanden. Elk woord verandert de context, elke zin opent nieuwe mogelijkheden. Het voorgaande bepaalt wat logisch volgt. Maar taal is complexer dan een spelbord. Woorden verwijzen naar eerdere woorden. Betekenis hangt af van lange contexten. Ironie en nuance zitten niet in één token (woord), maar in de samenhang. Reinforcement learning en tree search alleen blijken hiervoor niet voldoende.

De grote doorbraak kwam met de uitvinding van de ‘Transformer‘ in 2017. Dit is een specifiek type neuraal netwerk dat extreem goed is in het begrijpen van context. Waar oudere systemen woorden één voor één lazen, kan een Transformer naar een hele zin of pagina tegelijk kijken en wegen welke woorden het belangrijkst zijn voor de betekenis. Het ‘ziet’ de relatie tussen een onderwerp aan het begin van een alinea en een verwijswoord aan het eind. Dat mechanisme heet “attention”. Het model leert dus niet alleen patronen, maar ook welke delen van de context relevant zijn voor het volgende woord.



Fase 6 — Transformers en foundation models

Wat het is: Grote modellen leren taalpatronen op schaal. Ze zijn de “foundation” omdat je ze kunt toepassen op veel taken.

Concrete voorbeelden

  • Samenvatten van rapporten/incidenten/vergadernotulen.

  • Zoeken met natuurlijke taal (“vind alle contracten met X-clausule”).

  • Classificatie en extractie uit documenten (entiteiten, bedragen, datums).

  • Code-assistentie (boilerplate, tests, uitleg van fouten).

  • Multimodale analyse: Het combineren van tekst en beeld, zoals het automatisch beschrijven van wat er op een foto of in een video gebeurt, of het analyseren van een ingescande grafiek.

Metafoor
Een extreem geoefende 
tekstassistent die veel stijlen en formats kan nadoen.

Voordelen

  • Eén model kan veel taken aan.

  • Snel productief in pilots (mits je scope klein houdt).

Nadelen

  • Kan overtuigend klinken en toch fout zijn (hallucinatie).

  • Privacy/IP en governance worden meteen relevant.

  • Kosten/latency zijn reële architectuurfactoren.

Waarom doorontwikkelen

We willen systemen die niet alleen patronen herkennen, maar ook kennis toegankelijk maken, informatie kunnen structureren en bruikbaar formuleren voor mensen — terwijl de betrouwbaarheid, controle en governance beter moet worden geborgd.

Dankzij deze architectuur konden we Large Language Models (LLM’s) bouwen. Deze modellen worden getraind op bijna alles wat er ooit digitaal is geschreven: boeken, artikelen, websites en ook enorme hoeveelheden computercode. Een LLM leert simpelweg welk woordfragment het meest waarschijnlijk volgt op een ander, gegeven de context. Het resultaat is een machine die niet alleen vloeiend kan schrijven, maar ook kan samenvatten, vertalen en zelfs programmeren door patronen in code te herkennen.

De chatbot als de grote gelijkmaker

De techniek bleef lang het domein van specialisten, totdat de chat-interface werd toegevoegd. De chatbot is in feite de ‘vriendelijke schil’ rondom een complex wiskundig model. Door AI een gesprekspartner te maken, viel de drempel voor het grote publiek weg. Je hoeft geen programmeur te zijn om een doel te formuleren; je vraagt het gewoon in je eigen taal. Dit loste in één klap een groot probleem van de oude kennissystemen op: de integratie in ons dagelijks werk. De AI zit nu niet meer in een apart, ingewikkeld programma, maar in een tekstvakje dat we allemaal kunnen begrijpen.

Controle en betrouwbaarheid: De rol van RAG

Ondanks de vloeiende teksten hebben LLM’s een bekend probleem: ze kunnen ‘hallucineren‘. Omdat ze optimaliseren voor waarschijnlijkheid en niet voor waarheid, verzinnen ze soms feiten die heel geloofwaardig klinken. Voor professioneel gebruik is dat onacceptabel.

De oplossing die nu breed wordt omarmd is RAG (Retrieval-Augmented Generation). Stel je voor dat de AI een schrijver is die uit zijn hoofd een verhaal vertelt (en soms dingen verzint). Met RAG geven we die schrijver een archiefmedewerker naast zich. Voordat de schrijver begint, haalt de medewerker de juiste documenten uit een betrouwbaar archief. De schrijver gebruikt vervolgens alleen die informatie voor het antwoord. Zo koppelen we het taalgevoel van de moderne AI aan de controleerbaarheid van specifieke bronnen, zoals beleidsstukken of handleidingen.

De visuele revolutie: AI als kunstenaar en ontwerper

Naast tekst heeft Generatieve AI ook de visuele wereld op zijn kop gezet. Voor beeldmateriaal maken wordt vaak gebruik gemaakt van zogenaamde Diffusiemodellen. Het model begint met een veld vol willekeurige ruis (vergelijkbaar met de ruis op een oude tv). Op basis van een tekstprompt (bijv. ‘een futuristisch kantoor in de zon’) haalt het model stap voor stap de ruis weg, totdat er een scherp beeld overblijft dat exact aan de beschrijving voldoet.

De kracht hiervan is dat de AI niet naar bestaande plaatjes op internet zoekt, maar het ‘synthetiseert‘ in enkele seconden volledig nieuwe, fotorealistische of artistieke beelden die nog nooit eerder hebben bestaan. Het begrijpt de relatie tussen licht, schaduw, perspectief en objecten.

Voor de toepassing betekent dit een revolutie in creatiekracht. Marketingcampagnes, productontwerpen, architectuur en illustraties kunnen razendsnel gevisualiseerd worden. Het verlaagt de kosten en tijd van visuele productie drastisch en geeft iedereen de middelen van een professionele studio in handen.

Fase 7 — Generatieve AI: niet alleen analyseren, maar produceren

Wat het is: Het model maakt tekst (of code/beelden) als output. In het bedrijfsleven is dat vooral: concepten produceren, varianten genereren, herformuleren, structureren.

Concrete voorbeelden

  • Eerste versie van klantmails, incident-updates, beleidsnotities (met menselijke review).

  • Samenvatting + actiepunten uit tickets/rapporten.

  • Conversational BI: vragen in gewone taal vertaald naar SQL/rapportuitleg (met controle).

  • Kennisassistent op interne documenten (RAG): “Wat zegt ons beleid over X?”

Metafoor
Een junior consultant die razendsnel een 
eerste draft kan maken—maar die je wél moet controleren.

Voordelen

  • Versnelt drafting en kenniswerk, verlaagt de drempel om te starten.

  • Kan helpen om consistent te schrijven (toon, structuur).

Nadelen

  • Schijnzekerheid: fout antwoord in nette taal is gevaarlijker dan “ik weet het niet”.

  • Kan bronnen verzinnen als je hier niet op stuurt (“grounding”).

  • Compliance: data lekken, onbedoelde opslag, prompt-injection bij toolgebruik.

Waarom doorontwikkelen
Omdat men niet alleen “inzicht” wil, maar ook “actie”: taken laten uitvoeren, workflows aansturen, systemen bevragen.
Daar komt autonomie om de hoek kijken.

De prijs van de vooruitgang: Data en impact

Het vermogen van AI komt niet gratis. De honger naar trainingsdata is enorm, wat leidt tot fundamentele discussies over copyright en ethiek. Mag je zomaar het werk van schrijvers, kunstenaars en programmeurs gebruiken om een model te trainen dat hen vervolgens kan nadoen? Dit raakt aan de legitimiteit van de technologie, zeker voor publieke organisaties die transparant moeten zijn over hun bronnen.

Daarnaast is er de fysieke impact. Achter de schermen van een simpele chatvraag draaien enorme datacenters die gigantische hoeveelheden ruimte, energie en water voor koeling verbruiken. De schaal van deze infrastructuur is bijna onvoorstelbaar en dwingt ons tot vragen over duurzaamheid.

De toekomst: Van praten naar doen

We staan nu op de grens van de volgende stap: agents. Dit zijn systemen die niet alleen antwoorden geven, maar ook taken uitvoeren. Een agent kan een planning maken, een dossier bijwerken of een e-mail versturen op basis van een opdracht. Hiermee verschuift AI van een adviseur naar een actieve deelnemer in onze werkprocessen.

Fase 8 — (Beperkte) autonomie: AI als uitvoerder in een workflow

Wat het is: Een AI die stappen kan kiezen: informatie ophalen, tools gebruiken, vervolgacties voorstellen/uitvoeren (binnen grenzen). Dit is minder “magie in het model” en meer orkestratie eromheen.

Concrete voorbeelden

  • Service desk agent: zoek in interne handleidingen naar een oplossing, controleert in het registratiesysteem wat de status van de melding is, stelt een conceptantwoord op voor de medewerker en bereidt een update van de melding voor

  • Procurement assistent: vat offertes samen, checkt standaardvoorwaarden, markeert risico’s, zet conceptvergelijking klaar.

Metafoor
Een medewerker met toegang tot systemen, maar met 
rolgebaseerde autorisaties en een supervisor.

Voordelen

  • Echte proceswinst als toolgebruik en rechten goed zijn ingericht.

  • Kan repetitief werk end-to-end versnellen.

Nadelen

  • Fouten kunnen operationele impact hebben (verkeerd ticket sluiten, verkeerde update, verkeerde besluiten).

  • Governance problematiek: naarmate AI meer mag doen, wordt het belangrijk dat het alleen passende toegang heeft en niet alles wat AI doet is traceerbaar.

Waarom doorontwikkelen
AI is nog altijd geen Generieke intelligentie en heeft nog onvoldoende geïntegreerde verantwoording in transparantie. Ook lijkt de strategie van opschalen richting haar grenzen te lopen zoals in de begindagen met de regel gebaseerde kennissystemen.

Informatie-architectuur

Hoe meer AI voor ons gaat doen en schrijven, hoe belangrijker de herkomst en betrouwbaarheid van informatie wordt. In een wereld vol automatisch gegenereerde teksten is de vraag “Wie heeft dit op basis van welke bron besloten?” belangrijker dan ooit. De techniek mag dan veranderd zijn van starre regels naar vloeiende patronen, de behoefte aan controleerbaarheid en publieke verantwoording is alleen maar groter geworden.

Een LLM is getraind op deels gekwalificeerde data en deel op data die op het internet rondzwerft. Met transformers en regelgebaseerde koppelvlakken kunnen we een deel van de historische bias oplossen. Het LLM levert vooral de taalvaardigheid waarbij eigen data de inhoudelijke kennis van een AI toepassing levert voor je eigen context. Die data moet dan wel betrouwbaar, interpreteerbaar en betekenisvol zijn. Kortom: de data moet als informatie zijn geregistreerd. Alleen zo combineren we de vloeiende magie van moderne AI met de harde betrouwbaarheid die we in de echte wereld nodig hebben.

Verdieping en onderbouwing: