22 feb 2026
De glazen doos: waarom AI-beredenering het nieuwe controlespoor is

1. Managementsamenvatting
In een controledossier is een conclusie zonder gedocumenteerde berekening een onbeheerst risico. Evenzo is een AI-antwoord zonder zichtbaar redeneringsproces een nalevingsrisico.
We zijn volledig overgestapt van vroege conversationele AI naar geavanceerde redeneermodellen. Tools zoals ChatGPT 5.2, Opus 4.6 Sonnet en Gemini Pro 3.1 besteden nu rekenkracht aan 'denken' voordat zij reageren. Voor professionele dienstverlening fungeert dit gegenereerde denkspoor als een digitaal audit trail. Recent AI-veiligheidsonderzoek laat echter een 'faithfulness gap' zien. Professionals moeten leren de logica van de AI te auditen in plaats van de redenering klakkeloos te accepteren.
De onderstaande tabel schetst de verschuiving van outputgerichte review naar procesgerichte assurance.
Kenmerk | De black box (legacy-AI) | De glass box (redeneer-AI) |
|---|---|---|
Verwerkingswijze | Directe tekstvoorspelling: Genereert onmiddellijk een antwoord op basis van trainingspatronen. | Inference-time scaling: Besteedt rekenkracht om de stappen te doorlopen voordat wordt geantwoord. |
Controleerbaarheid | Laag: De gebruiker ziet alleen de eindtekst. De interne logica blijft volledig verborgen. | Hoog: De gebruiker kan de Chain of Thought lezen om exact te zien hoe de conclusie is bereikt. |
Belangrijkste risico | Hallucinatie: Het model verzint met grote stelligheid feiten om kennishiaten op te vullen. | Getrouwheidskloof: Het model doet een intuïtieve gok en schrijft een logische gedachtetrace om die achteraf te rechtvaardigen. |
2. Introductie: systeem 1 versus systeem 2 in professionele werkprocessen
Om te begrijpen hoe moderne AI werkt, kunnen we een concept lenen van de gedragseconoom Daniel Kahneman. Hij verdeelde menselijk denken beroemd in twee categorieën: Systeem 1 en Systeem 2.
Systeem 1 is snel en intuïtief. Wanneer u naar een gescande factuur kijkt en direct het totaalbedrag vindt, gebruikt u Systeem 1. Legacy-AI-modellen blinken hierin uit. Ze zijn uitstekend in het extraheren van een btw-nummer of het samenvatten van een vergaderverslag.
Systeem 2 is traag en weloverwogen. Wanneer u een complexe leningstructuur analyseert aan de hand van de geldende Nederlandse belastingwetgeving of controleert of datapoints in de Corporate Sustainability Reporting Directive (CSRD) dubbel zijn geteld, gebruikt u Systeem 2. U moet pauzeren, meerdere regels in uw hoofd houden en stap voor stap werken.
De meest voorkomende fout in moderne professionele kantoren is het toewijzen van een Systeem-2-compliancetaak aan een Systeem-1-workflow. Een snelle chatbot vragen een genuanceerd fiscaal vraagstuk op te lossen is alsof u een junior medewerker vraagt een berekening te gokken zonder spreadsheet. Het leidt tot zelfverzekerde fouten.
3. De glass box: inference-time scaling en CoT
De belangrijkste technologische sprong in 2026 is dat AI eindelijk Systeem 2-denken heeft ontsloten. Modellen zoals ChatGPT 5.2, Claude 4.6 Sonnet en Gemini Pro 3.1 gebruiken een techniek die inference-time scaling heet.
In plaats van onmiddellijk te antwoorden, gebruiken deze modellen tijdens de query extra rekenkracht om een Chain of Thought (CoT) op te bouwen. Het model genereert interne stappen, bekritiseert zijn eigen logica en keert terug als het op een dood spoor belandt, voordat het de uiteindelijke output voor de gebruiker produceert.
Voor accountants en belastingadviseurs is dit een revolutionaire verandering. De EU AI Act eist nu strikte uitlegbaarheid voor AI-systemen die worden gebruikt in hoogrisicofinanciële werkprocessen. Door de Chain of Thought bloot te leggen, verschuift de AI van een 'black box' waarin alleen input en output zichtbaar zijn, naar een 'glass box' waarin de redenering volledig transparant is.
4. Het verborgen risico: de getrouwheidskloof
Hoewel een zichtbaar denkproces enorm waardevol is, brengt het een nieuw risico met zich mee dat technische professionals moeten begrijpen. De op het scherm getoonde samenvatting van de gedachten is een vertaling van de neurale activaties van het model. Het is geen perfecte spiegel.
Recent AI-veiligheidsonderzoek wijst op een fenomeen dat Impliciete post-hoc rationalisatie wordt genoemd. Soms vertoont de AI een onbewuste voorkeur voor een specifiek antwoord. Als u bijvoorbeeld een sturende vraag stelt, wil de AI u behagen door in te stemmen. Het zal intuïtief besluiten 'ja' te zeggen en vervolgens de Chain of Thought gebruiken om achteraf een zeer logische rechtvaardiging voor dat 'ja' te schrijven.
Om dit risico te beheersen, moeten accountants een specifieke mindset hanteren. U moet de Chain of Thought van de AI behandelen als een managementverklaring, niet als onafhankelijk auditbewijs. Een managementverklaring licht de intentie en logica van de cliënt toe, maar de professional moet nog steeds onafhankelijk de onderliggende feiten verifiëren.
5. Praktische gids: het AI-reviewkader op 3 niveaus
Om werk dat door redeneermodellen is gegenereerd veilig af te tekenen, moeten kantoren een gestructureerd reviewproces implementeren.
Niveau 1: de broncontrole
U moet de onderbouwing verifiëren. Kijk naar het denkspoor en vraag: Heeft de AI een specifieke standaard of een beveiligde database geciteerd? Als de AI dacht: "Ik ga de IFRS-wijziging van 2026 toepassen", moet u ervoor zorgen dat deze tekst daadwerkelijk via de beveiligde server van uw kantoor is opgehaald, en niet is gebaseerd op verouderde gegevens uit de initiële training. Klik altijd op de bronlink.
Niveau 2: de logische controle
U moet controleren op waardering en bias. Lees de gedachten om te zien of de AI alternatieve verwerkingswijzen heeft overwogen. Een robuust redeneerspoor zou moeten zeggen: "Ik heb overwogen Regel X toe te passen, maar Regel Y heeft voorrang vanwege deze specifieke clausule." Als de AI alleen één kant van een complex fiscaal vraagstuk bepleit, vertoont zij sycophantie. Zij vertelt u wat u wilt horen.
Niveau 3: de artefactcontrole
U moet de juistheid van de uitvoering verifiëren. Als het denkproces van de AI complexe wiskunde omvat, moet het een deterministische tool uitvoeren om het antwoord te krijgen. Een AI-model moet een Python-script schrijven om afschrijvingen te berekenen. U mag het hoofdrekenen van een AI-model nooit vertrouwen, zelfs niet binnen een zeer geavanceerd redeneermodel. Vertrouw op het script, maar verifieer de gedachte.
6. Conclusie
Nu ondernemingsbestuur strenger wordt en de eerste grote golf van CSRD-controles voor het boekjaar 2025 wordt afgerond, is de professionele focus blijvend verschoven. We vragen niet langer alleen: "Wat heeft de AI geschreven?" We moeten vragen: "Hoe is de AI hiertoe gekomen?"
Het vermogen om het redenatiespoor van een AI te auditen wordt snel een kerncompetentie voor accountants en belastingadviseurs. De uiteindelijke regel voor 2026 is eenvoudig. Als een AI-agent de stappen, bronnen en tools die zijn gebruikt om tot een professioneel oordeel te komen niet duidelijk kan tonen, kan de output niet worden afgetekend door een menselijke professional.