Jij bewaakt de AI. Maar wie bewaakt jou?
In dit artikel:
Marijn Rooijmans onderzoekt de keerzijde van de veel gehoorde belofte dat steeds een mens bovenop AI-output moet blijven zitten. Tijdens een gesprek bij een advocatenkantoor viel hem op dat ervaren advocaten zichzelf vooral zien als de bewakers van kwaliteit — de “human in the loop” — terwijl de zorg over AI vooral bij junioren leek te liggen. Rooijmans waarschuwt dat die aanpak misleidende zekerheid geeft en op langere termijn onhoudbaar is.
Ondersteunend bewijs komt uit recent onderzoek: een studie van Boston Consulting Group (geciteerd in Harvard Business Review) onder 1.488 werknemers laat zien dat toezicht houden op AI zwaarder is dan het zelf uitvoeren van taken. Mensen die veel “oversight” doen melden 14% meer mentale inspanning, 12% meer mentale vermoeidheid, 19% meer informatie-overload, 33% meer beslissingsmoeheid en maken 39% meer grote fouten. Een onderzoeksartikel van Wharton bespreekt de zogenaamde human–AI contracting paradox: naarmate AI betrouwbaarder wordt, daalt de frequentie van fouten, waardoor alert blijven minder direct beloond wordt en controle daardoor moeizamer en minder effectief wordt.
Rooijmans legt dit uit vanuit neurobiologie: mensen zijn goed in actief redeneren en oplossen, maar slecht in langdurig, passief controleren van output die meestal klopt. Dat geldt extra voor ervaren professionals, voor wie de controle weinig leermomenten biedt. Het gevolg is dat kantoren risico’s vergroten door extra AI-lagen bovenop bestaande werklast te leggen en vervolgens juist de meest ervaren mensen voor controle in te zetten.
Het probleem ligt dus niet primair bij de AI, maar bij de manier waarop organisaties menselijk toezicht inrichten. Rooijmans pleit impliciet voor herontwerp van werkprocessen en verantwoordelijkheden: anders blijft “human in the loop” een geruststellend etiket dat de praktijk van fouten en overbelasting verhult. Wordt daar genoeg bij stilgestaan binnen advocatuur en andere sectoren die zwaar leunen op AI-toezicht?