De CEO die waarschuwt voor AI – maar voor de verkeerde risico’s

4-02-2026 Pieter de Kok Blog

Het klinkt indrukwekkend. Dario Amodei, CEO van Anthropic, waarschuwt publiekelijk voor de risico’s van kunstmatige intelligentie. AI-systemen die niet meer te controleren zijn. Superintelligentie die de mens voorbijstreeft. Miljarden autonome drones die zich aan onze greep onttrekken. Het soort scenario’s dat het goed doet op conferenties, in podcasts en op de opiniepagina’s van kwaliteitskranten.

Maar hoe langer je zijn essay leest, hoe ongemakkelijker de vraag wordt: waar gaat dit eigenlijk níét over?

Een slechte Terminator-film, maar dan serieus bedoeld

Amodei’s waarschuwingen klinken als een kruising tussen sciencefiction en Silicon Valley-messianisme. AI wordt gepresenteerd als een opkomende genie: slimmer dan Nobelprijswinnaars, autonoom, ongrijpbaar en uiteindelijk potentieel existentieel bedreigend. Het beeld van “genieën in een datacenter” is pakkend, maar vooral dat: een beeld.

Het probleem is niet dat deze scenario’s theoretisch onmogelijk zijn. Het probleem is dat ze ver afstaan van de AI die vandaag wordt gebouwd, verkocht en gebruikt. De AI-systemen die nu impact hebben op organisaties, burgers en overheden zijn geen autonome denkers. Het zijn taal- en patroonmodellen die voorspellen welk woord, welke regel code of welk beeld statistisch het meest waarschijnlijk volgt.

Dat maakt ze nuttig. Soms zelfs indrukwekkend nuttig. Maar niet slim in de menselijke betekenis van het woord. Human Intelligence still rules (en vaak gelukkig maar)

De stochastische papegaai blijft een papegaai

Claude, het paradepaardje van Anthropic, is populair bij schrijvers en programmeurs. Terecht. Het is een prettig hulpmiddel, snel, vloeiend en vaak verrassend effectief. Maar het blijft een systeem zonder begrip van context, waarheid of realiteit. Het model weet niet wat waar is, alleen wat waarschijnlijk klinkt.

Daarom maakt het ook nog altijd basale fouten. Het hallucineert bronnen, verzint verbanden en trekt conclusies die logisch klinken maar feitelijk onjuist zijn. We noemen Excel ook geen financieel genie omdat het een foutloos spreadsheet kan uitrekenen. We schrijven software geen emoties toe en hardware geen moreel kompas. Waarom doen we dat bij AI ineens wel?

De term “bijna zo slim als een Nobelprijswinnaar” zegt meer over marketing dan over technologie.

De echte risico’s zijn niet futuristisch, maar banaal

En precies daar wringt het. Door het debat te domineren met apocalyptische toekomstscenario’s, verdwijnen de reële, huidige risico’s van AI naar de achtergrond. Risico’s die zich niet in 2040 voordoen, maar vandaag al.

Denk aan de privacy van gebruikers, waarvan data structureel worden ingezet voor training en fine-tuning. Denk aan de arbeidsomstandigheden in de AI-keten, waar tienduizenden mensen onder zware omstandigheden data labelen en modereren. Denk aan vooroordelen in datasets die leiden tot discriminerende uitkomsten. Denk aan het energie- en duurzaamheidsvraagstuk van steeds grotere modellen. En denk aan de enorme hoeveelheid boeken, artikelen en journalistiek werk die zonder toestemming zijn gebruikt om deze systemen te bouwen.

Dat zijn geen sciencefiction-risico’s. Dat zijn governance-vraagstukken. Juridische vraagstukken. Ethische vraagstukken. En uiteindelijk ook gewoon bestuurlijke vraagstukken.

De handige afleidingsmanoeuvre

Het is moeilijk te negeren dat dit narratief ook commercieel goed uitkomt. Anthropic wil groeien, kapitaal ophalen en richting een beursgang bewegen. In dat spel is het strategisch slim om AI neer te zetten als zó krachtig en zó uitzonderlijk dat alleen een selecte club spelers ermee om kan gaan. Wie gelooft dat AI een existentiële dreiging vormt, accepteert ook sneller concentratie van macht, kapitaal en besluitvorming.

“AI is gevaarlijk” is in die zin een paradoxaal geruststellende boodschap. Want impliciet zegt ze ook: gelukkig zijn wij ermee bezig.

Intussen blijven de ongemakkelijke vragen liggen. Over verantwoordelijkheid. Over transparantie. Over eigenaarschap van data en output. Over hoe organisaties AI daadwerkelijk inzetten in besluitvorming, zonder dat iemand precies kan uitleggen waarom een model tot een bepaalde uitkomst komt.

Wat professionals wél zouden moeten bespreken

Voor accountants, controllers, bestuurders en toezichthouders is dit geen academische discussie. Zij hebben geen last van killer-drones, maar van slecht ingerichte AI-processen. Van modellen die beslissingen beïnvloeden zonder duidelijke governance. Van tools die efficiënt lijken, maar risico’s introduceren die niemand expliciet beheerst.

De echte uitdaging zit niet in het voorkomen van superintelligentie, maar in het volwassen gebruiken van onvolwassen technologie. In het organiseren van controle, verantwoording en menselijke oordeelsvorming rondom systemen die per definitie geen begrip hebben van hun eigen output.

Daar helpt geen scifi-essay bij. Daar helpt vakmanschap.

Terminator-fan of strategisch verteller?

Zeg het maar. Is Dario Amodei een naïeve Terminator-fan die te veel sciencefiction heeft gekeken? Of een bijzonder handige ondernemer die met een apocalyptisch verhaal precies de aandacht wegleidt van de échte, actuele AI-problemen?

Misschien is het allebei waar. Maar zolang we blijven praten over hypothetische eindscenario’s, lopen we het risico dat we de dagelijkse realiteit uit het oog verliezen. En juist daar, in die alledaagse praktijk, worden vandaag de fouten gemaakt die morgen vertrouwen kosten.

AI hoeft niet eng te zijn om gevaarlijk te zijn. Onbeheerst gebruik is al meer dan genoeg.

Pieter de Kok
Geschreven door:

Pieter de Kok