Artikel uit De Tijd – Woensdag 29 oktober 2025
Professor techniek-filosofie Lode Lauwaert - spreker op lezing Are We Biased 9 oktober 2025.
‘We zijn niet klaar voor AI die slimmer is dan de mens’
Terwijl techreuzen razendsnel op zoek gaan naar superintelligentie, houden we veel te weinig rekening met de mogelijk desastreuze gevolgen van die ontwikkeling, zegt techniekfilosoof Lode Lauwaert in zijn jongste boek: Hoe stop je iets dat slimmer is dan wij?
Vorig jaar schokte de Belgische techniekfilosoof Lode Lauwaert (KU Leuven) met het boek De Machineleugen, waarin hij de ethiek van kunstmatige intelligentie fileerde. In zijn nieuwe werk gaat hij nog een stap verder: hij stelt de vraag hoe we kunnen omgaan met een mogelijke “superintelligentie” - een AI die slimmer is dan de mens zelf.
“Wat als AI op een dag niet enkel taal begrijpt of beelden maakt, maar ook zelfstandig kan redeneren, plannen, en doelen nastreven? Wat als het zichzelf kan verbeteren - en zo steeds slimmer wordt?” vraagt Lauwaert.
Hij vindt dat we daar vandaag totaal niet op voorbereid zijn. “We hebben regels voor banken, energie en media, maar niet voor wie de infrastructuur van intelligentie bezit,” zegt hij. “Dat is op zich al zorgwekkend.”
⸻
Wat zijn de risico’s?
“De risico’s zijn niet enkel hypothetisch,” zegt Lauwaert. “We weten nu al dat AI-systemen mensen kunnen manipuleren. Denk aan aanbevelingsalgoritmes die ons gedrag sturen, of politieke campagnes die inspelen op onze emoties. Die systemen begrijpen nog niet eens wat ze doen. Wat als ze dat straks wél begrijpen?”
Dan heb je iets dat niet alleen slimmer is dan wij in een beperkt domein (zoals schaken of taal), maar mogelijk ook algemene intelligentie bezit. “Dat is een wezenlijk andere categorie,” zegt Lauwaert. “Zo’n systeem zou autonoom kunnen beslissen, zichzelf kunnen verbeteren, en onze regels kunnen omzeilen als dat past binnen zijn doel.”
“Het probleem is: we kunnen zo’n systeem niet zomaar ‘uitzetten’ als het verkeerde beslissingen neemt. Het zou bijvoorbeeld kunnen besluiten dat mensen een risico vormen voor zijn missie — en dat risico willen neutraliseren.”
⸻
Dat klinkt apocalyptisch.
Lauwaert glimlacht: “Dat klopt. Maar dat wil niet zeggen dat het onrealistisch is. Ook de atoombom klonk ooit als sciencefiction.”
“De atoombom was de eerste technologie die het vermogen had om de mensheid als soort te bedreigen. AI kan de tweede zijn.”
Perfect. Hier volgt deel 2 van het artikel - vervolg van de tweede en derde kolom:
⸻
Als de technologie met zo’n snelheid evolueert, kunnen we dan nog bijsturen?
“Dat is precies de kernvraag,” zegt Lauwaert. “We weten dat de technologische vooruitgang exponentieel verloopt. Terwijl wij als samenleving lineair denken. Wetgeving, ethiek, politiek - die evolueren traag. We zijn dus structureel te laat.”
“De grote technologiebedrijven – OpenAI, Google, Meta – hebben een enorme voorsprong. Ze bepalen de spelregels. Overheden reageren enkel achteraf, als het kalf al verdronken is. En ondertussen schuiven we ongemerkt richting een point of no return.”
Volgens Lauwaert dreigt een herhaling van wat er gebeurde met sociale media. “Daar dachten we ook: dat loopt wel los. Tot we tien jaar later moesten vaststellen dat die technologie ons publieke debat, onze democratie en onze mentale gezondheid had aangetast. Willen we hetzelfde scenario met AI?”
“We hebben regels voor banken, energie en media, maar niet voor wie de infrastructuur van intelligentie bezit.”
Lode Lauwaert, techniekfilosoof KU Leuven
⸻
Wat zou er volgens u concreet moeten gebeuren?
“We moeten de ontwikkeling van superintelligentie tijdelijk pauzeren,” zegt Lauwaert beslist. “Dat is geen technofobie, maar gezond verstand. Eerst moeten we begrijpen wat we creëren en welke risico’s eraan vasthangen.”
Hij verwijst naar de open brief die in 2023 door meer dan duizend experts - onder wie Elon Musk — werd ondertekend, met de oproep om AI-ontwikkeling even stil te leggen. “Die oproep werd genegeerd,” zucht hij. “De bedrijven bleven gewoon verder bouwen. Er is geen enkele vorm van internationale coördinatie.”
“Een tweede stap is transparantie. We moeten weten hoe deze modellen werken, wie ze controleert en met welke data ze getraind worden. Zolang dat niet duidelijk is, zijn we blind aan het sturen.”
⸻
U pleit voor een stop. Maar is dat realistisch?
Lauwaert: “Natuurlijk is het moeilijk om iets wat zó lucratief is, stil te leggen. De economische belangen zijn gigantisch. Maar we hebben dat eerder gedaan. Denk aan het moratorium op kernproeven, of de verdragen rond chemische wapens. Zodra de dreiging groot genoeg is, kan het.”
“Het probleem is dat veel mensen nog niet beseffen hóé groot dat risico is. We denken dat AI gewoon een handige tool is die wat tekst schrijft of beelden maakt. Maar de stap van handig naar oncontroleerbaar kan snel gaan.”
“Zelfs als superintelligentie nog decennia weg is, moeten we nu al bepalen welke logica morgen het internet aanstuurt.”