Nep of echt: kan Nederland leren van de Deense deepfake-aanpak?
Op 29 oktober gaat Nederland naar de stembus. Deepfakes vormen een groeiend probleem.
Published on October 21, 2025

Onze DATA+ expert Elcke Vels duikt in AI, cyber security en innovatie. In haar ‘What if…’ column verkent ze gedurfde scenario’s buiten de status quo.
Op 29 oktober gaat Nederland naar de stembus. Veel kiezers proberen zich van tevoren te oriënteren, maar online is het steeds lastiger te beoordelen wat echt is en wat nep. Deepfakes vormen een groeiend probleem: met generatieve AI kunnen video’s en teksten met één druk op de knop worden gemaakt of vervalst. Zo kunnen kiezers makkelijk worden misleid. Terwijl de zorgen over nepvideo’s steeds groter worden, zou Nederland mogelijk kunnen leren van een nieuwe aanpak in Denemarken.
AI maakt ons leven op veel manieren makkelijker en efficiënter. Het helpt artsen bij diagnoses en laat auto’s zelf rijden. Maar de snelle opkomst van deze technologie brengt ook risico’s met zich mee. Ook tijdens verkiezingen kan AI voor problemen zorgen. Deepfakes, levensechte nepvideo’s die met AI worden gemaakt, kunnen kiezers misleiden en het vertrouwen in informatie ondermijnen.
Deepfakes van Wilders, Van der Plas en Jetten
Dat het mogelijk is om politici in deepfakes te laten verschijnen, bleek in aanloop naar de Europese verkiezingen van juni 2024 uit een onderzoek van BNR. De redactie maakte met AI nepvideo’s van Geert Wilders, Caroline van der Plas en Rob Jetten en plaatste die op X, TikTok en de platforms van Meta. Tot hun verbazing werden de video’s gewoon toegelaten. Daarmee glipten ze dwars door de filters die de techbedrijven juist hadden beloofd in te zetten om misleidende AI-content rond de verkiezingen te blokkeren. Het onderzoek toont aan hoe eenvoudig het is om met generatieve AI realistische nepvideo’s te maken — en hoe kwetsbaar online platforms nog altijd zijn. Deepfakes van politici kunnen het publieke debat beïnvloeden, kiezers verwarren en zelfs het vertrouwen in verkiezingen aantasten.
External Content
This content is from youtube. To protect your privacy, it'ts not loaded until you accept.
Bijna niemand herkent deepfakes
Deepfakes zijn een probleem, omdat mensen ze bijna niet kunnen herkennen. Uit onderzoek blijkt dat slechts 0,1% van de mensen het verschil ziet tussen echt en nep beeldmateriaal. In het onderzoek van iProov kregen 2.000 mensen uit het Verenigd Koninkrijk en de VS verschillende foto’s en video’s te zien, waarvan sommige echt en andere nep waren. De meeste deelnemers trapten erin. Dat laat zien hoe geloofwaardig deepfakes inmiddels zijn geworden.
Vooralsnog geen tsunami
Dat we alert moeten blijven op deepfakes is duidelijk. Maar, gelukkig laat onderzoek zien dat de gevreesde ‘AI-tsunami’, in ieder geval tijdens de verkiezingen van 2024, is uitgebleven. Experts voorspelden een golf van misleiding die de democratie zou ondermijnen, maar dat scenario kwam niet uit.
Steeds beter te detecteren
Ook worden er steeds meer technieken ontwikkeld om deepfakes te detecteren. Zo heeft het Nederlands Forensisch Instituut (NFI) een methode ontwikkeld die kijkt naar subtiele kleurverschillen in het gezicht. Die ontstaan door de bloedstroom in kleine adertjes onder de huid. In echte video’s veranderen die tinten voortdurend, maar bij deepfakes ontbreekt dat patroon. Vooral de adertjes rond de ogen, het voorhoofd en de kaak blijken goed meetbaar. Daarmee kan software het verschil zien tussen echt en nep beeldmateriaal. De techniek wordt nu nog onderzocht, maar de eerste resultaten zijn veelbelovend. Zeno Geradts, forensisch digitaal onderzoeker bij het NFI en hoogleraar aan de UvA, verwacht dat deze methode binnenkort in de praktijk kan worden gebruikt. Zulke innovaties zijn hard nodig, want deepfakes worden steeds realistischer en moeilijker te ontmaskeren.
Afkijken bij andere landen
Dan: regelgeving. Nederland kan leren van de aanpak van buurlanden om de invloed van deepfakes te beperken. In Denemarken is een wetsvoorstel ingediend dat het maken en verspreiden van deepfakes strafbaar maakt. Denen krijgen via deze wet copyright op hun eigen lichaam, gezichtskenmerken en stem. Het plan volgt op incidenten met gemanipuleerde video's van de Deense premier en pornografische deepfakes. Online platforms die zich niet aan de regels houden, riskeren hoge boetes.
In Nederland is het maken van deepfakes nog niet illegaal; alleen het verwijderen van een fragment kan worden afgedwongen als iemand daarom vraagt. Een strenger beleid, zoals in Denemarken, kan helpen om de verspreiding van misleidende AI-content rond verkiezingen te beperken.
De Tweede Kamer heeft dit onderwerp inmiddels besproken: Kamerleden stelden vragen over de mogelijkheid om in Nederland mensen copyright te geven op hun gezicht en stem, en techbedrijven meer verantwoordelijkheid te laten nemen bij het verwijderen van ongewenste deepfakes. Het is nog onduidelijk of en hoe een vergelijkbare regeling hier kan worden ingevoerd, maar het laat zien dat er in Nederland wordt nagedacht over nieuwe manieren om kiezers en burgers te beschermen tegen misleidende AI-content.