AI is overal. Maar hoe ver willen we gaan?
Heeft AI inmiddels niet te veel reikwijdte gekregen? Twee AI-experts aan het woord.
Published on August 20, 2025

Onze DATA+ expert Elcke Vels duikt in AI, cyber security en innovatie. In haar ‘What if…’ column verkent ze gedurfde scenario’s buiten de status quo.
AI is overal en helpt de samenleving vooruit. Door de groeiende invloed van de technologie is het echter zaak om goed te reguleren. De AI Act moet daarvoor zorgen, maar vanuit verschillende kanten komt er kritiek op deze wet. Er zou te weinig aandacht zijn voor de bescherming van intellectuele eigendomsrechten en auteursrecht. Hoe zetten we AI op een verantwoorde manier in? Heeft de technologie inmiddels niet te veel reikwijdte gekregen, en waar trekken we de grens? We spraken twee AI-experts: Patricia Jaspers en Jos van Dongen.
AI Pitch Competition
Dit verhaal is geschreven naar aanleiding van de AI Pitch Competition. Dat is een wedstrijd die de meest innovatieve AI-oplossingen in de schijnwerpers zet. De competitie vindt plaats op 29 september. Je kunt je hier aanmelden tot 29 augustus.
AI verandert de wereld in rap tempo; de manier waarop we werken, leren en communiceren. China zet, net als de VS, volop in op versnelling van AI innovaties. Europa kiest voor reguleren. De AI-Act is een Europese wet die moet zorgen voor veilige, eerlijke en transparante toepassing van AI binnen de EU.
Toch beschermt zo’n wet ons niet volledig. Onlangs uitte een coalitie van meer dan 40 Europese makers nog formeel kritiek op de AI-gedragscode, die bedrijven moet helpen voldoen aan de AI-Act. De code zou onvoldoende bescherming bieden aan intellectuele eigendomsrechten en auteursrechten, en dient vooral de belangen van grote AI-bedrijven.
Het is duidelijk dat er wereldwijd nog veel moet gebeuren om grip te krijgen op de technologie. Dat, terwijl startups in alle denkbare domeinen - zorg, defensie, energie, transport - als paddenstoelen uit de grond schieten. Kunnen we de ontwikkelingen überhaupt nog controleren? En hoe ver moeten we willen gaan met AI-toepassingen?
Autonomie en zeggenschap
Patricia Jaspers is directeur bedrijfsvoering aan het Eindhoven Artificial Intelligence Systems Institute (EAISI, TU/e). Zij ziet veel positieve kanten aan de inzet van AI in veel sectoren, zoals de zorg. “Ik was bijvoorbeeld erg onder de indruk toen ik voor het eerst hoorde over hoe AI wordt ingezet voor het opsporen van nieuwe eiwitten. Dat gaat de ontwikkeling van veelbelovende medicijnen aanzienlijk versnellen.”
“Toch maak ik me ook zorgen over bepaalde toepassingen”, vervolgt ze. Die zorgen hebben onder meer te maken met datavrijheid en privacy. Als voorbeeld noemt ze de Meta chatbot. Het bedrijf ligt onder vuur vanwege zeer omstreden interne richtlijnen voor chatbots. Uit een intern document blijkt dat het bedrijf zijn AI-chatbot toestond te flirten met kinderen, zo meldt Reuters.
Ook Jos van Dongen houdt zich regelmatig bezig met het onderwerp AI en datavrijheid. Hij is directeur van het Erasmus Data Collaboratory - House of AI op de Erasmus Universiteit, waar data en AI samenkomen. Op de universiteit is onder leiding van wetenschapper João Gonçalves een klein taalmodel ontwikkeld: het Erasmian Language Model. Dit model is getraind op data van binnen de Erasmus Universiteit: alle master-scripties en proefschriften van de afgelopen 50 jaar. Het taalmodel is gefinetuned met deze specifieke universitaire documenten. Daardoor kan men heel gerichte vragen stellen over een bepaald onderzoeksterrein; bijvoorbeeld of een bepaald onderwerp al eerder is onderzocht en wat de uitkomsten waren.
“Dit model draait op onze interne infrastructuur en is onafhankelijk van externe clouddiensten”, licht hij toe. “We willen voorkomen dat deze data, zoals scripties en proefschriften, in buitenlandse cloudomgevingen terechtkomen. Zodra je data naar een cloudomgeving als Microsoft Azure verplaatst, bestaat het risico dat je de controle over je data kwijt raakt.
Onterecht zijn die zorgen niet. Recent kwam nog naar buiten dat de Israëlische militaire inlichtingendienst Microsoft Azure gebruikt om enorme hoeveelheden afgeluisterde telefoongesprekken op te slaan en te verwerken. Dit incident leidde wereldwijd tot grote zorgen over data-soevereiniteit en het risico van misbruik van cloudinfrastructuur voor surveillance.
AI maakt ons slimmer en minder snugger tegelijkertijd
Naast het vraagstuk rondom data en autonomie benoemen beide experts het risico van ‘de-skilling’ door AI. Wanneer AI steeds meer taken van ons overneemt, kunnen we ons gaan focussen op dingen waar wij als mensen goed in zijn; een groot pluspunt. Echter, tegelijkertijd zullen we bepaalde vaardigheden verliezen.
Jaspers noemt als voorbeeld een recent onderzoek over artsen die AI gebruiken. “Artsen die regelmatig op AI vertrouwen, worden slechter in het zelf herkennen van ziekten. Internationaal onderzoek toont aan dat ze bij kijkonderzoeken veel minder voorstadia van darmkanker opsporen zodra ze zonder AI de beelden beoordelen.”
Een tweede voorbeeld: smartwatches die je slaapkwaliteit meten. “Durf je nog zelf te beoordelen of je goed hebt geslapen, of vertrouw je volledig op je horloge. Als we niet uitkijken, verliezen we onopgemerkt belangrijke vaardigheden.”
Van Dongen beaamt dat. “Een persoonlijk voorbeeld; laatst was ik samen met collega’s een serveromgeving aan het configureren. Alles verliep soepel, tot het systeem plotseling stilviel. Wat bleek? Mijn collega volgde blindelings de instructies van een AI-assistent, die niet klopten.” Kortom: te veel vertrouwen op AI kan ons vermogen tot kritisch denken ondermijnen.
AI verantwoord toepassen
In de AI Act worden onacceptabele risicosystemen benoemd: toepassingen die volgens de Europese regelgeving te ver gaan. Dit betreft bijvoorbeeld AI-systemen die mensen op grote schaal profileren en discriminerende beslissingen nemen, zoals het gebruik van gezichtsherkenning op publieke plaatsen zonder toestemming, of AI die sociale scores toekent en daarmee iemands toegang tot essentiële diensten beperkt.
Maar ook bij AI-toepassingen die wel de Europese markt betreden, is voorzichtigheid geboden. We moeten onder meer kritischer kijken naar welke toepassingen écht nodig zijn, benadrukt Van Dongen. Hij refereert aan een onderzoek over de gezondheidszorg in Europa. Daaruit blijkt dat van alle AI-toepassingen die de afgelopen jaren zijn ontwikkeld, slechts 2% daadwerkelijk in gebruik is. “Er zijn miljarden geïnvesteerd, en daarvan wordt maar een klein deel effectief benut.” Hebben we een toepassing echt nodig? Of ontwikkelen we een product of dienst enkel vanwege de hype? Het gaat niet alleen om het besparen van kosten, maar ook om het voorkomen van onnodige afhankelijkheid van technologie.
En wat betreft data-soevereiniteit zijn ook kleinschalige AI-toepassingen van belang, aldus Jaspers. “We moeten het idee loslaten dat alleen AI van grote techgiganten waardevol is. Het is lang niet altijd nodig en nuttig om enorme hoeveelheden data te verzamelen; juist met gerichte, kwalitatief goed ingerichte datasets kunnen we effectiever en ethischer werken.”