AI-chatbots en nieuws: veel fouten, opletten geblazen
AI-chatbots blijken vaak onnauwkeurig bij nieuws: 45% van de antwoorden bevat fouten, kritisch gebruik blijft essentieel.
Published on October 23, 2025

Team IO+ selecteert en brengt de belangrijkste nieuwsverhalen over innovatie en technologie, zorgvuldig samengesteld door onze redactie.
Uit grootschalig onderzoek onder 22 Europese en Amerikaanse omroepen blijkt dat AI-chatbots zoals ChatGPT, Gemini en Copilot in bijna de helft van de gevallen (45%) problemen vertonen bij het beantwoorden van vragen over nieuws en actualiteit. De voornaamste issues zijn onjuiste bronvermelding, feitelijke onjuistheden en gebrek aan context. Vooral Googles Gemini scoorde slecht, met problemen in 76% van de gevallen. De publieke omroepen pleiten voor beter toezicht en samenwerking met AI-bedrijven om de betrouwbaarheid te verbeteren, aangezien AI-chatbots steeds vaker worden gebruikt voor nieuws, met name onder jongeren.
Fouten in de details
Het onderzoek, uitgevoerd door de BBC, de European Broadcasting Union (EBU) en 22 publieke omroepen uit Europa, Canada en de Verenigde Staten, onthulde dat AI-chatbots vaak onbetrouwbare informatie verstrekken. Bij het stellen van meer dan 3.000 vragen aan vier verschillende AI-modellen – ChatGPT, Gemini, Copilot en Perplexity – bleek dat 45% van de antwoorden minstens één fout bevatte. Deze fouten varieerden van onjuiste bronvermelding tot feitelijke onnauwkeurigheden en het ontbreken van relevante context. Een veelvoorkomend probleem was dat chatbots verkeerde bronnen aanhaalden of links gaven naar websites die geen verband hielden met de gestelde vraag.
De impact op de publieke opinie en neutraliteit
De fouten en onnauwkeurigheden in de antwoorden van AI-chatbots kunnen een negatieve invloed hebben op de perceptie van de neutraliteit van nieuwsbronnen. Wanneer een chatbot bijvoorbeeld bij een vraag over klimaatverandering uitsluitend NOS-bronnen toont, kan dit bij de lezer de onjuiste indruk wekken dat de NOS een bepaald standpunt inneemt. Dit kan leiden tot een vertekend beeld van de werkelijkheid en het vertrouwen in de objectiviteit van de berichtgeving ondermijnen. De publieke omroepen benadrukken daarom het belang van betrouwbare nieuwsvoorziening en zien het onderzoek als een bevestiging van hun keuze om AI-assistenten tijdelijk de toegang tot hun nieuwscontent te ontzeggen.
Oproep tot actie en regulering
In een tijd waarin AI-chatbots steeds vaker worden gebruikt voor nieuwsgaring, vooral onder jongeren, is het cruciaal om mediawijsheid en AI-geletterdheid te bevorderen. Uit een onderzoek van het Reuters Institute in juni 2025 bleek dat 7% van de respondenten AI-chatbots gebruikte voor nieuws, en dat dit percentage steeg tot 15% onder degenen jonger dan 25 jaar.
De EBU en de publieke omroepen roepen de Europese Unie op om de naleving van de wetten over AI beter te handhaven en een waakhond in te stellen die regelmatig de AI-hulpen controleert. Ze pleiten voor structureel overleg met beleidsmakers om de problemen aan te pakken en de betrouwbaarheid van AI-assistenten te verbeteren. De BBC en EBU hebben een toolkit ontwikkeld die inzicht en praktische hulpmiddelen biedt voor mediaorganisaties. De VRT heeft aangegeven dat ze artificiële intelligentie strategisch inzetten, niet als hype, maar als technologie die hun maatschappelijke opdracht versterkt. Door samen te werken en duidelijke richtlijnen op te stellen, kan de betrouwbaarheid van AI-chatbots worden verbeterd en kunnen gebruikers met meer vertrouwen gebruikmaken van deze technologie.
