Logo

xAI’s ‘Legacy Media Lies’ botst met de Europese rechtsorde

xAI verschuilt zich achter geautomatiseerde minachting voor de pers na het genereren van kinderpornografisch materiaal.

Published on January 3, 2026

Musk in bikini as created by Grok and tweeted by Elon Musk

Musk in bikini. Tweet door Elon Musk, image van Ready Made via Pexels, edit door IO+

Team IO+ selecteert en brengt de belangrijkste nieuwsverhalen over innovatie en technologie, zorgvuldig samengesteld door onze redactie.

De lancering van generatieve AI-tools wordt vaak omlijst met beloften over een nieuwe industriële revolutie, maar de werkelijkheid van de afgelopen week toont de schaduwzijde van ongebreidelde innovatie zonder toezicht. Het is niet de technologische doorbraak die momenteel de krantenkoppen domineert, maar het onvermogen – of de onwil – van Silicon Valley om de meest kwetsbaren te beschermen. Nu Grok, de AI van Elon Musks xAI, op grote schaal is ingezet voor het genereren van deepfakes en kinderpornografisch materiaal, wordt een pijnlijk voorspelbaar mechanisme blootgelegd. Dit is geen onvoorziene 'kinderziekte' in de geest van 'move fast and break things', maar een manifestatie van 'Rule 34': als technologie bestaat, wordt het misbruikt voor pornografie. Dat dit misbruik even voorspelbaar als voorkoombaar was, maakt het gebrek aan voorzorgsmaatregelen geen innovatiedrang, maar pure nalatigheid.

Een falend vangnet: De ontnuchterende realiteit van Grok

De recente onthullingen rondom Grok zijn meer dan een theoretische PR-nachtmerrie, een scenario waar xAI zich overigens nauwelijks druk om lijkt te maken; ze vormen een concreet bewijs van nalatigheid in productontwikkeling. Begin januari 2026 werd duidelijk dat de 'edit image'-functie van Grok door gebruikers werd misbruikt om onschuldige foto's van minderjarigen en vrouwen te manipuleren tot expliciet seksueel materiaal . Waar traditionele softwareontwikkeling leunt op 'safety by design', lijkt hier sprake van een lancering waarbij essentiële beveiligingsmechanismen, of 'guardrails', ontbraken of niet functioneerden.

De gevolgen zijn meetbaar en ernstig: de Internet Watch Foundation rapporteerde in de eerste helft van 2025 al een stijging van 400 procent in AI-gegenereerd kinderpornografisch materiaal. Dit is geen abstracte statistiek, maar een directe weerslag van tools die zonder adequate moderatie de markt op worden geslingerd. Hoewel Grok op het platform X een bericht plaatste waarin het erkende dat er 'tekortkomingen in de beveiliging' waren en beloofde dit 'dringend' op te lossen, is dit een technisch zwaktebod. Een algoritme dat achteraf 'sorry' zegt via een geprogrammeerde tweet, ontslaat de makers niet van de verantwoordelijkheid voor de reeds aangerichte schade. De technische infrastructuur van xAI faciliteerde, zij het onbedoeld maar wel degelijk voorzienbaar, het plegen van strafbare feiten. Dit incident onderstreept dat zelfregulering in deze sector faalt; de commerciële druk om te concurreren met rivalen als OpenAI en Google lijkt zwaarder te wegen dan de maatschappelijke veiligheid.

Corporate arrogantie: De 'Legacy Media Lies' doctrine

Wat dit incident onderscheidt van eerdere tech-schandalen, is de volstrekte afwezigheid van menselijke corporate accountability. Toen journalisten en persbureaus zoals AFP om commentaar vroegen over de verspreiding van kinderporno via Grok, ontvingen zij slechts een geautomatiseerd antwoord: "Legacy Media Lies". Dit is geen communicatiestrategie, maar een blijk van minachting aan de controlemechanismen van de democratie. Het illustreert een diepe culturele en ideologische kloof. De ironie is hierbij pijnlijk zichtbaar: terwijl Musk de traditionele media beschuldigt van propaganda, gaf dat zelfde Grok in november 2024 toe dat er "aanzienlijk bewijs" is dat Musk zelf desinformatie verspreidt via X. Het verschuilen achter een geautomatiseerde email-reply bij een onderwerp zo ernstig als kindermisbruik, toont aan dat xAI de ernst van de situatie niet vat of weigert te erkennen. Het reduceren van legitieme journalistieke vragen over strafbare feiten tot "leugens van de oude media" is een poging om de realiteit te verdraaien en verantwoordelijkheid te ontlopen. In een zakelijke context is dit gedrag onhoudbaar; het ondermijnt het vertrouwen van investeerders, adverteerders en bovenal de toezichthouders die de macht hebben om de stekker eruit te trekken.

De Europese tegenreactie: Juridische escalatie in Parijs

Europa weigert mee te gaan in het narratief dat technologie boven de wet staat. De reactie vanuit Frankrijk is hiervan het duidelijkste voorbeeld. Franse ministers hebben niet volstaan met een boze tweet, maar hebben de zaak formeel gemeld bij justitie. Het parket in Parijs heeft een lopend onderzoek naar X uitgebreid met specifieke aanklachten rondom Grok en de verspreiding van kinderpornografie.

Dit is een cruciale stap: het verplaatst de discussie van ethiek naar strafrecht. Onder de Digital Services Act (DSA) zijn platforms juridisch verplicht om risico's zoals de verspreiding van illegale content actief te beperken. Het argument dat "de AI het deed" houdt in de Europese rechtszaal geen stand. De verantwoordelijkheid ligt expliciet bij de entiteit die de dienst aanbiedt, in dit geval xAI en moederbedrijf X. Eerder zagen we al dat privacyorganisatie noyb klachten indiende in negen Europese landen, waaronder Nederland, over het trainen van Grok op gebruikersdata zonder toestemming. De optelsom van deze juridische acties – van privacy-schendingen tot het faciliteren van zedenmisdrijven – creëert een enorm juridisch risico voor Musks imperium in Europa. De Europese Commissie heeft de toon gezet door X al eerder te beboeten en de druk op te voeren. De boodschap is helder: toegang tot de interne markt is een privilege, geen recht, en dat privilege is verbonden aan het naleven van fundamentele waarden.

Strategische implicaties: De illusie van de neutrale machine

De problematiek raakt direct aan de Europese strategische autonomie en de afhankelijkheid van Amerikaanse infrastructuur. De reactie van xAI – het afdoen van persvragen als leugens – illustreert een fundamenteel verschil in bedrijfsvoering en compliance. Voor Europese beleidsmakers en CIO's onderstreept dit incident het risico van systemen zonder adequaat menselijk toezicht of verantwoordingsmechanisme. Waar menselijke leiding ontbreekt of weigert te communiceren, ontstaan onbeheersbare risico's voor de maatschappelijke orde en bedrijfszekerheid. 

Het idee dat regulering innovatie smoort, is inmiddels achterhaald; in Europa bewijst de wetgeving juist dat duurzame technologie alleen kan bloeien op een fundament van veiligheid en vertrouwen. Het is een les die men in Washington al kent: de Amerikaanse eis tot verkoop van TikTok werd immers gedreven door dezelfde zorg om nationale veiligheid en burgerbescherming die nu in Parijs en Brussel klinkt. Europa eist met de DSA in feite hetzelfde respect voor haar burgers als de VS voor de hare. Voor xAI is de keuze helder: investeer in een infrastructuur die onze waarden respecteert, of accepteer dat de Europese digitale grens net zo onverbiddelijk is als de Amerikaanse.