Logo

Anthropic past beter in Europa dan in de VS

Trump bestrijdt ‘woke’ AI van Anthropic — maar het Amerikaanse leger gebruikte precies die AI wél bij bombardementen op Iran.

Published on March 2, 2026

white house

Merien richtte in 2015 samen met Bart E52 op en bedacht onze AI-tool Laio. Hij schrijft columns over waterstof, mobiliteit en het openbaar vervoer.

Het contrast kon afgelopen vrijdag niet groter zijn. Op zijn eigen platform Truth Social verklaarde president Donald Trump de oorlog aan AI-bedrijf Anthropic. Hij noemde hen 'linkse gekken' en beval een onmiddellijke boycot door de federale overheid. Hij had nog niet op 'send' geklikt, of de realiteit haalde de retoriek in. Slechts enkele uren na de presidentiële ban zette het Amerikaanse leger diezelfde technologie in voor een grootschalige aanval op Iran. Dit incident legt een pijnlijke waarheid bloot. De politieke wens om exclusief samen te werken met bedrijven die de eigen ideologie ondersteunen, botst frontaal op de militaire noodzaak om te overleven. De software zit dieper in het systeem dan het Witte Huis beseft.

Het conflict: Principes versus totale gehoorzaamheid

De kern van het conflict is ideologisch. Het draait niet om geld, maar om controle. Anthropic, de maker van het AI-model Claude, hanteert strikte 'rode lijnen'. CEO Dario Amodei weigert pertinent mee te werken aan twee specifieke zaken: massasurveillance van Amerikaanse burgers en volledig autonome wapensystemen🔗. Voor Amodei zijn dit fundamentele democratische waarden. Voor president Trump is dit insubordinatie. In zijn tirade op Truth Social stelde Trump dat beslissingen over oorlogvoering exclusief toebehoren aan de 'Commander-in-Chief'. Hij accepteert niet dat een privébedrijf via algemene voorwaarden dicteert hoe het leger vecht.

De reactie van het Witte Huis is draconisch. Het Pentagon dreigt Anthropic aan te merken als een 'supply chain risk'. Dit is een label dat doorgaans gereserveerd is voor Chinese spionageapparatuur🔗. Trump gaf federale agentschappen, waaronder het Department of War, zes maanden de tijd om alle banden te verbreken. Hij dreigde met de 'volledige macht van het presidentschap' en strafrechtelijke gevolgen als Anthropic niet meewerkt aan de transitie. Het bedrijf houdt echter voet bij stuk. Amodei stelt dat het eisen van 'elk wettig gebruik' zonder ethische grenzen onacceptabel is. Hij kiest ervoor om honderden miljoenen dollars aan inkomsten te laten liggen in plaats van zijn principes te verloochenen🔗🔗.

De praktijk: Onmisbaar aan het front

De politieke werkelijkheid in Washington staat haaks op de operationele werkelijkheid in het Midden-Oosten. Terwijl Trump zijn ban uitvaardigde, startte US Central Command (CENTCOM) een gecombineerde aanval met Israël op Iraanse doelen🔗. Hierbij speelde Claude een cruciale rol. Het systeem werd gebruikt voor inlichtingenanalyses, het identificeren van doelen en het simuleren van gevechtsscenario's🔗. Dit was geen toeval. Anthropic heeft een speciale versie van Claude ontwikkeld voor het Pentagon. Deze versie draait in een zwaar beveiligde, geclassificeerde cloudomgeving🔗.

Experts geven aan dat dit specifieke modeléén tot twee generaties voorloopt op wat consumenten gebruiken. Het kan complexere patronen herkennen in enorme datasets dan enig ander systeem🔗. Het leger kan deze 'hersenen' niet zomaar vervangen. Minister van Defensie Pete Hegseth erkende dit impliciet. Ondanks dat hij Anthropic beschuldigde van 'verraad en arrogantie', stond hij de overgangsperiode van zes maanden toe🔗. Hij weet dat het direct uitschakelen van Claude de Amerikaanse troepen blind zou maken midden in een conflict. De ironie is scherp: terwijl Trump claimt dat het bedrijf een veiligheidsrisico vormt, werd hun technologie op datzelfde moment gebruikt om Amerikaanse operaties te ondersteunen.

De concurrentie: OpenAI vult het gat

Waar Anthropic op de rem trapt, geeft concurrent OpenAI vol gas. CEO Sam Altman heeft handig gebruikgemaakt van de ruzie. OpenAI heeft onmiddellijk een nieuwe overeenkomst gesloten met het Department of War🔗. In tegenstelling tot Anthropic, stelt OpenAI zich flexibeler op. Hun nieuwe beleid staat militair gebruik toe, zolang het binnen de wettelijke kaders valt🔗. OpenAI belooft weliswaar dat hun AI geen autonome wapens mag aansturen, maar legt de verantwoordelijkheid voor de naleving hiervan grotendeels bij de overheid zelf.

Dit pragmatisme levert OpenAI lucratieve contracten op. Het bedrijf positioneert zich nu als de patriottische keuze die niet moeilijk doet over definities van surveillance. Toch waarschuwen critici voor deze verschuiving. Privacy International stelt dat de militarisering van technologiebedrijven een glijdende schaal is🔗. Door commerciële AI diep in militaire systemen te integreren, vervaagt de grens tussen civiele tech en oorlogswapens. Anthropic probeerde die grens te bewaken. OpenAI lijkt die grens nu te verleggen in ruil voor marktaandeel en politieke gunst.

Waarom halen we Anthropic niet naar Europa?

De situatie laat Anthropic in een lastig parket achter. Ze zijn technisch superieur, maar politiek dakloos in hun thuisland. Dit opent echter een onverwacht perspectief: de Europese Unie. Wat in Washington wordt gezien als 'woke' obstructie, wordt in Brussel gezien als verstandig beleid. De EU AI Act, die sinds augustus 2024 volledig van kracht is, sluit naadloos aan bij de bedrijfsfilosofie van Anthropic🔗.

De Europese wetgeving verbiedt precies die zaken waar Anthropic ook tegen is. Denk aan systemen die burgers beoordelen op hun gedrag en ongerichte massasurveillance🔗. De EU eist strikt menselijk toezicht op hoogrisico-systemen, zoals die in defensie of kritieke infrastructuur. Waar het Witte Huis eist dat veiligheidsfilters worden verwijderd, eist Brussel juist dat ze worden versterkt. Anthropic zou in Europa niet de luis in de pels zijn, maar de modelstudent. Een strategische verhuizing of focus op de Europese markt zou Anthropic kunnen redden van de grillen van de Amerikaanse politiek. Het zou de EU direct toegang geven tot de meest geavanceerde AI ter wereld, terwijl Anthropic een veilige haven vindt waar ethiek geen scheldwoord is, maar wetgeving.