Logo

Kun je je geld aan AI toevertrouwen? Dit zeggen experts

Experts delen hun mening over het gebruik van kunstmatige intelligentie bij beleggen.

Published on February 11, 2026

pixabay

Masterstudente journalistiek aan de RUG, stagiair bij IO+, schrijft graag over de integratie van AI in het dagelijks leven

Kunstmatige intelligentie is niet langer een futuristisch concept op Wall Street, maar voert miljoenen transacties per dag uit. Van hedgefondsen tot retailplatforms: algoritmen analyseren enorme hoeveelheden marktgegevens en handelen in een fractie van een seconde. Voorstanders beweren dat AI efficiëntie en objectiviteit brengt, terwijl critici waarschuwen voor de risico's; het neemt essentieel menselijk oordeelsvermogen weg. Kun je AI je geld toevertrouwen? We interviewden AI expert  Andreea Sburlea, ervaren handelaar Dave Brilman, en nieuwkomer Marco van Kempen. “De uiteindelijke afweging blijft gebaseerd op menselijk oordeel en context”, aldus Brilman.

Een AI-model trainen

Machine learning vormt de kern van moderne handel, en detecteert patronen in data en nieuws. Volgens Andreea Sburlea, universitair docent aan de RUG en expert op het gebied van hersen-computerinterfaces, machine learning en neuroprotheses, geldt, net als bij mensen, dat “hoe meer gegevens [machine learning- en deep learning-modellen] hebben over een specifieke eigenschap of een specifieke taak, hoe beter ze erin worden om die te vinden”. 

Om een dergelijk model te trainen, moet een programmeur trainingsgegevens invoeren. Denk bijvoorbeeld aan oude beursinformatie, waarover het model vervolgens een beslissing moet nemen voor de volgende transactie. Als het de juiste beslissingen neemt, is het klaar om met live gegevens te werken. 

Volgens autodidactisch belegger Dave Brilman zijn historische data en patronen waardevol, maar niet altijd leidend. “Het selecteren van investeringen is ook gebaseerd op ervaring, inschatting van toekomstige ontwikkelingen en het vermogen om nieuwe trends te herkennen. Wat in het verleden waardevol was, hoeft dat in de toekomst niet te zijn. Een te sterke focus op data en historie brengt daarom het risico met zich mee dat nieuwe ontwikkelingen of structurele veranderingen worden gemist”.

“Telkens wanneer de wereld verandert, moet het model daarover worden geïnformeerd”, zegt Sburlea. Als dit niet gebeurt, geeft het wellicht verkeerde informatie. Nieuwe data kost tijd om in te voeren, terwijl ontbrekende info kan leiden tot dure AI-beslissingen. “Het is een afweging. Je hebt op de lange termijn een model dat je meer geld kan opleveren of meer geld kan besparen, of je hebt een snel model dat al doende leert en meer fouten kan maken en tot een ramp kan leiden als het niet wordt bijgewerkt.” 

Rekening houden met vooroordelen

AI blinkt uit in het verwerken van enorme datastromen zonder emotionele invloed. Maar omdat modellen, zoals een Artificial Neural Network (ANN), worden getraind op specifieke data, kunnen ze alsnog vooroordelen bevatten. Het voorkomen dat menselijke vooroordelen voor bepaalde investeringen doorschijnen. Een voorbeeld van vooroordelen in een AI-model komt van de Universiteit van Chicago.

Uit onderzoek bleek dat het gebruikte taalmodel Amerikaans en Afrikaans-Amerikaans Engels anders beoordeelde. Ondanks dat de AI niet was getraind met materiaal dat openlijke racistische opmerkingen bevatte, was dialect en andere vormen van verborgen racisme in het trainingsmateriaal genoeg om Afrikaans-Amerikaanse sprekers minder prestigieuze banen toe te wijzen en vaker te veroordelen in hypothetische strafzaken.

Bewust toegepaste bias kan een model helpen terugkerende marktpatronen te benutten. Maar verborgen bias kan ervoor zorgen dat een model goed scoort in tests en vervolgens faalt in de praktijk, met onverwachte verliezen voor handelaren tot gevolg.

Er kan een failsafe worden toegevoegd aan het AI-model, waardoor het aangeeft hoe zeker het is van zijn voorspellingen. “Dus zelfs als je model aangeeft voor 80% zeker te zijn, is het belangrijk hoe zeker je zelf bent van die prestaties. En soms heb je te maken met onevenwichtige gegevens”, zegt Sburlea. 

AI-modellen moeten volgens Sburlea dan ook vooral dienen als uitgangspunt of tussenstation. “Het mag nooit het eindproduct op zich zijn. Het moet door ons eigen denkfilter worden gehaald in plaats van alleen maar een vervanging te zijn van ons denkproces.” 

Menselijk oordeel blijft onmisbaar in beleggen

Ook investeerders met enkele jaren ervaring, zoals Marco van Kempen, zijn het met de experts eens: “Ik zou AI niet gebruiken als absolute waarheid, maar meer als hulpje,” aldus Van Kempen.

Een punt van kritiek van Van Kempen betreft de AI-suggesties op vragen als: ‘Welke bedrijven keren een hoog dividend (winstuitkering aan aandeelhouders) uit?’ De lijst met bedrijven die AI geeft, controleert hij vervolgens aan de hand van zijn eigen onderzoek. Van Kempen gebruikt ChatGPT om hem te ondersteunen bij zijn handelsbeslissingen.

Voor Brilman is de grootste zorg dat AI een vals gevoel van veiligheid geeft, terwijl veiligheid op de financiële markt in werkelijkheid niet bestaat. “Markten blijven per definitie onzeker.”

Volgens Brilman geldt bovendien nog altijd: “Menselijk oordeel is vooral superieur in het aanvoelen van emotionele marktdynamiek, bijvoorbeeld wanneer het nodig is om tegen de markt in te gaan. Zulke momenten zijn vaak gebaseerd op sentiment, timing en ervaring, terwijl AI voornamelijk werkt op basis van data en patronen.”

Deskundigen zijn het er dus over eens dat AI niet blindelings moet worden vertrouwd: “Je hebt ook altijd een menselijk overzicht nodig,” aldus Sburlea.

Begrijpen hoe AI werkt

AI-modellen zijn black boxes, wat betekent dat ze informatie bevatten die niet transparant is voor gebruikers. Deze ondoorzichtigheid maakt vertrouwen, debugging en governance moeilijker.  

Er zijn echter modellen die interpreteerbaar en verklaarbaar zijn en er wordt meer onderzoek gedaan naar deze mogelijkheid binnen machine learning en neurale netwerken. De komende vijf jaar wordt er bij de hogeschool Saxion onderzoek gedaan om te begrijpen hoe AI werkt.