AI is geen hulpmiddel maar onmisbaar in onderwijs en onderzoek
Het Tech Trends-rapport 2026 van SURF leunt op internationale marktrapporten, verrijkt met inzichten van experts uit de SURF-coöperatie.
Published on December 24, 2025

Medeoprichter van Media52 en hoogleraar Journalistiek, bouwt aan IO+, events en Laio, met focus op commerciële kansen—en blijft schrijven voor IO+.
Artificial intelligence heeft een drempel overschreden. Wat begon als een experimenteel hulpmiddel voor productiviteit, is in korte tijd uitgegroeid tot een infrastructurele kracht die de kern van onderwijs en onderzoek hertekent. Volgens het SURF Tech Trends-rapport 2026 is AI niet langer iets wat instellingen ‘erbij’ kunnen proberen. Het raakt steeds dieper verankerd in werkprocessen, curricula, onderzoekspraktijken en governance-structuren; vaak sneller dan instellingen daar betekenisvol op kunnen reageren.
Tech Trends 2026
Dit is de eerste aflevering in een tiendelige serie over de technologieën die SURF als bepalend ziet voor 2026. SURF is de Nederlandse coöperatie van onderwijs- en onderzoeksinstellingen. Het Tech Trends-rapport 2026 is een tweejaarlijkse publicatie, gebaseerd op internationale trendstudies en marktrapporten en verrijkt met inzichten van experts uit en rond de SURF-coöperatie. In tien afleveringen kijkt IO+ samen met SURF vooruit naar de belangrijkste technologische ontwikkelingen van het komende jaar.
De snelheid waarmee AI wordt omarmd, zegt alles. Sinds de publieke lancering van ChatGPT eind 2022 hebben grote taalmodellen (LLM’s) wereldwijd honderden miljoenen gebruikers bereikt. AI is niet langer voorbehouden aan gespecialiseerde labs; het zit ingebouwd in alledaagse hulpmiddelen zoals tekstverwerkers, chatapps en leerplatforms. Voor studenten en onderzoekers is AI alom tegenwoordig geworden: altijd beschikbaar, steeds minder zichtbaar en moeilijk te ontwijken.
Van monopolie naar een versnipperd AI-landschap
Een van de belangrijkste verschuivingen die SURF signaleert, is de diversificatie van toegang tot AI-modellen. Instellingen zijn niet langer aangewezen op een klein aantal commerciële cloudoplossingen. Naast hyperscalers ontstaan open-source initiatieven en Europese alternatieven, terwijl lichtere modellen steeds vaker lokaal op persoonlijke apparaten kunnen draaien.
Die diversiteit biedt kansen: meer autonomie, meer controle over data en meer ruimte voor experiment. Tegelijkertijd neemt de complexiteit toe. Instellingen moeten hun weg vinden in een versnipperd ecosysteem van modellen, licenties, infrastructuurvereisten en juridische kaders. De vraag is niet langer óf AI wordt ingezet, maar welke AI, onder welke voorwaarden en met welk doel.
Voor het onderwijs schuilt hierin het risico dat bestaande ongelijkheden worden vergroot. Studenten met betere toegang tot tools, vaardigheden of institutionele ondersteuning kunnen een structureel voordeel krijgen. Tegelijk wordt AI steeds vaker ingezet voor "cognitieve ontlasting": het samenvatten van teksten, het genereren van concepten of het uitleggen van complexe ideeën. Dat roept fundamentele vragen op over toetsing, leerdoelen en de rol van menselijk oordeel.
Verantwoordelijke AI onder geopolitieke druk
Europa positioneert zich nadrukkelijk als mondiale voortrekker op het gebied van verantwoordelijke AI, onder meer via de EU AI Act. Toch constateert SURF een groeiende spanning tussen ethische ambities en geopolitieke realiteit. In de internationale wedloop om AI-dominantie schalen grote technologiebedrijven hun interne ethiekprogramma’s af, terwijl overheden AI steeds vaker framen als strategisch instrument voor economische macht en nationale veiligheid.
Voor onderwijs en onderzoek is die verschuiving cruciaal. Universiteiten zijn afhankelijk van transparantie, reproduceerbaarheid en vertrouwen, waarden die onder druk komen te staan wanneer AI-systemen ondoorzichtig, proprietair of primair commercieel gedreven zijn. Hoewel veel organisaties zich uitspreken voor verantwoorde AI, ziet SURF een hardnekkige kloof tussen intentie en praktijk.
Voor studenten is die ambiguïteit extra problematisch. Van hen wordt verwacht dat zij werken met AI-systemen waarvan onderliggende waarden, trainingsdata en beperkingen vaak onduidelijk zijn. Zoals AI-ethicus Virginia Dignum in het rapport waarschuwt, moeten studenten leren functioneren in een professionele cultuur die zelf steeds ambivalenter staat tegenover verantwoordelijkheid.
Hardware slaat terug: AI botst op fysieke grenzen
Een andere belangrijke observatie in het rapport is de co-evolutie van AI en hardware. Terwijl software-innovatie versnelt, blijkt hardware steeds vaker een knelpunt. Het trainen en draaien van grote modellen vergt enorme hoeveelheden rekenkracht, energie en grondstoffen: allemaal schaarse middelen.
Dat leidt tot een verschuiving richting gespecialiseerde chips, energiezuinige architecturen en zogeheten hardware-aware AI-modellen. Voor onderwijs en onderzoek kan dit een kantelpunt betekenen. Lokale rekenkracht en persoonlijke AI-werkstations kunnen de afhankelijkheid van hyperscale cloudinfrastructuur verkleinen, met voordelen voor privacy en autonomie. Tegelijkertijd brengt de concentratie van hardwareproductie bij een klein aantal mondiale spelers nieuwe kwetsbaarheden met zich mee.
In deze context is infrastructuur geen neutrale technische keuze meer, maar een strategische beslissing met gevolgen voor duurzaamheid, soevereiniteit en langetermijnweerbaarheid.
Van automatisering naar samenwerking
Misschien wel de meest fundamentele verandering is conceptueel van aard: AI verschuift van automatisering naar samenwerking. In plaats van taken simpelweg te vervangen, fungeert AI steeds vaker als partner bij het schrijven van code, het formuleren van hypothesen, het geven van feedback of het ondersteunen van besluitvorming. Multi-agent-systemen en zogeheten agentic AI gaan nog een stap verder, met systemen die autonoom handelen met minimale menselijke tussenkomst.
In het onderwijs kan dit de werkdruk voor docenten verlagen door automatisering van beoordeling, feedback en lesvoorbereiding. In onderzoek kunnen AI-agenten helpen bij literatuurstudies, data-analyse en experimenteel ontwerp. Maar deze voordelen gaan gepaard met risico’s: verlies aan overzicht, vervagend auteurschap en toenemende afhankelijkheid van systemen waarvan de redenering moeilijk te doorgronden is.
SURF is hier duidelijk over: efficiëntie mag niet de dominante maatstaf worden. Onderwijs is geen fabriek en onderzoek geen productielijn. AI moet betekenisvol leren en onderzoek ondersteunen, niet uithollen.

Watt Matters in AI
In deze serie vind je alles dat raakt aan het groeiende energiegebruik door AI-systemen.
Kleinere modellen, grotere keuzes
De laatste AI-trend die SURF benoemt, is misschien wel de meest hoopvolle. Naast steeds grotere modellen winnen small language models (SLM’s) aan terrein. Deze modellen verbruiken aanzienlijk minder energie, kunnen lokaal draaien en zijn vaak beter geschikt voor specifieke taken.
Voor instellingen die waarde hechten aan privacy, duurzaamheid en kostenbeheersing bieden SLM’s en edge AI een alternatief pad. Ze maken het mogelijk data lokaal te houden en beperken zowel milieu-impact als vendor lock-in. Tegelijk vragen ze om nieuwe competenties, zoals modeloptimalisatie, hardware-integratie en strategische planning.
Een collectieve verantwoordelijkheid
Over alle trends heen springt één conclusie eruit: geen enkele instelling kan deze transformatie alleen beheersen. AI verandert niet alleen technologie, maar ook governance, didactiek en publieke waarden. De rol van SURF is daarbij, volgens het rapport, het faciliteren van collectief leren, gedeelde infrastructuur en goed geïnformeerde besluitvorming.
De kernvraag voor onderwijs en onderzoek is niet of AI de toekomst zal vormgeven want dat doet het al. De vraag is of instellingen op hun beurt AI zelf weten te vormen, geleid door publieke waarden in plaats van door technologische momentum alleen.
