{"id":382301,"date":"2022-06-25T11:00:00","date_gmt":"2022-06-25T09:00:00","guid":{"rendered":"https:\/\/innovationorigins.com\/?p=382301"},"modified":"2022-06-25T11:00:00","modified_gmt":"2022-06-25T09:00:00","slug":"onderzoek-nederlandse-universiteiten-moet-schandalen-als-de-toeslagenaffaire-helpen-voorkomen","status":"publish","type":"post","link":"https:\/\/ioplus.nl\/archive\/nl\/onderzoek-nederlandse-universiteiten-moet-schandalen-als-de-toeslagenaffaire-helpen-voorkomen\/","title":{"rendered":"Onderzoek Nederlandse universiteiten moet schandalen als de toeslagenaffaire helpen voorkomen"},"content":{"rendered":"\n<p>Steeds meer overheden en bedrijven leunen op artifici\u00eble intelligentie en algoritmes om beslissingen te maken. Daarbij moet onzorgvuldigheid en de inbreuk op privacy wel voorkomen worden. Onlangs kende de Nederlandse Organisatie voor Wetenschappelijk Onderzoek (NWO) 21.3 miljoen euro toe aan <a href=\"https:\/\/www.uva.nl\/content\/nieuws\/nieuwsberichten\/2022\/05\/miljoenensubsidie-voor-onderzoek-naar-de-algoritmische-samenleving.html\">het project \u2018De algoritmische samenleving\u2019<\/a> waaraan verschillende Nederlandse universiteiten deelnemen. Geautomatiseerde beslissingen in onder meer het rechtssysteem en ziekenhuizen worden onder de loep genomen.<\/p>\n\n\n\n<p>De meesten kennen het schandaal inmiddels wel: De toeslagenaffaire, waarbij de Belastingdienst een inbreuk deed op mensenrechten door algoritmes in te zetten die leidden tot etnisch profileren. Het voorbeeld geeft duidelijk aan dat het in acht nemen van ethische overwegingen bij het toepassen van algoritmes en artifici\u00eble intelligentie onmisbaar is voor een gezonde werking van professionele organisaties. Er kunnen immers schrijnende situaties ontstaan wanneer er te veel gekoerst wordt op enkel en alleen computeruitslagen en bureaucratie binnen een organisatie.&nbsp;<\/p>\n\n\n\n<p>\u201cMensen vertrouwen al snel op systemen en dat ze doen wat ze zouden moeten doen. Maar weten zij ook op basis waarvan de data tot hun beschikking komt? Vaak is dat niet het geval\u201d, zegt Jos\u00e9 van Dijck, universiteitshoogleraar media en digitale samenleving aan de Universiteit Utrecht (UU). Ze is vanuit de UU betrokken bij het nieuwe project. \u201cWe willen onderzoeken hoe we belangrijke waarden zoals privacy, gelijkwaardigheid en veiligheid kunnen waarborgen.\u201d&nbsp;<\/p>\n\n\n<div class=\"vlp-link-container vlp-layout-basic wp-block-visual-link-preview-link\"><a href=\"https:\/\/ioplus.nl\/archive\/nl\/tijd-om-nu-ook-wat-te-doen-tegen-de-datahonger-van-de-overheid\/\" class=\"vlp-link\" title=\"Tijd om nu ook wat te doen tegen de datahonger van de overheid\"><\/a><div class=\"vlp-layout-zone-side\"><div class=\"vlp-block-2 vlp-link-image\"><\/div><\/div><div class=\"vlp-layout-zone-main\"><div class=\"vlp-block-0 vlp-link-title\">Tijd om nu ook wat te doen tegen de datahonger van de overheid<\/div><div class=\"vlp-block-1 vlp-link-summary\">Successen moet je vieren. Vorige maand is de Europese Digitale Markets Act aangenomen. <\/div><\/div><\/div>\n\n\n<h3 class=\"wp-block-heading\">Krachten bundelen<\/h3>\n\n\n\n<p><br>Het project duurt tien jaar en wordt geleid door UvA-universiteitshoogleraren Natali Helberger en Claes de Vreese. Andere deelnemers zijn, naast de Universiteit Utrecht, de Erasmus Universiteit Rotterdam, Tilburg University en Technische Universiteit Delft. Van Dijck hoopt dat het onderzoek onder meer een bijdrage kan leveren in het bewust maken van professionals die dagelijks te maken krijgen met geautomatiseerde processen. \u201cHoe kunnen we ervoor zorgen dat zij constant alert zijn op het waarborgen van publieke waarden? Door de vinger erachter te krijgen over hoe de uitrol van algoritmes in verschillende sectoren van de samenleving verloopt, kunnen we dit uiteindelijk scherp krijgen.\u201d&nbsp;<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>Mensenrechten<\/strong><\/h3>\n\n\n\n<p>De Universiteit Utrecht ontvangt ongeveer 3.5 miljoen euro van het totaalbudget. Het geld kan onder meer besteed worden aan onderzoeksprojecten binnen bestuursorganen. Eerder werd er al een dergelijk onderzoek uitgevoerd door de Universiteit Utrecht, namelijk de <a href=\"https:\/\/www.uu.nl\/nieuws\/iama-maakt-zorgvuldige-beslissing-over-inzet-algoritmes-mogelijk\" target=\"_blank\" rel=\"noreferrer noopener\">Impact Assessment Mensenrechten en Algoritmes (IAMA)<\/a>, ontwikkeld door Janneke Gerards, hoogleraar fundamentele rechten aan de Universiteit Utrecht. Samen met collega\u2019s die werkzaam zijn bij de Utrecht Data School maakte ze een instrument, een soort handleiding die organisaties ondersteunt bij de besluitvorming rondom de ontwikkeling en inzet van algoritmes. Stap voor stap worden discussiepunten omschreven die voor de implementatie van het algoritme aan bod dienen te komen.\u00a0<\/p>\n\n\n\n<p>Bij het volgen van de IAMA is een van de eerste vragen die beleidsmakers zichzelf moeten stellen wat de concrete doelstelling is van de inzet van algoritmes. Ook staat omschreven dat mensen altijd de vrijheid moeten hebben om de beslissingen van de algoritmes te verwerpen. Door op deze manier licht te schijnen op het verloop van een zorgvuldig besluitvormingsproces van algoritmes, kan de handleiding problematische situaties, zoals dus de toeslagenaffaire, helpen voorkomen.<\/p>\n\n\n\n<p>Onderzoek naar algoritmes binnen bestuursorganen is slechts een van de focusgebieden binnen De algoritmische samenleving. Van Dijck is enthousiast over de verschillende expertisegebieden die vanuit de universiteiten in het project worden samengebracht. \u201cIn Utrecht richten we ons op governance vraagstukken, maar in Amsterdam ligt de focus op effect-onderzoek van algoritmetoepssingen, terwijl er in Rotterdam met name aandacht wordt besteed aan toepassingen in de gezondheidszorg. Het onderzoek concentreert zich op drie sectoren (media, rechtspraak en gezondheid) maar is breed toepasbaar.\u201d<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>Een moving target<\/strong><\/h3>\n\n\n\n<p>Een van de uitdagingen waar wetenschappers in het onderzoek mee te maken krijgen is de alsmaar verdere ontwikkeling van de technologie in de samenleving. Dat maakt het lastig voorspellen hoe algoritmes in de toekomst ingezet gaan worden. \u201cNeem bijvoorbeeld voice assistants. Die worden steeds vaker ingezet op scholen en in ziekenhuizen. Wie weet wat voor effect dat gaat hebben op de manier waarop we in de praktijk met algoritmes omgaan.&#8221;<\/p>\n\n\n\n<p>\u201cWe bestuderen een moving target. Daarom moeten we voortdurend onze ogen open houden voor veranderingen.\u201d<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Steeds meer overheden en bedrijven leunen op artifici\u00eble intelligentie en algoritmes om beslissingen te maken. Daarbij moet onzorgvuldigheid en de inbreuk op privacy wel voorkomen worden. Onlangs kende de Nederlandse Organisatie voor Wetenschappelijk Onderzoek (NWO) 21.3 miljoen euro toe aan het project \u2018De algoritmische samenleving\u2019 waaraan verschillende Nederlandse universiteiten deelnemen. Geautomatiseerde beslissingen in onder meer [&hellip;]<\/p>\n","protected":false},"author":1780,"featured_media":512333,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"advgb_blocks_editor_width":"","advgb_blocks_columns_visual_guide":"","footnotes":""},"categories":[90877],"tags":[40412],"location":[6759],"article_type":[43133],"serie":[],"archives":[],"internal_archives":[],"reboot-archive":[],"class_list":["post-382301","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-digital-nl-nl","tag-privacy-nl","location-nederland","article_type-achtergrond"],"blocksy_meta":[],"acf":{"subtitle":"Door algoritmes in ziekenhuizen, scholen en bestuursorganen onder de loep te nemen, moeten privacyschending en discriminatie voorkomen worden.","text_display_homepage":false},"author_meta":{"display_name":"Elcke Vels","author_link":"https:\/\/ioplus.nl\/archive\/author\/elckevels\/"},"featured_img":"https:\/\/ioplus.nl\/archive\/wp-content\/uploads\/2022\/06\/notebook-1850613_1920.jpg","coauthors":[],"tax_additional":{"categories":{"linked":["<a href=\"https:\/\/ioplus.nl\/archive\/nl\/category\/digital-nl-nl\/\" class=\"advgb-post-tax-term\">Digital<\/a>"],"unlinked":["<span class=\"advgb-post-tax-term\">Digital<\/span>"]},"tags":{"linked":["<a href=\"https:\/\/ioplus.nl\/archive\/nl\/category\/digital-nl-nl\/\" class=\"advgb-post-tax-term\">privacy<\/a>"],"unlinked":["<span class=\"advgb-post-tax-term\">privacy<\/span>"]}},"comment_count":"0","relative_dates":{"created":"Posted 4 years ago","modified":"Updated 4 years ago"},"absolute_dates":{"created":"Posted on June 25, 2022","modified":"Updated on June 25, 2022"},"absolute_dates_time":{"created":"Posted on June 25, 2022 11:00 am","modified":"Updated on June 25, 2022 11:00 am"},"featured_img_caption":"","series_order":"","_links":{"self":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/posts\/382301","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/users\/1780"}],"replies":[{"embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/comments?post=382301"}],"version-history":[{"count":0,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/posts\/382301\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/media\/512333"}],"wp:attachment":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/media?parent=382301"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/categories?post=382301"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/tags?post=382301"},{"taxonomy":"location","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/location?post=382301"},{"taxonomy":"article_type","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/article_type?post=382301"},{"taxonomy":"serie","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/serie?post=382301"},{"taxonomy":"archives","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/archives?post=382301"},{"taxonomy":"internal_archives","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/internal_archives?post=382301"},{"taxonomy":"reboot-archive","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/reboot-archive?post=382301"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}