{"id":409583,"date":"2022-10-03T06:30:00","date_gmt":"2022-10-03T04:30:00","guid":{"rendered":"https:\/\/innovationorigins.com\/?p=409583"},"modified":"2022-10-03T06:30:00","modified_gmt":"2022-10-03T04:30:00","slug":"wie-is-verantwoordelijk-voor-mijn-racistische-robot","status":"publish","type":"post","link":"https:\/\/ioplus.nl\/archive\/nl\/wie-is-verantwoordelijk-voor-mijn-racistische-robot\/","title":{"rendered":"Wie is verantwoordelijk voor mijn racistische robot?"},"content":{"rendered":"\n<p>Fabrikanten van producten die gebruik maken van kunstmatige intelligentie, zijn ten alle tijden aansprakelijk voor eventuele schade. Om de rechten van gebruikers beter te beschermen, scherpt de <a href=\"https:\/\/ec.europa.eu\/commission\/presscorner\/detail\/nl\/ip_22_5807\" target=\"_blank\" rel=\"noreferrer noopener\">Europese Commissie scherpt de aansprakelijkheidsrichtlijn<\/a> aan.&nbsp;<\/p>\n\n\n\n<p>Deze zomer was de nieuwe chatbot van Meta het doelwit van hoon. Slechts een paar dagen nadat de Blenderbot 3 van het moederbedrijf van Facebook in de Verenigde Staten online ging, was het zelflerende programma verworden <a href=\"https:\/\/www.indy100.com\/viral\/facebook-ai-chatbot-racism\" target=\"_blank\" rel=\"noreferrer noopener\">tot een racistische verspreider van nepnieuws<\/a>.<\/p>\n\n\n\n<p>Hetzelfde <a href=\"https:\/\/d3.harvard.edu\/platform-digit\/submission\/taytweets-with-trolls-microsoft-researchs-painful-lesson-in-conversation-crowdsourcing\/\" target=\"_blank\" rel=\"noreferrer noopener\">gebeurde in 2016 met de chatbot Tay<\/a>. Door Microsoft ontwikkeld om op Twitter conversaties aan te gaan met echte mensen. Ook Tay nam een verkeerde afslag en werd door Microsoft al snel weer offline gehaald.&nbsp;<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Echte schade aan echte mensen<\/strong><\/h2>\n\n\n\n<p>De affaires rondom programma\u2019s als Tay en Blenderbot werken op de lachspieren en zijn relatief onschuldig. Hooguit is hun verhaal een pijnlijke les dat een robot neigt tot rechts-extremisme als die de opdracht krijgt om online in contact te treden met echte mensen.&nbsp;<\/p>\n\n\n\n<p>Toch zijn zelflerende computersystemen weldegelijk in staat om echte schade aan echte mensen aan te richten. En dan gaat het niet alleen om zelfrijdende auto\u2019s die een verkeerde inschatting maken waardoor er een aanrijding plaatsvindt.&nbsp;<\/p>\n\n\n\n<p>Zorgelijk is het ook wanneer serieuze softwareprogramma\u2019s die gebruik maken van AI-technieken <a href=\"https:\/\/time.com\/5520558\/artificial-intelligence-racial-gender-bias\/\" target=\"_blank\" rel=\"noreferrer noopener\">onverwacht racistisch gedrag vertonen<\/a>. Het gaat dan om programma\u2019s die bijvoorbeeld gebruikt in beveligingscamera\u2019s of voor de analyse van sollicitatiebrieven.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Burgers moeten robots kunnen vertrouwen<\/strong><\/h2>\n\n\n\n<p>Of het nu gaat om autonoom vervoer, automatisering van complexe processen of het effici\u00ebnter gebruik van landbouwgronden de Europese Unie verwacht veel van de technologische innovaties die mogelijk zijn dankzij kunstmatige intelligentie. Maar AI-toepassingen kunnen alleen een succes worden als burgers het vertrouwen in de techniek niet verliezen. Daarom kwam de Europese Commissie vorig jaar al met een <a href=\"https:\/\/airecht.nl\/blog\/2021\/wet-op-de-artificiele-intelligentie\" target=\"_blank\" rel=\"noreferrer noopener\">Wet Kunstmatige Intelligentie<\/a>. De nieuwe aansprakelijkheidsrichtlijn is het vervolg daarop.&nbsp;<\/p>\n\n\n\n<p>In de wet is geregeld onder welke voorwaarde kunstmatige intelligentie toegepast mag worden. Zo is het verboden om \u2018slimme\u2019 producten op de markt te brengen die een bedreiging zijn voor de \u201cveiligheid, bestaansmiddelen of rechten van mensen\u201d. Voorbeelden daarvan zijn speelgoed dat kinderen aanzet tot gevaarlijk gedrag of AI-systemen die het overheden mogelijk maakt om burgers intensief te volgen.<\/p>\n\n\n<div class=\"vlp-link-container vlp-layout-basic wp-block-visual-link-preview-link advgb-dyn-b1498308\"><a href=\"https:\/\/ioplus.nl\/archive\/nl\/selected\/robots-als-hulpmiddel-bij-het-opsporen-van-mentale-problemen-bij-kinderen\/\" class=\"vlp-link\" title=\"Robots als hulpmiddel bij het opsporen van mentale problemen bij kinderen\" target=\"_blank\"><\/a><div class=\"vlp-layout-zone-side\"><div class=\"vlp-block-2 vlp-link-image\"><\/div><\/div><div class=\"vlp-layout-zone-main\"><div class=\"vlp-block-0 vlp-link-title\">Robots als hulpmiddel bij het opsporen van mentale problemen bij kinderen<\/div><div class=\"vlp-block-1 vlp-link-summary\">De pandemie, het thuisonderwijs en isolement van leeftijdsgenoten en vrienden hadden allemaal invloed op de geestelijke gezondheid van veel kinderen. <\/div><\/div><\/div>\n\n\n<p>Alleen onder strenge voorwaarden zijn AI-toepassingen toegestaan in het vervoer, onderwijs, ziekenhuizen en het personeelsbeleid. Bij dat laatste gaat het bijvoorbeeld om software die gebruikt wordt bij selectieprocedures. Minder streng zijn de voorwaarden bijvoorbeeld voor het inzetten van chatbots, al is het verplicht dat gebruikers wel altijd moeten weten dat ze met een machine en niet met een mens contact hebben. Zonder risico zijn volgens de Europese politici AI-technieken in computerspelletjes of spamfilters.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Verouderde wetten<\/strong><\/h2>\n\n\n\n<p>De vraag is alleen wie verantwoordelijk is voor schade die ontstaat door het gebruik van producten waar kunstmatige intelligentie in verwerkt is. De aansprakelijkheidsrichtlijn zoals die nu geldt is volgens de Europese Unie na 40 jaar verouderd. Volgens de huidige wet is ene fabrikant aansprakelijk voor schade die wordt veroorzaakt door een gebrekkig product.&nbsp;<\/p>\n\n\n\n<p>Maar <a href=\"https:\/\/ec.europa.eu\/info\/sites\/default\/files\/commission-white-paper-artificial-intelligence-feb2020_nl.pdf\">in een <\/a><a href=\"https:\/\/ec.europa.eu\/info\/sites\/default\/files\/commission-white-paper-artificial-intelligence-feb2020_nl.pdf\" target=\"_blank\" rel=\"noreferrer noopener\">analyse van de Europese Commissie<\/a> trekken de ambtenaren de conclusie dat die definitie in het digitale tijdperk tekortschiet. \u201cIn het geval van op kunstmatige intelligentie gebaseerde systemen, zoals autonome auto\u2019s, kan het echter moeilijk zijn aan te tonen dat er sprake is van een gebrekkig product\u201d. Vooral het aantonen van een oorzakelijk verband tussen een ontwerpfout en een schade is bij zelflerende systemen problematisch.<\/p>\n\n\n\n<p>Het \u2018gedrag\u2019 van een kunstmatig intelligent systeem verandert over de tijd. Dat \u2018leren\u2019 is vaak een dermate complex proces dat het soms onmogelijk is om te traceren waarom een systeem een bepaald \u2018besluit\u2019 genomen heeft. Dat kan liggen aan het ontwerp van de software, maar ook aan de kwaliteit van de data die de computer gebruikt om te leren. Het gevaar bestaat volgens de Europese Commissie dat het voor gebruikers feitelijk onmogelijk is om in geval van schade hard te maken dat die het gevolg is van een gebrek aan de \u2018slimme\u2019 computer. Tegelijkertijd betekent deze situatie rechtsonzekerheid voor fabrikanten die mogelijk investeringen in nieuwe technieken belemmeren.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Voorspelbare regels<\/strong><\/h2>\n\n\n\n<p>Met de nieuwe aansprakelijkheidsrichtlijn hoopt de Europese Commissie \u2018voorspelbare regels\u2019 in te voeren. De norm wordt dat schade die wordt veroorzaakt door producten die gebruik maken van AI-technieken wordt vergoed.&nbsp;<\/p>\n\n\n\n<p>Ook wordt het makkelijker voor gebruikers om hun recht te halen bij de rechter. In plaats van het aantonen van een oorzakelijk verband, staat in het voorstel van de Europese Commissie dat voortaan het \u2018vermoeden van een oorzakelijk verband\u2019 genoeg is om een schadevergoeding te claimen. Daarnaast krijgen slachtoffers het recht op toegang tot bewijsmateriaal van bedrijven om hun zaak te kunnen onderbouwen.De rechtszekerheid van fabrikanten wil de Commissie beschermen door het recht in te voeren om een schadeclaim op basis van het vermoeden van een oorzakelijk verband juridisch aan te vechten.<\/p>\n\n\n<div class=\"vlp-link-container vlp-layout-basic wp-block-visual-link-preview-link advgb-dyn-cdf183fc\"><a href=\"https:\/\/ioplus.nl\/archive\/nl\/selected\/robot-steeds-beter-in-huishoudelijke-taken\/\" class=\"vlp-link\" title=\"Robot steeds beter in huishoudelijke taken\" target=\"_blank\"><\/a><div class=\"vlp-layout-zone-side\"><div class=\"vlp-block-2 vlp-link-image\"><\/div><\/div><div class=\"vlp-layout-zone-main\"><div class=\"vlp-block-0 vlp-link-title\">Robot steeds beter in huishoudelijke taken<\/div><div class=\"vlp-block-1 vlp-link-summary\">We zijn al gewend geraakt aan bij het grasmaaien: de maairobot. Maar er zijn nog nauwelijks toepassingen van robots voor andere mensgerelateerde taken.<\/div><\/div><\/div>\n\n\n<h2 class=\"wp-block-heading\"><strong>Update tegen racisme<\/strong><\/h2>\n\n\n\n<p>De Europese Commissie ziet de wettelijke voorwaarden voor de inzet van kunstmatige intelligentie en de nieuwe aansprakelijkheidsregels als twee kanten van dezelfde mediale. Dankzij de wet is het verboden om zelflerende systemen op de markt te brengen die discriminerend gedrag vertonen. De nieuwe richtlijn regelt dat een fabrikant aansprakelijk blijft als zo\u2019n algoritme onverhoopt toch verboden gedrag gaat vertonen. Daarmee worden ontwikkelaars gedwongen hun producten te blijven volgen en zondig met een update te voorzien van een hersenspoeling.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Fabrikanten van producten die gebruik maken van kunstmatige intelligentie, zijn ten alle tijden aansprakelijk voor eventuele schade. Om de rechten van gebruikers beter te beschermen, scherpt de Europese Commissie scherpt de aansprakelijkheidsrichtlijn aan.&nbsp; Deze zomer was de nieuwe chatbot van Meta het doelwit van hoon. Slechts een paar dagen nadat de Blenderbot 3 van het [&hellip;]<\/p>\n","protected":false},"author":2475,"featured_media":519594,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"advgb_blocks_editor_width":"","advgb_blocks_columns_visual_guide":"","footnotes":""},"categories":[90877],"tags":[16158,15642,17769],"location":[6759],"article_type":[60156],"serie":[],"archives":[],"internal_archives":[],"reboot-archive":[],"class_list":["post-409583","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-digital-nl-nl","tag-ai-nl","tag-robot-nl","tag-tesla-nl","location-nederland","article_type-nieuws"],"blocksy_meta":[],"acf":{"subtitle":"Het aantonen van een oorzakelijk verband tussen een ontwerpfout en een schade is bij zelflerende systemen is problematisch. De Europese Commissie scherpt daarom de aansprakelijkheidsregels aan.","text_display_homepage":false},"author_meta":{"display_name":"Laurens Boven","author_link":"https:\/\/ioplus.nl\/archive\/author\/laurensboven\/"},"featured_img":"https:\/\/ioplus.nl\/archive\/wp-content\/uploads\/2020\/05\/robot-en-mens-300x225.png","coauthors":[],"tax_additional":{"categories":{"linked":["<a href=\"https:\/\/ioplus.nl\/archive\/nl\/category\/digital-nl-nl\/\" class=\"advgb-post-tax-term\">Digital<\/a>"],"unlinked":["<span class=\"advgb-post-tax-term\">Digital<\/span>"]},"tags":{"linked":["<a href=\"https:\/\/ioplus.nl\/archive\/nl\/category\/digital-nl-nl\/\" class=\"advgb-post-tax-term\">AI<\/a>","<a href=\"https:\/\/ioplus.nl\/archive\/nl\/category\/digital-nl-nl\/\" class=\"advgb-post-tax-term\">robot<\/a>","<a href=\"https:\/\/ioplus.nl\/archive\/nl\/category\/digital-nl-nl\/\" class=\"advgb-post-tax-term\">tesla<\/a>"],"unlinked":["<span class=\"advgb-post-tax-term\">AI<\/span>","<span class=\"advgb-post-tax-term\">robot<\/span>","<span class=\"advgb-post-tax-term\">tesla<\/span>"]}},"comment_count":"0","relative_dates":{"created":"Posted 4 years ago","modified":"Updated 4 years ago"},"absolute_dates":{"created":"Posted on October 3, 2022","modified":"Updated on October 3, 2022"},"absolute_dates_time":{"created":"Posted on October 3, 2022 6:30 am","modified":"Updated on October 3, 2022 6:30 am"},"featured_img_caption":"","series_order":"","_links":{"self":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/posts\/409583","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/users\/2475"}],"replies":[{"embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/comments?post=409583"}],"version-history":[{"count":0,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/posts\/409583\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/media\/519594"}],"wp:attachment":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/media?parent=409583"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/categories?post=409583"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/tags?post=409583"},{"taxonomy":"location","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/location?post=409583"},{"taxonomy":"article_type","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/article_type?post=409583"},{"taxonomy":"serie","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/serie?post=409583"},{"taxonomy":"archives","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/archives?post=409583"},{"taxonomy":"internal_archives","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/internal_archives?post=409583"},{"taxonomy":"reboot-archive","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/reboot-archive?post=409583"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}