{"id":165171,"date":"2019-02-06T16:43:45","date_gmt":"2019-02-06T15:43:45","guid":{"rendered":"https:\/\/innovationorigins.com\/?p=165171"},"modified":"2019-02-06T16:43:45","modified_gmt":"2019-02-06T15:43:45","slug":"drie-experts-over-ai","status":"publish","type":"post","link":"https:\/\/ioplus.nl\/archive\/nl\/drie-experts-over-ai\/","title":{"rendered":"Drie experts over de valkuilen van AI en de zin van regelgeving"},"content":{"rendered":"<p>Even aan Siri vragen om een reminder in je telefoon te zetten terwijl Netflix je films voorschotelt op basis van eerdere keuzes. Of je thermostaat warmt de woonkamer alvast op als je vertrekt van je werk. Allemaal relatief onschuldige voorbeelden van het gebruik van artificial intelligence. In de zorg wordt AI intussen gebruikt voor het herkennen van tumoren op CT-scans of voor een virtuele verpleegkundige zoals <a href=\"https:\/\/innovationorigins.com\/nl\/umc-ontwikkelt-virtuele-arts\/\">Molly<\/a>. In de financi\u00eble sector doen creditcardmaatschappijen fraudechecks en ook gebruiken banken algortitmes om te bepalen of iemand een lening kan krijgen. AI is overal.<\/p>\n<p><em>AI werkt niet zonder data, wat gebeurt er met al deze gegevens? Zijn gemeentes vrij om alle data die ze over jou verzamelen zomaar te gebruiken? In <a href=\"https:\/\/innovationorigins.com\/nl\/privacy-beleidt-hoe-worden-jouw-gegevens-beschermd\/\">dit<\/a> verhaal zochten we het uit.<\/em><\/p>\n<p>Hoe moeten we hier mee omgaan? Moeten we het gewoon laten gebeuren of een grens trekken? En als dat gebeurt, wie stelt deze grens dan? En wie houdt er toezicht op alle nieuwe dingen die worden gemaakt?<\/p>\n<h3><strong>Microsoft<\/strong><\/h3>\n<p>In een <a href=\"https:\/\/blogs.microsoft.com\/on-the-issues\/2018\/12\/06\/facial-recognition-its-time-for-action\/\">blogpost<\/a> van Brad Smit, de president van Microsoft en hoofd legal, pleit hij voor regels en wetten voor gezichtsherkenningstechnologie. Volgens de Microsoft hoofdman heeft deze technologie allerlei gevaren. Van bias -vooringenomenheid- van algoritmes tot het schenden van privacy of overheden die iedere burger in de gaten kunnen houden. Het wordt volgens hem hoog tijd dat overheden zich hiermee bezig gaan houden.<\/p>\n<h3>De Europese Unie<\/h3>\n<p>De Europese Unie heeft een groep van <a href=\"https:\/\/ec.europa.eu\/digital-single-market\/en\/high-level-expert-group-artificial-intelligence\">52 experts<\/a>, mensen uit allerlei sectoren, die advies moeten geven hoe regelgeving rond artificial intelligence eruit moet komen te zien. Sinds december zijn ze hiermee bezig geweest en de <a href=\"https:\/\/ec.europa.eu\/digital-single-market\/en\/news\/draft-ethics-guidelines-trustworthy-ai\">eerste versie van de richtlijnen voor betrouwbare AI<\/a>\u00a0is af. Het gaat hier om ethische dilemma\u2019s waar al tijdens het ontwerpproces aandacht voor moet zijn. Er staan dingen in als: mensen moeten voorop staan, er moet speciale aandacht zijn voor kwetsbare groepen en minderheden. Ook situaties waarin er ongelijkheid van macht of beschikking van informatie voor kan komen, zoals contacten tussen bedrijven en consumenten of werknemers. Ook moet er volgens dit document meer aandacht zijn voor de controle op kunstmatige intelligentie via een controlelijst achteraf. Maar omdat het zo\u2019n veranderend onderwerp is, mag het niet zo zijn dat er vakjes worden afgevinkt. De definitieve versie van deze richtlijnen moet in maart af zijn.<\/p>\n<h3>ISO<\/h3>\n<p>\u201cHet is ongelooflijk belangrijk dat we met zijn allen dezelfde taal spreken\u201d, zegt Jana Lingenfelder. Zij werkt naast IBM voor ISO aan een standaard voor AI. De International Standardisation Organisation (ISO) is een organisatie waar internationale standaarden worden ontwikkeld voor allerlei markten en industri\u00ebn. \u201cEen internationale standaard waarin iedereen gebruik maakt van dezelfde definities en basisregels waar ontwerpers en bedrijven op kunnen teruggrijpen. AI gaat verder dan nationale grenzen, daarom is het ook goed dat de EU hiermee bezig is en richtlijnen opstelt.\u201d<\/p>\n<p>Jan Schallab\u00f6ck, advocaat in Duitsland, richt zich vooral op privacy. Hij denkt bij ISO mee aan een standaard voor onder andere techbedrijven, waar ze in een zo vroeg mogelijk stadium van hun product of dienst al bezig moeten zijn met de privacy van de gebruiker.<br \/>\nHij sluit zich bij Lingenfelder aan, maar hij ziet problemen voor het naleven van die regels: \u201cKunstmatige intelligentie goed in de gaten houden kost tijd, veel overheden of andere toezichtsorganen hebben deze capaciteit niet. Bovendien, in hoeverre zijn zij in staat om in te schatten hoe een algoritme een beslissing neemt? Dat is voor heel veel experts al een hele klus. Dan heb je het nog niet eens gehad over de verantwoordelijkheid en aansprakelijkheid. Komt die bij de gebruikers te liggen? Bij de platforms? Of de mensen die AI ontwikkelen? En hoe zorg je ervoor dat een algoritme een ethische beslissing maakt?\u201d<\/p>\n<h3><strong>Ethisch of cijfers?<\/strong><\/h3>\n<p>Een zelfrijdende auto die tijdens een botsing moet kiezen om een fietser of een voetganger te raken. Zulke dingen moeten worden ingebouwd worden in systemen. Volgens Christian Wagner zit hier een veel gemaakte denkfout. Kunstmatige intelligentie kan helemaal geen ethische beslissingen maken. Wagner geeft les aan de Universiteit van Nottingham en is directeur van <a href=\"http:\/\/www.lucidresearch.org\/about.html\">LUCID,<\/a>\u00a0waar ze zich bezighouden met onderzoek om <a href=\"https:\/\/en.wikipedia.org\/wiki\/Uncertain_data\"><em>uncertain\u00a0<\/em><em>data<\/em><\/a>\u00a0beter te kunnen begrijpen, vastleggen en redeneren. Er wordt volgens hem vaak gesproken over strong AI, waar de techniek net als de mens kan oordelen over goed en fout. \u201cMaar zo ver zijn we nog lang niet. We moeten er allereerst voor zorgen dat systemen stabiel zijn. Een zelfrijdende auto mag niet ineens onverwachte dingen doen. Dat gaat met getallen en kansberekeningen.&#8221;<\/p>\n<p>Wel denkt hij dat het goed is om standaarden en richtlijnen op te stellen, maar hij twijfelt of zo\u2019n model houdbaar is: \u201cDe techniek gaat erg hard en om iedere keer een nieuw model te ontwerpen is erg lastig. Moet je dan ook iedere keer een nieuw model voor toezichthouders maken?\u201d Ook Schallab\u00f6ck vindt dit een lastige: \u201cStandaarden zoals de ISO maakt, zijn altijd goed, maar moet je dan voor iedere toepassing van AI een nieuwe standaard gaan maken? Deze procedures zijn tijdrovend en erg duur.\u201d<\/p>\n<p>Dan speelt er nog de vraag wie die toezichthouders zijn, want zoals Lingenfelder ook al ziet, gaat AI verder dan lokale grenzen en heeft het internationaal impact op alle niveau\u2019s van de samenleving. De drie hebben hier nog geen duidelijk antwoord op. Misschien een nog op te richten EU-orgaan dat toeziet op naleving van de regels? Schallab\u00f6ck: \u201cWe hebben nu de GDPR, maar dat is lang niet genoeg. We hebben nog geen antwoord op de gevaren die AI met zich meebrengt. Het is niet alleen een gevaar voor de democratie, maar ook voor de rechten van individuele personen.\u201d<\/p>\n<p><em>Foto: Waymo<\/em><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Even aan Siri vragen om een reminder in je telefoon te zetten terwijl Netflix je films voorschotelt op basis van eerdere keuzes. Of je thermostaat warmt de woonkamer alvast op als je vertrekt van je werk. Allemaal relatief onschuldige voorbeelden van het gebruik van artificial intelligence. In de zorg wordt AI intussen gebruikt voor het [&hellip;]<\/p>\n","protected":false},"author":1579,"featured_media":510415,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"advgb_blocks_editor_width":"","advgb_blocks_columns_visual_guide":"","footnotes":""},"categories":[1039],"tags":[16158,94045,40412],"location":[],"article_type":[],"serie":[],"archives":[],"internal_archives":[],"reboot-archive":[],"class_list":["post-165171","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-sustainability-nl-nl","tag-ai-nl","tag-europese-unie-nl","tag-privacy-nl"],"blocksy_meta":[],"acf":{"subtitle":"","text_display_homepage":false},"author_meta":{"display_name":"Milan Lenters","author_link":"https:\/\/ioplus.nl\/archive\/author\/milan-lenters\/"},"featured_img":"https:\/\/ioplus.nl\/archive\/wp-content\/uploads\/2019\/02\/waymo_steve_mahan_1.jpg","coauthors":[],"tax_additional":{"categories":{"linked":["<a href=\"https:\/\/ioplus.nl\/archive\/nl\/category\/sustainability-nl-nl\/\" class=\"advgb-post-tax-term\">Sustainability<\/a>"],"unlinked":["<span class=\"advgb-post-tax-term\">Sustainability<\/span>"]},"tags":{"linked":["<a href=\"https:\/\/ioplus.nl\/archive\/nl\/category\/sustainability-nl-nl\/\" class=\"advgb-post-tax-term\">AI<\/a>","<a href=\"https:\/\/ioplus.nl\/archive\/nl\/category\/sustainability-nl-nl\/\" class=\"advgb-post-tax-term\">europese unie<\/a>","<a href=\"https:\/\/ioplus.nl\/archive\/nl\/category\/sustainability-nl-nl\/\" class=\"advgb-post-tax-term\">privacy<\/a>"],"unlinked":["<span class=\"advgb-post-tax-term\">AI<\/span>","<span class=\"advgb-post-tax-term\">europese unie<\/span>","<span class=\"advgb-post-tax-term\">privacy<\/span>"]}},"comment_count":"0","relative_dates":{"created":"Posted 7 years ago","modified":"Updated 7 years ago"},"absolute_dates":{"created":"Posted on February 6, 2019","modified":"Updated on February 6, 2019"},"absolute_dates_time":{"created":"Posted on February 6, 2019 4:43 pm","modified":"Updated on February 6, 2019 4:43 pm"},"featured_img_caption":"","series_order":"","_links":{"self":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/posts\/165171","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/users\/1579"}],"replies":[{"embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/comments?post=165171"}],"version-history":[{"count":0,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/posts\/165171\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/media\/510415"}],"wp:attachment":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/media?parent=165171"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/categories?post=165171"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/tags?post=165171"},{"taxonomy":"location","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/location?post=165171"},{"taxonomy":"article_type","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/article_type?post=165171"},{"taxonomy":"serie","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/serie?post=165171"},{"taxonomy":"archives","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/archives?post=165171"},{"taxonomy":"internal_archives","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/internal_archives?post=165171"},{"taxonomy":"reboot-archive","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/reboot-archive?post=165171"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}