{"id":286892,"date":"2021-05-01T07:58:00","date_gmt":"2021-05-01T05:58:00","guid":{"rendered":"https:\/\/innovationorigins.com\/?p=286892"},"modified":"2021-05-01T07:58:00","modified_gmt":"2021-05-01T05:58:00","slug":"kunnen-we-ai-leren-moreel-te-oordelen","status":"publish","type":"post","link":"https:\/\/ioplus.nl\/archive\/nl\/kunnen-we-ai-leren-moreel-te-oordelen\/","title":{"rendered":"Kunnen we AI leren moreel te oordelen?"},"content":{"rendered":"\n<p>Een vraag die mij als moraalfilosoof bezighoudt, is in hoeverre artifici\u00eble intelligentie (AI) moreel kan oordelen. Om die vraag te beantwoorden, moeten we natuurlijk eerst weten hoe de mens tot morele oordelen komt. Daar bestaat helaas geen consensus over. Moreel psycholoog <a href=\"https:\/\/www.conscire.nl\/haidt-gewetensontwikkeling\/\">Jonathan Haidt<\/a> stelt dat onze intu\u00efties in eerste instantie het moreel redeneren sturen. De rede di\u00e9nt de intu\u00eftie, zoals filosoof <a href=\"https:\/\/www.britannica.com\/topic\/ethical-relativism\">David Hume<\/a> al stelde in de 18de eeuw.<\/p>\n\n\n\n<p>Haidt legde aan proefpersonen een taboescenario voor, over een broer en een zus die eenmalig seks met elkaar hebben. De bezwaren zijn afgedekt: ze gebruiken voorbehoedsmiddelen (anticonceptiepil en condoom) en het gebeurt met wederzijdse toestemming. Het merendeel keurt het scenario intu\u00eftief af en zoekt vervolgens argumenten om die intu\u00eftie te staven. Als respondenten meer tijd krijgen om erover na te denken en als ze daarbij ook een onderbouwd argument krijgen aangereikt, zijn ze eerder geneigd om akkoord te gaan. Een rustig gesprek en het aanreiken van argumenten kunnen mensen hun intu\u00eftie \u00e9n oordelen doen veranderen. In een open gesprek, waarbij wederzijds begrip en affectie getoond wordt, is er meer bereidheid om van gedachte te veranderen.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">&#8216;Spelen&#8217; als vorm van intu\u00eftie<\/h2>\n\n\n\n<p>Machine learning en deep learning leveren mogelijkheden om AI een soort van morele \u2018intu\u00eftie\u2019 te laten ontwikkelen door data aan te leveren en algoritmen er patronen in te laten zoeken. Het woord intu\u00eftie is eigenlijk niet het juiste, want bij AI gaat het altijd om berekeningen. Net zoals bij <a href=\"https:\/\/deepmind.com\/research\/case-studies\/alphago-the-story-so-far\">AlphaGo<\/a> zou je een algoritme met miljoenen scenario\u2019s (in dit geval over moraliteit) kunnen confronteren, daartegen laten \u2018spelen\u2019 (als vorm van selfplay) en leren uit fouten. AI zal een patroon vinden, bijvoorbeeld over goed en slecht, en kan zo een soort van intu\u00eftie ontwikkelen. Het blijft uitermate belangrijk om kritisch te kijken naar hoe AI patronen ontdekt. Niet elk patroon is immers wenselijk: AI kan bijvoorbeeld ook voorkeuren op basis van populariteit ontwikkelen.<\/p>\n\n\n\n<p>Maar een \u2018goed\u2019 en overtuigend moreel oordeel gaat verder dan intu\u00eftie: het is onderbouwd met kwaliteitsvolle argumenten. Als iemand oordeelt dat een specifieke handeling verkeerd is, moet diezelfde persoon kunnen onderbouwen waarom. Zo wordt complete willekeur vermeden en kan ingeschat worden in hoeverre het oordeel bijvoorbeeld onderhevig is aan vooroordelen. AI intu\u00eftie aanleren volstaat dus niet: AI zal ook moeten leren argumenteren. In het juridische domein wordt al langer onderzocht hoe AI kan ingezet worden om juristen bij te staan met het evalueren van juridische argumentatie. Het gaat in dit geval vooral om het modelleren van juridische argumentatie. In Nederland onderzoeken filosofen in hoeverre een \u2018argumentatiemachine\u2019 drogredenen kan herkennen, maar het onderzoek staat nog in de kinderschoenen.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Geen consensus<\/h2>\n\n\n\n<p>Het moreel juiste om te doen, onder alle omstandigheden, is datgene waarvoor de beste redenen zijn om het te doen, en daarbij evenveel gewicht te geven aan de belangen van elk individu dat zal worden be\u00efnvloed door wat men doet. Nog los van de vraag of AI ooit in staat zal zijn om dit te kunnen, is er geen consensus over die \u2018beste redenen\u2019, wat de keuze bemoeilijkt van met welke data we AI moeten trainen. De theorie, en specifieker, de definitie van moraliteit die je aanhoudt en waar je AI mee traint, zal de output bepalen, in dit geval het morele oordeel. Als je ethiek en AI verbindt, hang je onvermijdelijk vast aan het maken van keuzes die vervolgens de richting van het morele oordeel bepalen. Kortom: voorlopig blijft de vraag erg speculatief.<\/p>\n\n\n\n<p><\/p>\n\n\n\n<p><strong>Over deze column:<\/strong><\/p>\n\n\n\n<p><em>In een wekelijkse column, afwisselend geschreven door\u00a0Bert Overlack,\u00a0Eveline van Zeeland, Eugene Franken, Helen Kardan, <strong>Katleen Gabriels<\/strong>, Carina Weijma, Bernd Maier-Leppla en Colinda de Beer\u00a0probeert Innovation Origins te achterhalen hoe de toekomst eruit zal zien. Deze columnisten, soms aangevuld met gastbloggers, werken allemaal op hun eigen manier aan oplossingen voor de problemen van deze tijd. Morgen zal het dus goed zijn.\u00a0Hier zijn alle <a href=\"https:\/\/innovationorigins.com\/nl\/?s=morgen+beter\">voorgaande afleveringen<\/a>.<\/em><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Een vraag die mij als moraalfilosoof bezighoudt, is in hoeverre artifici\u00eble intelligentie (AI) moreel kan oordelen. Om die vraag te beantwoorden, moeten we natuurlijk eerst weten hoe de mens tot morele oordelen komt. Daar bestaat helaas geen consensus over. Moreel psycholoog Jonathan Haidt stelt dat onze intu\u00efties in eerste instantie het moreel redeneren sturen. De [&hellip;]<\/p>\n","protected":false},"author":1738,"featured_media":523989,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"advgb_blocks_editor_width":"","advgb_blocks_columns_visual_guide":"","footnotes":""},"categories":[10351],"tags":[88063,110560,111124,15102,111127],"location":[],"article_type":[],"serie":[],"archives":[],"internal_archives":[],"reboot-archive":[],"class_list":["post-286892","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-opinie-nl","tag-deep-learning-nl","tag-machine-learning-nl","tag-moraalfilosofie-nl","tag-morgen-beter-nl","tag-selfplay-nl"],"blocksy_meta":[],"acf":{"subtitle":"Kunnen we artificial intelligence ooit leren - via argumentatie of intu\u00eftie - het moreel juiste te doen? Daarover breken moraalfilosofen, zoals onze columniste Katleen Gabriels, zich het hoofd. ","text_display_homepage":false},"author_meta":{"display_name":"Katleen Gabriels","author_link":"https:\/\/ioplus.nl\/archive\/author\/katleen-gabriels\/"},"featured_img":"https:\/\/ioplus.nl\/archive\/wp-content\/uploads\/2021\/05\/pexels-alex-knight-2599244-scaled-300x200.jpg","coauthors":[],"tax_additional":{"categories":{"linked":["<a href=\"https:\/\/ioplus.nl\/archive\/nl\/category\/opinie-nl\/\" class=\"advgb-post-tax-term\">Opinie<\/a>"],"unlinked":["<span class=\"advgb-post-tax-term\">Opinie<\/span>"]},"tags":{"linked":["<a href=\"https:\/\/ioplus.nl\/archive\/nl\/category\/opinie-nl\/\" class=\"advgb-post-tax-term\">deep learning<\/a>","<a href=\"https:\/\/ioplus.nl\/archive\/nl\/category\/opinie-nl\/\" class=\"advgb-post-tax-term\">machine learning<\/a>","<a href=\"https:\/\/ioplus.nl\/archive\/nl\/category\/opinie-nl\/\" class=\"advgb-post-tax-term\">moraalfilosofie<\/a>","<a href=\"https:\/\/ioplus.nl\/archive\/nl\/category\/opinie-nl\/\" class=\"advgb-post-tax-term\">Morgen Beter<\/a>","<a href=\"https:\/\/ioplus.nl\/archive\/nl\/category\/opinie-nl\/\" class=\"advgb-post-tax-term\">selfplay<\/a>"],"unlinked":["<span class=\"advgb-post-tax-term\">deep learning<\/span>","<span class=\"advgb-post-tax-term\">machine learning<\/span>","<span class=\"advgb-post-tax-term\">moraalfilosofie<\/span>","<span class=\"advgb-post-tax-term\">Morgen Beter<\/span>","<span class=\"advgb-post-tax-term\">selfplay<\/span>"]}},"comment_count":"0","relative_dates":{"created":"Posted 5 years ago","modified":"Updated 5 years ago"},"absolute_dates":{"created":"Posted on May 1, 2021","modified":"Updated on May 1, 2021"},"absolute_dates_time":{"created":"Posted on May 1, 2021 7:58 am","modified":"Updated on May 1, 2021 7:58 am"},"featured_img_caption":"","series_order":"","_links":{"self":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/posts\/286892","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/users\/1738"}],"replies":[{"embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/comments?post=286892"}],"version-history":[{"count":0,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/posts\/286892\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/media\/523989"}],"wp:attachment":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/media?parent=286892"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/categories?post=286892"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/tags?post=286892"},{"taxonomy":"location","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/location?post=286892"},{"taxonomy":"article_type","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/article_type?post=286892"},{"taxonomy":"serie","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/serie?post=286892"},{"taxonomy":"archives","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/archives?post=286892"},{"taxonomy":"internal_archives","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/internal_archives?post=286892"},{"taxonomy":"reboot-archive","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/reboot-archive?post=286892"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}