{"id":207764,"date":"2020-02-09T07:02:51","date_gmt":"2020-02-09T06:02:51","guid":{"rendered":"https:\/\/innovationorigins.com\/?p=207764"},"modified":"2020-02-09T07:02:51","modified_gmt":"2020-02-09T06:02:51","slug":"morgen-beter-hoe-zit-het-met-de-morele-goedheid-in-machines","status":"publish","type":"post","link":"https:\/\/ioplus.nl\/archive\/nl\/morgen-beter-hoe-zit-het-met-de-morele-goedheid-in-machines\/","title":{"rendered":"Morgen Beter: Hoe zit het met de morele goedheid in machines?"},"content":{"rendered":"<p>Wat zouden machines die in staat zijn tot moreel gedrag in de praktijk betekenen? De Zweedse fictieserie <em>Real Humans<\/em> geeft een interessante invulling aan deze vraag: \u2018hubots\u2019 \u2013 samentrekking van \u2018human\u2019 en \u2018robot\u2019 &#8211; leven samen met mensen en komen in opstand om meer rechten te eisen. Mensen moeten niet alleen respect voor hen hebben, maar ook hun belangen serieus nemen. Dit type robot kan ook moreel en juridisch verantwoordelijk gesteld worden. Als zou blijken dat robots ooit moreel beter (minder feilbaar) zijn dan wij, dan zouden ze in principe onze \u2018morele mentors\u2019 kunnen worden.<\/p>\n<p>Real Humans is uiteraard fictie en levert een interessant gedachte-experiment maar niet meer dan dat. Een programma dat \u2018goed\u2019 werkt, betekent dat het doet wat het moet doen. Hoe zit het met morele goedheid in machines? Kunnen we dat \u00fcberhaupt \u2018programmeren\u2019? De technische, functionele aspecten vormen al een hele uitdaging. Bovendien is er niet zomaar een \u2018perfecte morele blauwdruk\u2019 voorhanden die de data bevat waarmee we een machine eenvoudigweg kunnen trainen. Mensen zijn immers moreel feilbaar.<\/p>\n<h3>Geen consensus<\/h3>\n<p>Er is ook geen consensus over welke ethische theorie de basis moet vormen voor ethische standaarden; filosofen discussi\u00ebren daar al eeuwen over. Moet het AI-systeem gehoorzamen aan morele regels of moet het zo handelen <a href=\"https:\/\/www.tandfonline.com\/doi\/abs\/10.1080\/09528130050111428\">dat het geluk van het grootste aantal mensen vergroot<\/a>?<\/p>\n<p>In het eerste geval (gehoorzamen aan morele regels) moet de machine geprogrammeerd worden met expliciete regels waaraan die moet gehoorzamen om tot een moreel besluit te komen. Laten we die regel simpel houden: de eeuwenoude gulden regel \u2018Doe een ander niet aan wat je zelf niet wil\u2019. De regel mag dan al simpel zijn, de toepassing ervan is bijzonder complex. De computer moet dan namelijk in staat zijn om z\u00e9lf te bepalen wat die wel en niet wil, in diverse hypothetische contexten, en daarbij een inschatting kunnen maken van de gevolgen van andermans daden op zichzelf. Ook als de computer niet over \u00e9chte empathie beschikt, dan nog moet die op zijn minst het \u2018inlevingsvermogen\u2019 hebben om de gevolgen van de eigen handelingen op anderen te berekenen, om in te schatten in hoeverre de machine zou wensen om zelf zo behandeld te worden. En daarbij moet het systeem ook nog rekening houden met de verschillen in individuele opvattingen en voorkeuren.<\/p>\n<h3>Ethische theorie<\/h3>\n<p>En valt dat \u00fcberhaupt te vatten in wiskundige termen? Misschien is het \u2018makkelijker\u2019 om het systeem te voeden met een ethische theorie die focust op het vergroten van het geluk van het grootste aantal mensen. Om die ethische theorie (utilitarisme of consequentialisme) in een machine te implementeren, moeten de effecten van een handeling op elk lid van de morele gemeenschap een numerieke waarde krijgen. Maar het is onmogelijk om dit in real-time voor elke handeling in de wereld te doen, vooral omdat de gevolgen van elke handeling weer tot nieuwe gevolgen leiden. Op zich kun je het rekenprobleem beperken door een grens op te leggen, waarboven geen verdere inschatting van gevolgen meer nodig is. Ook dat is onwaarschijnlijk complex en bovendien kan er net buiten die grens misschien ongelooflijk veel lijden en pijn veroorzaakt worden, wat we toch als een moreel verwerpelijke daad zouden beschouwen.<\/p>\n<p>Net zoals bij Real Humans bevatten idee\u00ebn over \u2018morele machines\u2019 interessante gedachte-experimenten. Maar voorlopig niet meer dan dat.<\/p>\n<p><strong>Over deze column:<\/strong><\/p>\n<p><em>In een wekelijkse column, afwisselend geschreven door\u00a0Bert Overlack, Mary Fiers, Peter de Kock, Eveline van Zeeland, Lucien Engelen, Tessie Hartjes, Jan Wouters, <strong>Katleen Gabriels<\/strong> en Auke Hoekstra, probeert Innovation Origins in een wekelijkse column te achterhalen hoe de toekomst eruit zal zien. Deze columnisten, soms aangevuld met gastbloggers, werken allemaal op hun eigen manier aan oplossingen voor de problemen van deze tijd. Zodat morgen beter wordt.\u00a0<a href=\"https:\/\/innovationorigins.com\/nl\/tag\/morgen-beter\/\">Hier<\/a>\u00a0lees je alle vorige afleveringen.<\/em><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Wat zouden machines die in staat zijn tot moreel gedrag in de praktijk betekenen? De Zweedse fictieserie Real Humans geeft een interessante invulling aan deze vraag: \u2018hubots\u2019 \u2013 samentrekking van \u2018human\u2019 en \u2018robot\u2019 &#8211; leven samen met mensen en komen in opstand om meer rechten te eisen. Mensen moeten niet alleen respect voor hen hebben, [&hellip;]<\/p>\n","protected":false},"author":1738,"featured_media":519842,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"advgb_blocks_editor_width":"","advgb_blocks_columns_visual_guide":"","footnotes":""},"categories":[10351],"tags":[97054,103546,15102,102367,2020],"location":[],"article_type":[],"serie":[],"archives":[],"internal_archives":[],"reboot-archive":[],"class_list":["post-207764","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-opinie-nl","tag-ethiek-nl","tag-hubots-nl","tag-morgen-beter-nl","tag-robot-ethiek-nl","tag-robots-nl"],"blocksy_meta":[],"acf":{"subtitle":"","text_display_homepage":false},"author_meta":{"display_name":"Katleen Gabriels","author_link":"https:\/\/ioplus.nl\/archive\/author\/katleen-gabriels\/"},"featured_img":"https:\/\/ioplus.nl\/archive\/wp-content\/uploads\/2020\/02\/robot-4757878_1920-300x200.jpg","coauthors":[],"tax_additional":{"categories":{"linked":["<a href=\"https:\/\/ioplus.nl\/archive\/nl\/category\/opinie-nl\/\" class=\"advgb-post-tax-term\">Opinie<\/a>"],"unlinked":["<span class=\"advgb-post-tax-term\">Opinie<\/span>"]},"tags":{"linked":["<a href=\"https:\/\/ioplus.nl\/archive\/nl\/category\/opinie-nl\/\" class=\"advgb-post-tax-term\">ethiek<\/a>","<a href=\"https:\/\/ioplus.nl\/archive\/nl\/category\/opinie-nl\/\" class=\"advgb-post-tax-term\">hubots<\/a>","<a href=\"https:\/\/ioplus.nl\/archive\/nl\/category\/opinie-nl\/\" class=\"advgb-post-tax-term\">Morgen Beter<\/a>","<a href=\"https:\/\/ioplus.nl\/archive\/nl\/category\/opinie-nl\/\" class=\"advgb-post-tax-term\">robot-ethiek<\/a>","<a href=\"https:\/\/ioplus.nl\/archive\/nl\/category\/opinie-nl\/\" class=\"advgb-post-tax-term\">robots<\/a>"],"unlinked":["<span class=\"advgb-post-tax-term\">ethiek<\/span>","<span class=\"advgb-post-tax-term\">hubots<\/span>","<span class=\"advgb-post-tax-term\">Morgen Beter<\/span>","<span class=\"advgb-post-tax-term\">robot-ethiek<\/span>","<span class=\"advgb-post-tax-term\">robots<\/span>"]}},"comment_count":"0","relative_dates":{"created":"Posted 6 years ago","modified":"Updated 6 years ago"},"absolute_dates":{"created":"Posted on February 9, 2020","modified":"Updated on February 9, 2020"},"absolute_dates_time":{"created":"Posted on February 9, 2020 7:02 am","modified":"Updated on February 9, 2020 7:02 am"},"featured_img_caption":"","series_order":"","_links":{"self":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/posts\/207764","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/users\/1738"}],"replies":[{"embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/comments?post=207764"}],"version-history":[{"count":0,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/posts\/207764\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/media\/519842"}],"wp:attachment":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/media?parent=207764"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/categories?post=207764"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/tags?post=207764"},{"taxonomy":"location","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/location?post=207764"},{"taxonomy":"article_type","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/article_type?post=207764"},{"taxonomy":"serie","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/serie?post=207764"},{"taxonomy":"archives","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/archives?post=207764"},{"taxonomy":"internal_archives","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/internal_archives?post=207764"},{"taxonomy":"reboot-archive","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/reboot-archive?post=207764"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}