{"id":202681,"date":"2020-01-04T13:28:52","date_gmt":"2020-01-04T12:28:52","guid":{"rendered":"https:\/\/innovationorigins.com\/?p=202681"},"modified":"2020-01-04T13:28:52","modified_gmt":"2020-01-04T12:28:52","slug":"filosofe-janina-loh-wie-is-verantwoordelijk-voor-het-handelen-van-robots","status":"publish","type":"post","link":"https:\/\/ioplus.nl\/archive\/nl\/filosofe-janina-loh-wie-is-verantwoordelijk-voor-het-handelen-van-robots\/","title":{"rendered":"Filosofe Janina Loh: wie is verantwoordelijk voor het handelen van robots?"},"content":{"rendered":"<p>Bij het streven naar de ontwikkeling van een kunstmatige superintelligentie lijkt het vooral om techniek te draaien. De Oostenrijkse filosofe Janina Loh stelt daarbij vraagtekens. In haar wetenschappelijke inleiding tot de robot-ethiek stimuleert ze een kritische discussie over dat punt. Het moet niet alleen gaan om het technisch haalbare, maar ook om wat moreel wenselijk is, zo stelt zij.<\/p>\n<p>De filosofische discipline van de robotethiek houdt zich bezig met morele vragen die worden opgeworpen door de bouw van robots en de omgang met robots. In Engelstalige landen is dit al in de academische filosofie verankerd. In Duitstalige landen is robotethiek nog geen algemeen erkende discipline. Ethiek gaat alleen over het menselijk handelen, is een gemeenschappelijk tegenargument dat de technologie als een neutraal wezen presenteert.<\/p>\n<p><em><strong>Ge\u00efnteresseerd in dit onderwerp? <a href=\"https:\/\/innovationorigins.com\/nl\/?s=ethiek+robot\">Innovation Origins publiceerde veel meer over robots &amp; ethiek<\/a>.<\/strong><\/em><\/p>\n<h3>Neutraliteits-thesis<\/h3>\n<p>Voor robot-ethici telt de neutraliteits-thesis &#8211; een term uit de rechtsfilosofie &#8211; niet. Zij zeggen dat technologie door mensen wordt gecre\u00eberd en als zodanig de uitdrukking wordt van menselijke bedoelingen, normen en redenen. Bovendien worden allerlei soorten wezens en dingen be\u00efnvloed door de morele implicaties van de technologie: dieren, planten, huizen, auto&#8217;s, smartphones, landschappen, hele ecosystemen. Ook v\u00f3\u00f3r de robots bestonden er al levenloze dingen die een waarde en soms zelfs rechten kregen.<\/p>\n<h3>Object van moreel handelen<\/h3>\n<p>De Weense filosofe <a href=\"https:\/\/philosophie.univie.ac.at\/institut\/mitglieder\/mitarbeiterdetailansicht\/user\/janinas47\/inum\/1097\/backpid\/56925\/\">Janina Loh<\/a> geeft in haar boek een overzicht van de stand van zaken van het onderzoek in de robotica. Zij introduceert de centrale vraag of robots morele onderwerpen zijn, of slechts objecten van morele actie. Naast dit klassieke onderscheid, gaat ze ook in op de meest recente gedachtegang in de robotica-ethiek: met inbegrip van de benaderingen. In de discussie over de robot als object van morele actie wordt de robot gezien als een menselijk hulpmiddel. De morele bevoegdheid blijft bij de persoon die ze gebruikt en bij de fabrikant, of bij de wet. De fabrikant beslist over eventuele kaderwaarden en principes die in de programmering worden gegeven en die niet door de gebruikers kunnen worden gewijzigd. De discussie over robots als onderwerp van moreel handelen wordt amper gevoerd, omdat we alleen mensen de mogelijkheid toedichten om moreel te handelen.<\/p>\n<h3>Oproep tot inclusie<\/h3>\n<p>De derde en meest recente benadering komt voort uit de vraag naar inclusie &#8211; in de zin van postfeministische, poststructuralistische, postkoloniale en kritisch-posthumanistische standpunten. Het gaat hier om technologie\u00ebn die een beeld van de mensheid bevestigen waarin minderheden al eeuwenlang verstoken zijn van een politieke, sociale, morele en juridische status.<\/p>\n<h3>Feministische robot-ethische benaderingen<\/h3>\n<p>Een voorbeeld hiervan is de feministische robotische ethische benadering, waarbij wordt aangenomen dat de maker van de robot voornamelijk westers, blank, heteroseksueel, Aristotelisch en mannelijk is. Dit resulteert in een traditioneel beeld van de man, waarbij vrouwen worden uitgesloten of benadeeld. Kenmerkend voor feministische robot-ethische posities is de afwijzing van de robot als moreel onderwerp en de wil om sommige typen robots volledig te verbieden.<\/p>\n<p><a href=\"https:\/\/www.dmu.ac.uk\/about-dmu\/academic-staff\/technology\/kathleen-richardson\/kathleen-richardson.aspx\">Kathleen Richardson<\/a>, hoogleraar <em>ethiek en cultuur van robots en kunstmatige intelligentie<\/em> aan de <a href=\"https:\/\/www.dmu.ac.uk\/home.aspx\"><em>De Montfort University<\/em><\/a>, Leicester, UK, is over het algemeen tegen seksrobots, omdat ze hetero-normatieve, patriarchale en discriminerende structuren bevestigen.<\/p>\n<h3>Het trolley-probleem<\/h3>\n<p>Janina Loh noemt het werk <a href=\"https:\/\/www.oxfordscholarship.com\/view\/10.1093\/acprof:oso\/9780195374049.001.0001\/acprof-9780195374049\"><em>Moral Machines<\/em><\/a> (2009) van <a href=\"http:\/\/wendellwallach.com\/wordpress\/\">Wendell Wallach<\/a> en <a href=\"http:\/\/colinallen.dnsalias.org\/\">Colin Allen<\/a> als basis voor de robotethiek. Daarin stellen ze voor om eenvoudigweg het morele vermogen toe te schrijven aan alle wezens die morele beslissingen nemen. Als voorbeeld van een morele beslissing noemen ze de rails waarop mensen staan. Een tram dreigt over hen heen te rijden.\u00a0 De trein is zo geprogrammeerd, dat hij onmiddellijk moet stoppen als er mensen op het spoor zijn. Het is echter complexer als de trein alleen maar kan uitwijken en moet beslissen of hij over een kleinere of grotere groep mensen op een van de twee sporen zal rijden&#8230; Dit voorbeeld staat bekend als het <em><a href=\"https:\/\/de.wikipedia.org\/wiki\/Trolley-Problem\">Tram-Probleem<\/a><\/em> of het wisseldilemma.<\/p>\n<figure id=\"attachment_202653\" aria-describedby=\"caption-attachment-202653\" style=\"width: 600px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-202653 size-medium\" src=\"https:\/\/archive.ioplus.nl\/wp-content\/uploads\/2020\/01\/1920px-Trolley_Problem.svg-600x205.png\" alt=\"Roboterethik, Roboter, moralisch, \" width=\"600\" height=\"205\" \/><figcaption id=\"caption-attachment-202653\" class=\"wp-caption-text\">Het wisseldilemma van Zapyon CC BY-SA 4.0, (c) https:\/\/commons.wikimedia.org\/w\/index.php?curid=67107784<\/figcaption><\/figure>\n<h3>Morele machine<\/h3>\n<p>Hoe komt de moraal zelfs in de machine? Het is een andere vraag die wordt besproken in de robot-ethiek. Loh werkt weer aan deze vraag na Gelding en Allen. Ze onderscheiden drie principes als het gaat om het uitrusten van kunstmatige systemen met moraliteit: top-down benaderingen, bottom-up benaderingen en hybride benaderingen.<\/p>\n<h3>Gezond verstand<\/h3>\n<p>Bij de top-down benadering wordt een robot geprogrammeerd met een reeks principes of regels, zoals Immanuel Kants <a style=\"font-size: 16px\" href=\"https:\/\/de.wikipedia.org\/wiki\/Kategorischer_Imperativ\"><em>Kategorischer Imperativ<\/em><\/a><span style=\"font-size: 16px\"> of de robotwetten van <\/span><a style=\"font-size: 16px\" href=\"https:\/\/de.wikipedia.org\/wiki\/Robotergesetze\"><em>Isaac Asimov<\/em><\/a><span style=\"font-size: 16px\">.<\/span><\/p>\n<p>Er zijn ten minste twee problemen te verwachten:<\/p>\n<ul>\n<li>De interpretatie van ethische regels is contextgevoelig.<\/li>\n<li>De programmering vereist echter een duidelijke interpretatie.<\/li>\n<\/ul>\n<p>Er kan een conflict ontstaan tussen de afzonderlijke regels. Hoe concreter de morele principes worden geformuleerd, hoe groter de kans dat het systeem een kwestie in de praktijk kan toepassen. Met de concretisering neemt echter ook het aantal regels toe. En daarmee het gevaar van een conflict van regels. Janina Loh&#8217;s samenvatting: bij de pure top-down benadering ontbreekt het aan gezond verstand.<\/p>\n<h3>Ontbrekende creativiteit<\/h3>\n<p>Bottom-up benaderingen schrijven geen morele regels voor, maar implementeren basiscompetenties. Robots ontwikkelen moreel gedrag door verschillende vormen van leren. Er wordt een onderscheid gemaakt tussen evolutionaire modellen en modellen van menselijke socialisatie. In modellen van menselijke socialisatie wordt een onderscheid gemaakt tussen twee vormen van mededogen:<\/p>\n<ul>\n<li>Perceptuele empathie is al aanwezig wanneer de waarneming van een emotie een vergelijkbare reactie in de andere persoon teweegbrengt.<\/li>\n<li>Fantasierijke empathie vereist een verandering van perspectief in de vorm van het kunnen verplaatsen van zichzelf in de positie van de ander.<\/li>\n<\/ul>\n<p>Sommige denkers zijn bijzonder kritisch over een bottom-up benadering. Het potenti\u00eble vermogen om te leren kan leiden tot verlies van controle. <a href=\"https:\/\/en.wikipedia.org\/wiki\/Hubert_Dreyfus%27s_views_on_artificial_intelligence\">Hubert Dreyfus<\/a> ziet het probleem van de kunstmatige intelligentie in het gebrek aan creativiteit van machines. Aan de andere kant, zegt hij, zijn ze uitstekend geschikt voor het berekenen van complexe computerprocessen. Dreyfus is auteur van het boek <em>What computers can&#8217;t do<\/em>.<\/p>\n<h3>Morele verantwoordelijkheid vaststellen<\/h3>\n<p>In het hoofdgedeelte van haar boek gaat Janina Loh in op de nieuwe verantwoordelijkheid die de maatschappij, de politiek en de wetgeving hebben voor robots die zich als mensen gedragen. Ze maakt onderscheid tussen exclusieve en inclusieve robot-ethische benaderingen, die niet geheel conflictvrij zijn. Vertegenwoordigers van exclusieve benaderingen gaan er bijvoorbeeld van uit dat het de mensen zijn die betrokken zijn bij de robots die de verantwoordelijkheid moeten dragen. Indien nodig, zien zij de verantwoordelijkheid ook duidelijk in de robot als een moreel handelend onderwerp.<\/p>\n<p>Vertegenwoordigers van inclusieve robot-ethische benaderingen hebben een ander begrip van object en onderwerp. Ze gaan er niet van uit dat de mens ooit volledige controle zal kunnen krijgen over de natuur en de cultuur en over mensen en niet-mensen. Zij beweren veeleer constructieve strategie\u00ebn te vinden om met onzekerheden om te gaan, verantwoordelijkheden vast te stellen en verantwoording af te leggen in complexe situaties. Maar zelfs zij laten de robot niet volledig in de steek als onderwerp van morele actie&#8230;<\/p>\n<p>In haar slotwoord pleit de wetenschapper voor het openen van een kritisch discours en het openen van inclusieve modellen. Voorwaarde hiervoor is een beleid dat een onderwijssysteem in het leven roept waarin de robotethiek een vaste plaats heeft.<\/p>\n<p>Janina Loh ist universiteitsassistente op de afdeling <a href=\"https:\/\/philosophie.univie.ac.at\/forschung\/medien-und-technikphilosophie\/\"><em>Techniek- en mediafilosofie<\/em><\/a> aan de <a href=\"https:\/\/www.univie.ac.at\/\">Universit\u00e4t Wien<\/a>.<\/p>\n<p><strong>Originele publicatie:<\/strong><\/p>\n<p>Loh, Janina (2019): Roboterethik \u2013 eine Einf\u00fchrung. Berlin: Suhrkamp Verlag.<\/p>\n<p><strong>Ook interessant:<\/strong><\/p>\n<p><a href=\"https:\/\/innovationorigins.com\/nl\/zo-werkt-innovatie-de-mens-moet-een-soort-god-worden-voor-robots\/\">Zo werkt innovatie: \u201cDe mens moet een soort God worden voor robots\u201d<\/a><\/p>\n<p class=\"entry-title\"><a href=\"https:\/\/innovationorigins.com\/nl\/podcast-god-spelen-over-robots\/\">Podcast: God spelen over robots<\/a><\/p>\n<p class=\"entry-title\">\n","protected":false},"excerpt":{"rendered":"<p>Bij het streven naar de ontwikkeling van een kunstmatige superintelligentie lijkt het vooral om techniek te draaien. De Oostenrijkse filosofe Janina Loh stelt daarbij vraagtekens. In haar wetenschappelijke inleiding tot de robot-ethiek stimuleert ze een kritische discussie over dat punt. Het moet niet alleen gaan om het technisch haalbare, maar ook om wat moreel wenselijk [&hellip;]<\/p>\n","protected":false},"author":1688,"featured_media":517446,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"advgb_blocks_editor_width":"","advgb_blocks_columns_visual_guide":"","footnotes":""},"categories":[90877],"tags":[16158,92911,15642,102367,2164],"location":[25066,28207],"article_type":[],"serie":[],"archives":[],"internal_archives":[],"reboot-archive":[],"class_list":["post-202681","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-digital-nl-nl","tag-ai-nl","tag-kunstmatige-intelligentie-nl","tag-robot-nl","tag-robot-ethiek-nl","tag-robotica-nl","location-duitsland","location-oostenrijk"],"blocksy_meta":[],"acf":{"subtitle":"","text_display_homepage":false},"author_meta":{"display_name":"Hildegard Suntinger","author_link":"https:\/\/ioplus.nl\/archive\/author\/hildegard-suntinger\/"},"featured_img":"https:\/\/ioplus.nl\/archive\/wp-content\/uploads\/2020\/01\/clark-gu-yZK_YES3p5s-unsplash-scaled-300x200.jpg","coauthors":[],"tax_additional":{"categories":{"linked":["<a href=\"https:\/\/ioplus.nl\/archive\/nl\/category\/digital-nl-nl\/\" class=\"advgb-post-tax-term\">Digital<\/a>"],"unlinked":["<span class=\"advgb-post-tax-term\">Digital<\/span>"]},"tags":{"linked":["<a href=\"https:\/\/ioplus.nl\/archive\/nl\/category\/digital-nl-nl\/\" class=\"advgb-post-tax-term\">AI<\/a>","<a href=\"https:\/\/ioplus.nl\/archive\/nl\/category\/digital-nl-nl\/\" class=\"advgb-post-tax-term\">kunstmatige intelligentie<\/a>","<a href=\"https:\/\/ioplus.nl\/archive\/nl\/category\/digital-nl-nl\/\" class=\"advgb-post-tax-term\">robot<\/a>","<a href=\"https:\/\/ioplus.nl\/archive\/nl\/category\/digital-nl-nl\/\" class=\"advgb-post-tax-term\">robot-ethiek<\/a>","<a href=\"https:\/\/ioplus.nl\/archive\/nl\/category\/digital-nl-nl\/\" class=\"advgb-post-tax-term\">robotica<\/a>"],"unlinked":["<span class=\"advgb-post-tax-term\">AI<\/span>","<span class=\"advgb-post-tax-term\">kunstmatige intelligentie<\/span>","<span class=\"advgb-post-tax-term\">robot<\/span>","<span class=\"advgb-post-tax-term\">robot-ethiek<\/span>","<span class=\"advgb-post-tax-term\">robotica<\/span>"]}},"comment_count":"0","relative_dates":{"created":"Posted 6 years ago","modified":"Updated 6 years ago"},"absolute_dates":{"created":"Posted on January 4, 2020","modified":"Updated on January 4, 2020"},"absolute_dates_time":{"created":"Posted on January 4, 2020 1:28 pm","modified":"Updated on January 4, 2020 1:28 pm"},"featured_img_caption":"","series_order":"","_links":{"self":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/posts\/202681","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/users\/1688"}],"replies":[{"embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/comments?post=202681"}],"version-history":[{"count":0,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/posts\/202681\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/media\/517446"}],"wp:attachment":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/media?parent=202681"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/categories?post=202681"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/tags?post=202681"},{"taxonomy":"location","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/location?post=202681"},{"taxonomy":"article_type","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/article_type?post=202681"},{"taxonomy":"serie","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/serie?post=202681"},{"taxonomy":"archives","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/archives?post=202681"},{"taxonomy":"internal_archives","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/internal_archives?post=202681"},{"taxonomy":"reboot-archive","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/reboot-archive?post=202681"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}