{"id":201235,"date":"2019-12-20T20:32:24","date_gmt":"2019-12-20T19:32:24","guid":{"rendered":"https:\/\/innovationorigins.com\/?p=201235"},"modified":"2019-12-20T20:32:24","modified_gmt":"2019-12-20T19:32:24","slug":"es-ist-utopisch-zu-glauben-dass-menschen-eine-unfehlbare-kuenstliche-intelligenz-schaffen-koennen","status":"publish","type":"post","link":"https:\/\/ioplus.nl\/archive\/de\/es-ist-utopisch-zu-glauben-dass-menschen-eine-unfehlbare-kuenstliche-intelligenz-schaffen-koennen\/","title":{"rendered":"\u201eEs ist utopisch zu glauben, dass Menschen eine unfehlbare k\u00fcnstliche Intelligenz schaffen k\u00f6nnen&#8221;"},"content":{"rendered":"<h4>Die Philosophin und Dozentin f\u00fcr Computerethik an der Universit\u00e4t Maastricht, Katleen Gabri\u00ebls, befasst sich in ihrem Anfang Dezember erschienenen Buch \u201eRegeln f\u00fcr Roboter\u201c (Regels voor Robots) kritisch mit der k\u00fcnstlichen Intelligenz. Dies ist ein wichtiger Beitrag, denn unsere Gesellschaft wird immer mehr durch k\u00fcnstliche Intelligenz und Roboter beeinflusst.<\/h4>\n<h3>Warum haben Sie dieses Buch geschrieben?<\/h3>\n<p>Die Gr\u00fcnde waren anfangs pragmatischer Natur. Sie waren ein wesentlicher Bestandteil meiner Arbeit f\u00fcr den Willy-Calwaert-Lehrstuhl, den ich letztes Jahr an der Freien Universit\u00e4t von Br\u00fcssel innehatte.<\/p>\n<p>Ein Lehrstuhl in Belgien funktioniert ein bisschen anders als in den Niederlanden. W\u00e4hrend des akademischen Jahres hielt ich f\u00fcr die zuk\u00fcnftigen Ingenieure mehrere Vorlesungen \u00fcber Philosophie. Da konnte ich meine Erfahrung auf dem Gebiet der Technikethik einbringen, die ich mir als Dozent an der TU\/e (Technische Universit\u00e4t Eindhoven) erarbeitet hatte. Dies mache ich auch derzeit in Maastricht. Seit \u00fcber zehn Jahren arbeite ich jetzt auf dem Gebiet der Computerethik.<\/p>\n<p>Der Lehrstuhl verlangt auch eine wissenschaftliche Publikation. Dabei ist allerdings nicht festgelegt, wie diese Ver\u00f6ffentlichung erfolgen soll. Es war f\u00fcr mich aber schnell klar, dass ich ein Buch schreiben wollte. Auch weil eine englische \u00dcbersetzung garantiert wurde und ich so ein breiteres Publikum erreichen konnte. Also fing ich damit an, die Inhalte der Vorlesungen zu sammeln, die ich f\u00fcr den Ingenieursnachwuchs hielt. Schlie\u00dflich habe ich die Ergebnisse erweitert und pr\u00e4zisiert.<\/p>\n<h3>Aber letztlich haben Sie das Buch nicht nur f\u00fcr Ingenieure geschrieben, oder?<\/h3>\n<p>Das stimmt. Ich wollte das Buch nicht nur f\u00fcr Ingenieure schreiben, weil die Auseinandersetzung mit der Computerethik so wichtig ist. Derzeit finden Sie in nahezu jeder Tageszeitung irgendwas \u00fcber k\u00fcnstliche Intelligenz. Schon aus diesem Grund ist es wichtig, die Diskussion zu versachlichen, indem auch die vorhandenen Probleme angesprochen werden. Das Buch mag f\u00fcr den Lehrstuhl entstanden sein, tats\u00e4chlich ist es f\u00fcr alle gedacht. Das erkl\u00e4re ich auch in dem Buch. Es geht hier nicht nur um die Technologie an sich, sondern auch um die Sch\u00f6pfer und Benutzer. Und nat\u00fcrlich den Einfluss, den die Technologie auf die Gesellschaft hat. Wenn man sich ansieht, wie das Smartphone \u2013 das im Jahr 2007 eingef\u00fchrt wurde \u2013 die Gesellschaft innerhalb der letzten 12 Jahre ver\u00e4ndert hat, dann stellen sich allein dazu viele Fragen.<\/p>\n<p>Nat\u00fcrlich geht es um den Ingenieur, der die KI schafft und seine Verantwortung f\u00fcr die Auswirkungen, die durch diese KI entstehen k\u00f6nnten. Aber letztlich ist mein Buch ein Pl\u00e4doyer f\u00fcr Ethik in der Technologie. Was mir wichtig ist, dass die ethischen Aspekte vorher ber\u00fccksichtigt werden \u2013 nicht erst, wenn die Technologie auf den Markt kommt.<\/p>\n<h3>Sie haben das Buch \u201eRegeln f\u00fcr Roboter\u201c (Rules for Robots) genannt. Aber es enth\u00e4lt eigentlich keine Regeln. Sie meinen, weil darin keine \u201e10 goldenen Regeln f\u00fcr den guten Roboter\u201c enthalten sind?<\/h3>\n<p>Ja, aber Sie befassen sich mit einigen Regeln. In dem Buch sagen Sie beispielsweise, dass es naiv sei, sich auf Asimovs drei Robotergesetze zu verlassen, die schon lange bekannt sind. Das Buch verfolgt eine weit komplexere Aufgabe, als nur ein paar Regeln aufzustellen (\u2013&gt; Asimovs Robotergesetze). Sicher, es ist ein Pl\u00e4doyer f\u00fcr ein Regelwerk f\u00fcr Roboter, soll aber keine blo\u00dfe \u201eCheckliste\u201c sein. Sehen Sie, moralische Regeln sind auch kontextabh\u00e4ngig. Und das ist das Problem: Sie k\u00f6nnen ein solches bin\u00e4res System nicht mit \u201emoralischen\u201c Regeln programmieren, die in jeder Situation garantieren, dass die richtige Entscheidung getroffen wird. Das wird nicht funktionieren. Schon aus dem Grund, weil wir Menschen eben auch moralisch fehlbar sind. K\u00f6nnen wir also ein unfehlbares System entwickeln? Nein, es ist utopisch, das anzunehmen.<\/p>\n<p>Nat\u00fcrlich gibt es letztlich viele Regeln in meinem Buch. Aber sie sind weit weniger konkret gefasst, als man vielleicht annehmen m\u00f6chte. Es enth\u00e4lt eine Reihe von Regeln, die Ingenieure beim Entwerfen von KI-Systemen beachten sollten. Und dann ist es eine Forderung nach einem Entwurf nach ethischen Gesichtspunkten.<\/p>\n<h3>Sie schreiben, dass Ingenieure einen Eid ablegen sollten, \u00e4hnlich dem hippokratischen Eid der \u00c4rzte. Sie sollten dabei versprechen, zum Wohle der Menschheit zu handeln, wenn es um die Gestaltung einer KI geht.<\/h3>\n<p>Ja, aber das geht noch weiter und betrifft noch ganz andere Gebiete. Betrachten Sie zum Beispiel die deutschen Vorgaben (\u2013&gt; Vorgaben) f\u00fcr autonomes Fahren. Das sind genau genommen auch Robotergesetze. Aber hier geht\u2019s nicht um eine Checkliste mit, sagen wir, 20 Regeln. Das deutsche Regelwerk ist weit komplexer.<\/p>\n<h3>Wen w\u00fcrden Sie t\u00f6ten? K\u00fcnstliche Intelligenz beim autonomen Fahren<\/h3>\n<p><iframe loading=\"lazy\" title=\"WHO WOULD YOU KILL? | Moral Machine\" width=\"1290\" height=\"726\" src=\"https:\/\/www.youtube.com\/embed\/bThajoCIJng?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/p>\n<h3>Sie beschreiben in Ihrem Buch das theoretische Dilemma einer KI beim autonomen Fahren. So muss die KI beispielsweise in einer Gefahrensituation auf der Stra\u00dfe zwischen der Rettung des Fahrers und der Beifahrerin eines autonomen Fahrzeugs oder einem Bus mit zwanzig Passagieren abw\u00e4gen. Die Buspassagiere k\u00f6nnten gerettet werden, wenn das Auto in eine Schlucht f\u00e4hrt. W\u00e4hlt das Auto nicht die Schlucht, landet der Bus dort und 20 Passagiere sterben. Ist die KI des Fahrzeugs so eingestellt, dass m\u00f6glichst viele Menschen gerettet werden, dann ist das Resultat klar: Der Autofahrer und die Beifahrerin sterben.<\/h3>\n<p>Ja, das spielt beispielsweise ein gro\u00dfe Rolle, wenn es um autonomes Fahren geht. Das Thema ist hier weit komplexer als das sogenannte \u201eTrolley-Problem\u201c. Aber auch andere L\u00f6sungen sind denkbar. Sie k\u00f6nnten auch versuchen das Auto zu stoppen.<\/p>\n<h3>Aber es kann eine Situation geben, in der diese M\u00f6glichkeit einfach nicht besteht?<\/h3>\n<p>Nat\u00fcrlich, und dar\u00fcber m\u00fcssen wir grundlegende \u00dcberlegungen anstellen, denn die Entscheidungen d\u00fcrfen nicht von Land zu Land verschieden sein. Das muss international festgelegt werden.<\/p>\n<h3>Angenommen, der Bus ist voll mit mexikanischen Drogendealern aus dem Sinola-Kartell, die auf dem Weg in die USA sind, um dort mit dem Tode bestraft zu werden. Dann w\u00fcrde die KI diese Gruppe verschonen, obwohl sie alle zwei Wochen sp\u00e4ter auf dem elektrischen Stuhl landen w\u00fcrden?<\/h3>\n<p>Das ist wieder so ein praxisfernes Gedankenexperiment. Die Wahrscheinlichkeit daf\u00fcr tendiert gegen Null. Nat\u00fcrlich k\u00f6nnen Sie solche Situationen statistisch nicht ausschlie\u00dfen, aber es ist eben nicht realistisch.<\/p>\n<h3>Sehen Sie es mal so: Wie oft mussten Sie als Autofahrer abw\u00e4gen, ob Sie den einen jungen Fu\u00dfg\u00e4nger auf der linken Seite oder den \u00e4lteren Fahrradfahrer auf der rechten Seite \u00fcber den Haufen fahren, wenn ein Unfall unvermeidlich w\u00e4re?<\/h3>\n<p>Na ja, das Schicksal eines Menschen kann man nicht vorhersehen. Der KI-Entwickler des autonomen Fahrzeugs glaubt, dass 18 Menschenleben gerettet wurden. Und damit hat die KI was Gutes getan. Wir wissen aber nichts \u00fcber die Zukunft dieser 18 Menschen.<br \/>\nGenau deshalb halte ich dieses Szenario f\u00fcr problematisch. Und genau dar\u00fcber schreibe ich. Man sagt immer, theoretisch nat\u00fcrlich: Soviel Menschen wie m\u00f6glich m\u00fcssen \u00fcberleben. Aber seien wir ehrlich: Wenn die einzige Person, die sterben wird, Ihr Partner ist, dann d\u00fcrften Sie eine andere Entscheidung treffen. Und genau deshalb ist die Entscheidung kontextabh\u00e4ngig.<\/p>\n<h3>Angenommen, der Bus ist nicht mit Drogenh\u00e4ndlern besetzt und die Wahl f\u00e4llt stattdessen auf den Autofahrer. Der hat aber gerade ein Krebsmittel erfunden, das vielleicht eine Milliarde Menschenleben retten k\u00f6nnte?<\/h3>\n<p>Ja, oder ein Heilmittel gegen AIDS. Aber solche Gedankenexperimente werden in dem Buch nicht behandelt.<\/p>\n<p>Was ich sagen will: Es gibt keine perfekte Entscheidung, daher kann man die KI nicht eindeutig programmieren.<br \/>\nDas ist die Botschaft des Buches. Man besch\u00e4ftigt sich mit kontextabh\u00e4ngigen Szenarien. Menschen, die nicht so tief in der Materie stecken, glauben m\u00f6glicherweise, dass das System klare Entscheidungen f\u00fcr sie treffen kann, bessere Entscheidungen als sie selbst. Das stelle ich aber in Frage. Andererseits werden selbstfahrende Autos eine Reihe von Problemen vermeiden, mit denen wir derzeit konfrontiert sind. Beispielsweise Unf\u00e4lle, die durch menschliches Versagen am Steuer oder durch betrunkene Fahrer verursacht werden.<\/p>\n<h3>Was genau ist das \u201eTrolley-Problem\u201c?<\/h3>\n<p>Das \u201eTrolley-Problem\u201c (\u2013&gt; Trolley-Problem) ist ein Gedankenexperiment. Ein au\u00dfer Kontrolle geratener Zug n\u00e4hert sich einer Weggabelung. Auf einer Spur ist eine Person an die Schienen gefesselt, und auf der anderen f\u00fcnf Personen. Um diese f\u00fcnf Personen zu retten, muss jemand die Weiche bet\u00e4tigen. Aber diese Person wird in der Folge ebenfalls sterben.<\/p>\n<p>Es gibt noch eine weitere Variante des Szenarios: Sie stehen zusammen mit einer fetten Person auf einer Br\u00fccke, die \u00fcber die Strecke f\u00fchrt. Auch hier sind f\u00fcnf Personen an die Gleise gefesselt. Wenn Sie die dicke Person von der Br\u00fccke werfen, stirbt diese Person, weil sie vor den Zug st\u00fcrzt, der dann zum Stillstand kommt. Dadurch werden die f\u00fcnf Personen gerettet. Daf\u00fcr w\u00fcrden sich weniger Leute entscheiden, denn man m\u00fcsste das Szenario absichtlich ausw\u00e4hlen.<\/p>\n<h3>Weil man dann im Grunde jemanden umbringt?<\/h3>\n<p>Genau.<\/p>\n<h3>Was lehrt uns in diesem Fall das Trolley-Problem im Zusammenhang mit der KI?<\/h3>\n<p>Das \u201eTrolley-Problem\u201c kam in den Sechzigerjahren in einem v\u00f6llig anderen Zusammenhang auf. Man wollte herausfinden, wie Menschen angesichts dieses moralischen Dilemmas reagieren. Diese \u00dcberlegungen sind in der Regel nachvollziehbar. Sie f\u00fchren dazu, dass man versucht, soviele Menschen wie m\u00f6glich zu retten. Das ist auch der Grund, weshalb das \u201eTrolley-Problem\u201c und seine Gedankenexperimente im Zusammenhang mit der Weiterentwicklung von KI wieder aktuell werden.<\/p>\n<p>Es gibt da auch ein weiteres Experiment am MIT, das \u201eMoral Machine\u201c genannt wird. Es gibt dort dreizehn Szenarien eines autonomen Fahrzeugs, das kurz vor einem Unfall steht. Man muss sich dabei beispielsweise zwischen der Rettung eines \u00e4lteren oder j\u00fcngeren Menschen entscheiden. (Eines der m\u00f6glichen Ergebnisse war, dass \u00e4ltere Menschen sterben mussten, damit die jungen \u00fcberleben konnten. Da j\u00fcngere Menschen noch eine h\u00f6here Lebenserwartung haben, w\u00e4re das eine logische Entscheidung gewesen. Anm. d. Red.)<\/p>\n<p>Das deutsche Regelwerk f\u00fcr autonomes Fahren legt fest, dass so etwas nie passieren darf. Es legt fest, dass es einer KI niemals erlaubt sein d\u00fcrfe, eine Wahl (zwischen Personen; Anm. d. Red.) auf Grundlage pers\u00f6nlicher Merkmale zu treffen. Dies sind klare Vorgaben, die ich als richtig erachte. Die Deutschen haben noch ein anderes Ergebnis der MIT-Moral-Maschine in ihr Regelwerk einflie\u00dfen lassen: Das Leben eines Menschen hat immer Vorrang vor dem eines Tieres.<\/p>\n<h3>Also sollten bestimmte Entscheidungen niemals von einer KI getroffen werden?<\/h3>\n<p>Ja, denn ein Programmierer sollte niemals die alleinige Befugnis haben, pers\u00f6nliche Merkmale als Entscheidungsgrundlage zu verwenden.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Die Philosophin und Dozentin f\u00fcr Computerethik an der Universit\u00e4t Maastricht, Katleen Gabri\u00ebls, befasst sich in ihrem Anfang Dezember erschienenen Buch \u201eRegeln f\u00fcr Roboter\u201c (Regels voor Robots) kritisch mit der k\u00fcnstlichen Intelligenz. Dies ist ein wichtiger Beitrag, denn unsere Gesellschaft wird immer mehr durch k\u00fcnstliche Intelligenz und Roboter beeinflusst. Warum haben Sie dieses Buch geschrieben? Die [&hellip;]<\/p>\n","protected":false},"author":1743,"featured_media":509843,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"advgb_blocks_editor_width":"","advgb_blocks_columns_visual_guide":"","footnotes":""},"categories":[36843],"tags":[93634,90142,45283,44744,30276,38456,25615],"location":[40295,24073],"article_type":[],"serie":[],"archives":[],"internal_archives":[],"reboot-archive":[],"class_list":["post-201235","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-digital-de-de","tag-ai-de-de","tag-artificial-intelligence-de","tag-ethik-de","tag-katleen-gabriels-de-de","tag-ki-de","tag-roboter-de","tag-tu-e-de","location-belgien","location-niederlande"],"blocksy_meta":[],"acf":{"subtitle":"","text_display_homepage":false},"author_meta":{"display_name":"Lucette Mascini","author_link":"https:\/\/ioplus.nl\/archive\/author\/lucette-mascini\/"},"featured_img":"https:\/\/ioplus.nl\/archive\/wp-content\/uploads\/2019\/12\/KatleenGabri\u00ebls12-scaled.jpg","coauthors":[],"tax_additional":{"categories":{"linked":["<a href=\"https:\/\/ioplus.nl\/archive\/de\/category\/digital-de-de\/\" class=\"advgb-post-tax-term\">Digital<\/a>"],"unlinked":["<span class=\"advgb-post-tax-term\">Digital<\/span>"]},"tags":{"linked":["<a href=\"https:\/\/ioplus.nl\/archive\/de\/category\/digital-de-de\/\" class=\"advgb-post-tax-term\">AI<\/a>","<a href=\"https:\/\/ioplus.nl\/archive\/de\/category\/digital-de-de\/\" class=\"advgb-post-tax-term\">Artificial Intelligence<\/a>","<a href=\"https:\/\/ioplus.nl\/archive\/de\/category\/digital-de-de\/\" class=\"advgb-post-tax-term\">Ethik<\/a>","<a href=\"https:\/\/ioplus.nl\/archive\/de\/category\/digital-de-de\/\" class=\"advgb-post-tax-term\">Katleen Gabriels<\/a>","<a href=\"https:\/\/ioplus.nl\/archive\/de\/category\/digital-de-de\/\" class=\"advgb-post-tax-term\">KI<\/a>","<a href=\"https:\/\/ioplus.nl\/archive\/de\/category\/digital-de-de\/\" class=\"advgb-post-tax-term\">Roboter<\/a>","<a href=\"https:\/\/ioplus.nl\/archive\/de\/category\/digital-de-de\/\" class=\"advgb-post-tax-term\">TU\/e<\/a>"],"unlinked":["<span class=\"advgb-post-tax-term\">AI<\/span>","<span class=\"advgb-post-tax-term\">Artificial Intelligence<\/span>","<span class=\"advgb-post-tax-term\">Ethik<\/span>","<span class=\"advgb-post-tax-term\">Katleen Gabriels<\/span>","<span class=\"advgb-post-tax-term\">KI<\/span>","<span class=\"advgb-post-tax-term\">Roboter<\/span>","<span class=\"advgb-post-tax-term\">TU\/e<\/span>"]}},"comment_count":"0","relative_dates":{"created":"Posted 6 years ago","modified":"Updated 6 years ago"},"absolute_dates":{"created":"Posted on December 20, 2019","modified":"Updated on December 20, 2019"},"absolute_dates_time":{"created":"Posted on December 20, 2019 8:32 pm","modified":"Updated on December 20, 2019 8:32 pm"},"featured_img_caption":"","series_order":"","_links":{"self":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/posts\/201235","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/users\/1743"}],"replies":[{"embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/comments?post=201235"}],"version-history":[{"count":0,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/posts\/201235\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/media\/509843"}],"wp:attachment":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/media?parent=201235"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/categories?post=201235"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/tags?post=201235"},{"taxonomy":"location","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/location?post=201235"},{"taxonomy":"article_type","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/article_type?post=201235"},{"taxonomy":"serie","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/serie?post=201235"},{"taxonomy":"archives","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/archives?post=201235"},{"taxonomy":"internal_archives","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/internal_archives?post=201235"},{"taxonomy":"reboot-archive","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/reboot-archive?post=201235"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}