{"id":177658,"date":"2019-07-14T07:00:37","date_gmt":"2019-07-14T05:00:37","guid":{"rendered":"https:\/\/innovationorigins.com\/?p=177658"},"modified":"2019-07-14T07:00:37","modified_gmt":"2019-07-14T05:00:37","slug":"besseres-morgen-algorithmen-diskriminieren-nicht","status":"publish","type":"post","link":"https:\/\/ioplus.nl\/archive\/de\/besseres-morgen-algorithmen-diskriminieren-nicht\/","title":{"rendered":"Besseres morgen: Algorithmen diskriminieren nicht"},"content":{"rendered":"<p>In den letzten Wochen wurde in den Nachrichten viel \u00fcber den Einsatz von Algorithmen durch die Regierung zur Erkennung von Betrug und Kriminalit\u00e4t berichtet. Herzlichen Gl\u00fcckwunsch! Ich w\u00fcrde sagen, wir haben eine Regierung, die effizienter wird und mit der Zeit geht. Viel beunruhigender w\u00e4re allerdings die Nachricht, dass die Regierung immer noch keine pr\u00e4diktiven Algorithmen einsetzt.<\/p>\n<p>In den Medien wurde dieses Thema jedoch aus einer ganz anderen Perspektive beleuchtet. So hat beispielsweise die niederl\u00e4ndische Nachrichtenagentur NOS <a href=\"https:\/\/nos.nl\/artikel\/2286848-overheid-gebruikt-op-grote-schaal-voorspellende-algoritmes-risico-op-discriminatie.html\">diesen Artikel<\/a> ver\u00f6ffentlicht, der auf Englisch den Titel tr\u00e4gt: \u201eGovernment uses algorithms on a large scale\u201c, \u201erisk of discrimination\u201c. In diesem Artikel hei\u00dft es, dass die Verwendung von pr\u00e4diktiven Algorithmen ein hohes Risiko f\u00fcr Diskriminierung mit sich bringt. Dieser Artikel f\u00fchrte zu emp\u00f6rten Reaktionen der Leser, was deutlich machte, dass die Diskussion \u00fcber den Einsatz von Algorithmen weitgehend von Emotionen geleitet wird. Dabei wurde \u00fcbersehen, dass der Titel des Artikels gelinde gesagt voreingenommen, aber auch sachlich falsch ist.<\/p>\n<h3>Besser und schneller als Menschen<\/h3>\n<p>Die w\u00f6rtliche Bedeutung des Wortes Diskriminierung ist \u201eeine Unterscheidung treffen&#8221;. Und genau das ist es, was ein Algorithmus tut. Er klassifiziert Daten aufgrund ihrer Beziehungen in Merkmale. Und das viel besser und schneller, als es Menschen k\u00f6nnen. Aber wenn man von der w\u00f6rtlichen Bedeutung des Wortes Diskriminierung ausgeht, ist die These, dass die Verwendung von pr\u00e4diktiven Algorithmen ein hohes Risiko der Diskriminierung mit sich bringt, unsinnig. Man m\u00fcsste sagen: \u201eAlgorithmen diskriminieren, daf\u00fcr sind sie gemacht.&#8221;<\/p>\n<p>Dennoch steht Diskriminierung im sozialen Kontext f\u00fcr etwas ganz anderes. Es geht darum, rechtswidrige Unterscheidungen vorzunehmen (aufgrund von Dingen wie Geschlecht, Religion, \u00dcberzeugung, sexuelle Orientierung usw.). Und genau das tut ein Algorithmus nicht. Ein Algorithmus produziert mit der gleichen Eingabe immer die gleiche Ausgabe. Er ist amoralisch und kann daher per Definition keine illegale Unterscheidung treffen. Einfach ausgedr\u00fcckt: Ein Algorithmus leidet nicht unter Schlafentzug einer Nacht oder einer unangenehmen Erfahrung mit dem Nachbarn im Erdgeschoss. W\u00e4hrend die Menschen das tun. Dennoch ist die Verwirrung verst\u00e4ndlich. Ein Algorithmus erstellt &#8211; und lernt auf der Grundlage von Daten. Und da liegt das Problem. Daten sind nicht frei von menschlichen Einfl\u00fcssen und k\u00f6nnen in vielerlei Hinsicht \u201evoreingenommen&#8221; sein. Es ist daher durchaus m\u00f6glich, dass in den Daten Aspekte verborgen sind, die zu Diskriminierung f\u00fchren.<\/p>\n<h3>Leicht zu entdecken<\/h3>\n<p>So wie diskriminierende Aspekte im menschlichen Prozess verborgen sein k\u00f6nnen, so k\u00f6nnen sie auch in Daten verborgen sein. Der gro\u00dfe Unterschied besteht jedoch darin, dass Diskriminierung im menschlichen Prozess sehr schwer zu erkennen und zu korrigieren ist; wie wir aus der Geschichte gelernt haben. Die Diskriminierung bei Daten ist dagegen relativ leicht zu erkennen und auch viel einfacher zu korrigieren. Algorithmen k\u00f6nnen dazu beitragen.<\/p>\n<p>Aus diesem Grund m\u00f6chte ich auf der Grundlage der sozialen Bedeutung des Wortes Diskriminierung auf Folgendes hinweisen: Algorithmen diskriminieren nicht. Solange sie von Menschen kontrolliert werden, k\u00f6nnen sie zu einer Gesellschaft beitragen, in der jeder gleichberechtigt behandelt wird.<\/p>\n<p>\u201eAlle Menschen in den Niederlanden werden unter gleichen Umst\u00e4nden gleich behandelt. Diskriminierung aus Gr\u00fcnden der Religion, der Lebensphilosophie, der politischen Zugeh\u00f6rigkeit, der Rasse, des Geschlechts oder aus anderen Gr\u00fcnden ist nicht zul\u00e4ssig. (Artikel 1, Niederl\u00e4ndische Verfassung)<\/p>\n<p><strong>\u00dcber diese Kolumne:<\/strong><\/p>\n<p><em>In einer w\u00f6chentlichen Kolumne, die abwechselnd von Maarten Steinbuch, Mary Fiers, <strong>Peter de Kock<\/strong>, Eveline van Zeeland, Lucien Engelen, Tessie Hartjes, Jan Wouters, Katleen Gabriels und Auke Hoekstra geschrieben wird, versucht Innovation Origins herauszufinden, wie die Zukunft aussehen wird. Diese Kolumnisten, gelegentlich erg\u00e4nzt durch Gast-Blogger, arbeiten alle auf ihre Weise an L\u00f6sungen f\u00fcr die Probleme unserer Zeit. Damit es morgen besser wird. <a href=\"https:\/\/innovationorigins.com\/de\/?s=morgen\">Hier sind alle vorherigen Episoden<\/a>.<\/em><\/p>\n","protected":false},"excerpt":{"rendered":"<p>In den letzten Wochen wurde in den Nachrichten viel \u00fcber den Einsatz von Algorithmen durch die Regierung zur Erkennung von Betrug und Kriminalit\u00e4t berichtet. Herzlichen Gl\u00fcckwunsch! Ich w\u00fcrde sagen, wir haben eine Regierung, die effizienter wird und mit der Zeit geht. Viel beunruhigender w\u00e4re allerdings die Nachricht, dass die Regierung immer noch keine pr\u00e4diktiven Algorithmen [&hellip;]<\/p>\n","protected":false},"author":1735,"featured_media":510930,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"advgb_blocks_editor_width":"","advgb_blocks_columns_visual_guide":"","footnotes":""},"categories":[36843,26138],"tags":[37493,35778,37495],"location":[24073],"article_type":[],"serie":[],"archives":[],"internal_archives":[],"reboot-archive":[],"class_list":["post-177658","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-digital-de-de","category-opinie-de","tag-algorithmen","tag-besseres-morgen","tag-diskriminierung","location-niederlande"],"blocksy_meta":[],"acf":{"subtitle":"","text_display_homepage":false},"author_meta":{"display_name":"Peter de Kock","author_link":"https:\/\/ioplus.nl\/archive\/author\/peter-de-kock\/"},"featured_img":"https:\/\/ioplus.nl\/archive\/wp-content\/uploads\/2019\/07\/algorithm-3859539_1920.jpg","coauthors":[],"tax_additional":{"categories":{"linked":["<a href=\"https:\/\/ioplus.nl\/archive\/de\/category\/digital-de-de\/\" class=\"advgb-post-tax-term\">Digital<\/a>","<a href=\"https:\/\/ioplus.nl\/archive\/de\/category\/opinie-de\/\" class=\"advgb-post-tax-term\">Opinie<\/a>"],"unlinked":["<span class=\"advgb-post-tax-term\">Digital<\/span>","<span class=\"advgb-post-tax-term\">Opinie<\/span>"]},"tags":{"linked":["<a href=\"https:\/\/ioplus.nl\/archive\/de\/category\/opinie-de\/\" class=\"advgb-post-tax-term\">Algorithmen<\/a>","<a href=\"https:\/\/ioplus.nl\/archive\/de\/category\/opinie-de\/\" class=\"advgb-post-tax-term\">Besseres Morgen<\/a>","<a href=\"https:\/\/ioplus.nl\/archive\/de\/category\/opinie-de\/\" class=\"advgb-post-tax-term\">Diskriminierung<\/a>"],"unlinked":["<span class=\"advgb-post-tax-term\">Algorithmen<\/span>","<span class=\"advgb-post-tax-term\">Besseres Morgen<\/span>","<span class=\"advgb-post-tax-term\">Diskriminierung<\/span>"]}},"comment_count":"0","relative_dates":{"created":"Posted 7 years ago","modified":"Updated 7 years ago"},"absolute_dates":{"created":"Posted on July 14, 2019","modified":"Updated on July 14, 2019"},"absolute_dates_time":{"created":"Posted on July 14, 2019 7:00 am","modified":"Updated on July 14, 2019 7:00 am"},"featured_img_caption":"","series_order":"","_links":{"self":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/posts\/177658","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/users\/1735"}],"replies":[{"embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/comments?post=177658"}],"version-history":[{"count":0,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/posts\/177658\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/media\/510930"}],"wp:attachment":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/media?parent=177658"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/categories?post=177658"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/tags?post=177658"},{"taxonomy":"location","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/location?post=177658"},{"taxonomy":"article_type","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/article_type?post=177658"},{"taxonomy":"serie","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/serie?post=177658"},{"taxonomy":"archives","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/archives?post=177658"},{"taxonomy":"internal_archives","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/internal_archives?post=177658"},{"taxonomy":"reboot-archive","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/reboot-archive?post=177658"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}