{"id":178619,"date":"2019-07-20T08:00:24","date_gmt":"2019-07-20T06:00:24","guid":{"rendered":"https:\/\/innovationorigins.com\/?p=178619"},"modified":"2019-07-20T08:00:24","modified_gmt":"2019-07-20T06:00:24","slug":"best-gelezen-algoritmes-hebben-moeite-met-vrouwenstemmen","status":"publish","type":"post","link":"https:\/\/ioplus.nl\/archive\/nl\/best-gelezen-algoritmes-hebben-moeite-met-vrouwenstemmen\/","title":{"rendered":"Best gelezen: algoritmes hebben moeite met vrouwenstemmen"},"content":{"rendered":"<p>Iedere week blikken we op deze plek terug op het meest gelezen artikel van de week. Soms wijken we daar een beetje van af, zo gingen we vorige week in gesprek met een trouwe lezer. En ook deze week doen we het een klein beetje anders. Niet het meest gelezen stuk, maar een verhaal dat op Twitter de nodige reacties opriep.<\/p>\n<p>Peter de Kock <a href=\"https:\/\/innovationorigins.com\/nl\/morgen-beter-algoritmes-discrimineren-niet\/\">schreef vorige week in zijn column<\/a> dat algoritmes niet discrimineren, althans niet in de maatschappelijke context van het woord. (Hier gaat het vaak gaat over onterecht onderscheid maken op basis van geslacht, gender, religie etc.) Algoritmes zijn amoreel en kunnen daarom per definitie geen onrechtmatig onderscheid maken, zo schreef De Kock vorige week. Aan het einde van zijn verhaal legde hij de volgende stelling voor:<\/p>\n<p>Algoritmes discrimineren niet. Mits door mensen gecontroleerd, kunnen ze bijdragen aan een samenleving waarin iedereen in gelijke gevallen, gelijk wordt behandeld.<\/p>\n<p>Daar was blijkbaar niet iedereen het mee eens en het zorgde voor wat discussie op Twitter:<\/p>\n<blockquote class=\"twitter-tweet\" data-lang=\"nl\">\n<p dir=\"ltr\" lang=\"nl\">* zucht * Zolang algoritmes door mensen gemaakt worden, zolang AI leert van wat mensen opdragen, reproduceren algoritmen de vooroordelen van mensen. Ze bestaan niet buiten ons, dat is een schadelijk idee <a href=\"https:\/\/t.co\/aYIOOOsmUN\">https:\/\/t.co\/aYIOOOsmUN<\/a><\/p>\n<p>\u2014 Linda Duits (@lalalalinder) <a href=\"https:\/\/twitter.com\/lalalalinder\/status\/1150429722582691840?ref_src=twsrc%5Etfw\">14 juli 2019<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<p>Twitter zou Twitter niet zijn als de discussie onder de reactie van Duits niet \u2018vrolijk\u2019 verder ging. Megan Bloemsma is data scientist bij Microsoft en houdt zich bezig met Artificial Intelligence. Bloemsma kan zich de ophef wel voorstellen. \u201cAlgoritmes worden gebouwd door mensen en of je nu wilt of niet, je bouwt hiermee ook vooroordelen in. Natuurlijk zijn machines sneller dan mensen en in sommige gevallen beter, zo\u2019n machine is in feite 1000 mensen tegelijk. Maar wel gemaakt door een mens, dus niet objectief. Op zijn best is zo\u2019n machine een gemiddelde van alle subjectieve vooroordelen.\u201d<\/p>\n<h3>Man vs vrouw<\/h3>\n<p>Stel, een tech-bedrijf maakt een algoritme om de beste kandidaat voor een vacature te vinden, leert het op basis van historische data wie in de toekomst het best voor de baan geschikt zou zijn. \u201cHier zit ook al een bias in. Er werken veel meer mannen dan vrouwen in de techsector en omdat de data laat zien dat mannen vaker de baan kregen, \u2018leert\u2019 het algoritme dat mannen betere kandidaten zijn. Terwijl dit helemaal niet zo hoeft te zijn\u201d, legt Bloemsma uit.<\/p>\n<p>Volgens haar zou er veel meer diversiteit op de werkvloer moeten komen. \u201cNu is het zo dat er vooral witte mannen van rond de 28 werken aan het ontwikkelen van algoritmes, dan is het niet heel gek dat ook de vooroordelen die zij hebben &#8211; ongewild &#8211; in een algoritme terecht komen.\u201d Maar het gaat verder, want zo\u2019n algoritme moet ook weer getraind worden en ook hier zijn de groepen niet heel divers te noemen: \u201cWat je vaak ziet &#8211; door geld of tijdgebrek &#8211; is dat dezelfde mensen die het algoritme hebben gebouwd, het op zichzelf testen. Algoritmes zouden ook in veel diversere groepen moeten worden getraind.\u201d<\/p>\n<h3>Diverse groep<\/h3>\n<p>Zo herkent AI vrouwenstemmen minder goed (de best scorende stemherkenningssoftware scoorde 13 procent slechter op vrouwen.). Heeft gezichtsherkenningssoftware meer moeite met het identificeren van een donkere huidskleur en vrouwelijke gezichten. Bloemsma: \u201cWe gaan steeds meer op zulke systemen vertrouwen. Bij veel automerken wordt steeds vaker standaard zo\u2019n systeem ingebouwd. Maar je zou maar een ongeluk krijgen als vrouw en het lukt je niet om de hulpdiensten te bereiken omdat je stem niet wordt herkend.\u201d<\/p>\n<p>Met all\u00e9\u00e9n meer vrouwen in de tech, is het probleem allerminst opgelost: \u201cAlgoritmes zijn zo goed als wat we erin stoppen, dat wordt gedaan door mensen. Daarom is het zo lastig om neutrale, biasvrije algoritmes te ontwikkelen, want mensen zijn per definitie niet zonder vooroordelen. Maar het gaat zeker helpen als developers en trainingsgroepen diverser worden in de toekomst. Ook moeten er ethische commissies komen die dit in de gaten houden.\u201d<\/p>\n<p><a href=\"https:\/\/medium.com\/@meganbloemsma\/algorithm-bias-is-the-design-problem-of-the-21st-century-de486c6e67b2\">Hier<\/a> legt Megan Bloemsma haar standpunt uitgebreider uit.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Iedere week blikken we op deze plek terug op het meest gelezen artikel van de week. Soms wijken we daar een beetje van af, zo gingen we vorige week in gesprek met een trouwe lezer. En ook deze week doen we het een klein beetje anders. Niet het meest gelezen stuk, maar een verhaal dat [&hellip;]<\/p>\n","protected":false},"author":1579,"featured_media":510726,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"advgb_blocks_editor_width":"","advgb_blocks_columns_visual_guide":"","footnotes":""},"categories":[90877],"tags":[37085,9064],"location":[],"article_type":[],"serie":[],"archives":[],"internal_archives":[],"reboot-archive":[],"class_list":["post-178619","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-digital-nl-nl","tag-algoritme","tag-best-gelezen"],"blocksy_meta":[],"acf":{"subtitle":"","text_display_homepage":false},"author_meta":{"display_name":"Milan Lenters","author_link":"https:\/\/ioplus.nl\/archive\/author\/milan-lenters\/"},"featured_img":"https:\/\/ioplus.nl\/archive\/wp-content\/uploads\/2019\/07\/algoritmes_discrimineren_niet_IO_20_7_19_raskerart.jpg","coauthors":[],"tax_additional":{"categories":{"linked":["<a href=\"https:\/\/ioplus.nl\/archive\/nl\/category\/digital-nl-nl\/\" class=\"advgb-post-tax-term\">Digital<\/a>"],"unlinked":["<span class=\"advgb-post-tax-term\">Digital<\/span>"]},"tags":{"linked":["<a href=\"https:\/\/ioplus.nl\/archive\/nl\/category\/digital-nl-nl\/\" class=\"advgb-post-tax-term\">Algoritme<\/a>","<a href=\"https:\/\/ioplus.nl\/archive\/nl\/category\/digital-nl-nl\/\" class=\"advgb-post-tax-term\">best gelezen<\/a>"],"unlinked":["<span class=\"advgb-post-tax-term\">Algoritme<\/span>","<span class=\"advgb-post-tax-term\">best gelezen<\/span>"]}},"comment_count":"0","relative_dates":{"created":"Posted 7 years ago","modified":"Updated 7 years ago"},"absolute_dates":{"created":"Posted on July 20, 2019","modified":"Updated on July 20, 2019"},"absolute_dates_time":{"created":"Posted on July 20, 2019 8:00 am","modified":"Updated on July 20, 2019 8:00 am"},"featured_img_caption":"","series_order":"","_links":{"self":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/posts\/178619","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/users\/1579"}],"replies":[{"embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/comments?post=178619"}],"version-history":[{"count":0,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/posts\/178619\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/media\/510726"}],"wp:attachment":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/media?parent=178619"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/categories?post=178619"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/tags?post=178619"},{"taxonomy":"location","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/location?post=178619"},{"taxonomy":"article_type","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/article_type?post=178619"},{"taxonomy":"serie","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/serie?post=178619"},{"taxonomy":"archives","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/archives?post=178619"},{"taxonomy":"internal_archives","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/internal_archives?post=178619"},{"taxonomy":"reboot-archive","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/reboot-archive?post=178619"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}