{"id":482303,"date":"2024-07-04T10:39:51","date_gmt":"2024-07-04T08:39:51","guid":{"rendered":"https:\/\/innovationorigins.com\/?p=482303"},"modified":"2024-07-04T10:39:51","modified_gmt":"2024-07-04T08:39:51","slug":"nieuw-onderzoeksproject-wil-ai-verklaarbaar-maken-voor-mensen","status":"publish","type":"post","link":"https:\/\/ioplus.nl\/archive\/nl\/nieuw-onderzoeksproject-wil-ai-verklaarbaar-maken-voor-mensen\/","title":{"rendered":"Nieuw onderzoeksproject wil AI verklaarbaar maken voor mensen"},"content":{"rendered":"\n<p>Onderzoekers van de Universiteit van Amsterdam (UvA) werken aan een <a href=\"https:\/\/www.uva.nl\/en\/shared-content\/subsites\/responsible-digital-transformations\/en\/news\/2024\/07\/developing-a-method-to-make-ai-explainable-to-humans.html?origin=kUP%2Byx6UTZqvuJiCJKnnEQ\">nieuwe methode<\/a> om AI-modellen begrijpelijk en uitlegbaar te maken voor mensen. Hoewel AI-modellen veel taken kunnen oplossen, worden ze ook steeds complexer. Het vakgebied Explainable AI (XAI) houdt zich bezig met het uitpakken van het complexe gedrag van deze modellen op een manier die mensen kunnen begrijpen. In een <a href=\"https:\/\/rdt.uva.nl\/research\/research-projects\/hue-bridging-ai-representations-to-human-understandable-explanations\/hue-bridging-ai-representations-to-human-understandable-explanations-article.html\">nieuw project<\/a>, <em>HUE: bridging AI Representations to Human-Understandable Explanations<\/em>, ontwikkelen onderzoekers Giovanni Cin\u00e0 en Sandro Pezzelle een methode die het mogelijk maakt om AI-modellen te &#8216;r\u00f6ntgenen&#8217; en transparanter te maken.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Confirmation bias<\/h2>\n\n\n\n<p>&#8220;Veel AI-modellen zijn&nbsp;<em>black boxes<\/em>,&#8221; legt Pezzelle uit. &#8220;We kunnen ze voeden met een heleboel data en ze kunnen een voorspelling doen \u2013 die al dan niet correct kan zijn \u2013 maar we weten niet wat er intern gebeurt.\u2019 Dat is problematisch, want we zijn geneigd de output te interpreteren volgens onze eigen verwachtingen. Die neiging noemen we ook wel \u2018confirmation bias.&#8221;<\/p>\n\n\n\n<p>Cin\u00e0: &#8220;We zijn eerder geneigd verklaringen te geloven die overeenkomen met onze eerdere overtuigingen. We geloven makkelijker dingen die ons logisch lijken, en dat kan ertoe leiden dat we modellen vertrouwen die niet betrouwbaar zijn. Dat is een groot probleem, bijvoorbeeld wanneer we AI-modellen gebruiken om medische gegevens te interpreteren en zo ziektes op te sporen. Onbetrouwbare modellen kunnen artsen gaan be\u00efnvloeden, en dat kan ertoe leiden dat zij verkeerde diagnoses stellen.&#8221;<\/p>\n\n\n<div class=\"vlp-link-container vlp-layout-basic wp-block-visual-link-preview-link advgb-dyn-c0207f0c\"><a href=\"https:\/\/ioplus.nl\/archive\/nl\/ai-model-is-beter-in-het-opsporen-van-huidkanker-dan-de-huidige-methoden\/\" class=\"vlp-link\" title=\"AI-model is beter in het opsporen van huidkanker dan de huidige methoden\"><\/a><div class=\"vlp-layout-zone-side\"><div class=\"vlp-block-2 vlp-link-image\"><img loading=\"lazy\" decoding=\"async\" style=\"max-width: 150px;\" width=\"150\" height=\"105\" src=\"https:\/\/ioplus.nl\/archive\/wp-content\/uploads\/2022\/04\/cmzUOyli-skin-gd0f20c581_1920-1.jpg\" class=\"attachment-150x999 size-150x999\" alt=\"\" srcset=\"https:\/\/ioplus.nl\/archive\/wp-content\/uploads\/2022\/04\/cmzUOyli-skin-gd0f20c581_1920-1.jpg 1920w, https:\/\/ioplus.nl\/archive\/wp-content\/uploads\/2022\/04\/cmzUOyli-skin-gd0f20c581_1920-1-300x210.jpg 300w, https:\/\/ioplus.nl\/archive\/wp-content\/uploads\/2022\/04\/cmzUOyli-skin-gd0f20c581_1920-1-1024x717.jpg 1024w, https:\/\/ioplus.nl\/archive\/wp-content\/uploads\/2022\/04\/cmzUOyli-skin-gd0f20c581_1920-1-768x538.jpg 768w, https:\/\/ioplus.nl\/archive\/wp-content\/uploads\/2022\/04\/cmzUOyli-skin-gd0f20c581_1920-1-1536x1076.jpg 1536w\" sizes=\"auto, (max-width: 150px) 100vw, 150px\" \/><\/div><\/div><div class=\"vlp-layout-zone-main\"><div class=\"vlp-block-0 vlp-link-title\">AI-model is beter in het opsporen van huidkanker dan de huidige methoden<\/div><div class=\"vlp-block-1 vlp-link-summary\">Een groep wetenschappers heeft een AI-model ontwikkeld dat het risico op huidkanker kan voorspellen op basis van een gezichtsfoto. <\/div><\/div><\/div>\n\n\n<h2 class=\"wp-block-heading\">Verklaringen onderzoeken<\/h2>\n\n\n\n<p>De onderzoekers ontwikkelen een methode om deze confirmation bias te beperken. &#8220;We proberen ervoor te zorgen dat wat we denken dat het model doet, overeenkomt met wat het daadwerkelijk doet,&#8221; vertelt Cin\u00e0. &#8220;Om een model transparanter te maken, moeten we een aantal verklaringen onderzoeken voor waarom het met bepaalde voorspellingen komt.&#8221; Daarvoor ontwikkelen de onderzoekers een kader waarmee ze voor mensen begrijpelijke hypotheses kunnen formuleren over wat het model heeft geleerd, en deze nauwkeuriger kunnen testen.<\/p>\n\n\n\n<p>Pezzelle: &#8220;Onze methode kan worden toegepast op elk machine learning- of deep learning-model, zolang we het maar kunnen onderzoeken. Om die reden is een model als ChatGPT geen goede kandidaat: we hebben er geen inzage in, we krijgen alleen de uiteindelijke output. Onze methode werkt alleen met modellen die&nbsp;<em>open source<\/em>&nbsp;zijn.&#8221;<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Ge\u00efntegreerde aanpak<\/h2>\n\n\n\n<p>Cin\u00e0 en Pezzelle, die verschillende academische achtergronden hebben \u2013 respectievelijk medische AI en Natural Language Processing (NLP) \u2013 hebben hun krachten gebundeld om een methode te ontwikkelen die in verschillende vakgebieden kan worden toegepast. Pezzelle: &#8220;Oplossingen die in een van deze disciplines worden voorgesteld, bereiken op dit moment niet altijd ook andere vakgebieden. Ons doel is dus om een meer ge\u00efntegreerde aanpak te cre\u00ebren.&#8221;<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Onderzoekers van de Universiteit van Amsterdam (UvA) werken aan een nieuwe methode om AI-modellen begrijpelijk en uitlegbaar te maken voor mensen. Hoewel AI-modellen veel taken kunnen oplossen, worden ze ook steeds complexer. Het vakgebied Explainable AI (XAI) houdt zich bezig met het uitpakken van het complexe gedrag van deze modellen op een manier die mensen [&hellip;]<\/p>\n","protected":false},"author":2589,"featured_media":494923,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"advgb_blocks_editor_width":"","advgb_blocks_columns_visual_guide":"","footnotes":""},"categories":[123388],"tags":[16158,100981],"location":[6759],"article_type":[60156],"serie":[],"archives":[],"internal_archives":[],"reboot-archive":[82795],"class_list":["post-482303","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-data-nl","tag-ai-nl","tag-universiteit-van-amsterdam-nl","location-nederland","article_type-nieuws","reboot-archive-data"],"blocksy_meta":[],"acf":{"subtitle":"Onderzoekers van de Universiteit van Amsterdam (UvA) werken aan een nieuwe methode om AI-modellen begrijpelijk en uitlegbaar te maken voor mensen.","text_display_homepage":false},"author_meta":{"display_name":"Team IO","author_link":"https:\/\/ioplus.nl\/archive\/author\/erikdevries\/"},"featured_img":"https:\/\/ioplus.nl\/archive\/wp-content\/uploads\/2023\/12\/innovationorigins_a_patient_using_an_AI-driven_chatbot_to_repor_4e864485-ceed-4c4b-af9e-60b4aec0d2cd.png","coauthors":[],"tax_additional":{"categories":{"linked":["<a href=\"https:\/\/ioplus.nl\/archive\/nl\/category\/data-nl\/\" class=\"advgb-post-tax-term\">DATA+<\/a>"],"unlinked":["<span class=\"advgb-post-tax-term\">DATA+<\/span>"]},"tags":{"linked":["<a href=\"https:\/\/ioplus.nl\/archive\/nl\/category\/data-nl\/\" class=\"advgb-post-tax-term\">AI<\/a>","<a href=\"https:\/\/ioplus.nl\/archive\/nl\/category\/data-nl\/\" class=\"advgb-post-tax-term\">Universiteit van Amsterdam<\/a>"],"unlinked":["<span class=\"advgb-post-tax-term\">AI<\/span>","<span class=\"advgb-post-tax-term\">Universiteit van Amsterdam<\/span>"]}},"comment_count":"0","relative_dates":{"created":"Posted 2 years ago","modified":"Updated 2 years ago"},"absolute_dates":{"created":"Posted on July 4, 2024","modified":"Updated on July 4, 2024"},"absolute_dates_time":{"created":"Posted on July 4, 2024 10:39 am","modified":"Updated on July 4, 2024 10:39 am"},"featured_img_caption":"","series_order":"","_links":{"self":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/posts\/482303","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/users\/2589"}],"replies":[{"embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/comments?post=482303"}],"version-history":[{"count":0,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/posts\/482303\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/media\/494923"}],"wp:attachment":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/media?parent=482303"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/categories?post=482303"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/tags?post=482303"},{"taxonomy":"location","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/location?post=482303"},{"taxonomy":"article_type","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/article_type?post=482303"},{"taxonomy":"serie","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/serie?post=482303"},{"taxonomy":"archives","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/archives?post=482303"},{"taxonomy":"internal_archives","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/internal_archives?post=482303"},{"taxonomy":"reboot-archive","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/reboot-archive?post=482303"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}