{"id":446999,"date":"2023-05-20T14:27:00","date_gmt":"2023-05-20T12:27:00","guid":{"rendered":"https:\/\/innovationorigins.com\/?p=446999"},"modified":"2023-05-20T14:27:00","modified_gmt":"2023-05-20T12:27:00","slug":"de-volgende-stap-in-ai-voor-afbeeldingen-draggan-biedt-revolutionaire-beeldmanipulatie-via-interactieve-puntbesturing","status":"publish","type":"post","link":"https:\/\/ioplus.nl\/archive\/nl\/de-volgende-stap-in-ai-voor-afbeeldingen-draggan-biedt-revolutionaire-beeldmanipulatie-via-interactieve-puntbesturing\/","title":{"rendered":"De volgende stap in AI voor afbeeldingen: DragGAN biedt revolutionaire beeldmanipulatie via interactieve puntbesturing"},"content":{"rendered":"\n<p>Voor wie nog aan het bijkomen is van wat Midjourney en Dall-E&#8217;s AI-ondersteunde beeldgeneratie ons hebben gebracht, is er verontrustend nieuws: we hebben de grenzen van de kunstmatige intelligentie nog lang niet bereikt. Het vermogen van AI-tools om beelden te manipuleren blijft groeien. Het laatste voorbeeld is te vinden in <a href=\"https:\/\/arxiv.org\/pdf\/2305.10973.pdf\">een onderzoeksartikel<\/a> van het Max Planck Instituut. Voorlopig is het &#8220;slechts&#8221; een onderzoeksdocument, maar wel een zeer indrukwekkend document, dat toont hoe gebruikers elementen van een foto kunnen verslepen om hun uiterlijk te veranderen.<\/p>\n\n\n\n<p>Als je het nog niet snapt, hier is een voorbeeld:<\/p>\n\n\n\n<figure class=\"wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio\"><div class=\"wp-block-embed__wrapper\">\n<iframe loading=\"lazy\" title=\"DragGAN - Next-Level Image Editing Like You&#039;ve Never Seen Before! Quick Demo\" width=\"1290\" height=\"726\" src=\"https:\/\/www.youtube.com\/embed\/ll49tu5cEIc?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe>\n<\/div><\/figure>\n\n\n\n<p>Je kunt niet alleen de afmetingen van een auto veranderen of een glimlach veranderen in een frons met een simpele klik en sleep, maar je kunt het onderwerp van een foto roteren alsof het een 3D-model is &#8211; en zo bijvoorbeeld de richting veranderen waarin iemand kijkt. Een andere mogelijkheid is om met een paar klikken de reflecties op een meer of de hoogte van een berg aan te passen.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">DragGAN<\/h2>\n\n\n\n<p>Om visuele content te maken die voldoet aan de behoeften van de gebruiker is vaak precieze en flexibele controle nodig over attributen als houding, vorm, expressie en lay-out van de gegenereerde objecten. Traditionele methoden voor het aansturen van Generative Adversarial Networks (GANs) zijn afhankelijk van handmatig geannoteerde gegevens of eerdere 3D-modellen. Deze benaderingen missen echter vaak precisie, flexibiliteit en een generieke aanpak. Als antwoord op deze tekortkomingen introduceert het Max Planck Instituut DragGAN, een nieuwe aanpak waarmee gebruikers interactief punten in een afbeelding naar bepaalde locaties kunnen &#8220;slepen&#8221;.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img decoding=\"async\" src=\"https:\/\/archive.ioplus.nl\/wp-content\/uploads\/2023\/05\/Screenshot-2023-05-20-at-09.15.02-1004x501.png\" alt=\"DragGAN \u00a9 Max Planck Institute\" class=\"wp-image-446990\"\/><figcaption class=\"wp-element-caption\">DragGAN \u00a9 Max Planck Institute<\/figcaption><\/figure>\n\n\n\n<p>DragGAN bestaat uit twee hoofdcomponenten: een op kenmerken gebaseerde bewegingscontrole en een nieuwe benadering voor het volgen van punten. De bewegingssupervisie maakt het mogelijk om handvatpunten in het beeld te verplaatsen naar doelposities. De point-tracking aanpak maakt gebruik van onderscheidende generator kenmerken om de locaties van de handgreeppunten bij te houden als ze worden verplaatst. Daardoor kunnen gebruikers beelden met precisie vervormen en attributen zoals houding, vorm, expressie en lay-out be\u00efnvloeden in verschillende categorie\u00ebn zoals dieren, auto&#8217;s, mensen en landschappen.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Flexibel en nauwkeurig<\/h2>\n\n\n\n<p>Deze methode biedt een meer flexibele, precieze en generieke manier om GAN&#8217;s aan te sturen, waarbij gebruikers een willekeurig aantal handvatpunten en overeenkomstige doelpunten op een beeld kunnen selecteren. Het doel is deze handvatpunten te verplaatsen om hun respectieve doelen te bereiken. Met deze aanpak kan de gebruiker een reeks ruimtelijke attributen controleren, ongeacht de objectcategorie\u00ebn. Dit onderscheidt DragGAN van eerdere methoden die vaak niet generaliseren naar nieuwe objectcategorie\u00ebn of beperkte controle bieden over ruimtelijke attributen.<\/p>\n\n\n\n<p>De aanpak van DragGAN is niet afhankelijk van andere netwerken zoals RAFT, waardoor het effici\u00ebnt is voor manipulatietaken. De onderzoekers beweren dat het in de meeste gevallen slechts enkele seconden duurt op een RTX 3090 GPU. Dit maakt live, interactieve bewerkingssessies mogelijk, waardoor snelle iteratie van verschillende lay-outs mogelijk is tot de gewenste output is bereikt.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img decoding=\"async\" src=\"https:\/\/archive.ioplus.nl\/wp-content\/uploads\/2023\/05\/Screenshot-2023-05-20-at-09.11.08-1004x357.png\" alt=\"\u00a9 Max Planck Institute\" class=\"wp-image-446988\"\/><figcaption class=\"wp-element-caption\">DragGAN \u00a9 Max Planck Institute<\/figcaption><\/figure>\n\n\n\n<p>Door een uitgebreide evaluatie van diverse datasets heeft DragGAN aangetoond dat het in staat is door de gebruiker gedefinieerde handvatpunten naar doellocaties te verplaatsen, waardoor diverse manipulatie-effecten in vele objectcategorie\u00ebn kunnen worden bereikt. Een belangrijk kenmerk van DragGAN is dat de gebruiker een binair masker kan invoeren, dat het beweegbare gebied in een afbeelding aangeeft. Dit maakt een meer genuanceerde controle van manipulaties mogelijk, waardoor ambigu\u00efteit wordt verminderd en bepaalde gebieden gefixeerd blijven.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Beperkingen en misbruik<\/h2>\n\n\n\n<p>De onderzoekers waarschuwen echter ook dat DragGAN zijn beperkingen heeft. Hoewel het enige extrapolatiemogelijkheden bezit, kan de kwaliteit van de bewerking nog steeds worden be\u00efnvloed door de diversiteit van de trainingsgegevens. Bovendien hebben handvatpunten in textuurloze gebieden soms last van drift bij het volgen. Ondanks deze beperkingen biedt DragGAN een effectieve, interactieve benadering van beeldbewerking.<\/p>\n\n\n\n<p>De auteurs van het artikel wijzen ook op de mogelijkheid van misbruik van de technologie, aangezien deze kan worden gebruikt om beelden van een echt persoon met een valse houding, uitdrukking of vorm te cre\u00ebren. Zij benadrukken het belang van het respecteren van persoonlijkheidsrechten en privacyregels bij elke toepassing van hun benadering.<\/p>\n\n\n\n<p>DragGAN zou een aanzienlijke vooruitgang kunnen betekenen op het gebied van GAN-gebaseerde beeldmanipulatie. De methode maakt gebruik van een vooraf getraind GAN om beelden te genereren die de invoer van de gebruiker nauwkeurig volgen en toch realistisch blijven. Door het gebruik van een optimalisatie van latente codes en een point tracking procedure, biedt DragGAN pixel-precieze beeldvervormingen en interactieve prestaties. De auteurs hopen deze puntgebaseerde bewerking in de toekomst uit te breiden naar 3D generatieve modellen.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Voor wie nog aan het bijkomen is van wat Midjourney en Dall-E&#8217;s AI-ondersteunde beeldgeneratie ons hebben gebracht, is er verontrustend nieuws: we hebben de grenzen van de kunstmatige intelligentie nog lang niet bereikt. Het vermogen van AI-tools om beelden te manipuleren blijft groeien. Het laatste voorbeeld is te vinden in een onderzoeksartikel van het Max [&hellip;]<\/p>\n","protected":false},"author":1568,"featured_media":495126,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"advgb_blocks_editor_width":"","advgb_blocks_columns_visual_guide":"","footnotes":""},"categories":[90877],"tags":[120610,120613],"location":[25066],"article_type":[60156],"serie":[],"archives":[],"internal_archives":[],"reboot-archive":[],"class_list":["post-446999","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-digital-nl-nl","tag-draggan-nl","tag-max-planck-instituut-3-nl","location-duitsland","article_type-nieuws"],"blocksy_meta":[],"acf":{"subtitle":"Voorlopig is het \"slechts\" een onderzoekspaper van het Max Planck Instituut, maar DragGAN is een indrukwekkende tool om elementen van een afbeelding te verslepen en de vorm te veranderen.","text_display_homepage":false},"author_meta":{"display_name":"Bart Brouwers","author_link":"https:\/\/ioplus.nl\/archive\/author\/brewbart\/"},"featured_img":"https:\/\/ioplus.nl\/archive\/wp-content\/uploads\/2023\/05\/Screenshot-2023-05-20-at-09.12.44.png","coauthors":[],"tax_additional":{"categories":{"linked":["<a href=\"https:\/\/ioplus.nl\/archive\/nl\/category\/digital-nl-nl\/\" class=\"advgb-post-tax-term\">Digital<\/a>"],"unlinked":["<span class=\"advgb-post-tax-term\">Digital<\/span>"]},"tags":{"linked":["<a href=\"https:\/\/ioplus.nl\/archive\/nl\/category\/digital-nl-nl\/\" class=\"advgb-post-tax-term\">DragGAN<\/a>","<a href=\"https:\/\/ioplus.nl\/archive\/nl\/category\/digital-nl-nl\/\" class=\"advgb-post-tax-term\">Max Planck instituut<\/a>"],"unlinked":["<span class=\"advgb-post-tax-term\">DragGAN<\/span>","<span class=\"advgb-post-tax-term\">Max Planck instituut<\/span>"]}},"comment_count":"0","relative_dates":{"created":"Posted 3 years ago","modified":"Updated 3 years ago"},"absolute_dates":{"created":"Posted on May 20, 2023","modified":"Updated on May 20, 2023"},"absolute_dates_time":{"created":"Posted on May 20, 2023 2:27 pm","modified":"Updated on May 20, 2023 2:27 pm"},"featured_img_caption":"","series_order":"","_links":{"self":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/posts\/446999","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/users\/1568"}],"replies":[{"embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/comments?post=446999"}],"version-history":[{"count":0,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/posts\/446999\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/media\/495126"}],"wp:attachment":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/media?parent=446999"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/categories?post=446999"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/tags?post=446999"},{"taxonomy":"location","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/location?post=446999"},{"taxonomy":"article_type","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/article_type?post=446999"},{"taxonomy":"serie","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/serie?post=446999"},{"taxonomy":"archives","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/archives?post=446999"},{"taxonomy":"internal_archives","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/internal_archives?post=446999"},{"taxonomy":"reboot-archive","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/reboot-archive?post=446999"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}