{"id":450795,"date":"2023-06-26T16:00:00","date_gmt":"2023-06-26T14:00:00","guid":{"rendered":"https:\/\/innovationorigins.com\/?p=450795"},"modified":"2023-06-26T16:00:00","modified_gmt":"2023-06-26T14:00:00","slug":"revolutionierung-der-ki-bilderzeugung-mit-szenegraphen","status":"publish","type":"post","link":"https:\/\/ioplus.nl\/archive\/de\/revolutionierung-der-ki-bilderzeugung-mit-szenegraphen\/","title":{"rendered":"Revolutionierung der KI-Bilderzeugung mit Szenegraphen"},"content":{"rendered":"\n<p>Der Forscher Michael Ying Yang von der Universit\u00e4t Twente hat eine bahnbrechende Methode entwickelt, um mithilfe von KI realistische und koh\u00e4rente Bilder aus Textaufforderungen zu erzeugen. Der neue Ansatz, ReITR genannt, konzentriert sich auf die Erstellung von Szenegraphen, die f\u00fcr ein besseres Verst\u00e4ndnis der visuellen Beziehungen zwischen Objekten durch KI entscheidend sind, schreibt die Universit\u00e4t in einer <a href=\"https:\/\/www.utwente.nl\/en\/news\/2023\/6\/1024198\/new-ai-model-with-better-understanding-of-images\">Pressemitteilung<\/a>.<\/p>\n\n\n\n<p>Diese innovative einstufige Methode sagt Subjekte, Objekte und ihre Beziehungen gleichzeitig voraus, was die Verarbeitungszeit im Vergleich zu herk\u00f6mmlichen zweistufigen Ans\u00e4tzen erheblich reduziert. Die in der Fachzeitschrift IEEE T-PAMI ver\u00f6ffentlichte Forschungsarbeit verspricht, die Bilderzeugung sowie die Wahrnehmung von autonomen Fahrzeugen und Robotern zu verbessern.<\/p>\n\n\n\n<div class=\"io-block io-block__summary\"><ul><li>ReITR (Relation Transformer for Scene Graph Generation) erzeugt mit Hilfe von KI realistische und koh\u00e4rente Bilder aus textuellen Aufforderungen.<\/li><li>ReITR konzentriert sich auf die Erstellung von Szenegraphen, die das Verst\u00e4ndnis der KI f\u00fcr visuelle Beziehungen zwischen Objekten verbessern und die Verarbeitungszeit im Vergleich zu herk\u00f6mmlichen zweistufigen Ans\u00e4tzen erheblich reduzieren.<\/li><\/ul><\/div>\n\n\n\n<h2 class=\"wp-block-heading\">Ein Sprung nach vorn beim Verstehen von Szenen<\/h2>\n\n\n\n<p>Die k\u00fcnstliche Intelligenz hat gro\u00dfe Fortschritte bei der Erzeugung von Bildern aus Textaufforderungen gemacht, aber die meisten generativen KI-Modelle zeichnen sich dadurch aus, dass sie Bilder von einzelnen Objekten und nicht von ganzen Szenen erzeugen. Der Mensch hingegen ist in der Lage, Beziehungen zwischen Objekten zu definieren, z. B. zu verstehen, dass ein Stuhl auf dem Boden steht oder ein Hund auf der Stra\u00dfe l\u00e4uft. Um diese L\u00fccke zu schlie\u00dfen, entwickelte Yang, Assistenzprofessor in der Scene Understanding Group der Fakult\u00e4t f\u00fcr Geoinformationswissenschaften und Erdbeobachtung (ITC), eine neue Methode namens ReITR (Relation Transformer for Scene Graph Generation).<\/p>\n\n\n\n<p>Dieser neue Ansatz konstruiert Szenegraphen aus Bildern, die als Blaupausen f\u00fcr die Erzeugung realistischer und koh\u00e4renter Bilder dienen. Durch die Verbesserung der F\u00e4higkeit der k\u00fcnstlichen Intelligenz, visuelle Beziehungen zwischen Objekten zu erkennen und zu verstehen, verbessert ReITR nicht nur die Bilderzeugung, sondern unterst\u00fctzt auch die Wahrnehmung von autonomen Fahrzeugen und Robotern, die ein genaues Verst\u00e4ndnis der Szene ben\u00f6tigen, um zu navigieren und mit ihrer Umgebung zu interagieren.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Einstufige Methode f\u00fcr schnellere Verarbeitung<\/h2>\n\n\n\n<p>Herk\u00f6mmliche Methoden zur grafischen Darstellung eines semantischen Verst\u00e4ndnisses eines Bildes verwenden einen zweistufigen Ansatz, der langsam und ineffizient ist. In der ersten Stufe werden alle Objekte in einer Szene kartiert, w\u00e4hrend in der zweiten Stufe ein spezielles neuronales Netz alle m\u00f6glichen Verbindungen durchgeht und sie mit der richtigen Beziehung kennzeichnet. Die Anzahl der Verbindungen, die bei dieser Methode verarbeitet werden m\u00fcssen, steigt jedoch exponentiell mit der Anzahl der Objekte, was die Methode sehr zeitaufw\u00e4ndig macht.<\/p>\n\n\n\n<p>ReITR hingegen ben\u00f6tigt nur einen einzigen Schritt, um das gleiche Ziel zu erreichen. Es sagt automatisch Subjekte, Objekte und ihre Beziehungen zur gleichen Zeit voraus, was die Verarbeitungszeit drastisch reduziert. Das Modell von ReITR untersucht die visuellen Merkmale von Objekten in einer Szene und konzentriert sich auf die wichtigsten Details zur Bestimmung ihrer Beziehungen. Es hebt wesentliche Bereiche hervor, in denen Objekte interagieren oder in Beziehung zueinander stehen, und nutzt diese Techniken und relativ wenige Trainingsdaten, um die wichtigsten Beziehungen zwischen verschiedenen Objekten zu ermitteln. Das Modell erstellt dann eine Beschreibung, wie die Objekte miteinander verbunden sind.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Praktische Anwendungen und zuk\u00fcnftige Entwicklungen<\/h2>\n\n\n\n<p>Die Fortschritte von ReITR beim Verstehen von Szenen haben das Potenzial, verschiedene Bereiche und Anwendungen zu beeinflussen. Der Durchbruch k\u00f6nnte beispielsweise autonomen Fahrzeugen und Robotern zugute kommen, die auf ein genaues Verst\u00e4ndnis der Szene und Objekterkennung angewiesen sind, um zu navigieren und Entscheidungen zu treffen. Dar\u00fcber hinaus k\u00f6nnte die F\u00e4higkeit von ReITR, realistische und koh\u00e4rente Bilder aus Textanweisungen zu erzeugen, in der Computergrafik, der virtuellen und erweiterten Realit\u00e4t und sogar bei der Entwicklung von Videospielen Anwendung finden.<\/p>\n\n\n\n<p>ReITR stellt zwar einen bedeutenden Fortschritt dar, ist aber Teil einer breiteren Forschungslandschaft, die sich mit der F\u00e4higkeit von KI zur Verarbeitung von 3D-Daten und zum Verst\u00e4ndnis von Szenen befasst. Die TensorFlow 3D-Bibliothek von Google Research wurde beispielsweise entwickelt, um 3D-F\u00e4higkeiten f\u00fcr tiefes Lernen in TensorFlow einzubringen und damit eine Technologie zum Verstehen von Szenen f\u00fcr maschinelle Lernsysteme wie autonome Autos und Roboter zu erm\u00f6glichen. Da die Forschung in diesem Bereich weiter voranschreitet, k\u00f6nnen wir weitere Innovationen und Anwendungen erwarten, die das Potenzial der KI f\u00fcr die Bilderzeugung und das Verstehen von Szenen nutzen.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Der Forscher Michael Ying Yang von der Universit\u00e4t Twente hat eine bahnbrechende Methode entwickelt, um mithilfe von KI realistische und koh\u00e4rente Bilder aus Textaufforderungen zu erzeugen. Der neue Ansatz, ReITR genannt, konzentriert sich auf die Erstellung von Szenegraphen, die f\u00fcr ein besseres Verst\u00e4ndnis der visuellen Beziehungen zwischen Objekten durch KI entscheidend sind, schreibt die Universit\u00e4t [&hellip;]<\/p>\n","protected":false},"author":2589,"featured_media":493812,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"advgb_blocks_editor_width":"","advgb_blocks_columns_visual_guide":"","footnotes":""},"categories":[36843],"tags":[121129,93634,27862,121132],"location":[24073],"article_type":[36655],"serie":[],"archives":[],"internal_archives":[],"reboot-archive":[],"class_list":["post-450795","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-digital-de-de","tag-3d-de","tag-ai-de-de","tag-google-de-de","tag-universtitat-twente-de","location-niederlande","article_type-aktuell"],"blocksy_meta":[],"acf":{"subtitle":"Generative KI-Programme k\u00f6nnen Bilder aus Textanweisungen erzeugen. Die Erstellung vollst\u00e4ndiger Szenen war immer noch schwierig, bis es ReITR gab.","text_display_homepage":false},"author_meta":{"display_name":"Team IO","author_link":"https:\/\/ioplus.nl\/archive\/author\/erikdevries\/"},"featured_img":"https:\/\/ioplus.nl\/archive\/wp-content\/uploads\/2023\/06\/Schermafbeelding-2023-06-26-120622.png","coauthors":[],"tax_additional":{"categories":{"linked":["<a href=\"https:\/\/ioplus.nl\/archive\/de\/category\/digital-de-de\/\" class=\"advgb-post-tax-term\">Digital<\/a>"],"unlinked":["<span class=\"advgb-post-tax-term\">Digital<\/span>"]},"tags":{"linked":["<a href=\"https:\/\/ioplus.nl\/archive\/de\/category\/digital-de-de\/\" class=\"advgb-post-tax-term\">3D<\/a>","<a href=\"https:\/\/ioplus.nl\/archive\/de\/category\/digital-de-de\/\" class=\"advgb-post-tax-term\">AI<\/a>","<a href=\"https:\/\/ioplus.nl\/archive\/de\/category\/digital-de-de\/\" class=\"advgb-post-tax-term\">Google<\/a>","<a href=\"https:\/\/ioplus.nl\/archive\/de\/category\/digital-de-de\/\" class=\"advgb-post-tax-term\">Universtitat Twente<\/a>"],"unlinked":["<span class=\"advgb-post-tax-term\">3D<\/span>","<span class=\"advgb-post-tax-term\">AI<\/span>","<span class=\"advgb-post-tax-term\">Google<\/span>","<span class=\"advgb-post-tax-term\">Universtitat Twente<\/span>"]}},"comment_count":"0","relative_dates":{"created":"Posted 3 years ago","modified":"Updated 3 years ago"},"absolute_dates":{"created":"Posted on June 26, 2023","modified":"Updated on June 26, 2023"},"absolute_dates_time":{"created":"Posted on June 26, 2023 4:00 pm","modified":"Updated on June 26, 2023 4:00 pm"},"featured_img_caption":"","series_order":"","_links":{"self":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/posts\/450795","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/users\/2589"}],"replies":[{"embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/comments?post=450795"}],"version-history":[{"count":0,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/posts\/450795\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/media\/493812"}],"wp:attachment":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/media?parent=450795"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/categories?post=450795"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/tags?post=450795"},{"taxonomy":"location","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/location?post=450795"},{"taxonomy":"article_type","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/article_type?post=450795"},{"taxonomy":"serie","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/serie?post=450795"},{"taxonomy":"archives","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/archives?post=450795"},{"taxonomy":"internal_archives","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/internal_archives?post=450795"},{"taxonomy":"reboot-archive","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/reboot-archive?post=450795"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}