{"id":183376,"date":"2019-09-04T11:30:51","date_gmt":"2019-09-04T09:30:51","guid":{"rendered":"https:\/\/innovationorigins.com\/?p=183376"},"modified":"2019-09-04T11:30:51","modified_gmt":"2019-09-04T09:30:51","slug":"fotos-gucken-statt-hoehentraining","status":"publish","type":"post","link":"https:\/\/ioplus.nl\/archive\/de\/fotos-gucken-statt-hoehentraining\/","title":{"rendered":"Fotos gucken statt H\u00f6hentraining"},"content":{"rendered":"<p><strong>Zweimal f\u00fcnf Maschinen auf zwei Beinen, die einem Ball hinterherlaufen, um ihn in das jeweils gegnerische Tor zu bugsieren, das ist Roboterfu\u00dfball. Schon das Erkennen des Balls ist f\u00fcr diese Spieler eine Herausforderung. Tim Laue von der Uni-Bremen erkl\u00e4rt, inwiefern Deep Learning eine wesentliche Rolle dabei spielt und wie das Trainingslager der Roboter-Fu\u00dfballer aussieht.<\/strong><\/p>\n<h3>Welche Rolle spielt Deep Learning beim Roboterfu\u00dfball?<\/h3>\n<p>Deep Learning ist eine Technik, die gut darin ist, Objekte zu erkennen und zu klassifizieren. Manche Handys nutzen das. Wenn Sie zum Beispiel in Ihrer Bildergalerie nach \u201eFahrrad\u201c suchen, findet das Programm Fotos, auf denen Fahrr\u00e4der zu sehen sind, ohne, dass Sie diese Fotos jemals verschlagwortet haben. Beim Roboterfu\u00dfball ist es entscheidend, Mitspieler, Spielfeld und vor allem den Ball anhand der aufgezeichneten Videobilder sofort und zweifelsfrei zu erkennen. Also nutzen wir das.<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-medium wp-image-183237\" src=\"https:\/\/archive.ioplus.nl\/wp-content\/uploads\/2019\/08\/thumbnail_Tim_Laue-600x400.jpg\" alt=\"\" width=\"600\" height=\"400\" \/><\/p>\n<h3>Der Ball und die Mitspieler haben keinen Peilsender, der das Erkennen erleichtert?<\/h3>\n<p>Nein. Fr\u00fcher war der Ball orange. Es war per Regel der einzige orangefarbene Fleck auf dem Feld. In der Bildverarbeitung mussten sie schlicht nach diesem Farbwert suchen. Das war vergleichsweise einfach. Heute ist der Ball schwarzwei\u00df gemustert und leicht mit Schatten auf dem Boden oder mit Teilen anderer Roboter zu verwechseln. Mit einem klassischen Bildverarbeitungsansatz, der beispielsweise nach dunklen Flecken auf einem gro\u00dfen wei\u00dfen Fleck sucht, sto\u00dfe ich da schnell an Grenzen.<\/p>\n<h3>Sie bringen also Ihren Robotern das Konzept \u201eBall\u201c bei?<\/h3>\n<p>Wir entwerfen ein sogenanntes neuronales Netz. Diesem Netz zeigen wir eine gro\u00dfe Anzahl von Bildern. Bilder, die zuvor von Menschen kategorisiert wurden. Zusammen mit dem Bild bekommt das Netz also die Information, ob dieses Bild einen Ball zeigt oder nicht. So lernt das Netz Bild f\u00fcr Bild, was \u201eBall\u201c auf diesen Bildern ausmacht.<br \/>\nKlassisch w\u00fcrde man eine Liste von Eigenschaften festlegen, nach denen die Software suchen muss.<\/p>\n<p>Heute definieren wir das Lernproblem und lassen die Software die Eigenschaften, die einen Ball auf den Bildern ausmachen, selbst zusammen sammeln. Dabei haben wir zwei wesentliche Einflussgr\u00f6\u00dfen. Da ist zum einen die Variationsbreite des Beispielmaterials und die Anzahl der Wiederholungen, mit der wir das Netz mit den Bildern f\u00fcttern. Zum anderen legen wir die Tiefe des Netzes fest.<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-medium wp-image-183380\" src=\"https:\/\/archive.ioplus.nl\/wp-content\/uploads\/2019\/08\/Bild12-600x317.jpg\" alt=\"\" width=\"600\" height=\"317\" \/><\/p>\n<h3>Wie lange l\u00e4uft ein solches Training?<\/h3>\n<p>Um einigerma\u00dfen zufriedenstellenden Ergebnisse zu bekommen, ben\u00f6tigen wir die Gr\u00f6\u00dfenordnung von \u00fcber 20.000 Bildern, von denen nur ein Teil tats\u00e4chlich einen Ball enth\u00e4lt, sowie hunderte oder gar tausende Wiederholungsl\u00e4ufe allein f\u00fcr das Merkmal \u201eBall\u201c.<\/p>\n<p>Inzwischen verwenden alle Teams im RoboCup diese Methode, da sie recht robuste Ergebnisse produziert, selbst dann, wenn die Lichtverh\u00e4ltnisse wechseln und sich die Farben \u00e4ndern. Allerdings sieht man immer noch Roboter, die gegen den Elfmeterpunkt treten.<\/p>\n<h3>Warum dauert das Lernen so lang?<\/h3>\n<p>Computer sind beim Erkennen eben nicht so gut wie Menschen. Tats\u00e4chlich kann ich einem Kind eine gemalte Giraffe zeigen und es wird mit hoher Wahrscheinlichkeit am n\u00e4chsten Tag beim Zoo-Besuch das unbekannte Wesen mit dem langen Hals als \u201eGiraffe\u201c erkennen. Im Erkennen des Kindes passieren sehr viele Transferleistungen.<br \/>\nDas neuronale Netz hat nichts von alldem. Das hei\u00dft, man muss ihm den Ball in all seinen Variationsm\u00f6glichkeiten zeigen, Ball ist weit weg, nah dran, halb verdeckt durch einen Mitspieler, beschattet, hell angeleuchtet etc. Je mehr Variationen wir dem System bieten k\u00f6nnen desto besser. Immer in der Hoffnung, dass die Bilder einen m\u00f6glichst gro\u00dfen Teil des M\u00f6glichkeitsraums abdecken, wie ein Ball erscheinen kann. Das Netzwerk kann dann abstrahieren und auch Balldarstellungen erkennen, die quasi irgendwo zwischen den gezeigten Beispielen liegen.<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-medium wp-image-183378\" src=\"https:\/\/archive.ioplus.nl\/wp-content\/uploads\/2019\/08\/Bild3-600x295.jpg\" alt=\"\" width=\"600\" height=\"295\" \/><\/p>\n<h3>Auch die Geschwindigkeit, in der die Bildverarbeitung w\u00e4hrend des Spiels geschieht, ist wichtig?<\/h3>\n<p>Ja, das ist relevant. Wir nehmen 60 Bilder pro Sekunde auf. In jedem Bild schaut die Maschine, wo der Ball ist, wo ist das Feld zu Ende, wo stehen die Mitspieler etc. Dann wird berechnet, rollt der Ball, wie schnell rollt er, welche Richtung hat er, wo bin ich selbst gerade, was mache ich jetzt? Am Ende steht die Aktion. Und wenn ich tats\u00e4chlich jedes einzelne Bild auswerten will, dann habe ich f\u00fcr jedes einzelne Bild nur 16 Millisekunden Zeit, diese ganzen Berechnungen anzustellen. Und wir m\u00f6chten gern jedes einzelne Bild verarbeiten. In jedem Bild kann eine entscheidende Information versteckt sein. Eins zu verpassen ist deshalb keine gute Idee.<\/p>\n<h3>Ein n\u00e4chster Schritt k\u00f6nnte sein, die optische Information mit weiteren Eigenschaften zu verkn\u00fcpfen.<\/h3>\n<p>Da w\u00fcrden wir ein riesiges neues Fass aufmachen. Ein Computer ist eben gut darin, Dinge auszurechnen. Daf\u00fcr muss man die Dinge aber erst einmal in z\u00e4hlbare Informationen umwandeln. Das kann man heute mit Bildern ganz gut machen. Etwas anderes haben wir beim Roboterfu\u00dfball derzeit nicht.<\/p>\n<h3>Wie entscheidet der Roboter, wohin er schaut. Die NAOs haben ja keine Rund-um-Kamera?<\/h3>\n<p>Das ist die ewige Frage. Sollten etwa alle Roboter st\u00e4ndig den Ball im Blick haben oder verteilt man die Aufgaben im Team? Dazu gibt es einige Zeilen Software, die versuchen, diese Frage zu beantworten. Tats\u00e4chlich konnte man auf den Videoaufnahmen oft sehen, dass Roboter etwas Wichtiges gar nicht mitbekommen haben.<\/p>\n<h3>Hr. Laue, spielen Sie selbst Fu\u00dfball?<\/h3>\n<p>Nein, ich sehe mir Fu\u00dfball an, aber ich bin selbst v\u00f6llig unbegabt. Derzeit sind diese zwei Bereiche noch zu weit auseinander. Da w\u00fcrde man sich mit echtem Fu\u00dfballwissen eher selbst im Wege stehen, als dass es helfen k\u00f6nnte.<\/p>\n<h3>Dennoch ist das langfristige Ziel der Robotergemeinde, tats\u00e4chlich einmal Roboter gegen eine Menschenmannschaft antreten zu lassen?<\/h3>\n<p>2050 hat jemand als Ziel ausgegeben. Ob das realistisch ist, kann ich nicht sagen.<\/p>\n<p>Eins ist allerdings klar: Im Vergleich mit anderen Herausforderungen ist Fu\u00dfball noch eine recht einfache Disziplin. Wir haben einen ganzen Sonderforschungsbereich an der Universit\u00e4t Bremen, der sich damit besch\u00e4ftigt, Roboter in h\u00e4uslicher Umgebung sinnvoll agieren zu lassen. Das ist hoch komplex, weil dieses Umfeld um ein Vielfaches unstrukturierter ist als beim Fu\u00dfball. Als Mensch kann ich auch in einer fremden K\u00fcche kochen. Kommt ein Roboter in eine solche Umgebung, wird es richtig kompliziert.<\/p>\n<p><em>@Fotos: Tim Laue, Universit\u00e4t Bremen<\/em><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Zweimal f\u00fcnf Maschinen auf zwei Beinen, die einem Ball hinterherlaufen, um ihn in das jeweils gegnerische Tor zu bugsieren, das ist Roboterfu\u00dfball. Schon das Erkennen des Balls ist f\u00fcr diese Spieler eine Herausforderung. Tim Laue von der Uni-Bremen erkl\u00e4rt, inwiefern Deep Learning eine wesentliche Rolle dabei spielt und wie das Trainingslager der Roboter-Fu\u00dfballer aussieht. Welche [&hellip;]<\/p>\n","protected":false},"author":1659,"featured_media":509530,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"advgb_blocks_editor_width":"","advgb_blocks_columns_visual_guide":"","footnotes":""},"categories":[26143],"tags":[39437,39400,39402,39406],"location":[24328],"article_type":[],"serie":[],"archives":[],"internal_archives":[],"reboot-archive":[],"class_list":["post-183376","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-digital-de","tag-neuronales-netz","tag-robocup-2019","tag-roboter-fussball","tag-uni-bremen","location-deutschland"],"blocksy_meta":[],"acf":{"subtitle":"","text_display_homepage":false},"author_meta":{"display_name":"Volker Joksch","author_link":"https:\/\/ioplus.nl\/archive\/author\/volker-joksch\/"},"featured_img":"https:\/\/ioplus.nl\/archive\/wp-content\/uploads\/2019\/08\/thumbnail-IMG_0607.jpg","coauthors":[],"tax_additional":{"categories":{"linked":["<a href=\"https:\/\/ioplus.nl\/archive\/en\/category\/digital-de\/\" class=\"advgb-post-tax-term\">Digital<\/a>"],"unlinked":["<span class=\"advgb-post-tax-term\">Digital<\/span>"]},"tags":{"linked":["<a href=\"https:\/\/ioplus.nl\/archive\/en\/category\/digital-de\/\" class=\"advgb-post-tax-term\">Neuronales Netz<\/a>","<a href=\"https:\/\/ioplus.nl\/archive\/en\/category\/digital-de\/\" class=\"advgb-post-tax-term\">RoboCup 2019<\/a>","<a href=\"https:\/\/ioplus.nl\/archive\/en\/category\/digital-de\/\" class=\"advgb-post-tax-term\">Roboter-Fu\u00dfball<\/a>","<a href=\"https:\/\/ioplus.nl\/archive\/en\/category\/digital-de\/\" class=\"advgb-post-tax-term\">Uni Bremen<\/a>"],"unlinked":["<span class=\"advgb-post-tax-term\">Neuronales Netz<\/span>","<span class=\"advgb-post-tax-term\">RoboCup 2019<\/span>","<span class=\"advgb-post-tax-term\">Roboter-Fu\u00dfball<\/span>","<span class=\"advgb-post-tax-term\">Uni Bremen<\/span>"]}},"comment_count":"0","relative_dates":{"created":"Posted 7 years ago","modified":"Updated 7 years ago"},"absolute_dates":{"created":"Posted on September 4, 2019","modified":"Updated on September 4, 2019"},"absolute_dates_time":{"created":"Posted on September 4, 2019 11:30 am","modified":"Updated on September 4, 2019 11:30 am"},"featured_img_caption":"","series_order":"","_links":{"self":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/posts\/183376","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/users\/1659"}],"replies":[{"embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/comments?post=183376"}],"version-history":[{"count":0,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/posts\/183376\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/media\/509530"}],"wp:attachment":[{"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/media?parent=183376"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/categories?post=183376"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/tags?post=183376"},{"taxonomy":"location","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/location?post=183376"},{"taxonomy":"article_type","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/article_type?post=183376"},{"taxonomy":"serie","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/serie?post=183376"},{"taxonomy":"archives","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/archives?post=183376"},{"taxonomy":"internal_archives","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/internal_archives?post=183376"},{"taxonomy":"reboot-archive","embeddable":true,"href":"https:\/\/ioplus.nl\/archive\/wp-json\/wp\/v2\/reboot-archive?post=183376"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}