Wie Roboter wandern lernen
ETH-Forschende um Marco Hutter entwickeln ein neues Steuerungssystem, mit dem sich der Laufroboter ANYmal schnell und robust in schwierigem Gelände bewegt. Dank maschinellem Lernen kann der Roboter erstmals seine visuelle Umweltwahrnehmung mit seinem Tastsinn kombinieren.
Steile Passagen auf rutschigem Untergrund, hohe Stufen, Geröll und Waldwege mit Wurzeln: Der Weg auf den 1098 Meter hohen Berg Etzel am südlichen Ende des Zürichsees ist gepflastert mit zahlreichen Hindernissen. Doch ANYmal, der vierbeinige Laufroboter des Robotic Systems Lab der ETH Zürich, überwindet die 120 Höhenmeter mühelos und steht nach 31-minütigem Aufstieg auf dem Gipfel. Vier Minuten schneller, als für menschliche Wanderer vorgesehen. Und das ohne Sturz oder Fehler.
Möglich wird dies durch eine neue Steuerungstechnologie, die Forschende der ETH Zürich um Robotik-Professor Marco Hutter kürzlich in der Fachzeitschrift Science Robotics präsentierten. «Der Roboter hat gelernt, die visuelle Wahrnehmung der Umwelt mit der auf direktem Beinkontakt beruhenden Tastwahrnehmung zu kombinieren. Er kann dadurch unwegsames Gelände schneller, effizienter und vor allem robuster bewältigen», sagt Hutter. In Zukunft kann ANYmal überall dort eingesetzt werden, wo es für Menschen zu gefährlich oder für andere Roboter zu unwegsam ist.
Die Umwelt richtig wahrnehmen
Um sich in schwierigem Gelände zu bewegen, kombinieren Menschen und Tiere ganz automatisch die visuelle Wahrnehmung ihrer Umwelt mit dem Tastsinn ihrer Beine und Hände. So können sie problemlos mit rutschigem oder nachgiebigem Untergrund umgehen und sich auch bei schlechten Sichtverhältnissen zuverlässig fortbewegen. Bis anhin waren Laufroboter nur bedingt dazu in der Lage.
«Der Grund dafür ist, dass die von Laser-Sensoren und Kameras aufgezeichneten Informationen zur unmittelbaren Umgebung oft unvollständig und mehrdeutig sind», erklärt Takahiro Miki, Doktorand in Hutters Gruppe und Erstautor der Studie. So erscheinen etwa hohes Gras, seichte Pfützen oder Schnee als unüberwindbare Hindernisse oder sind teilweise unsichtbar, obwohl der Roboter eigentlich darüber hinweglaufen könnte. Zudem kann der Blick des Roboters im Einsatz durch schwierige Lichtverhältnisse, Staub oder Nebel gestört werden.
«Roboter wie ANYmal müssen daher selbstständig entscheiden können, wann sie Bildern ihrer Umwelt vertrauen und zügig voranschreiten und wann sie sich besser vorsichtig und mit kleinen Schritten vorantasten», so Miki. «Darin liegt die grosse Herausforderung.»
Im virtuellen Trainingslager
Durch ein neues Steuerungssystem, das auf einem neuronalen Netzwerk basiert, ist der von ETH-Forschenden entwickelte und vom ETH Spin-off externe Seite ANYbotics kommerzialisierte Laufroboter ANYmal nun erstmals in der Lage, Aussen- und Tastwahrnehmung zu kombinieren. Bevor der Roboter seine Fähigkeiten in der Natur unter Beweis stellen konnte, haben die Wissenschaftlerinnen und Wissenschaftler das System in einem virtuellen Trainingslager mit zahlreichen Hindernissen und Fehlerquellen konfrontiert. Dadurch lernte das Netzwerk, wie der Roboter optimal Hindernisse überwindet und wann er dabei auf Umweltdaten vertrauen kann, oder diese besser ignoriert.
«Mit diesem Training ist der Roboter in der Lage, schwierigstes Gelände in der Natur zu bewältigen, ohne dieses vorher gesehen zu haben», sagt ETH-Professor Hutter. Dies funktioniert selbst dann, wenn die Sensordaten der unmittelbaren Umgebung mehrdeutig oder diffus sind. ANYmal geht dann auf Nummer sicher und verlässt sich auf seinen Tastsinn. Damit, so Hutter, kombiniere der Roboter das Beste aus beiden Welten: die Geschwindigkeit und Effizienz der Aussen- und die Sicherheit der Tastwahrnehmung.
Einsatz unter Extrembedingungen
Ob nach einem Erdbeben, nach einer nuklearen Katastrophe oder während eines Waldbrandes: Zur Anwendung kommen können Roboter wie ANYmal vor allem dort, wo es für Menschen zu gefährlich ist und wo andere Roboter auf Grund des schwierigen Geländes nicht mehr einsetzbar sind.
Wie gut die neue Steuerungstechnologie funktioniert, konnte ANYmal im September letzten Jahres an der Darpa Subterranean Challenge, dem bekanntesten Roboterwettbewerb der Welt, unter Beweis stellen. Der ETH-Roboter überwand in einem schmalen, unterirdischen Tunnel- und Höhlensystem automatisch und schnell zahlreiche Hindernisse und schwieriges Terrain. Dies trug massgeblich dazu bei, dass ETH-Forschende als Teil des Team Cerberus den ersten Platz erzielten und ein Preisgeld von 2 Millionen Dollar gewannen.
Literaturhinweis
Miki T, Lee J, Hwangbo J, Wellhausen L: Learning robust perceptive locomotion for quadrupedal robots in the wild, Science Robotics 2022, doi: externe Seite 10.1126/scirobotics.abk2822