AI Kompetenzen suchen

Ein grosser Sprung für den vierbeinigen Mini-Roboter «Cheetah»

Der vierbeinige Laufroboter «Cheetah» wird immer besser. / Foto mit freundlicher Genehmigung der Forscher
Ein neues Steuerungssystem, das anhand des Mini-Roboters «Cheetah» des MIT demonstriert wurde, ermöglicht es vierbeinigen Robotern, in Echtzeit über unebenes Terrain zu springen.
Ein Gepard rennt über ein hügeliges Feld und springt über plötzliche Lücken in dem zerklüfteten Gelände. Die Bewegung mag mühelos aussehen, aber einen Roboter dazu zu bringen, sich auf diese Weise zu bewegen, ist eine ganz andere Angelegenheit.

In den letzten Jahren haben vierbeinige Roboter, die sich an den Bewegungen von Geparden und anderen Tieren orientieren, grosse Fortschritte gemacht, aber sie bleiben immer noch hinter ihren Säugetierkollegen zurück, wenn es darum geht, sich in einer Landschaft mit schnellen Höhenunterschieden zu bewegen.

«In solchen Situationen muss man sein Sehvermögen einsetzen, um Fehler zu vermeiden. Es ist zum Beispiel schwierig, in eine Lücke zu treten, wenn man sie nicht sehen kann. Es gibt zwar einige Methoden, um das Sehen in die Fortbewegung auf Beinen zu integrieren, aber die meisten davon eignen sich nicht wirklich für den Einsatz bei neuen, agilen Robotersystemen», sagt Gabriel Margolis, Doktorand im Labor von Pulkit Agrawal, Professor am Computer Science and Artificial Intelligence Laboratory (CSAIL) am MIT.

Jetzt haben Margolis und seine Mitarbeiter ein System entwickelt, das die Geschwindigkeit und Wendigkeit von Robotern mit Beinen verbessert, wenn sie über Lücken im Gelände springen. Das neuartige Steuersystem besteht aus zwei Teilen - einem, der Echtzeit-Eingaben von einer an der Vorderseite des Roboters angebrachten Videokamera verarbeitet, und einem anderen, der diese Informationen in Anweisungen für die Bewegung des Roboters umsetzt. Die Forscher testeten ihr System am MIT-"Mini-Cheetah", einem leistungsstarken, wendigen Roboter, der im Labor von Sangbae Kim, Professor für Maschinenbau, gebaut wurde.

Im Gegensatz zu anderen Methoden zur Steuerung eines vierbeinigen Roboters muss bei diesem zweiteiligen System das Gelände nicht im Voraus kartiert werden, so dass der Roboter überall hingehen kann. In der Zukunft könnte der Roboter auf diese Weise in der Lage sein, im Notfall in den Wald zu gehen oder eine Treppe hinaufzusteigen, um einem älteren, eingeschlossenen Menschen Medikamente zu bringen.

Es ist alles unter Kontrolle

Die Verwendung von zwei separaten Steuerungen, die zusammenarbeiten, macht dieses System besonders innovativ.

Eine Steuerung ist ein Algorithmus, der den Zustand des Roboters in eine Reihe von Aktionen umwandelt, die er ausführen soll. Viele blinde Steuerungen - d. h. solche, die das Sehen nicht einbeziehen - sind zwar robust und effektiv, ermöglichen es den Robotern aber nur, über ein zusammenhängendes Gelände zu laufen.

Das Sehen ist ein so komplexer sensorischer Input, dass diese Algorithmen nicht in der Lage sind, ihn effizient zu verarbeiten. Systeme, die das Sehen einbeziehen, sind in der Regel auf eine «Höhenkarte» des Geländes angewiesen, die entweder im Voraus erstellt oder im laufenden Betrieb generiert werden muss - ein Prozess, der in der Regel langsam und fehleranfällig ist, wenn die Höhenkarte falsch ist.

Für die Entwicklung ihres Systems nahmen die Forscher die besten Elemente dieser robusten, blinden Steuerungen und kombinierten sie mit einem separaten Modul, das das Sehen in Echtzeit übernimmt.

Die Kamera des Roboters nimmt Tiefenbilder des bevorstehenden Geländes auf, die zusammen mit Informationen über den Zustand des Roboterkörpers (Gelenkwinkel, Körperausrichtung usw.) an eine übergeordnete Steuerung weitergeleitet werden. Die übergeordnete Steuerung ist ein neuronales Netz, das aus Erfahrungen «lernt».

Dieses neuronale Netz gibt eine Zieltrajektorie aus, die der zweite Controller verwendet, um Drehmomente für jedes der 12 Gelenke des Roboters zu ermitteln. Dieser Low-Level-Controller ist kein neuronales Netz und stützt sich stattdessen auf eine Reihe präziser, physikalischer Gleichungen, die die Bewegung des Roboters beschreiben.

«Die Hierarchie, einschliesslich des Einsatzes dieses Low-Level-Controllers, ermöglicht es uns, das Verhalten des Roboters einzuschränken, so dass er sich besser benehmen kann. Mit diesem Low-Level-Controller verwenden wir gut spezifizierte Modelle, denen wir Beschränkungen auferlegen können, was bei einem lernenden Netzwerk normalerweise nicht möglich ist», sagt Margolis.

Dem Netzwerk beibringen

Zum Trainieren des High-Level-Controllers verwendeten die Forscher die Trial-and-Error-Methode, die als Reinforcement Learning bekannt ist. Sie führten Simulationen durch, in denen der Roboter über Hunderte von verschiedenen, unregelmässigen Terrains lief und für erfolgreiche Überquerungen belohnt wurde.

Mit der Zeit lernte der Algorithmus, welche Aktionen die Belohnung maximierten.

Dann bauten sie ein physisches, lückenhaftes Gelände mit einer Reihe von Holzplanken und testeten ihr Kontrollschema mit dem "Mini-Cheetah".

«Es hat wirklich Spass gemacht, mit einem Roboter zu arbeiten, der von einigen unserer Mitarbeiter am MIT entwickelt wurde. "Cheetah" ist eine grossartige Plattform, weil er modular aufgebaut ist und grösstenteils aus Teilen besteht, die man online bestellen kann. Wenn wir also eine neue Batterie oder eine neue Kamera brauchten, mussten wir sie nur bei einem regulären Lieferanten bestellen und mit ein wenig Hilfe aus Sangbaes Labor einbauen», sagt Margolis.

Die Schätzung des Roboterzustands erwies sich in einigen Fällen als Herausforderung. Anders als in der Simulation stossen die Sensoren in der realen Welt auf Rauschen, das sich anhäufen und das Ergebnis beeinflussen kann. Bei einigen Experimenten, die eine hochpräzise Platzierung der Füsse erforderten, verwendeten die Forscher daher ein Motion-Capture-System, um die tatsächliche Position des Roboters zu messen.

Ihr System übertraf andere Systeme, die nur einen Controller verwenden, und der "Mini-Cheetah" überquerte 90 Prozent des Geländes erfolgreich.

«Eine Neuheit unseres Systems ist, dass es den Gang des Roboters anpasst. Wenn ein Mensch versuchen würde, über eine sehr grosse Lücke zu springen, würde er vielleicht zuerst sehr schnell laufen, um Geschwindigkeit aufzubauen, und dann beide Füsse zusammennehmen, um einen wirklich kraftvollen Sprung über die Lücke zu machen. Auf dieselbe Weise kann unser Roboter den Zeitpunkt und die Dauer seiner Fusskontakte anpassen, um das Gelände besser zu überqueren», sagt Margolis.

Sprung aus dem Labor

Die Forscher konnten zwar nachweisen, dass ihr Kontrollschema im Labor funktioniert, aber sie haben noch einen langen Weg vor sich, bevor sie das System in der realen Welt einsetzen können, sagt Margolis.
(fest/pd)
publiziert: Donnerstag, 21. Oktober 2021 / 14:35 Uhr , aktualisiert: Donnerstag, 21. Oktober 2021 / 14:42 Uhr

KI ermittelt die nächsten Designerdrogen

Forscher der University of British Columbia (UBC) und der University of Alberta haben Computer so trainiert, dass sie die nächsten Designer-Medikamente vorhersagen können, noch bevor sie auf dem Markt sind.
weiterlesen

Künstlicher Geruch zur Kontrolle der Lebensmittelqualität

Forscher des IBEC in Zusammenarbeit mit der Universität Córdoba haben kürzlich eine Studie veröffentlicht, in der sie Protokolle entwickeln, die den Einsatz einer Technik optimieren, die in der Lage ist, auf molekularer Ebene Substanzen zu analysieren, die im Aroma von Lebensmitteln vorhanden sind, und die es ermöglicht, Schinkenproben von iberischen Schweinen zu unterscheiden, die mit Eicheln oder Futter gefüttert wurden.
weiterlesen

KI erkennt die Geologie des Untergrunds

Forscher vom Los Alamos National Laboratory (LANL) haben als erste ein auf maschinellem Lernen basierendes seismisches Bildgebungsverfahren erfolgreich auf reale Daten angewendet. Sobald dieses Modell vollständig trainiert ist, kann es die Berechnungszeit erheblich verkürzen und genauere Modelle der Untergrundgeologie liefern.
weiterlesen

Algorithmus erkennt Selbstmord gefährdete Jugendliche

Forscher der Brigham Young University, der Johns Hopkins University und der Harvard University haben einen Algorithmus entwickelt, der Selbstmordgedanken und -verhalten bei Jugendlichen mit 91 %iger Genauigkeit vorhersagen kann.
weiterlesen

Mit maschinellem Lernen den Seetang retten

In einem Graduiertenprojekt für Maschinenbau am MIT (Massachusetts Institute of Technology) entwickelte ein Team um die Medienwissenschaftlerin Charlene Xia ein Projekt zur Vorhersage und Verhinderung der Ausbreitung von Krankheiten in der Aquakultur. Das Team konzentrierte sich dabei insbesondere auf Algenfarmen.
weiterlesen

KI und Live-Mobilfunkdaten sagen Covid-19-Einweisungen voraus

Eine Studie in schwedischen Krankenhäusern unter der Leitung von Ericsson, dem Telekommunikationskonzern Telia und dem Universitätskrankenhaus Sahlgrenska nutzt künstliche Intelligenz (KI) und Mobilfunkdaten, um ein genaues Prognosemodell für die kurzfristige Aufnahme von Covid-19-Patienten in Krankenhäusern 14 bis 21 Tage im Voraus zu erstellen.
weiterlesen

Ernteroboter erkennen dank LED die reifen Früchte

Ein neuartiges Kamerasystem mit aktiver Beleuchtung, das von Forschern der Penn State University entwickelt wurde, könnte ein entscheidender Schritt bei der Entwicklung von Bildverarbeitungssystemen sein, die es Robotern ermöglichen, besser zu ernten.
weiterlesen

Nach Katastrophen: KI erkennt zerstörte Häuser

Steht unser Haus noch? Diese Frage stellen sich Menschen auf der ganzen Welt, die Opfer von Waldbränden wurden. Dies festzustellen war nicht einfach, doch nun können - sobald sich der Rauch für Luftaufnahmen verzogen hat, Gebäudeschäden innerhalb Minuten erkannt werden.
weiterlesen

Zweibeiniger Roboter «Cassie» läuft 5 Kilometer

Das zweibeinige Laufroboter-Modul «Cassie» von der Oregon State University (OSU) und Agility Robotics hat einen neuen Rekord aufgestellt: Es legte eine Strecke von 5 Kilometern in etwas mehr als 53 Minuten zurück - und das ohne Hilfe und mit nur einer Batterieladung.
weiterlesen

Sich mit Hilfe von Robotern anziehen

Wissenschaftler des Computer Science and Artificial Intelligence Laboratory (CSAIL) des MIT haben kürzlich einen neuen Algorithmus entwickelt, der einem Roboter hilft, effiziente Bewegungspläne zu finden, um die körperliche Sicherheit seines menschlichen Gegenübers zu gewährleisten.
weiterlesen