
Roboter, erkenne Dich selbst: MITs Neuronale Jacobian-Felder lehren Maschinen, ihre Körper zu verstehen
Die Herausforderung: Sensorlastige Roboter
Seit Jahrzehnten verlassen sich Ingenieure auf dichte Netzwerke von Encodern, Potentiometern und anderen Sensoren, um Robotern zu zeigen, wo sich ihre Arme und Gelenke befinden. Diese Geräte überwachen ständig den Winkel und die Geschwindigkeit jedes Motors, damit der Roboter berechnen kann, wie er seinen Körper durch den Raum bewegen muss. Dieser Ansatz funktioniert, ist jedoch mit hohen Kosten verbunden: Er erfordert eine komplexe Verkabelung, sorgfältige Kalibrierung und kann oft ausfallen, wenn ein Sensor beschädigt wird oder sich die Umweltbedingungen ändern. Zusätzlich müssen traditionelle Steuerungsalgorithmen mühsam für jeden neuen Roboter abgestimmt werden, was die Möglichkeit einschränkt, Designs weiterzuentwickeln oder an neue Aufgaben anzupassen. Forscher suchen schon lange nach einer einfacheren Möglichkeit, Maschinen ein Gespür für Propriozeption – die Fähigkeit, die eigene Körperposition und -bewegung zu kennen – zu geben, ohne sie mit Hardware zu beladen.
Einführung der Neuronalen Jacobian-Felder
Im Juli 2025 gab ein Team am Computer Science and Artificial Intelligence Laboratory (CSAIL) des MIT einen Durchbruch namens Neuronale Jacobian-Felder (NJF) bekannt. Anstatt Dutzende von Sensoren zu verwenden, ermöglicht NJF einem Roboter, die Beziehung zwischen seinen Gelenkbewegungen und den resultierenden Bewegungen nur aus visuellen Beobachtungen zu lernen. Mit einer einzigen Kamera, die auf den Roboter gerichtet ist, beobachtet das System den Roboter, wie er sich bewegt, und baut allmählich ein internes Modell auf, wie seine Gelenke die Position seiner Gliedmaßen beeinflussen. Die entscheidende Erkenntnis ist, dass dieses Modell, in der Robotik als Jacobian bekannt, durch ein neuronales Netzwerk dargestellt werden kann, das direkt aus Video-Frames lernt. Sobald das Training abgeschlossen ist, ermöglicht das Netzwerk dem Roboter, zu ermitteln, wie er seinen Körper bewegen muss, um eine gewünschte Position zu erreichen, ohne explizite Messgeräte an jedem Gelenk zu verwenden.
Wie NJF funktioniert
Das NJF-System arbeitet in zwei Phasen. Während der Trainingsphase führt der Roboter zufällige Bewegungen aus, während eine Kamera seine Bewegung aus mehreren Blickwinkeln aufzeichnet. Der Algorithmus verarbeitet diese Bilder, um die Positionen der Gelenke des Roboters in jedem Frame zu schätzen. Anschließend verwendet es diese Daten, um ein neuronales Netzwerk zu trainieren, das den Jacobian approximiert – die mathematische Funktion, die Gelenkgeschwindigkeiten mit Veränderungen der Position des Endeffektors des Roboters verknüpft. Durch das Erlernen dieser Zuordnung erfasst das Netzwerk die kinematische Struktur des Roboters. Sobald das Training abgeschlossen ist, wechselt der Roboter in die Steuerungsphase. Jetzt kann das Netzwerk, wenn die Kamera den aktuellen Zustand des Roboters beobachtet, vorhersagen, wie kleine Veränderungen in jedem Gelenk den Arm oder das Bein des Roboters bewegen werden. Dies ermöglicht es dem Controller, die notwendigen Gelenkbefehle zu berechnen, um eine Zielposition zu erreichen. Da das System ausschließlich auf visuelle Eingaben angewiesen ist, ist es robust gegenüber Änderungen in der Massenverteilung des Roboters oder geringem mechanischen Verschleiß, der normalerweise eine Neukalibrierung erfordern würde.
Vorteile und Anwendungen
Die Auswirkungen von NJF gehen über akademisches Interesse hinaus. Durch den Verzicht auf Encoder an jedem Gelenk können Roboter leichter, günstiger und langlebiger gemacht werden. Ein Roboterarm in einer Fabrik könnte weiterarbeiten, selbst wenn einige Sensoren ausfallen, da er sich auf sein erlerntes Modell verlassen kann, um seinen Zustand abzuleiten. Bei Aufgaben, die in unvorhersehbaren Umgebungen stattfinden – wie Such- und Rettungseinsätze, Weltraumforschung oder landwirtschaftliche Ernte – ist die Fähigkeit, sich ohne manuelle Neukalibrierung anzupassen, entscheidend. NJF eröffnet auch neue Möglichkeiten für die Robotermorphologie. Designer können mit weichen oder modularen Robotern experimentieren, deren Form sich im Laufe der Zeit verändert, in dem Wissen, dass die Maschine ihre eigenen Körperdynamiken durch Vision lernen kann. In der Bildungs- und Hobby-Robotik könnten Schüler bald günstige Roboter bauen, die lernen, sich selbst mit nur einer Webcam zu steuern.
Zukünftige Aussichten
Während NJF noch ein Forschungsprototyp ist, sind seine Schöpfer optimistisch hinsichtlich seiner Zukunft. Die nächsten Schritte umfassen die Verbesserung der Effizienz des Lernprozesses und die Erweiterung der Methode auf Roboter mit komplexeren Gelenken und flexiblen Komponenten. Die Integration von NJF mit taktilen Sensoren und anderen Modalitäten könnte Robotern ein vollständigeres Gefühl ihres Körpers verleihen, vergleichbar mit der Propriozeption von Tieren. Wenn erfolgreich, könnten bildgestützte Steuerungstechniken wie Neuronale Jacobian-Felder grundlegend verändern, wie wir autonome Maschinen entwerfen und einsetzen, sie anpassungsfähiger, widerstandsfähiger und fähiger machen, im realen Leben mit Menschen zusammenzuarbeiten.
Quelle: MIT News