Zum Inhalt springen

Roboter soll eigenständig laufen lernen

  • von

Deep-Learning-Algorithmen haben den Nachteil, dass sie mit Schätzungen arbeiten, sodass Anwendungen, die einen hohen Grad an Sicherheit brauchen, damit nicht funktionieren können. Ein Forschungsprojekt will das ändern und mit einer neuen Methode einem humanoiden Roboter selbstständig das Laufen beibringen, also selbstständig komplexe Bewegungen lernen – dazu müssen Deep-Learning-Algorithmen mit verlässlichen mathematischen Regeln kombiniert werden. Das Projekt will Steuerungssysteme auf Basis von Künstlicher Intelligenz näher an die Fähigkeiten des Menschen rücken.

Deep Learning, ein Teilbereich des maschinellen Lernens, wird oft als Schlüsseltechnologie für die Künstliche Intelligenz (KI) bezeichnet, poblematisch ist aber, dass durch subsymbolische Verfahren der Deep-Learning-Algorithmus geschätzte Werte aus dem Training in der Simulation zieht. Damit bieten die Schlussfolgerungen der Verfahren keinen hohen Grad an Sicherheit. Viele Bereiche, die einen hohen Grad an Sicherheit erfüllen müssen, können somit nicht mit KI ergänzt werden.

Bremer Forschungsbereiche des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) arbeiten deshalb an einer neuen Methode, um die Vorteile von schnellem, eigenständigem Lernen und verlässlicher Verifikation zu kombinieren. Das Projekt dahinter, „Very Human“, will Steuerungssysteme auf Basis von KI näher an die Fähigkeit des Menschen rücken. Um das direkt zu überprüfen, wird die neue Methode an einem humanoiden Roboter getestet, der aufrecht und stabil gehen soll. Sollte die Methode funktionieren, kann der Roboter auch komplexere Bewegungen durchführen und Rennen oder Springen erlernen können.
Das Risiko selbstlernender Systeme

Um einem humanoiden Roboter mittels Künstlicher Intelligenz das Laufen zu lehren, kann man nicht ausschließlich geschätzte Werte des Deep-Learning-Algorithmus einsetzen. Die Anwendung muss auch mathematische, physikalische und statistische Modelle berücksichtigen, damit kein Fehler passiert.

Das Problem dabei: Die Kombination von subsymbolischen, selbstlernenden Algorithmen und solchen, die auf mathematischen Regeln und Abstraktionen basieren, hat sich als schwierig erwiesen. Die Entscheidungen, die ein Deep-Learning-Programm trifft, basiert nicht auf Berechnungen, somit können sie auch nicht durch logische Regeln erklärt werden. Um eine neue Methode dafür zu finden, arbeiten im Projekt zwei unterschiedliche Forschungsbereiche zusammen: Das Robotics Innovation Center (RIC) unter Leitung von Prof. Frank Kirchner und der Forschungsbereich Cyber-Physical Systems (CPS) von Prof. Rolf Drechsler wollen die Vorteile beider Ansätze kombinieren.

Die Forscher stehen bei diesem Projekt vor drei Herausforderungen:

  • Erstens gibt es keine standardisierten physikalischen Modelle für die mechanischen und kinematischen Eigenschaften eines humanoiden Systems, das sich – aufgrund ebenjener physikalischen Eigenschaften – nicht nur auf Trainingsdaten verlassen kann.
  • Zweitens sind die Ergebnisse des Systems, sollte es sich nur auf sein Training und keine standardisierten Modelle verlassen, nicht verifizierbar – das System würde sich wie eine Black Box verhalten.
  • Die dritte Herausforderung ist deshalb die mathematische Beschreibung des robotischen Systems – der Schlüssel zu seiner Verifikation und der erfolgreichen Anwendung von Reinforcement Learning, bei dem das System dafür belohnt wird, das mathematisch korrekte Ergebnis zu erlangen.

Das Projekt ist auf drei Jahre angelegt und wird vom Bundesministerium für Bildung und Forschung mit knapp 1,3 Millionen Euro gefördert.

Quelle

https://idw-online.de/de/news?print=1&id=755696


Nachricht ::: Soziale Robotik ::: Impressum
Datenschutzerklärung ::: © Benjamin Stangl :::