1. Oktober 2002

[ Robotik ]

Informatik 2002 (Dortmund): Robotik

(Ursprünglich veröffentlicht im eBiz Weblog) Habe mir gerade ein Vorrundenspiel im Roboterfu?ball angesehen, Ljubliana (spelling?) gegen Wien. Nach der ersten Halbzeit führen die Slowenen 6:1. Was diese Robopter z.B. im Vergleich von vor zwei Jahren für Fortschritte gemacht haben, ist beeindruckend. Sie dribbeln, passen, haben ein Stellungsspiel, k?nne zum Teil sich richtig per "K?rpereinsatz" durchsetzen (das slowenische Team spielt eher eine Art American Football! Da sperren Roboter, die gerade nicht am Ball sind, gegnerische Spieler, damit diese den Dribbler nicht erreichen k?nnen... phantastisch!).

Bevor es zu den Vortr?gen geht, ein kurzer Disclaimer: Meine Notizen sind noch ziemlich "rough" und hier unter gro?em Zeitdurck zusammengetippt. Es stecken bestimmt noch viele Tippfehler drin und es fehlen jede Menge Links zum Nachschlagen. Ich werden die Nachtragen und die Artikel in den n?chsten Tagen noch "sch?ner" machen... bis dahin googlet bitte selbst hinter den Referenten her, da finden sich eine Menge interessanter Dinge. Das kompülette Programm steht auf der Kongress-Website.

Der erste Vortrag kam von Rodney Brooks vom MIT, wohl am bekanntesten durch das KISMET-Projekt.
In seiner Einführung stellte er fest, dass wir in der Anwendung von Robotern im Privatumfeld heute praktisch auf der gleichen Stufe wie 1978 stehen: Es gibt Spielzeuge (Furbies, Aibos etc), Bauk?sten (Mindstorms etc), "Hacker Clubs" - aber keine ernstzunehmenden Anwendungen. Er meinte, dass wenn man die Prognosen von damals sieht und mit der Situation heute vergleicht, man davon ausgehen k?nnte, dass unsere Prognosen von heute sich künftig als ebenso falsch erweisen werden - eine interessante Position für einen Roboterforscher.

Er sprach über die nun erscheinenden ersten "Home Robots", wie z.B. den Trilobite oder den irobot. Eine kleine Anekdote zu diesen Staubsaugern: Diese Roboter sind so flach, dass sie auch unter Betten fahren k?nnen. Das führte bei der Entwicklung angeblich zu einer Vergrößerung des Staubbeh?lters gegenüber der ursprünglichen Planung, da unter Betten nie jemand sauber macht und demzufolge dort verdammt viel Staub liegt...

Brooks Sicht von Autonomen Robotern sieht eine Lokale Intelligenz vor, die über ein Netzwerk (think: Latenzzeiten und Verz?gerungen) an eine kontrollierende menschliche Instanz angeschlossen ist.

In Bilder und Videos zeigte er einige Beispiele für am MIT entwickelte Konzepte und Prototypen:
In einem Beispiel machte sich ein Vater im Büro Sorgen, dass bei ihm zu Hause niemand ans Telefon ging. Also schickte er via Internet den Home-Roboter (eine Art Staubsauger mit ET-Hals, auf dem zwei Augen sitzen, recht drollig) los. Dieser f?hrt ins Wohnzimmer und entdeckt die Ursache der "St?rung": Die Tochter liegt auf dem Sofa und h?rt über Kopfh?rer wohl so laut Musik, dass sie das Telefon überh?rt hat. Der Roboter übertr?gt das Videobild zum beruhigten Vater, die Tochter grinst in die Kameraaugen des Robots. Nett.

In einem anderen Beispiel nutze ein sich auf Gesch?ftreise befindender Vater einen Heimroboter um sich "virtuell" ans Bett seine Kindes zu versetzen und mit ihm zu sprechen.

Auch ein klassisches "Remote Presence" bei der Reparatur eines Computers wurde gezeigt: Ein Experte versetzt sich mittels eines Roboters an den Ort, an dem ein Anwender Hilfe braucht. Er kann akustisch mit ihm kommunizieren, per Viedeo sehen, was passiert und auf was der Anwender zeigt und mit einem Laserpointer am Robot auch selbst zeigen ("Nimm dieses Kabel").

Sehr beeindruckend waren die milit?rischen Anwendungen, von denen einige Bilder auch schon im Fernsehen zu sehen waren (die Roboter des MIT werden z. Zt. in Afghanistan eingesetzt). Die Dinger sehen aus wie ein Notebook mit zwei Kettenr?dern, k?nnen irrsinnig schnell fahren, sich selbst aufrichten und werden, mit Kameras ausgestattet, zur Aufkl?rung eingesetzt (sie k?nnen wohl auch Sprengstofffe ablegen). Sie basieren auf Linux (Grinsen im Publikum) und kosten 45.000 Dollar das Stück.

Dann ging es um KISMET: Brooks hatte eine sehr charmane Erkl?rung, warum es wichtig ist, dass Roboter auf Menschen eingehen k?nnen: "They move around and some of them will be quite big - we _need_ them to care about us!".

Er stellte das visuelle und das emotionale System des Roboters vor. Ersteres basiert auf einem additiven Modell der drei Komponenten skin tone, color und motion. Letzteres basiert auf einem dreidimensionalem Emotionsraum, in dem Kismet sich immer an genau einem Punkt befindet. (Das erscheint mir eher wie ein Kompromiss, um das Verhalten gut beobachten zu k?nnen, aber nicht wie ein wirklich befriedigendes Modell für die Zukunft.)

Zur Zeit funktioniert noch kein "richtiges" Gespr?ch mit Kismet - er "versteht" nicht. Aber er gibt k?rperliches Feedback. (Ich spare mir hier eine Beschreibung des Projekts - bitte auf der Website nachschauen!) Es entsteht ein "Proto-Dialog": "Conversation built on top of social interaction".

Brooks erkl?rte auch das sog."Scasselati" Aufmerksamkeits-Modell. Es basiert auf visuellen Eindrücken. Der Robot entscheidet ob ein Objekt lebendig/nicht lebendig ist. Ist es lebendig, sucht er nach den Augen des Objekts und versucht, "Augenkontakt" aufzunehmen.

Brooks zeigte, wie einem Roboter verschiedene Formen des Umgangs mit Objekten beigebracht wurden. Der Roboter lernte das unterschiedliche Rollverhalten eines Balls, einer Flasche, eines Spielzeugautos und verschiedene Manipulationsformen, wie den "Griff von oben", "Sto? von der Seite" etc. was mich sehr beeindruckte. Der Roboter hatte eine Art "Verst?ndnis" für die Dinge entwickelt, er konnte ihre Achsen identifizieren und sie gezielt manipulieren. ("Wenn ich eine Flasche von der Seite schlage, rollt sie schnell weg,", "wenn ich eine flasche von der unterseite schlage, rutscht sie ein wenig bzw. rotiert sie").

Zukünftige Anwendungensfelder für Autonome Roboter liegen laut Brooks in 3 feldern:
- "Navigation plus side-effects" (z.B. Rasenm?hen, Hausreinigung, Gep?cktr?ger)
- Landwirtschaft (z.b. zur Automation von Pflügen und M?hdreschern)
- Für flexible, kostengünstige Fabrikation einfacher Produkte (das, was zur Zeit von billigen Arbeitskr?ften in dritte Welt Statten erledigt wird)

Eine der wichtigsten Herausforderungen liegt für Brooks darin, den Robotern beizubringen, Objekte "gefühlvoll" zu manipulieren, d.h. z.B. sie anzufassen und zu bewegen anstatt sie nur herumzuschubsen.
​ ​​​​Weiter im Text. Um die Robotik abzuschlie?en: Es gab noch zwei weitere Vortr?ge, einen von Masayuki Inaba von der Uni Tokio, der einen geschichtlichen ?berblick über die Robotik der letzten 20 Jahre gab und sein Konzept der Trennung von "Hirn" und "K?rper" erl?uterte (sein Vortrag hie?: Building bodies for remote brains. In seinem Steuerungsmodell gibt es zwei Schichten, "Hirn" und "K?rper", die durch eine Interfacedefinition verbunden sind. Das "Hirn" hat ein Bild der K?rpers in sich und gibt die Steuerungsbefehle ab. Er hatte einige sehr eindrucksvolle Beispiele von nach zweibeinigen, sehr agilen Robotern.

Problematisch ist heutzutage noch, den ganzen K?rper als Sensor einzusetzen: 1) Weiches, sensorisches Material ist sehr aufw?ndig in der Herstellung, 2) die Kabel müssen irgendwo verlegt werden, 3) Expansion und Kontraktion wirken und 4) es gibt ein Identifikationsproblem: Das Hirn muss ja entscheiden, von wo der sensorische Eindruck kommt - das ist bei einer gro?en Fl?che schwierig.

Rolf Pfeiffer von der Uni Zürich sprach über Embodied artificial intelligence ("on the role of morphology and materials for intelligent behaviour") und hielt ein Pl?doyer für ein Konzept, in dem durch die Konstruktion und die Materialeigenschaften eines Roboters, viel Computer-Power gespart werden kann. Er zeigte das eindrucksvoll an einem Roboter, der sehr natürlich auf zwei Beinen laufen konnte, ohne irgendeine Intelligenz zu besitzen - einfach durch seine (auch noch recht simple) Konstruktion (knickende Kniegelenke, gro?e Fü?e, weiche Hacken, Material mit hoher Reibung unter den Sohlen, Gegen-Pendelbewegung der "Arme").

Beeindruckend waren auch die "Swiss Robots", kleine, herumfahrende K?sten, die scheinbar herumstehende Styroporwürfel gruppierten. In Wirklichlichkeit besa?en sie nur die Intelligenz nach links auszuweichen, wenn ihr rechter Sensor etwas wahrnahm und umgekehrt. Durch die Bauart des Roboters, führte das dazu, dass Bl?cke gruppiert wurden. (Das hier genauer ohne Bilder zu erkl?ren, ist ziemlich mühsam - probiert's mal selbst aus!)

"Physics is for free" meinte Pfeifer und zeigte auf, dass viele Aufwand gespart werden kann und viele Fehlerquellen ausgeschlossen werden k?nnen, wenn die Morphologie der Roboter richtig ausgenutzt wird. "Cheap Design" nannte er das.
Trackbacks sind Links von anderen Weblogs auf diesen Eintrag.

In his Wednesday Keynote, Malik Ghallab gave An Overview of Planning Technology in Robotics. He started with an overview of the current state of Service Robots, Field Robots and Personal Robots. The mindmap explains the three different kinds of robots....

Informatik 2004: Keynote: Malik Ghallab on Planning Technology in Robotics (24.09.04 15:57)