Hamburg . Hamburger Hirnforscher untersuchen unsere Wahrnehmung, um neuartige Verhaltensprogramme für Maschinen zu entwickeln

Der Ausgang des Labyrinths ist auf einen Blick zu erkennen, der Weg dorthin auch schnell erfasst, trotzdem scheitern wir schon kurz nach dem Start. Es geht bei dem Spiel auf einem Tablet darum, eine Kugel über den Parcours zu bugsieren, wobei bis zum Ziel etliche Löcher zu umschiffen sind. Die Bewegung der Kugel lässt sich durch Kippen und Drehen des ­Mobilgeräts steuern. Alleine wäre diese Aufgabe relativ leicht zu meistern, doch es gibt noch einen Mitspieler, der gemeinsam mit uns das Tablet hält, kippt und dreht, was unsere Bewegungsfreiheit erheblich einschränkt.

Und … plumps! Schon wieder ist die Kugel in einem Loch gelandet. „Gar nicht so einfach, ich weiß“, sagt Alexander Maye und verkneift sich ein Grinsen. Es dauert einige Minuten, bis das „einschwingen“ besser klappt. So nennt der Wissenschaftler einen Vorgang, bei dem sich Menschen ohne Worte einander anpassen sollen. Den „Wir-Modus“. In einer Pilotstudie mit 14 Teilnehmern haben Maye und seine Kollegen vom Uniklinikum Eppendorf (UKE) bereits gezeigt, dass sich die Muskel­aktivität der Spieler synchronisiert, es also zu einer Kopplung kommt. Als nächstes werden sie untersuchen, ob sich dieser Vorgang auch im Gehirn nachweisen lässt.

Flughafen Düsseldorf: Roboter parken Autos

weitere Videos

    Maye, 46, ist Informatiker, aber er arbeitet seit Langem an der Schnittstelle zu den Neurowissenschaften. Ihn faszinieren die verblüffenden Leistungen unseres Denkorgans, ­deren Entstehung oft noch rätselhaft ist. Als Mitarbeiter des Instituts für Neurophysiologie und Pathophysiologie kann Maye seine Studien nun mit neuem Fördergeld vorantreiben. Denn die Einrichtung ist seit Kurzem federführend bei einem Forschungsprojekt, an dem acht Teams aus vier Ländern beteiligt sind. Die EU unterstützt die Experimente in den nächsten vier Jahren mit fast 3,8 Millionen Euro. Davon entfallen mehr als 900.000 Euro auf Hamburg.

    Auch Unternehmen sind dabei, unter ihnen die Firma PAL Robotics in Barcelona. Denn zu den Zielen des Projekts gehört es nicht nur, das Gehirn besser zu verstehen und nachzuvollziehen, wie es funktioniert, dass Menschen einander verstehen und gemeinsam handeln, ohne sich verbal auszutauschen. Vielmehr hoffen die Forscher auch darauf, die Ergebnisse auf Roboter übertragen zu können. Sie wollen Maschinen sensibel werden lassen für menschliche Bewegungen und Gesten und ihnen die Fähigkeit verleihen, die Bewegungen ihres Gegenübers vorauszuahnen. „Stellen Sie sich vor, Sie wollen mit einem Roboter zusammen bei einem Umzug Möbel durch ein enges Treppenhaus tragen, selbstverständlich ohne anzuecken“, sagt Instituts­direktor Prof. Andreas K. Engel. „Zwei Menschen schaffen das schweigend, die Kommunikation und die Abstimmung der Bewegungen aufeinander klappen wie von selbst.“

    Tausende Arbeitsplätze könnten geschaffen werden

    Befürworter solcher Forschungen argumentieren, dass Roboter den Menschen künftig an vielen Stellen unterstützen könnten, etwa im Haushalt oder in der Altenpflege. Und für ihre Entwicklung und Herstellung könnten tausende Arbeitsplätze geschaffen werden. Kritiker hingegen argumentieren, dass der Einsatz von Robotern unterm Strich mehr Arbeitsplätze vernichten könnte. UKE-Informatiker Alexander Maye kann beide Seiten verstehen, aber er sagt: „Es ist ja an uns Menschen, zu entscheiden, wo und in welchem Maße wir Roboter einsetzen wollen.“

    Man darf das Projekt durchaus gewagt nennen. Denn die Studien der Wissenschaftler basieren auf einer noch jungen Theorie. Entworfen wurde sie zu Beginn der 2000er-Jahre von dem Psychologen John Kevin O’Regan und dem Philosophen und Kognitionswissenschaftler Alva Noë. Beide sind Amerikaner. Ihre Überlegungen handeln von Zusammenhängen zwischen Sinnesreiz und Handlung, sogenannten sensomotorischen Kontingenzen.

    Demnach muss unser Gehirn erst lernen, unsere Sinne in einer bestimmten Weise zu nutzen. Um beispielsweise so „sehen“ zu können, das wir nicht nur optische Reize wahrnehmen, sondern unsere Umgebung begreifen, müssen wir der Theorie zufolge erst lernen, wie sich der Bildausschnitt im Auge verändert, wenn wir unseren Körper – also Kopf, Augen oder beides – bewegen. In der Regel laufen diese Lernprozesse schon in ­frühester Kindheit ab. Nach diesem Prinzip versucht die Theorie, Wahrnehmung insgesamt zu erklären: als etwas, das durch unsere Interaktion mit der Umwelt entsteht und nicht durch einen bloßen Input-Output-Prozess.

    Das UKE-Team um Engel und Maye will erproben, ob sich die Theorie auf soziale Interaktion übertragen lässt, ob Menschen also bei gemeinsamen Handlungen die Welt sensomotorisch wahrnehmen und sich dabei unbewusst einander anpassen, gesteuert von ihren Gehirnen. „Eine Vorhersage ist, dass ein gesteigertes Wir-Empfinden mit einer solchen Kopplung einhergeht, die sich im Gehirn zeigen sollte“, sagt Alexander Maye.

    Das heißt: Wenn die Forscher bei ihren Probanden während des Geschicklichkeitsspiels ähnliche Aktivitäten in bestimmten Hirnregionen nachweisen könnten und die Befragung der Probanden ergäbe, dass sie ein gesteigertes Wir-Empfinden hatten, ließe sich die Theorie damit untermauern. Eine weitere Herausforderung ist, den Ursprung einer solchen Hirnaktivität genau zu lokalisieren. Das hat damit zu tun, dass die Haut elektrisch leitend ist. Wenn mit Elektroden am Kopf an einer bestimmten Stelle ein Signal erfasst wird, kann es aus einer ganz anderen Hirnregion kommen.

    Ein Roboter kann nicht mit unvorhergesehenen Situationen umgehen

    Wie aber ließen sich die Erkenntnisse auf einen Roboter übertragen? Schließlich haben Roboter kein Gehirn aus Nervengewebe und Blut. „Vielleicht können wir Roboter so programmieren, das sie zumindest ähnlich wie Menschen sensorische Effekte beobachten können, diese in Beziehung setzen und benutzen, um eigene Aktionen zu planen“, sagt Maye.

    Bisher basiert das „Betriebs­system“ von Robotern auf Wenn-dann-Szenarien. Beispiel: Wenn der Roboter auf einen Gegenstand zusteuert, soll er vor diesem stoppen, um eine Kollision zu vermeiden. Je mehr unterschiedliche Situationen bei der Programmierung des Roboters bedacht wurden, desto „schlauer“ kann er handeln. „Das Problem ist aber, dass ein solcher Roboter nicht mit unvorhergesehenen Situationen umgehen kann“, erläutert Maye. „Bei unserem Ansatz wollen wir Roboter mit möglichst wenig Vorwissen ausstatten und sie stattdessen während einer Trainingsphase bestimmte Verhaltensweisen lernen lassen.“

    Dazu könnte der Roboter sich in einer Umgebung bewegen, in der Menschen interagieren, und dabei nach dem Zufallsprinzip verschiedene Verhaltensweisen ausprobieren. Zum Beispiel, sich von zwei Menschen wegzubewegen, sie nicht anzugucken. „Ein solches Verhalten würden wir nicht belohnen“, erläutert Maye. „Ein wünschenswertes Verhalten – etwa, in einer bestimmten Situation einem Menschen die Hand zu reichen – dagegen schon.“ Belohnen heißt, dass die Algorithmen darauf ausgerichtet sind, dass der Roboter auf jede Entscheidung, die sich als richtig erweist, ein positives Feedback bekommt. Dann kann er versuchen, die Belohnungen zu maximieren.

    Völlig selbstständig lernt also auch ein solcher Roboter nicht, er braucht den Menschen während seines Trainings. Trotzdem glauben die Forscher, dass die Maschine durch das Lernen in realen Situationen einen größeren Satz an möglichen Verhaltensweisen erwirbt und eher in der Lage ist, auf unvorhergesehene Situationen zu reagieren als ein Roboter, der sich auf ein vorher programmiertes Wissen stützt. Außerdem spare diese Methode Zeit und sei billiger, sagt Alexander Maye: „Unser Roboter soll ja nur das lernen, was für seine Funktion wichtig ist.“

    Die Konkurrenz schläft nicht. Der Roboter „Curi“ vom Georgia Institute of Technology lernt gerade, im Wechselspiel mit seinem menschlichen Gegenüber Essen zuzubereiten, wie das Magazin „Geo“ berichtete. Der Roboter „Pepper“ vom japanischen SoftBank-Konzern soll aus Mimik und Stimme eines Menschen dessen Gefühlslage erkennen können.