Person mit EEG-Kappe vor Bildschirm.

Der zögernde Roboter


Autor*in: Insa Vogt

Inwiefern können Menschen den Angaben eines Roboters besser folgen, wenn er Sprechpausen macht oder Fülllaute erzeugt? Darum geht es in einer neuen Studie der Universitäten Bielefeld und Bremen.

In der Studie wurden die Gehirnwellen von Teilnehmenden mittels Elektroenzephalographie (EEG) aufgezeichnet, während sie via Bildschirm mit einem Roboter interagierten. Für die Untersuchung wurden Labore in Bielefeld und Bremen zusammengeschaltet – genutzt wurde dafür die Bremer LabLinking-Methode.

In Gesprächen ist es normal, dass eine Person ins Stocken gerät, weil sie abgelenkt ist oder nachdenkt. Wie wirkt es sich aus, wenn Roboter in Gesprächen mit Menschen dieses Verhalten imitieren? Und welchen Einfluss hat das auf das Erinnerungsvermögen beim Menschen? Das hat ein Forschungsteam der Universitäten Bielefeld und Bremen analysiert. Für die Studie kooperierten die Arbeitsgruppen von Professorin Dr. Britta Wrede von der Medizinischen Fakultät OWL der Universität Bielefeld und von Professorin Dr. Tanja Schultz vom Fachbereich Informatik und Mathematik der Universität Bremen. Wredes Arbeitsgruppe ist auf Medizinische Assistenzsysteme spezialisiert. Die Gruppe von Schultz befasst sich mit Kognitiven Systemen.

Bild von Prof'in Wrede
Die Informatikerin Professorin Dr. Britta Wrede von der Universität Bielefeld brachte in die Studie ihre Expertise in Versuchen mit dem Roboter Pepper ein.

Die Bielefelder und Bremer Wissenschaftler*innen erforschen seit Februar 2022 gemeinsam, ob sich die EEG-Ströme im menschlichen Gehirn bedeutsam ändern, wenn es in einer Mensch-Roboter-Interaktion zu Ablenkungen und Zögern kommt. Daraus sollen Schlussfolgerungen über das Erinnerungsvermögen und Lerneffekte bei Menschen gezogen werden.

Studie ahmt reale Gesprächssituation nach

„In der Regel herrschen in Laborsituationen Idealbedingungen. In diesen Fällen finden Mensch-Roboter-Interaktionen ohne Ablenkung statt“, sagt Britta Wrede. „Unser Ziel ist, ein System mit einem virtuellen Roboter zu entwickeln, das nah an der Realität ist. Gesprächspartner*innen sind nicht immer bei der Sache. Unser Roboter soll auf solche Unachtsamkeit reagieren können“, sagt Wrede. „Für die Studie haben wir einen standortübergreifenden Mensch-Roboter-Interaktionsaufbau entwickelt, der es ermöglicht, Hirnsignale von Versuchsteilnehmenden zu messen, während sie mit einem Roboter interagieren“, sagt Tanja Schultz. „So können wir die zugrundeliegenden kognitiven Prozesse besser verstehen.“

Bild von Prof'in Schultz
Die Informatikerin Professorin Dr. Tanja Schultz von der Universität Bremen entwickelte die LabLinking-Methode, die essenziell für diese Studie war.

Gehirnaktivitäten sind im abgelenkten Zustand anders

In der Studie agierten die Versuchspersonen in einer Videobesprechung mit dem Roboter und wurden Störgeräuschen ausgesetzt. „Um die Aufmerksamkeit einer abgelenkten Person wieder zurückzuholen, hörte der Roboter auf zu reden, er zögerte in seiner Sprachäußerung oder unterbrach zum Beispiel mit ,Äh‘ oder anderen Fülllauten.“

Das Live-Video des Roboters Pepper aus Britta Wredes Labor an der Universität Bielefeld wurde in Tanja Schultz’ Lab an der Universität Bremen übertragen. Dort folgte eine Versuchsperson den Anweisungen des Roboters, den sie auf einem Bildschirm sah. Pepper erklärte, wie die Versuchsperson bestimmte Dinge auf dem Tisch anordnen soll. Die Person wurde zum Beispiel durch Geräusche im Labor in Bremen abgelenkt, der Roboter in Bielefeld zögerte oder unterbrach seine Anweisungen. Die Versuchsperson in Bremen trug eine EEG-Kappe, um ihre Hirnströme aufzeichnen und auswerten zu können. „Unsere Annahme war, dass im EEG Unterschiede zu sehen sind, wenn der Roboter häsitiert, also in seinen Vorgaben zögert, und wenn er keine Sprechpausen macht“, sagte Britta Wrede. Die Annahme hat sich bestätigt. Tanja Schultz meint dazu: „Die Ergebnisse unserer Studie mit zwölf Personen zeigen, dass die EEG-Korrelate im abgelenkten Zustand anders sind als im Ausgangszustand ohne Ablenkungen.“

Person mit EEG-Kappe vor Bildschirm.
Den Versuchspersonen in Bremen wurde eine EEG-Kappe angelegt, um ihre Gehirnströmungen während des Versuchs zu messen.

Welche Rolle spielte die LabLinking-Methode?

Um das Experiment umzusetzen, nutzten die Forschenden die LabLinking-Methode, die von Tanja Schultz erfunden wurde. „Die Methode ermöglicht die interdisziplinäre gemeinsame Forschung zwischen entfernten Experimentierlabors“, sagt Schultz. „Ohne LabLinking hätte diese Studie nicht durchgeführt werden können, denn wir mussten die individuellen Fachkenntnisse und Geräte der beiden beteiligten Forschungsteams und Labore in Echtzeit miteinander verknüpfen, um das Ziel gemeinsam zu erreichen.“

Schultz zufolge zeigt die Studie, dass LabLinking die Durchführung von Mensch-Roboter-Interaktions-Studien in entfernten Labors ermöglicht. „Das schafft eine erste Basis für tiefergehende Forschungen zu robotischem Scaffolding – dem neuen Ansatz, wie Roboter an ihnen unbekannte Aufgaben herangeführt werden können“, so Schultz. „Die Roboter erhalten vom Menschen eine erste Orientierung für die neue Lernsituation und eignen sich damit selbstständig die jeweilige Aufgabe an.“

Wie bei allen LabLinking-Studien werden die Ergebnisse in der offenen Plattform „OpenEase“ Forschenden weltweit zur Verfügung gestellt. Eine Stärke der Plattform: „Wir können aus dieser Datenbank Informationen über die menschlichen Aktivitäten ziehen, damit Roboter in Zukunft besser menschliche Aktivitäten ausführen können und lernen, zu verstehen“, sagt Schultz.

In Zukunft gilt es noch weiter zu erforschen, inwieweit das Zögern oder Unterbrechen vom Roboter bei Ablenkungen oder Störeinflüssen wie Geräuschen auch zu einem besseren Aufgabenverständnis beim Menschen führt und inwieweit dies im EEG sichtbar wird. „Wir wollen erreichen, dass der Roboter selbst merkt, ob sein Zögern für den Lernerfolg des Menschen hilfreich ist oder nicht und sein Verhalten entsprechend anpassen kann“, sagt Britta Wrede. Diese Kenntnisse könnten zum Beispiel für Pflegesituationen genutzt werden. „Der Roboter merkt dann in der Interaktion mit einem Menschen mit Demenz, wo dieser Unterstützung, also zum Beispiel einfach mehr Zeit für die Verarbeitung des Gesagten, braucht.“ Dabei solle die Selbstständigkeit des Menschen erhalten und gefördert werden. „Der Roboter gibt deshalb nur gerade so viel Hilfe wie nötig“, sagt Wrede.

Offenes Wissen für KI-basierte Roboter

Der webbasierte Wissensdienst OpenEASE stellt Aktivitätsdaten bereit, wie Roboter und Menschen Aufgaben bewältigen. Dazu gehören Daten zur Manipulation von Objekten, einschließlich der Umgebung, in der der Roboter oder Mensch agiert. Das können zum Beispiel Daten zum Öffnen eines Pakets oder zum Servieren einer Mahlzeit sein. Die Episodendarstellungen können vom Roboter erfasste Bilddaten, weitere Sensordatenströme sowie Körperhaltungen des Roboters oder des Menschen enthalten. Wenn Roboter eine Aufgabe erledigt haben, können mit Hilfe der Daten Fragen dazu beantwortet werdet, wie die Aufgabe zu benennen ist, wie sie abgelaufen ist und was sie gesehen haben. Die Datenbank ist weltweit frei zugänglich. Menschen können die Plattform über Internetbrowser erreichen, Robotern können sie über eine eigene Schnittstelle – via WebSocket-Protokoll – verwenden.