Inwiefern können Menschen den Angaben eines Roboters besser folgen, wenn er Sprechpausen macht oder Fülllaute erzeugt? Darum geht es in einer neuen Studie der Universitäten Bielefeld und Bremen.
In der Studie wurden die Gehirnwellen von Teilnehmenden mittels Elektroenzephalographie (EEG) aufgezeichnet, während sie via Bildschirm mit einem Roboter interagierten. Für die Untersuchung wurden Labore in Bielefeld und Bremen zusammengeschaltet – genutzt wurde dafür die Bremer LabLinking-Methode.
In Gesprächen ist es normal, dass eine Person ins Stocken gerät, weil sie abgelenkt ist oder nachdenkt. Wie wirkt es sich aus, wenn Roboter in Gesprächen mit Menschen dieses Verhalten imitieren? Und welchen Einfluss hat das auf das Erinnerungsvermögen beim Menschen? Das hat ein Forschungsteam der Universitäten Bielefeld und Bremen analysiert. Für die Studie kooperierten die Arbeitsgruppen von Professorin Dr. Britta Wrede von der Medizinischen Fakultät OWL der Universität Bielefeld und von Professorin Dr. Tanja Schultz vom Fachbereich Informatik und Mathematik der Universität Bremen. Wredes Arbeitsgruppe ist auf Medizinische Assistenzsysteme spezialisiert. Die Gruppe von Schultz befasst sich mit Kognitiven Systemen.
© Universität Bielefeld/M. Adamski
Die Bielefelder und Bremer Wissenschaftler*innen erforschen seit Februar 2022 gemeinsam, ob sich die EEG-Ströme im menschlichen Gehirn bedeutsam ändern, wenn es in einer Mensch-Roboter-Interaktion zu Ablenkungen und Zögern kommt. Daraus sollen Schlussfolgerungen über das Erinnerungsvermögen und Lerneffekte bei Menschen gezogen werden.
Studie ahmt reale Gesprächssituation nach
„In der Regel herrschen in Laborsituationen Idealbedingungen. In diesen Fällen finden Mensch-Roboter-Interaktionen ohne Ablenkung statt“, sagt Britta Wrede. „Unser Ziel ist, ein System mit einem virtuellen Roboter zu entwickeln, das nah an der Realität ist. Gesprächspartner*innen sind nicht immer bei der Sache. Unser Roboter soll auf solche Unachtsamkeit reagieren können“, sagt Wrede. „Für die Studie haben wir einen standortübergreifenden Mensch-Roboter-Interaktionsaufbau entwickelt, der es ermöglicht, Hirnsignale von Versuchsteilnehmenden zu messen, während sie mit einem Roboter interagieren“, sagt Tanja Schultz. „So können wir die zugrundeliegenden kognitiven Prozesse besser verstehen.“
© Lehmkühler
Gehirnaktivitäten sind im abgelenkten Zustand anders
In der Studie agierten die Versuchspersonen in einer Videobesprechung mit dem Roboter und wurden Störgeräuschen ausgesetzt. „Um die Aufmerksamkeit einer abgelenkten Person wieder zurückzuholen, hörte der Roboter auf zu reden, er zögerte in seiner Sprachäußerung oder unterbrach zum Beispiel mit ,Äh‘ oder anderen Fülllauten.“
Das Live-Video des Roboters Pepper aus Britta Wredes Labor an der Universität Bielefeld wurde in Tanja Schultz’ Lab an der Universität Bremen übertragen. Dort folgte eine Versuchsperson den Anweisungen des Roboters, den sie auf einem Bildschirm sah. Pepper erklärte, wie die Versuchsperson bestimmte Dinge auf dem Tisch anordnen soll. Die Person wurde zum Beispiel durch Geräusche im Labor in Bremen abgelenkt, der Roboter in Bielefeld zögerte oder unterbrach seine Anweisungen. Die Versuchsperson in Bremen trug eine EEG-Kappe, um ihre Hirnströme aufzeichnen und auswerten zu können. „Unsere Annahme war, dass im EEG Unterschiede zu sehen sind, wenn der Roboter häsitiert, also in seinen Vorgaben zögert, und wenn er keine Sprechpausen macht“, sagte Britta Wrede. Die Annahme hat sich bestätigt. Tanja Schultz meint dazu: „Die Ergebnisse unserer Studie mit zwölf Personen zeigen, dass die EEG-Korrelate im abgelenkten Zustand anders sind als im Ausgangszustand ohne Ablenkungen.“
© Universität Bremen
Welche Rolle spielte die LabLinking-Methode?
Um das Experiment umzusetzen, nutzten die Forschenden die LabLinking-Methode, die von Tanja Schultz erfunden wurde. „Die Methode ermöglicht die interdisziplinäre gemeinsame Forschung zwischen entfernten Experimentierlabors“, sagt Schultz. „Ohne LabLinking hätte diese Studie nicht durchgeführt werden können, denn wir mussten die individuellen Fachkenntnisse und Geräte der beiden beteiligten Forschungsteams und Labore in Echtzeit miteinander verknüpfen, um das Ziel gemeinsam zu erreichen.“
Schultz zufolge zeigt die Studie, dass LabLinking die Durchführung von Mensch-Roboter-Interaktions-Studien in entfernten Labors ermöglicht. „Das schafft eine erste Basis für tiefergehende Forschungen zu robotischem Scaffolding – dem neuen Ansatz, wie Roboter an ihnen unbekannte Aufgaben herangeführt werden können“, so Schultz. „Die Roboter erhalten vom Menschen eine erste Orientierung für die neue Lernsituation und eignen sich damit selbstständig die jeweilige Aufgabe an.“
Wie bei allen LabLinking-Studien werden die Ergebnisse in der offenen Plattform „OpenEase“ Forschenden weltweit zur Verfügung gestellt. Eine Stärke der Plattform: „Wir können aus dieser Datenbank Informationen über die menschlichen Aktivitäten ziehen, damit Roboter in Zukunft besser menschliche Aktivitäten ausführen können und lernen, zu verstehen“, sagt Schultz.
In Zukunft gilt es noch weiter zu erforschen, inwieweit das Zögern oder Unterbrechen vom Roboter bei Ablenkungen oder Störeinflüssen wie Geräuschen auch zu einem besseren Aufgabenverständnis beim Menschen führt und inwieweit dies im EEG sichtbar wird. „Wir wollen erreichen, dass der Roboter selbst merkt, ob sein Zögern für den Lernerfolg des Menschen hilfreich ist oder nicht und sein Verhalten entsprechend anpassen kann“, sagt Britta Wrede. Diese Kenntnisse könnten zum Beispiel für Pflegesituationen genutzt werden. „Der Roboter merkt dann in der Interaktion mit einem Menschen mit Demenz, wo dieser Unterstützung, also zum Beispiel einfach mehr Zeit für die Verarbeitung des Gesagten, braucht.“ Dabei solle die Selbstständigkeit des Menschen erhalten und gefördert werden. „Der Roboter gibt deshalb nur gerade so viel Hilfe wie nötig“, sagt Wrede.