Wie sich Roboter in der Kommunikation anpassen


Autor*in: Universität Bielefeld

In einer neuen Studie der Universitäten Bielefeld und Bremen prüfen Wissenschaftler*innen, wie Menschen den Angaben eines Roboters besser folgen können. Die Roboter müssen sich in der Kommunikation anpassen. Erreicht werden soll so eine Verbesserung der Mensch-Maschine-Interaktion. An der Studie sind mehrere Forschende des Transregio 318 und der Universität Bremen beteiligt.

In der Studie wurden die Gehirnwellen von Teilnehmenden mittels Elektroenzephalographie (EEG) aufgezeichnet, während sie via Bildschirm mit einem Roboter interagierten. Für die Untersuchung wurden Labore in Bielefeld und Bremen zusammengeschaltet – genutzt wurde dafür die Bremer LabLinking-Methode. Für die Studie kooperierten die Arbeitsgruppen von Professorin Dr. Britta Wrede von der Medizinischen Fakultät OWL der Universität Bielefeld und von Professorin Dr. Tanja Schultz vom Fachbereich Informatik und Mathematik der Universität Bremen. Wredes Arbeitsgruppe ist auf Medizinische Assistenzsysteme spezialisiert. Die Gruppe von Schultz befasst sich mit Kognitiven Systemen.

Im neuen research_tv-Beitrag erläutern die Wissenschaftler*innen ihre Forschung:

Research-TV:„How Robots Adapt in Communication. Improving Human-Machine Interaction“


In einer neuen Studie der Universitäten Bielefeld und Bremen prüfen Wissenschaftler*innen, wie Menschen den Angaben eines Roboters besser folgen können. Die Roboter müssen sich in der Kommunikation anpassen. Erreicht werden soll so eine Verbesserung der Mensch-Maschine-Interaktion. An der Studie sind mehrere Forschende des Transregio 318 und der Universität Bremen beteiligt.  


Hallo, ich bin Pepper.
Ich erkläre dir jetzt wie man den Tisch auf eine
neue Art und Weise deckt.
In dieser Studie möchten wir einen
einen humanoiden Roboter errichten
der in der Lage ist, Menschen in der Spur zu halten
trotz der Tatsache, dass sie durch die Umgebung
oder durch das Abschweifen der Gedanken abgelenkt werden.
Wir wollten also wissen, ob wir EEG-Muster finden können,
die unterscheiden, ob eine Äußerung eine Hilfestellung durch das Zögern liefert oder nicht.
Wir haben also im Grunde
eine Verbindung mit dem Labor in Bielefeld.
Und was wir tun, ist, dass wir uns mit Video-, Audio- und Biosignalen austauschen, die wir erfassen,
insbesondere mit EEG-Signalen, die uns Informationen über die Gehirnaktivität einer Person geben.
Wir senden also Signale über die Gehirnaktivität,
und das Labor in Bielefeld sendet die Interaktion
mit sozialen Stimuli eines Roboters.
Die silberne Gabel kommt waagerecht
auf den Teller.
In diesem Fall ist der Roboter der Lehrer und der Mensch ist der Lernende.
Was wir sehen, ist, dass der Roboter als Lehrer versteht,
wie viel der menschliche Lernende verstanden hat.
Das EEG misst, kurz gesagt, die elektrische Aktivität im Gehirn
und gibt uns Einblick über die neuronale Aktivität.
Und die EEG-Kappe enthält viele Elektroden,
um die Hirnaktivität an verschiedenen Stellen des Gehirns zu erfassen.
Wir müssen die Kappe aufsetzen, um zu messen, wo genau die verschiedenen Elektroden sitzen.
Es gibt also ein Platzierungssystem, um herauszufinden,
welche Elektrode platziert werden muss,
und dann ist die elektrische Aktivität,
die durch den Schädel kommt, von der Spannung her tatsächlich sehr, sehr klein.
Wir müssen also ein leitendes Gel auftragen,
damit wir die beste Signalqualität an den Elektroden erhalten.
Das wissenschaftliche Ziel unserer Studie
besteht zum einen darin, herauszufinden,
wie wir anhand des EEG-Signals feststellen können,
ob eine Person abgelenkt ist.
Und andererseits, wie kann der Roboter dann
auf eine solche Ablenkung reagieren,
um die Aufmerksamkeit des Benutzers zurückzugewinnen
und ihm alle benötigten Informationen zu geben.
In das Glas kommt die weiße Serviette zusammengerollt.
Wenn es dem Roboter möglich ist,
wirklich ein Verständnis dafür zu bekommen,
wenn der menschliche Interaktionspartner nicht mehr folgen kann,
dann wäre das schon ein großer Durchbruch,
denn derzeit fahren Roboter eigentlich nur in ihrem Prozess so fort,
wie sie die Aufgabe dargestellt haben.
Aber wenn der Roboter jetzt in der Lage ist zu verstehen,
dass etwas schief läuft, dann sollte er in der Lage sein,
sich anzupassen.
Das hast du gut gemacht.
Im Center of CoAI haben wir uns mit den
Universitäten Bielefeld und Paderborn zusammengetan,
um eine Ko-Konstruktion von KI zu etablieren,
das heißt wir möchten ein Gerüst und Unterstützung bereitstellen,
damit Roboter von Menschen lernen können,
indem sie sie beobachten.
Mit diesem Joint Research Center
wollen wir diese Forschung fördern und unterstützen.
Und es gibt viele, viele andere Labore, die sich hervorragend
miteinander vernetzen lassen würden.
Was ich an dieser Einrichtung wirklich toll finde, ist,
dass sie es uns ermöglicht,
Fachwissen und Technologie aus allen
möglichen Bereichen zusammenzubringen.
Ich denke, wir haben jetzt einen wirklich großartigen Ausgangspunkt für die routinemäßige Durchführung solcher Experimente,
bei denen Experten aus allen möglichen Bereichen zusammenkommen und Experimente durchführen können,
die für jeden Einzelnen unmöglich wären.
Und ich denke, das ist eine große Chance für die Wissenschaft.

Weitere Informationen:

  • Website des Sonderforschungsbereich/Transregio Constructing Explainability (Erklärbarkeit konstruieren) TRR 318
  • Website des CoAI Joint Research-Centers