Skip to main content

Roboter Nao als aufmerksamer Erklärer


Text: Universität Bielefeld

Wie kann uns ein Roboter sprachlich am besten dabei unterstützen, Aufgaben zu lösen? Dieser Frage sind Forschende des TRR 318 Constructing Explainability der Universitäten Bielefeld und Paderborn nachgegangen. Im Teilprojekt A05 haben sie ein Modell entwickelt, mit dem der Roboter Nao passende verbale Erklärstrategien auswählt, je nachdem, wie sich der Mensch zuvor verhalten hat und in welchem kognitiven Zustand er wahrscheinlich ist.

Anweisungen können direkt formuliert sein oder über Verneinungen, sogenannte Negationen, also indem gesagt wird, was nicht getan werden soll. Zum Beispiel im Kontext einer Aufgabe mit dem Ziel, Flüssigkeiten in einer Flasche zu mischen: Nicht schwenken, sondern schütteln. „Negationen können helfen, den Fokus von einem Objekt oder einer Tätigkeit wegzulenken und so das Verständnis der Teilnehmenden fördern“, erklärt André Groß aus dem Projekt A05 „Echtzeitmessung der Aufmerksamkeit im Mensch-Roboter-Erklärdialog“.

Frau in schwarzer Jacke und grauem Schal vor einer Fensterfront.
Professorin Dr. Britta Wrede ist an der Universität Bielefeld in zwei Fokusbereichen aktiv (FAITH und AI*IM) und beim TRR 318 Projektleiterin von A05, A03 und dem Ö-Projekt.

Auf Grundlage dieser linguistischen und psychologischen Erkenntnisse haben die Informatiker*innen André Groß, Dr. Birte Richter und Professorin Dr. Britta Wrede von der Universität Bielefeld ein berechenbares Modell entwickelt. Dieses ermöglicht es dem Roboter Nao, die passende Erklärstrategie auszuwählen. Nao beobachtet dabei, wie sich seine menschlichen Gesprächspartner*innen verhalten oder auf Hinweise reagieren, etwa durch Blickbewegungen. Mithilfe des Modells entscheidet er dann, wann und ob er Erklärungen auf Basis von Negationen geben soll.

Weniger Fehler durch adaptive Erklärungen

In der Studie trugen die Teilnehmenden mobile Eye Tracker, die ihre visuelle Aufmerksamkeit erfassten. Sie sollten an einem Touchscreen 20 medizinische Aufgaben lösen. Daneben saß Roboter Nao und gab hilfreiche Informationen. Dokumentiert wurde online, ob die Aufgaben richtig oder falsch gelöst wurden. Nao nutzte die Blickdaten, um Rückschlüsse auf die aktuelle Leistung und Aufnahmekapazität der Teilnehmenden zu ziehen und passte seine Erklärungen entsprechend an. Eine Vergleichsgruppe erhielt dagegen nur neutrale, nicht angepasste Anweisungen.

Blonde Frau im roten Pulli, Mann in schwarzem Hemd
André Groß, Doktorand im TRR 318, leitete die Studie. Unterstützt wurde das Projekt von Dr. Birte Richter, Assoziierte des TRR 318. Beide forschen in der AG „Medizinische Assistenzsysteme“.

Die Ergebnisse zeigen, dass das Modell funktioniert und zu besseren Leistungen führt: „Gerade bei schwierigen Aufgaben waren eine angepasste Erklärstrategie und der gezielte Einsatz von Negationen hilfreich“, so Groß. „In der Gruppe mit unserem Modell wurden 23 Prozent weniger Fehler bei den Aufgaben gemacht.“

Britta Wrede, die an der Universität Bielefeld in zwei Fokusbereichen aktiv ist (FAITH und AI*IM) und beim TRR 318 Projektleiterin von A05, A03 und dem Ö-Projekt, ordnet die Ergebnisse ein: „Indem Nao die Aufmerksamkeit der Nutzer*innen liest und seine Erklärungen gezielt gestaltet, ermöglicht das Modell adaptive, verständliche Kommunikation. Damit rücken wir im TRR 318 dem Ziel näher, Erklärungen ko-konstruktiv zwischen Mensch und Maschine zu gestalten, damit solche Interaktionen in Zukunft flexibler, individueller und damit verständlicher werden.“

Das Modell wird vorgestellt auf der Konferenz „IEEE International Conference on Development and Learning (ICDL) 2025“ vom 16.-19. September in Prag.

Das zugrunde liegende Open-Source-Programm ist hier frei zugänglich: https://hub.docker.com/r/unibimas/shift