Wie kann uns ein Roboter sprachlich am besten dabei unterstützen, Aufgaben zu lösen? Dieser Frage sind Forschende des TRR 318 Constructing Explainability der Universitäten Bielefeld und Paderborn nachgegangen. Im Teilprojekt A05 haben sie ein Modell entwickelt, mit dem der Roboter Nao passende verbale Erklärstrategien auswählt, je nachdem, wie sich der Mensch zuvor verhalten hat und in welchem kognitiven Zustand er wahrscheinlich ist.
Anweisungen können direkt formuliert sein oder über Verneinungen, sogenannte Negationen, also indem gesagt wird, was nicht getan werden soll. Zum Beispiel im Kontext einer Aufgabe mit dem Ziel, Flüssigkeiten in einer Flasche zu mischen: Nicht schwenken, sondern schütteln. „Negationen können helfen, den Fokus von einem Objekt oder einer Tätigkeit wegzulenken und so das Verständnis der Teilnehmenden fördern“, erklärt André Groß aus dem Projekt A05 „Echtzeitmessung der Aufmerksamkeit im Mensch-Roboter-Erklärdialog“.

© TRR 318/ Michael Adamski
Auf Grundlage dieser linguistischen und psychologischen Erkenntnisse haben die Informatiker*innen André Groß, Dr. Birte Richter und Professorin Dr. Britta Wrede von der Universität Bielefeld ein berechenbares Modell entwickelt. Dieses ermöglicht es dem Roboter Nao, die passende Erklärstrategie auszuwählen. Nao beobachtet dabei, wie sich seine menschlichen Gesprächspartner*innen verhalten oder auf Hinweise reagieren, etwa durch Blickbewegungen. Mithilfe des Modells entscheidet er dann, wann und ob er Erklärungen auf Basis von Negationen geben soll.
Weniger Fehler durch adaptive Erklärungen
In der Studie trugen die Teilnehmenden mobile Eye Tracker, die ihre visuelle Aufmerksamkeit erfassten. Sie sollten an einem Touchscreen 20 medizinische Aufgaben lösen. Daneben saß Roboter Nao und gab hilfreiche Informationen. Dokumentiert wurde online, ob die Aufgaben richtig oder falsch gelöst wurden. Nao nutzte die Blickdaten, um Rückschlüsse auf die aktuelle Leistung und Aufnahmekapazität der Teilnehmenden zu ziehen und passte seine Erklärungen entsprechend an. Eine Vergleichsgruppe erhielt dagegen nur neutrale, nicht angepasste Anweisungen.

© TRR 318/ Mike-Dennis Müller
Die Ergebnisse zeigen, dass das Modell funktioniert und zu besseren Leistungen führt: „Gerade bei schwierigen Aufgaben waren eine angepasste Erklärstrategie und der gezielte Einsatz von Negationen hilfreich“, so Groß. „In der Gruppe mit unserem Modell wurden 23 Prozent weniger Fehler bei den Aufgaben gemacht.“
Britta Wrede, die an der Universität Bielefeld in zwei Fokusbereichen aktiv ist (FAITH und AI*IM) und beim TRR 318 Projektleiterin von A05, A03 und dem Ö-Projekt, ordnet die Ergebnisse ein: „Indem Nao die Aufmerksamkeit der Nutzer*innen liest und seine Erklärungen gezielt gestaltet, ermöglicht das Modell adaptive, verständliche Kommunikation. Damit rücken wir im TRR 318 dem Ziel näher, Erklärungen ko-konstruktiv zwischen Mensch und Maschine zu gestalten, damit solche Interaktionen in Zukunft flexibler, individueller und damit verständlicher werden.“