Zwei Ingenieur*innen besprechen ein Projekt und verwenden einen Desktop-Computer in einer Robotik-Startup-Einrichtung.

„Erklären ist immer eine zweiseitige Sache“


Autor*in: Kristina Nienhaus

Wenn sich Menschen einander etwas erklären, beobachten sie oft die Signale von Unverständnis bei ihrem Gegenüber, um ihre Erklärung gegebenenfalls anzupassen. Dieses Verfahren wollen Wissenschaftler*innen in einem neuen Teilprojekt des Transregio-Sonderforschungsbereichs „Erklärbarkeit konstruieren“ (TRR 318) auch in Maschinen ermöglichen. Doch in der Interaktion von Mensch und Maschine birgt der Ansatz Tücken. Drei Fragen an die Projektleiterin Junior-Professorin Dr. Hanna Drimalla von der Technischen Fakultät der Universität Bielefeld.

Bild von Person: Hanna Drimalla
Juniorprof’in Hanna Drimalla forscht an Technologie, die es ermöglicht, dass Maschinen auf individuelle Signale ihres menschlichen Gegenübers eingehen können.

Die Forschung des Transregios baut darauf auf, dass Verstehen gemeinsam konstruiert wird. Inwiefern gilt das auch für Systeme, die mit Künstlicher Intelligenz (KI) ausgestattet sind?

Hanna Drimalla: Es gibt aktuell viel Forschung zu erklärbarer Künstlicher Intelligenz, kurz: XAI. Dabei geht es etwa darum, dass eine Maschine dem Menschen etwas erklärt – beispielsweise warum sie sich für etwas Bestimmtes entschieden hat. Erklären ist jedoch immer eine zweiseitige Sache. In der XAI-Forschung wird dieser Gedanke noch kaum berücksichtigt. Damit ein Erklärprozess gelingt, sind Feedbackschleifen nötig. Ein Mensch oder eine Maschine erklärt etwas, überwacht gleichzeitig, ob das Gegenüber die Erklärung versteht und wie es darauf reagiert, und passt die Erklärung aufgrund dieser Informationen direkt im Gespräch an. Wenn Maschinen Erklärungen liefern, werden diese also mit ihren Nutzer*innen gemeinsam generiert.

Menschen sind doch sehr unterschiedlich in ihren Reaktionen. Könnte das nicht zur Folge haben, dass die KI-Modelle, die die Maschinen steuern, nicht für alle Menschen gleich gut funktionieren?

Hanna Drimalla: Genauso ist es. Eben für diese Herausforderung, dass Menschen sich voneinander unterscheiden, wollen wir eine Lösung finden. Manche Menschen senden ihr Missverständnis, indem sie die Stirn in Falten legen, andere Menschen wenden den Blick ab oder verändern ihre Mimik. Ein Modell, das immer die gleichen Signale als Verständnis oder Unverständnis interpretiert, ist nicht sinnvoll. Wie problematisch das ist, zeigt sich etwa mit Blick auf Personen, die eine soziale Interaktionsstörung haben. Menschen mit Autismus fällt es zum Beispiel schwer, Blickkontakt zu halten. Menschen, die an Depressionen oder an sozialer Ängstlichkeit leiden, zeigen wiederum andere soziale Signale. Und insgesamt verhalten sich Menschen je nach Situation unterschiedlich. Wer gestresst ist, sendet andere Signale als jemand, der entspannt in das Gespräch hinein geht. Wer in einem Machtverhältnis steht, reagiert ebenfalls anders: Gegenüber einer Autorität wird eher deren Emotionsausdruck gespiegelt.

Wie wollen sie diese unterschiedlichen Anforderungen in Ihren maschinellen Modellen verankern?

Hanna Drimalla: Für jede Form von psychischer Störung und jede Situation ein eigenes Modell zu konstruieren, wäre uferlos. Stattdessen wollen wir es dem einzelnen Menschen ermöglichen, den Verstehensprozess gemeinsam mit der Maschine zu konstruieren. Für unsere Modelle zum Erkennen von Verständnis nutzen wir zum Beispiel die automatische Erkennung von Gesichtsausdruck, Blickverhalten und Stimmlage aus Videodaten. Wir arbeiten auch daran, Daten wie den Herzschlag, den man an den Rotpixelwerten im Gesicht erkennen kann, einfließen zu lassen – also psychophysiologische Signale. Unser Ziel sind XAI-Modelle, die den Nutzer*innen direkt zurückspiegeln, warum die Maschine bei dem Nutzer Verständnis oder Unverständnis erkannt hat. Beispielsweise gibt die Maschine das Feedback: Dein Stirnrunzeln verstehe ich so, dass du etwas nicht verstanden hast. Dann kann die Nutzerin reagieren und antworten, ihr Stirnrunzeln sei lediglich der Konzentration geschuldet und das Modell kann sich daran neu ausrichten. So wird erreicht, dass dieses Verständnis-Monitoring inklusiv und fair ist. Es soll für jeden Menschen und auch über Situationen hinweg funktionieren.

Erforschen, wie Erklärbarkeit konstruiert wird

Künstliche Intelligenz (KI) wirkt auf viele Menschen undurchsichtig und komplex. Der Transregio „Erklärbarkeit konstruieren“ (TRR 318) der Universitäten Bielefeld und Paderborn erarbeitet Wege, Nutzer*innen in den Erklärprozess mit KI einzubinden. Das neue Teilprojekt unter Leitung von Junior-Professorin Hanna Drimalla und Postdoktorand David Johnson heißt „Inklusive Ko-Konstruktion sozialer Signale des Verstehens“. Als Promotionsstudent arbeitet zudem der Informatiker Jonas Paletschek mit.