Die Universität Bielefeld hat eine unabhängige Forschungsgruppe ins Leben gerufen, die sich mit erklärbarer Künstlicher Intelligenz (XAI) und deren Einfluss auf das menschliche Vertrauen in KI befasst. Unter der Leitung von Dr. David Johnson am CITEC untersucht das Team, wie KI-Entscheidungen erklärt werden sollten, damit Menschen ihnen angemessen vertrauen und selbst bessere Entscheidungen treffen können. Im Interview spricht Dr. Johnson über die Ziele und Methoden der Forschungsgruppe.
Was sind die Hauptziele Ihrer Forschungsgruppe „Human-Centric Explainable AI“?
Unsere Forschungsgruppe zielt darauf ab, menschenzentrierte KI-Systeme zu entwickeln, die Nutzer*innen dabei helfen, KI-gestützte Entscheidungen besser zu verstehen. Insbesondere geht es uns darum, zu erforschen, wie Erklärungen gestaltet sein müssen, damit sie nützlich und vertrauenswürdig sind. Wir wollen untersuchen, welche Arten von Erklärungen dazu beitragen, eine übermäßige Abhängigkeit von KI zu vermeiden. Dazu beziehen wir Nutzer*innen aktiv in den Designprozess ein und führen umfangreiche Evaluierungen durch. Unser langfristiges Ziel ist die Entwicklung neuer interaktiver Entscheidungssysteme, die in realen Problembereichen anwendbar sind.

© TRR 318/ Mike-Dennis Müller
Warum ist Erklärbarkeit in der Künstlichen Intelligenz ein so wichtiger Forschungsbereich und wird Ihre Forschungsgruppe hierfür mit anderen Fachbereichen zusammenarbeiten?
KI-Systeme spielen eine immer größere Rolle in entscheidungskritischen Bereichen wie beispielweise der Beurteilung der psychischen Gesundheit. Diese Systeme sind jedoch nicht perfekt und können Verzerrungen enthalten. Erklärungen sind entscheidend, damit Nutzer*innen verstehen können, warum eine KI eine bestimmte Diagnose oder Empfehlung gibt. Nur so können sie fundierte Entscheidungen treffen, statt der KI blind zu vertrauen. Die Forschung im Bereich XAI soll dazu beitragen, Vertrauen aufzubauen und die Interaktion zwischen Mensch und KI zu verbessern.
Unsere Arbeit ist interdisziplinär angelegt und verbindet Informatik, Psychologie und Mensch-Maschine-Interaktion. Ein Schwerpunkt liegt dabei auf der Zusammenarbeit mit Professorin Dr. Hanna Drimallas Gruppe „Human-centered Artificial Intelligence: Multimodal Behavior Processing“. Gemeinsam möchten wir untersuchen, wie Menschen mit Erklärungen von KI-Systemen interagieren und wie diese gestaltet sein müssen, um die Entscheidungsfindung zu optimieren. Diese Zusammenarbeit wird uns helfen, unsere Forschungsergebnisse breiter anzuwenden und KI-Lösungen für reale Probleme zu entwickeln.
Wie planen Sie, die Nutzer*innenperspektiven aktiv in den Gestaltungsprozess von XAI-Systemen einzubeziehen?
Zunächst wollen wir eine Wissensbasis darüber schaffen, welche Arten von Erklärungen am besten geeignet sind, um angemessenes Vertrauen zu fördern. Dafür nutzen wir einen grundlagenwissenschaftlichen Ansatz und führen groß angelegte Online-Studien durch. Wir entwickeln dabei ein Bewertungsframework, das Entscheidungssituationen mit hohen Einsätzen für ein breites Publikum simuliert. Dieses Wissen wird uns helfen, zu bestimmen, welche Arten von Erklärungen für reale KI-gestützte Entscheidungssysteme – beispielsweise im bereits genannten Bereich der psychischen Gesundheitsbewertung – nützlich sein könnten. Natürlich werden wir in der endgültigen Gestaltung solcher Systeme weiterhin echte Expert*innen durch iterative, menschenzentrierte Designansätze einbeziehen. Doch das Online-Framework ermöglicht es uns, schnell und kostengünstig zu testen, was funktioniert und was nicht, bevor wir teure und zeitaufwendige Interviews mit Expert*innen durchführen.