Skip to main content

„Entwicklung neuer interaktiver Entscheidungssysteme“


Text: Dr. Kristina Nienhaus

Die Universität Bielefeld hat eine unabhängige Forschungsgruppe ins Leben gerufen, die sich mit erklärbarer Künstlicher Intelligenz (XAI) und deren Einfluss auf das menschliche Vertrauen in KI befasst. Unter der Leitung von Dr. David Johnson am CITEC untersucht das Team, wie KI-Entscheidungen erklärt werden sollten, damit Menschen ihnen angemessen vertrauen und selbst bessere Entscheidungen treffen können. Im Interview spricht Dr. Johnson über die Ziele und Methoden der Forschungsgruppe.

Was sind die Hauptziele Ihrer Forschungsgruppe „Human-Centric Explainable AI“?

Unsere Forschungsgruppe zielt darauf ab, menschenzentrierte KI-Systeme zu entwickeln, die Nutzer*innen dabei helfen, KI-gestützte Entscheidungen besser zu verstehen. Insbesondere geht es uns darum, zu erforschen, wie Erklärungen gestaltet sein müssen, damit sie nützlich und vertrauenswürdig sind. Wir wollen untersuchen, welche Arten von Erklärungen dazu beitragen, eine übermäßige Abhängigkeit von KI zu vermeiden. Dazu beziehen wir Nutzer*innen aktiv in den Designprozess ein und führen umfangreiche Evaluierungen durch. Unser langfristiges Ziel ist die Entwicklung neuer interaktiver Entscheidungssysteme, die in realen Problembereichen anwendbar sind.

David Johnson im Gespräch
Die Universität Bielefeld hat eine unabhängige Forschungsgruppe ins Leben gerufen, die sich mit erklärbarer künstlicher Intelligenz (Explainable Artificial Intelligence, XAI) und deren Auswirkungen auf das menschliche Vertrauen in KI beschäftigt. Die Gruppe wird von Dr. David Johnson am CITEC geleitet.

Warum ist Erklärbarkeit in der Künstlichen Intelligenz ein so wichtiger Forschungsbereich und wird Ihre Forschungsgruppe hierfür mit anderen Fachbereichen zusammenarbeiten?

KI-Systeme spielen eine immer größere Rolle in entscheidungskritischen Bereichen wie beispielweise der Beurteilung der psychischen Gesundheit. Diese Systeme sind jedoch nicht perfekt und können Verzerrungen enthalten. Erklärungen sind entscheidend, damit Nutzer*innen verstehen können, warum eine KI eine bestimmte Diagnose oder Empfehlung gibt. Nur so können sie fundierte Entscheidungen treffen, statt der KI blind zu vertrauen. Die Forschung im Bereich XAI soll dazu beitragen, Vertrauen aufzubauen und die Interaktion zwischen Mensch und KI zu verbessern.
Unsere Arbeit ist interdisziplinär angelegt und verbindet Informatik, Psychologie und Mensch-Maschine-Interaktion. Ein Schwerpunkt liegt dabei auf der Zusammenarbeit mit Professorin Dr. Hanna Drimallas Gruppe „Human-centered Artificial Intelligence: Multimodal Behavior Processing“. Gemeinsam möchten wir untersuchen, wie Menschen mit Erklärungen von KI-Systemen interagieren und wie diese gestaltet sein müssen, um die Entscheidungsfindung zu optimieren. Diese Zusammenarbeit wird uns helfen, unsere Forschungsergebnisse breiter anzuwenden und KI-Lösungen für reale Probleme zu entwickeln.

Wie planen Sie, die Nutzer*innenperspektiven aktiv in den Gestaltungsprozess von XAI-Systemen einzubeziehen?

Zunächst wollen wir eine Wissensbasis darüber schaffen, welche Arten von Erklärungen am besten geeignet sind, um angemessenes Vertrauen zu fördern. Dafür nutzen wir einen grundlagenwissenschaftlichen Ansatz und führen groß angelegte Online-Studien durch. Wir entwickeln dabei ein Bewertungsframework, das Entscheidungssituationen mit hohen Einsätzen für ein breites Publikum simuliert. Dieses Wissen wird uns helfen, zu bestimmen, welche Arten von Erklärungen für reale KI-gestützte Entscheidungssysteme – beispielsweise im bereits genannten Bereich der psychischen Gesundheitsbewertung – nützlich sein könnten. Natürlich werden wir in der endgültigen Gestaltung solcher Systeme weiterhin echte Expert*innen durch iterative, menschenzentrierte Designansätze einbeziehen. Doch das Online-Framework ermöglicht es uns, schnell und kostengünstig zu testen, was funktioniert und was nicht, bevor wir teure und zeitaufwendige Interviews mit Expert*innen durchführen.

Erklärungen gemeinsam entwickeln

Algorithmische Ansätze wie das maschinelle Lernen werden immer komplexer. Die Undurchsichtigkeit erschwert es, die von Künstlicher Intelligenz (KI) vorgeschlagenen Entscheidungen nachzuvollziehen und zu akzeptieren. Im Sonderforschungsbereich/Transregio 318 „Constructing Explainability“ (Erklärbarkeit konstruieren) erarbeiten die Forscher*innen Wege, die Nutzer*innen in den Erklärprozess einzubinden und damit ko-konstruktive Erklärungen zu schaffen. Dafür untersucht das interdisziplinäre Forschungsteam die Prinzipien, Mechanismen und sozialen Praktiken des Erklärens und wie diese im Design von KI-Systemen berücksichtigt werden können. Das Ziel des Projektes ist es, Erklärprozesse verständlich zu gestalten und verstehbare Assistenzsysteme zu schaffen.

Dr. David Johnson ist mit seiner Forschungsgruppe assoziiertes Mitglied im Sonderforschungsbereich/ TRR 318.

Datenschutzeinstellung

Diese Webseite verwendet Cookies und ähnliche Technologien. Einige davon sind essentiell, um die Funktionalität der Website zu gewährleisten, während andere uns helfen, die Website und Ihre Erfahrung zu verbessern. Falls Sie zustimmen, verwenden wir Cookies und Daten auch, um Ihre Interaktionen mit unserer Webseite zu messen. Sie können Ihre Einwilligung jederzeit unter Datenschutzerklärung einsehen und mit der Wirkung für die Zukunft widerrufen. Auf der Seite finden Sie auch zusätzliche Informationen zu den verwendeten Cookies und Technologien.