Skip to main content

Interdisziplinärer Blick auf erklärbare KI


Autor*in: Moritz Schmidt-Degenhard

Wissenschaftler*innen des Sonderforschungsbereichs „Erklärbarkeit konstruieren“ (SFB/TRR 318) der Universitäten Bielefeld und Paderborn präsentieren in einer Sonderausgabe der renommierten Zeitschrift „KI – Künstliche Intelligenz“ ihre neuen Ansätze und Erkenntnisse. Die Bielefelder Informatikerin Professorin Dr.-Ing. Britta Wrede aus dem TRR 318 gibt die Ausgabe zusammen mit der Bamberger Informatikerin Professorin Dr. Ute Schmid heraus. Im Mittelpunkt steht das Forschungsfeld „Erklärbare künstliche Intelligenz“ (kurz: XAI).

„Die Forschung über erklärbare künstliche Intelligenz befasst sich mit Ansätzen, die es Menschen ermöglichen, maschinelles Lernen und andere KI-Systeme zu verstehen und möglicherweise zu steuern“, sagt Dr.-Ing. Britta Wrede. Die Professorin für Medizinische Assistenzsysteme an der Universität Bielefeld leitet drei Teilprojekte im Transregio-Sonderforschungsbereich 318. „Neuere Arbeiten aus dem Feld legen den Fokus auf den Prozess der Erklärung selbst – zum Beispiel, wie Erklärungen vom Menschen gemeinsam mit einer KI geschaffen werden können. Zu der Ko-Konstruktion von Erklärungen forschen wir im TRR 318. In der Sonderausgabe haben wir diese Ansätze aufgenommen und den Blick auf weitere interdisziplinäre Perspektiven auf XAI gerichtet.“ 

Portrait von Professorin Dr. Britta Wrede
Prof’in Dr.-Ing. Britta Wrede ist Mitherausgeberin der neuen Sonderausgabe der Zeitschrift „KI – Künstliche Intelligenz“.

Die Informatikerin und weitere Forschende aus dem TRR 318 haben folgende Beiträge für die Sonderausgabe verfasst:

Was fehlt noch, damit XAI funktioniert?

Der Artikel der Herausgeberinnen Wrede und Schmid beschäftigt sich mit verschiedenen Perspektiven auf erklärbare KI. In ihrem Übersichtsartikel „What is missing in XAI so far? An interdisciplinary overview“ (deutsch: „Was fehlt bislang in der XAI? Ein interdisziplinärer Überblick“) bringen die Autorinnen interdisziplinäre Sichtweisen auf das Erklären und Verstehen zusammen. Der Artikel nennt bestehende offene Fragen zum Feld XAI: Unter anderem stellen die beiden Forscherinnen die Fragen heraus, wie Erklärungen in Dialogen auf speziell benötigte Informationen angepasst werden können oder welche Rolle Interaktivität bei der Modellierung von Erklärungen spielt.

KI-Erklärungen in Echtzeit

Der Fachartikel „Agnostic Explanation of Model Change based on Feature Importance“ (deutsch: Agnostische Erklärung von Modellveränderungen auf Basis der Wichtigkeit von Merkmalen) ist ein Beitrag von Maximilian Muschalik, Fabian Fumagalli, Professorin Dr. Barbara Hammer und Professor Dr. Eyke Hüllermeier. Die Informatiker*innen beschäftigen sich mit erklärbaren KI-Systemen im Kontext des Online-Lernens in dynamischen Umgebungen. „Bisher wurden XAI-Methoden hauptsächlich in statischen Umgebungen eingesetzt: Hier verändern sich die Modelle nicht mit der Zeit und können ausgiebig analysiert und erklärt werden“, sagt Maximilian Muschalik. „In dynamischen Umgebungen jedoch verändern sich die Datenströme durchgehend und die Systeme müssen sich daran anpassen. Daher müssen auch die Erklärungen aktualisiert werden.“ Im Artikel stellen die Forschenden der Ludwig-Maximilians-Universität München und der Universität Bielefeld einen modellagnostischen Ansatz vor: So soll nicht wiederkehrend das komplette Modell erklärt werden, sondern nur die konkreten Veränderungen des Modells im Vergleich zum letzten Stand.

Wer macht was in Erklärungen?

Die Linguistinnen Josephine B. Fisher, Vivien Lohmer unter Leitung von Professorin Dr. Katharina J. Rohlfing und Professorin Dr. Friederike Kern von den Universitäten Paderborn und Bielefeld verfassten gemeinsam den Forschungsbericht „Exploring monological and dialogical phases in naturally occurring explanations“ (deutsch: Erforschung monologischer und dialogischer Phasen in natürlich vorkommenden Erklärungen). Der Bericht entstand in Kooperation mit den Medizinern Professor Dr. med. Winfried Barthlen und Dr. med. Sebastian Gaus vom Evangelischen Klinikum Bethel. Das Team hat die Strukturen von natürlichen Erklärungen in medizinischen Kontexten untersucht. Der Schwerpunkt lag auf den verschiedenen Phasen einer Erklärung und den Rollen, die die Beteiligten beim Erklären einnehmen. „Indem wir die monologischen und dialogischen Phasen herausgearbeitet haben, hat sich gezeigt, dass es ein Muster in den Rollen gibt. Zum Beispiel nehmen Personen, denen etwas erklärt wird, eine aktive Rolle ein, indem sie die dialogischen Phasen initiieren“, sagt Erstautorin Fisher. „Dies hat Konsequenzen für KI-Systeme, da sie in der Lage sein müssen, ähnliche Phasen und Aktivitäten möglich zu machen.“

Sprecher*innen des TRR 318 im Interview

Die Sonderausgabe enthält auch ein Interview mit der Sprecherin des TRR 318, Professorin Dr. Katharina Rohlfing von der Universität Paderborn, und dem stellvertretenden Sprecher Professor Dr. Philipp Cimiano von der Universität Bielefeld. Sie sprechen über die Forschung im TRR 318, mit welchen Zielen der Transregio der Universitäten Paderborn und Bielefeld entstanden ist und welche wissenschaftlichen Disziplinen beteiligt sind. Zusätzlich stellen die beiden neue wissenschaftliche Konzepte zu Erklärungen vor, wie das Team im TRR 318 sie entwickelt.

Die wissenschaftliche Zeitschrift „KI – Künstliche Intelligenz“ wird vom Springer-Verlag veröffentlicht und ist die offizielle Zeitschrift der Fachgruppe Künstliche Intelligenz der Gesellschaft für Informatik e.V. Die Artikel der Zeitschrift werden frei zugänglich veröffentlicht.