„Wichtig, dass ‚Erklärbare KI‘ sozialer wird“


Autor*in: Stephan Risse

Der 10. November steht ganz im Zeichen der Wissenschaft. „Building trust in science“ – das Thema des diesjährigen „Welttags der Wissenschaft für Frieden und Entwicklung“ der UNESCO ist aktueller denn je. Gerade zukunftsweisende Themen wie künstliche Intelligenz (KI) bewegen eine immer digitaler denkende Gesellschaft. An der Universität Bielefeld forschen Wissenschaftler*innen daher nicht nur an der Weiterentwicklung von KI-Systemen, sondern sind sich auch bewusst, dass die Forschungsinhalte der Gesellschaft vermittelt werden müssen. Die Informatikerin Professorin Dr. Britta Wrede von der Universität Bielefeld arbeitet im Sonderforschungsbereichs Transregio (TRR) 318 „Constructing Explainibility“ mit der Psycholinguistin Professorin Dr. Katharina Rohlfing von der Universität Paderborn zusammen. Wrede ist Projektleiterin des Öffentlichkeitsprojekts des TRR 318, Rohlfing ist Sprecherin des Verbunds. Beide sind sich einig: Eine transparente Aufklärung über KI ist entscheidend.

Das Thema des diesjährigen „Welttags der Wissenschaft“ lautet: „Building trust in science“. Wie entsteht Vertrauen zwischen Wissenschaft und Gesellschaft?

Rohlfing: Die Wissenschaft ist bemüht, in verschiedenen Formaten ihre Inhalte an die Gesellschaft zu kommunizieren. Damit sollen die Informationen nicht nur einseitig fließen, das heißt, es wird lediglich bekannt gegeben, was in der Wissenschaft passiert. Weil viele Themen gesellschaftlich relevant sind, gehen Wissenschaftler*innen zunehmend einen Dialog mit Vertreter*innen unterschiedlicher gesellschaftlicher Gruppen ein, um Impulse für ihre Forschung zu bekommen. Zudem gibt es neue partizipatorische Methoden der Wissenschaft, die Akteur*innen aus der Gesellschaft in die Forschung direkt miteinbeziehen. Diese Partizipation entspricht den demokratischen Werten unserer Gesellschaft.
Wrede: Wir bieten beispielsweise Co-construction-Workshops an, die sich in erster Linie an Schüler*innen der umliegenden Schulen richten. Aber wir haben auch Stakeholder im Visier, wie beispielsweise Politiker*innen, Verwaltungsbeamt*innen und andere Entscheider*innen, die über den Einsatz und Umgang mit KI in öffentlichen Verwaltungen entscheiden. Außerdem tragen wir zu Inhalten der Lehre für Medizinstudierende bei, um ihnen mehr Hintergrundwissen über Erklärbare KI in der Medizin zu geben. Dabei geht es immer darum, die Menschen in ihrer Rolle als Fragende zu stärken: Wir wollen sie befähigen, überhaupt erst einmal Fragen an die KI oder an uns als Workshop-Lehrende zu stellen. Und wir sehen Anzeichen dafür, dass wir damit tatsächlich in der Lage sind, die Vorstellungen der Leute von KI so zu verändern, dass sie eine andere Haltung ihr gegenüber einnehmen. Unsere Hoffnung ist, dass sie so einerseits kritischer, aber andererseits auch vertrauensvoller mit KI umgehen. Wir sehen unsere Rolle als Wissenschaftler*innen hier darin, die Mitglieder der Gesellschaft mithilfe unserer Forschungsergebnisse im Umgang mit der revolutionären neuen Technik der KI zu stärken und dadurch an Autonomie und Fähigkeiten zu gewinnen.

Portraitfoto von Professorin Dr. Britta Wrede
Prof’in Dr. Britta Wrede von der Universität Bielefeld

Kritiker*innen behaupten, dass KI-Systeme unsere demokratischen Werte wie Freiheit gefährden. Was würden Sie ihnen aus wissenschaftlicher Sicht entgegnen?

Rohlfing: Der Mensch und die Maschine stehen sich nicht einfach nur gegenüber. Vielmehr ist die Maschine vom Menschen entwickelt worden und funktioniert daher nach bestimmten Werten, die in die Programmierung eingegangen sind. Mit dieser Tatsache gehen Wissenschaftler*innen und Entwickler*innen immer bewusster um. Im TRR 318, beispielsweise, versuchen wir eine neue Form der Interaktion zu verwirklichen, nämlich eine, die auf die Menschen eingeht, und sie nicht nur mit Informationen versorgt. Diese Interaktion folgt bestimmten Werten und sucht Menschen entlang ihrer Fragen und ihres Verständnisbedürfnisses zum Handeln zu befähigen. Diese Art der Interaktion ist neu, weil bisherige Formen der Interaktion in den Menschen hauptsächlich Informationsempfänger*innen sehen und ihr Verständnis bzw. Unverständnis wenig in Betracht nehmen. Daher ist es wichtig, dass Erklärbare KI sozialer wird. Was wir damit meinen, wollen wir in einem Handbuch für Wissenschaftler*innen und Entwickler*innen darlegen. Wir sind davon überzeugt, dass diese angestrebte Form der Interaktion dazu führt, dass die Menschen souveräner mit Maschinen umgehen können.

Portraitfoto von Professorin Dr. Katharina Rohlfing
Prof’in Dr. Katharina Rohlfing von der Universität Paderborn

Vertrauen fußt auf Verstehen. Der TRR 318 ist vor Kurzem mit einem eigenen Forschungspodcast an den Start gegangen. Sehen Sie darin eine große Chance, die Menschen über Ihre Arbeit aufzuklären?

Wrede: Letztendlich ja. Die ersten Folgen richten sich aber erstmal an die Wissenschaftler*innen im TRR selbst. Da wir interdisziplinär aufgestellt sind, wollen wir mit den ersten Folgen die wichtigsten Konzepte, die die Grundlage unserer Arbeit im TRR darstellen, zunächst einmal aus den unterschiedlichen disziplinären Perspektiven beleuchten und uns quasi gegenseitig erklären. Von daher sind die aktuellen Folgen noch nicht so explizit auf interessierte Zuhörer*innen zugeschnitten, aber wir freuen uns selbstverständlich, wenn sich davon auch Menschen außerhalb unseres TRR angesprochen fühlen! Wir wollen den Podcast allerdings für Menschen außerhalb des TRR weiterentwickeln und unser Grundverständnis über die zugrundeliegenden Mechanismen bei Erklärprozessen in einem Dialog näherbringen. Dabei wollen wir uns zum einen empirische Ergebnisse aus Experimenten oder Feldstudien genauer anschauen, aber zum anderen auch diskutieren, wie wir das dann in interaktiven KI-Anwendungen, die zusammen mit den Nutzer*innen Erklärungen ko-konstruieren sollen, umsetzen wollen.

Der SFB/TRR 318 „Constructing Explainability“

Wie kann KI begreifbar werden? Oft setzen technische Erklärungen Wissen über die Funktionsweise von KI voraus und sind nur schwer nachvollziehbar. Im Sonderforschungsbereich/Transregio Constructing Explainability (Erklärbarkeit konstruieren, SFB/TRR 318) kooperieren zu diesen Fragen Forschende der Universitäten Bielefeld und Paderborn. Sie erarbeiten Wege, die Nutzer*innen in den Erklärprozess einzubinden. Dafür untersucht das interdisziplinäre Forschungsteam die Prinzipien, Mechanismen und sozialen Praktiken des Erklärens und wie diese im Design von KI-Systemen berücksichtigt werden können. Das Ziel des Projektes ist es, Erklärprozesse verständlich zu gestalten und verstehbare Assistenzsysteme zu schaffen.

Diesen Artikel haben wir von der Universität Paderborn übernommen und gekürzt. Der vollständige Artikel ist hier zu finden.