Ist das die Zukunft des Dialogs? Die Verwendung und die Auswirkungen von Chat-GPT-Technologien in der Gesellschaft werden kontrovers diskutiert. Während einige diese Entwicklung als wegweisend loben, sehen andere potenzielle Risiken. In einer neuen Reihe von Public Talks des Transregio „Erklärbarkeit konstruieren“ (TRR 318) präsentieren zwei Expert*innen ihre Forschung zu diesem viel beachteten Thema. In dem Sonderforschungsbereich der Universitäten Paderborn und Bielefeld arbeitet ein interdisziplinäres Team an den Prinzipien, Mechanismen und sozialen Praktiken des Erklärens. Die Erkenntnisse sollen im Design von KI-Systemen berücksichtigt werden und dazu beitragen, KI begreifbar zu machen.
An den beiden Vorträgen können Interessierte online als Zuhörer*innen teilnehmen: Professorin Dr. Isabel Steinhardt präsentiert am Mittwoch, 29. Mai, ihre Forschung zum Thema „Digitale Spaltung im Studium auch durch KI?“. Professor Dr. Hendrik Buschmeier richtet in seinem Vortrag am Mittwoch, 26. Juni, den Fokus auf Vertrauen und Misstrauen im Umgang mit KI-Chatbots. Interessierte sind jeweils um 17 Uhr eingeladen, sich via Zoom für die einstündigen Veranstaltungen dazuzuschalten. Eine Anmeldung ist nicht erforderlich.
© Universität Bielefeld/Mike-Dennis Müller
„Die Forschung meiner Kolleg*innen antwortet auf die schnelle technologische Entwicklung und beschäftigt sich mit Kompetenzen, die für den Umgang mit KI von Belang sind“, sagt Professorin Dr. Katharina Rohlfing, Professorin für Psycholinguistik an der Universität Paderborn und Sprecherin des TRR 318. „Da eine Erklärung immer auch ein Wissensaustausch und auf vielfältige Kompetenzen angewiesen ist, freuen wir uns, diese Expert*innen-Perspektiven kennenzulernen“, so Rohlfing weiter.
Was wirkt sich auf die Nutzung von Chat GPT-Technologien aus?
Der Einzug algorithmischer Anwendungen und KI-Tools, insbesondere durch ChatGPT, an Hochschulen hat verschiedene Nutzungsmöglichkeiten für Studierende eröffnet, von der Ideenfindung bis hin zum Schreiben und Forschen. Steinhardt stellt aber heraus: „Die Anwendung dieser Tools wird stark von sozialen Faktoren beeinflusst, was zu Unterschieden in der Nutzung, Akzeptanz und Kompetenz führt.“
Dieses Phänomen wird mithilfe des Konzepts der digitalen Spaltung untersucht, das auf drei Annahmen basiert: eine ungleiche Verteilung des Zugangs zu Internet und anderen Informations- und Kommunikationstechnologien (ICT), eine ungleiche Nutzung und damit einhergehende ungleiche Kenntnisse und Fähigkeiten im Umgang mit der Technologie und zuletzt die daraus resultierenden sozialen Unterschiede. In der Analyse konzentriert sich Steinhardt auf zwei Ebenen: den Zugang zu KI-Tools und deren Nutzung durch Studierende. Die Daten basieren auf einem entwickelten Fragebogen und werden durch eine umfassende Literaturstudie zum Thema ergänzt.
Dynamik von Vertrauen und Misstrauen in der Interaktion mit KI-Chatbots
Wie gehen wir mit dem Vertrauen und Misstrauen um, das wir gegenüber KI-Chatbots empfinden? Dieses Thema steht im Mittelpunkt des Expertenvortrags von Buschmeier, der sich intensiv mit den Facetten der Mensch-Technologie-Beziehung auseinandersetzt. Thematisiert werden vier Fragen zu Vertrauen und Misstrauen bei der Nutzung von KI-Chatbots wie ChatGPT und anderen Anwendungen generativer KI. So soll zuerst betrachtet werden, warum Nutzer*innen misstrauisch gegenüber KI-Chatbots sein sollten. Darüber hinaus legt Buschmeier ein Augenmerk darauf, welche Rolle Vertrauen bei der Interaktion mit dieser Technologie spielt. Es wird zudem betrachtet, inwieweit es sich erklären lässt, dass Nutzerinnen KI-Chatbots (trotzdem) vertrauen. Letztlich führen diese Überlegungen zu der Frage, wie das Bewusstsein für ein gesundes Misstrauen im Umgang mit KI-Chatbots gestärkt werden kann.
Der Transregio 318
Das interdisziplinär ausgerichtete Forschungsprogramm mit dem Titel „Erklärbarkeit konstruieren“ geht über die Frage nach Erklärbarkeit von KI als Grundlage algorithmischer Entscheidungsfindungen hinaus. Der Ansatz fördert die aktive Teilnahme der Menschen an soziotechnischen Systemen. Ziel ist es, die Mensch-Maschine-Interaktion zu verbessern, das Verständnis von Algorithmen in den Mittelpunkt zu stellen und dieses als Produkt eines multimodalen Erklärprozesses zu untersuchen. Die Deutsche Forschungsgemeinschaft (DFG) stellt dafür bis Juli 2025 rund 14 Millionen Euro Fördergelder zur Verfügung. Weitere Informationen gibt es unter www.trr318.de.