Skip to main content

Wenn Alexa zur Familie gehört


Autor*in: Universität Bielefeld

Siri, Alexa und Co. sind beliebt. Vor allem Familien nutzen KI-basierte Sprachassistenten, um den trubeligen Alltag zu organisieren. Kinder lernen leicht, damit umzugehen. Welche Folgen diese Systeme auf unser Kommunikationsverhalten und unsere Beziehungen haben, hat ein Forschungsverbund der Universitäten Bielefeld, Kassel, Duisburg-Essen (UDE) und der Evangelischen Hochschule Nürnberg unter der Leitung der Sozialpsychologin Professorin Dr. Nicole Krämer im Projekt IMPACT untersucht. Es wurde über vier Jahre von der VolkswagenStiftung mit 1,5 Mio. Euro gefördert. Am 6. und 7. März stellen die Wissenschaftler*innen ihre Ergebnisse bei einer Abschlusstagung in Berlin vor.

Die Fachleute aus den Bereichen Recht, Ethik, Informatik und Sozialpsychologie haben Szenarien aus dem Alltag verschiedener Altersgruppen – Kinder, junge Erwachsene, Senior*innen – untersucht. Sie wollten herausfinden, was die Nutzer*innen über die Technik hinter den intelligenten Systemen wissen, wie sie diese selbstbestimmt nutzen können und ob für die Interaktion mit den KI-basierten Sprachassistenten Gesetze geändert werden müssen. Auch folgende Fragen beschäftigten die Wissenschaftler*innen: Verändert sich auf Dauer die eigene Kommunikation, wenn ich mit einer Maschine spreche und wird der Sprachassistent als eine Art neues Familienmitglied gesehen?

Professorin Dr. Barbara Hammer und Professor Dr. Stefan Kopp von der Universität Bielefeld arbeiteten bei dem IMPACT-Projekt mit.
Professorin Dr. Barbara Hammer und Professor Dr. Stefan Kopp von der Universität Bielefeld arbeiteten bei dem IMPACT-Projekt mit.

Verständnis zwischen Nutzer*innen und System ist wichtig

Die Forschenden werden ihre Antworten bei der Konferenz vorstellen. An der Universität Bielefeld hat die Arbeitsgruppe Social Cognitive Systems von Professor Dr. Stefan Kopp ein Verfahren entwickelt, mit dem intelligente Systeme vorhersagen können, ob ein hinreichendes Verständnis zwischen den Nutzer*innen und dem System erreicht worden ist. Haben zum Beispiel ein Kind oder ein älterer Mensch eine wichtige Information verstanden? Oder besteht Klarheit darüber, was das System verstanden hat? Und wie kann dies im Dialog sichergestellt werden? Eine große Rolle spielt die Fähigkeit von KI-Systemen, Erklärungen geben zu können. „Bislang werden diese aber vor allem für Expert*innen generiert und weder das spezifische Informationsbedürfnis noch der sich verändernde Kenntnisstand werden berücksichtigt. In der Folge sind die meisten Nutzer*innen durch die Erklärungen entweder unter- oder überfordert und erlangen kein Verständnis von dem Verhalten oder der Funktionsweise eines KI-Systems“, erklärt Kopp. Die Forscher*innen haben in der Entwicklung ihres Verfahrens berücksichtigt, dass Inhalte mitunter strukturell ähnlich sind und Menschen oft Analogien benutzen, um ein Verständnis aufzubauen. „Dies kann aktiv von Erklärsystemen ausgenutzt werden“, sagt Kopp.

KI-Mechanismen oft undurchsichtig

Ein weiterer Punkt ist die Transparenz der genutzten Technologie. So ist nicht sichergestellt, weshalb ein Sprachassistent etwa einen besonderen Musiktitel empfohlen hat. Ebenfalls an der Universität Bielefeld hat die Arbeitsgruppe Maschinelles Lernen um Professorin Dr. Barbara Hammer Verfahren entwickelt, die eben solche Black-Box-Mechanismen erklären. „Auch Sprachassistenten können auf die Frage ‚warum‘ antworten, allerdings ohne eine ‚wahre‘ Antwort zu garantieren, die tatsächlich der Funktionsweise der Künstlichen Intelligenz entspricht. Der von uns entwickelte Algorithmus analysiert dagegen explizit die Funktionsweise der KI, er ‘stimmt’ also immer”, sagt Hammer.

Keine „informierte Einwilligung“ möglich

Dazu kommt, dass vielen Menschen nicht bewusst ist, in welchem Ausmaß Alexa und Co. Daten sammeln. „Weder die Eltern noch die Kinder verstehen die Technologien ausreichend, um eine tatsächlich ‚informierte Einwilligung‘ geben zu können. Sie geben ihr Okay im guten Glauben“, sagt die Sozialpsychologin Krämer. Viele Kinder wissen schon mit den Geräten umzugehen, bevor sie schreiben und lesen können. Aber: „Sie vermenschlichen den Sprachassistenten, erzählen ihm leichtfertig Geheimnisse und denken zum Beispiel, Alexa habe ihr Wissen aus der Alexa-Schule.” Auch aus ethischer Perspektive sei dies problematisch: „Nutzende sollten sich jederzeit darüber im Klaren sein, dass sie mit einer Maschine und nicht mit einem Menschen sprechen.“

Es gibt auch Möglichkeiten, problematisches Verhalten gegenüber interaktiven KI-Systemen einzudämmen. „Wir konnten feststellen, dass Erklärungen auch komplex sein dürfen, wenn es hilft nachzuvollziehen, wie die digitalen Helfer funktionieren“, so Krämer. Man dürfe die Fähigkeiten von Laien im Umgang mit Technologie auch nicht unterschätzen. Zur Überraschung der Forschenden war gerade bei der kompliziertesten Erklärung das Verständnis am höchsten.

Das Projekt IMPACT

Der Projektname IMPACT steht verkürzt für „Implications of conversing with intelligent machines in everyday life for people’s beliefs about algorithms, their communication behavior and their relationship building.” Die IMPACT-Abschlussveranstaltung findet vom 6. bis 7. März im AXICA Kongresszentrum Berlin statt. Medienvertreter*innen können in Präsenz oder online teilnehmen. Das Programm sieht neben Berichten über die Projektergebnisse auch Vorträge der internationalen Spitzenforscher*innen Professorin Dr. Catholijn Jonker (TU Delft), Dr. Michael Ann DeVito (University of Colorado Boulder) und Professor Dr. Iyad Rahwan (Max Planck Institute for Human Development Berlin) vor. Eine Podiumsdiskussion thematisiert außerdem die rechtlichen und ethischen Belange und befasst sich mit den Folgen neuer Technologien wie ChatGPT.

Informationen zur Anmeldung, die Möglichkeit für Interview-Anfragen und das Programm gibt es auf der Website des Projekts.