Skip to main content
Ein Roboter unter einer Gruppe von Kindern.

Wie Roboter unsere Welt verstehen lernen


Autor*in: Ludmilla Ostermann

Nach dem Frühstück wird abgeräumt: Die leere Milchpackung gehört in den Müll, die dreckigen Teller in die Spülmaschine. Für Menschen sind diese Handgriffe selbstverständlich. Was, wenn wir Robotern diese manuellen Fähigkeiten auch beibringen könnten, etwa so, wie Eltern ihren Kindern etwas beibringen? Ein Zusammenschluss von Wissenschaftler*innen der Universitäten Bielefeld, Paderborn und Bremen will die Interaktion zwischen Menschen und Maschinen radikal neu denken und Robotern auf natürliche Weise Wissen und manuelle Fähigkeiten vermitteln.

Bisher werden Maschinen vor allem darauf programmiert, in Fabriken und Fertigungshallen nur eine einzige Aufgabe auszuführen. Zwar gibt es auch Roboter, die komplexere Dinge erledigen, mit extrem vielen Daten gefüttert und in Laboren komplett vorprogrammiert werden, doch auch hier sind die Aufgabengebiete im Voraus klar definiert. Das Ziel der Wissenschaftler*innen geht darüber hinaus: Sie wollen einen neuen Weg in der Interaktion zwischen Mensch und Roboter beschreiten, der Roboter dazu befähigt, sich im Zusammenspiel mit menschlichen Nutzer*innen völlig neue Aufgaben zu erschließen.

Roboter hilft beim Frühstück machen.
Rührei oder Müsli? Am Morgen hat jede*r seine Vorlieben. Für das Forscher*innen-Team ist genau diese Flexibilität der Handlungen die Voraussetzung für das Forschungsvorhaben.

Leistungsstärker als das Gehirn: künstliche neuronale Netze

Diese Flexibilität ist eine Eigenschaft von Computerprogrammen, die auf Künstlicher Intelligenz (KI) basieren. Solche Programme erfüllen heute bereits komplexe Aufgaben, die mitunter die Kapazitäten des menschlichen Gehirns übertreffen. Ein Beispiel ist die Technologie des Deep Learning, die datenbasierte Vorhersagen mit künstlichen neuronalen Netzen ermöglicht. Dadurch kann die KI Lösungen für Probleme generieren, auf die menschliche Expert*innen nicht gekommen wären.

Eine Hürde bei dem Einsatz dieser Technologie ist allerdings, dass eine KI keine für den Menschen nachvollziehbare Begründung liefert, warum eine bestimmte Vorhersage getroffen worden ist. Das macht Dialoge schwierig, da die KI auf Nachfragen oft keine sinnvollen Antworten liefern kann. Für die Übertragung von KI-Technologie auf die Robotik ist dies ein besonderes Problem. Wie kann ein KI-gestützter Roboter also lernen, sich auf die ganz persönlichen Anforderungen von Nutzer*innen einzustellen? Die Antwort der Wissenschaftler*innen lautet: wie ein Mensch – mittels Ko-Konstruktion, also dem Lernen durch Zusammenarbeit.

Durch Kooperationen hervorragend aufgestellt

Portrait von Prof. Dr. Philipp Cimiano
„Ko-Konstruktion muss zum Leitbild in der Robotik werden“, sagt der Informatiker Prof. Dr. Philipp Cimiano, Sprecher des Bielefelder Forschungsinstituts CITEC sowie stellvertretender Sprecher des SFB/TRR 318.

„Die Mensch-Roboter-Forschung ist zukunftsweisend – doch in der Wissenschaft wird Ko-Konstruktion als Leitbild in der Robotik zu wenig adressiert“, sagt Professor Dr. Philipp Cimiano, Sprecher des Forschungsinstituts für Kognitive Interaktionstechnologie (CITEC) der Universität Bielefeld. Er entwickelt den neuen Forschungsansatz gemeinsam mit der Informatikerin Professorin Dr.-Ing. Britta Wrede von der Universität Bielefeld, der Psycholinguistin Professorin Dr. Katharina Rohlfing und dem Informatiker Professor Dr. Axel-Cyrille Ngonga Ngomo von der Universität Paderborn sowie den Informatiker*innen Professor Dr. Michael Beetz und Professorin Dr. Tanja Schultz von der Universität Bremen. Die Initiative entwickelt die laufenden interdisziplinären Kooperationen der drei Universitäten weiter und bündelt sie im neuen Zentrum CoAI. CoAI steht für „Cooperative and Cognition-enabled Artificial Intelligence“ (Kooperative und kognitionsgestützte künstliche Intelligenz).

Im Sonderforschungsbereich/Transregio „Erklärbarkeit konstruieren“ (SFB/TRR 318) gehen Bielefelder und Paderborner Wissenschaftler*innen bereits den kooperativen Praktiken des Erklärens auf den Grund – und wie diese im Design von KI-Systemen berücksichtigt werden können. Gleichzeitig setzen Wissenschaftler*innen der Universität Bremen im Sonderforschungsbereich EASE „Wissenschaft der Alltagsaktivitäten“ (SFB 1320) Studien dazu um, welche Fähigkeiten erforderlich sind, damit Roboter ihr Umfeld und ihr eigenes Handeln verstehen können – und darauf aufbauend die passenden Entscheidungen treffen. Forschende der Universität Bielefeld sind an einem Teilprojekt von EASE beteiligt.

Wenn das Frühstück zur Wissenschaft wird

Portrait von Informatikerin Britta Wrede.
„Das große Ziel ist es, das Roboter ausgefeilte Handlungen auch im Zusammenspiel mit Laien umsetzen“, sagt die Informatikerin Britta Wrede.

Die Interdisziplinarität sei zentral, sagt Britta Wrede, Co-Leiterin des Projekts Ö (Öffentlichkeitsarbeit) im SFB/TRR 318 und erklärt, wie die Forschungsschwerpunkte sich ergänzen: „Das Team in Bremen verfügt über Roboter, die hochkomplexe Architekturen aufweisen. Diese interagieren zwar mit den Wissenschaftler*innen vor Ort, aber aktuell nicht mit normalen Nutzer*innen. Bielefelder Roboter wie etwa Pepper interagieren mit Menschen, können aber bislang keine ausgefeilten Handlungen durchführen. In Paderborn wiederum sitzen die Expert*innen für das Prinzip der Ko-Konstruktion, die ihr Wissen um menschliche Interaktion nun auch auf Roboter anwenden werden.“

Im Team der drei Universitäten kooperieren Forschende aus Informatik, Robotik, Linguistik, Psycholinguistik, Psychologie, Philosophie und Kognitionswissenschaften. Mit einem morgendlichen Küchenszenario bietet sich dem Team im Labor ein besonderes Forschungsfeld: „Für jede Alltagshandlung gibt es Variationen“, sagt Philipp Cimiano. „Denn jede*r von uns deckt den Tisch anders oder hat andere Vorlieben. Uns interessieren genau diese Handlungen, die Flexibilität mit sich bringen“, sagt Cimiano. Diese Interaktion zwischen Mensch und Maschine ist ein Beispiel dafür, wo KI sinnvoll eingesetzt werden kann – vor allem, wenn diese auch die Methode der Ko-Konstruktion beherrscht. Im CoAI-Zentrum gehe es nun darum, einen gemeinsamen, konvergenten Forschungsansatz zu entwickeln, der es ermöglicht, Ko-Konstruktion über Disziplingrenzen hinweg zu nutzen.

Ko-Konstruktion: zusammen etwas erschaffen

Portrait der Psycholinguistin Katharina Rohlfing.
„Das Konzept der Ko-Konstruktion bedeutet, dass Kommunikation dynamisch und ein ständiges Anpassen an das Gegenüber nötig ist“, sagt die Psycholinguistin und Sprecherin des SFB/TRR 318 Katharina Rohlfing.

Damit der Roboter eines Tages in der Lage ist, das Frühstücksei nach Wunsch zubereiten zu können, analysieren die Forscher*innen, wie das Erlernen von Fähigkeiten beim Menschen genau funktioniert. Ko-Konstruktion als pädagogischer Ansatz bedeutet Lernen durch Zusammenarbeit. Für die Psycholinguistin Rohlfing ist diese Interaktion nicht ein bestimmter Moment, sondern baut sich auf: „Signale werden laufend hin und her gesendet und haben ein ständiges Anpassen an das Gegenüber zur Folge. Durch diese Adaptation entsteht zwischen zwei Menschen etwas Neues, das zuvor nicht da war.“ So wird verstanden und gelernt.

Die Ko-Konstruktion kennen wir aus der menschlichen Entwicklung. Bringen Erwachsene Kindern etwas bei, bedienen sie sich der Methode des Scaffolding (Gerüstbaus): „Ich als Erwachsene übernehme die Rolle des Kindes an manchen Stellen, damit das Kind seinen Teil an anderen Stellen erfüllen kann und so lernt. Nach und nach wird dieses Gerüst an Hilfestellungen abgebaut“, erklärt Rohlfing. Die Wissenschaftler*innen untersuchen konkret, wie Menschen anderen Menschen in einem Küchenszenario etwas beibringen: Wie funktioniert Gießen, Rühren, Schneiden? „Das geschieht durch Zeigen, Demonstrieren und Präsentieren. Damit KI-gestützte Roboter dieses Prinzip nutzen und manuelle Fähigkeiten erlernen können, müssen sie sensitiv für solche Hilfsstrategien gemacht werden.“  

Neue Repräsentationen in der Roboter-Architektur

Portrait von Informatiker Michael Beetz.
„Roboter können Menschen nur dann sinnvoll unterstützen, wenn sie erfassen, was ihr Gegenüber will und wozu es selbst in der Lage ist“, sagt Michael Beetz, Informatiker an der Universität Bremen und Sprecher des SFB 1320 (EASE)‬.

Auch für die Informatiker*innen ist das Verstehen menschlicher kognitiver Fähigkeiten fundamental. „Sobald der Roboter erfassen kann, was der Mensch will und wozu er selbst in der Lage ist, kann er ihm in der direkten Interaktion helfen“, sagt Michael Beetz, Sprecher des SFB EASE. „Denn wenn wir keine Idee davon haben, können wir keine Systeme realisieren, die mit und für den Menschen agieren.“

Das Ziel sei, entsprechend neue technologische Grundlagen für Roboter- und KI-Systeme zu schaffen. „Dazu bedarf es neuer Architekturen, die all diese Dinge zusammenbringen: Dialog, Aktion, Wahrnehmung, Planung, Reasoning (Schlussfolgern), Allgemeinwissen, Partnermodellierung. Alle diese Aspekte, die notwendig sind für eine andere Qualität der Mensch-Maschine-Interaktion“, so Beetz. Mithilfe dieser neuen Repräsentation im Roboter – dem Verständnis für Menschen, aber vor allem für das Tun, ergeben sich Anwendungsszenarien, die laut den Forschenden eine Grundlage für eine flexible und sinnhafte Interaktion von Robotern und Menschen im Alltag bilden können.