Zur Verabschiedung des Neuroinformatikers Professor Dr. Helge Ritter in den Ruhestand richtet die Technische Fakultät am kommenden Montag, 25. März, ein Symposium aus. 150 Gäste blicken zurück auf seine wissenschaftliche Karriere und sein Wirken in der Neuroinformatik, dem Maschinellen Lernen und der Robotik. Fünf seiner Wegbegleiter*innen spannen mit ihren Vorträgen einen Bogen zwischen Vergangenheit und Gegenwart.
„Professor Ritter kommt eine herausragende Rolle bei der Erforschung neuronaler Informationsverarbeitung und deren computergestützten Anwendungen zu“, sagt Professor Markus Nebel, Dekan der Technischen Fakultät. „Mit seinen stark interdisziplinär ausgerichteten Arbeiten hat er einen bedeutenden Beitrag zur zukünftigen Entwicklung künstlicher Systeme mit kognitiven Fähigkeiten geleistet“, so Nebel.
© Susanne Freitag
Wie Roboter intuitiv handeln können
Ein Forschungsschwerpunkt von Ritter liegt seit drei Jahrzehnten auf der menschlichen Hand und dem Greifen und Begreifen. Er widmet er sich vor allem den Prinzipien neuronaler Berechnungen, insbesondere selbstorganisierender und lernender Systeme, und deren Anwendung auf Roboterkognition, Datenanalyse und interaktiven Mensch-Maschine-Schnittstellen.
In seinen zahlreichen Forschungsprojekten und Kooperationen untersuchte er unter anderem, wie wir lernen, unsere Umwelt dank unserer Hände buchstäblich zu begreifen. Wenn diese gewonnenen Erkenntnisse auf Roboter übertragen werden, ermöglichen sie es den Robotern, ihre Wahrnehmung der Realität zu überprüfen und Lücken in ihrem Verständnis aufzudecken. Ritter erweiterte zudem das Konzept der Self Organizing Maps, topologische Merkmalskarten, anhand derer Muster in hochdimensionalen Daten strukturiert werden und sie für Menschen intuitiv erkennbar machen. Anwendungsgebiete sind unter anderem die Steuerung von komplexen Roboterbewegungen.
Thomas Schack: Es geht einfach darum, unbekannte Objekte kennenzulernen und auszuprobieren, wie diese Objekte funktionieren, aber eben auch dabei zu lernen über die Eigenschaften der Objekte irgendetwas, was bei Menschen scheinbar relativ spielerisch geht, und damit sozusagen die Handlungskompetenz des Roboters zu verbessern und eben auch zu helfen, komplexere Motorplanungsprozesse ausführen zu können.
Helge Ritter: Bei dem Großprojekt FAMULA geht es darum, manuelle Intelligenz zu verstehen, und zwar in ihrem Zusammenspiel mit Sprache und mit Lernen. Es geht technisch darum, Hände zu koordinieren, Roboterhände mit Tastsensoren, um etwa so Dinge leisten zu können, wie wir sie im Alltag machen.
Wir greifen Objekte, wir inspizieren sie. Familiarisierung ist ein wichtiges Thema, zu verstehen, wie wir Objekte kennenlernen. Wenn ich neugierig bin, erkenne ich, dass ich hier etwas aufmachen kann.
Dann finden wir in der Box ein anderes Objekt.Ich erkenne, das ist etwas Rundliches. Wenn ich ein Kind bin und das zum allerersten Mal sehe, dann lerne ich durch Sprache, das ist ein Apfel.
Und es gibt dann auch komplexere Objekte, die für Roboter heutzutage noch sehr anstrengend sind, wie etwa solche formvariablen Tücher, für uns etwas ganz Gewöhnliches. Aber so etwas mit einem Roboter zu manipulieren, erfordert, dass man nicht nur starre Körper repräsentiert, sondern auch Beweglichkeit. Das kann ja ganz verschiedene Formen annehmen.
Wir denken überhaupt nicht darüber nach, wenn wir mit solchen Objekten hantieren. Ich schaue das Objekt auch gar nicht an. Der Tastsinn meiner Hände sagt mir genau, wie ich das in den Händen habe, wie ich das falten kann.
All das können Roboter heute noch nicht.
Thomas Schack: Wir haben beispielsweise eine Studie, bei der den Versuchspersonen die Augen verbunden werden, um zunächst den visuellen Input einzuschränken. Und sie arbeiten dann mit künstlichen Objekten.
In diesen Objekten wurde Gewicht, Form und Größe systematisch variiert, um herauszubekommen, wie wir uns diesen Eigenschaften nähern, diese Eigenschaften abspeichern und dann später wieder nutzen in manuellen Handlungen. Es geht eben auch darum, was die Funktionalität solcher Objekte ist. Also herauszubekommen, was auch die funktionellen Eigenschaften sind.
Und auch dazu wird der Aufgabenkontext manipuliert. Also es werden die Objekte einerseits gegriffen, es sollen aber auch unterschiedliche Dinge mit diesen Objekten getan werden. Es geht aber insgesamt darum, eine Datenbank anzulegen, die eben auch mitgenutzt werden kann in der Robot-Mensch-Interaktion.
Weil ja schließlich der Mensch dem Roboter helfen soll, die Eigenschaften dieser Objekte zu verstehen.
Sven Wachsmuth: Bisher muss man Robotern entweder sehr, sehr detaillierte Modelle über die Objekte geben oder aber der Roboter kann nur sehr grob mit Objekten umgehen. Und in Formula ist dort das Ziel, dem Roboter auch in einem Exploitations- und Lernvorgang mit den Objekten sehr fein granulares Wissen zur Handhabung von Objekten beizubringen, auch mit Einbeziehung von Rückmeldungen des Menschen, der dem Roboter dabei helfen kann.
Helge Ritter: Es hat sich sehr viel getan in den Fingerspitzen. Die haben jetzt miniaturisierte Tastsensoren. Die haben wir über Jahre hinweg entwickelt.
Sie haben inzwischen eine Handfläche, die auch taktil empfindlich ist. Und zuallerletzt ist es uns gelungen, taktile, empfindliche Fingernägel zu realisieren, die dann so feine Bewegungen wie etwa mit einem Fingernagel etwas abkratzen ermöglichen. All das sind Dinge, die zusammenspielen und die zusammen erst die hochgradige Geschicklichkeit der menschlichen Hand ermöglichen.
Und das wollen wir natürlich mit den Händen nachmachen können. Deswegen brauchen wir sowas. Ganz viel hat sich auch getan in der Software.
Das ist gewissermaßen die Gehirnintelligenz des Systems. Und da sind sehr viele Weiterentwicklungen, die überhaupt das jetzt erst ermöglichen, eingetreten. Das ist jetzt erstmal ein ausgesprochenes Grundlagenprojekt.
Denn fünffingrige, menschenähnliche Hände sind sehr aufwendig. Und in der Industrie ist man natürlich unter der Notwendigkeit, mit sehr sparsamen, dimensionierten Geräten die Interaktion zu machen. Also zwei Zangengreifer.
Es muss auch alles extrem schnell gehen. Das heißt, es wird alles stromlinienförmig getrimmt. Und das ist jetzt nicht im Fokus, das Projekt, sondern hier ist der Fokus das Verstehen von menschlicher Interaktion.
Vorträge kommen von fünf Wegbegleiter*innen
Die Symposiumsvorträge würdigen die interdisziplinäre Zusammenarbeit mit Ritter. Alle fünf Redner*innen teilen eine wissenschaftliche Verbindung zu Ritter – etwa als Doktorand*innen oder als Kolleg*innen bei Forschungskooperationen. Sie gehen auf gemeinsame Forschungserfolge ein und auf die besonderen Stärken, die Ritter als Persönlichkeit ausmachen. Vortragende sind die Informatikerin und Humanbiologin Professor Dr. Kerstin Schill (Universität Bremen), der Robotiker Professor Dr. Tamim Asfour (Karlsruher Institut für Technologie, KIT), der Neuro- und Bioinformatiker Professor Dr. Thomas Martinetz (Universität Lübeck), der Neuroinformatiker Prof. Dr. Heiko Wersing (Honda Research Institute Europe und Universität Bielefeld) und der Robotiker Dr. Risto Koiva (Universität Bielefeld).
Gelebte Interdisziplinarität
Helge Ritter arbeitete kontinuierlich daran, Synergien zwischen unterschiedlichen Fachbereichen zu schaffen, um gemeinsam Erkenntnisse im Bereich intelligentes Lernen zu finden. Diesem Ansatz der gelebten Interdisziplinarität ging Ritter insbesondere als Koordinator vom Exzellenzcluster CITEC nach. Dabei engagierte er sich in der Entwicklung einer internationalen Plattform für Forschung und Forschungsvernetzung. Ebenfalls trieb er den Ausbau der Forschungsinfrastruktur voran, was dazu beitrug, viele talentierte Studierende sowie Forschende in frühen Karrierestufen zu gewinnen. Heute baut CITEC als Center for Cognitive Interaction Technology der Universität Bielefeld auf diesen Leistungen auf, um weiterhin innovative Forschung und Zusammenarbeit zu fördern.