Skip to main content

Ungewissheit im digitalen Zeitalter


Autor*in: Universität Bielefeld

„Ungewissheit ist etwas, was wir erstmal nicht mögen“, stellt der bekannte Psychologe und Risikoforscher Professor Dr. Gerd Gigerenzer fest. Gigerenzer ist Direktor des Harding-Zentrums für Risikokompetenz an der Universität Potsdam und hat zuletzt das Buch „Klick. Wie wir in einer digitalen Welt die Kontrolle behalten und die richtigen Entscheidungen treffen“ veröffentlicht. Seine Forschung dreht sich neben anderem um die Frage, wie es bei begrenzter Zeit, wenig Information und einer ungewissen Zukunft möglich ist, rationale Entscheidungen zu treffen. Den Umgang mit der Ungewissheit im digitalen Zeitalter thematisierte Gerd Gigerenzer in einem Vortrag der Reihe „Uncertainty-Talk“ am 30. Januar im Zentrum für interdisziplinäre Forschung (ZiF) der Universität Bielefeld.

„Google kennt uns besser als wir selbst“, sagt Gigerenzer. Algorithmen würden als allwissend vermarktet und auch die Regierungen von China bis zu Deutschland würden denjenigen Sicherheit versprechen, die sich nur mehr überwachen ließen. „Wie können wir lernen, vernünftig mit Ungewissheit umzugehen?“, so Gigerenzers Leitfrage.

„Das ist gerade angesichts von Krisenzeiten und einer rasanten Zunahme von komplexen Informationen ein aktuelles wie hochspannendes Thema“, findet auch Professor Dr. Andreas Zick, Direktor des Instituts für interdisziplinäre Konflikt- und Gewaltforschung der Universität Bielefeld. „Gerd Gigerenzer ist einer der renommiertesten Risikoforscher der heutigen Zeit, dem wir zuhören sollten“, sagt Zick. Der Konfliktforscher organisiert die Uncertainty-Talks zusammen mit der Geschichtswissenschaftlerin Professorin Dr. Silke Schwandt und dem Wirtschaftswissenschaftler Professor Dr. Herbert Dawid, ebenfalls beide von der Universität Bielefeld. Silke Schwandt sagt: „Gerd Gigerenzer erklärt mit seiner Forschung zum Beispiel, wie unsichere Zustände dazu führen, dass Bürger*innen sich von Autoritäten bevormunden lassen oder Fake News glauben. Und er zeigt, wie Menschen diese selbstverschuldete Unmündigkeit überwinden können.“

Aufzeichnung des Vortrags von Gerd Gigerenzer


Der Psychologe und Risikoforscher Professor Dr. Gerd Gigerenzer hielt seinen Vortrag am 30. Januar in der Reihe Uncertainty-Talk.

[Dieser Untertitel wurde automatisch erstellt]
Wie trifft man gute Entscheidungen? Oder sollen wir das lieber dem digitalen Assistenten überlassen? Was können Algorithmen? Komplexe Algorithmen? Was können sie nicht? Ist Ihnen auch aufgefallen, dass neue Matratzen und Kühlschränke mit Datenschutzerklärungen kommen? Gehen wir Schlafwandeln in die Überwachung. Ich lade Sie heute ein, zu einer kleinen Reise in die Forschung zum Menschen in einer digitalen Welt. Mein Motto ist Wenn Technik immer smarter wird, dann müssen Menschen auch smarter werden. Aber sind wir das nicht schon? Nun ja, das ist ungewiss. Ich sehe jetzt plötzlich was ganz anderes, als was Sie sehen. Aber gut, sind wir das nicht schon? Nun, eine Studie mit über 400 Vorständen der deutschen DAX Unternehmen und MDAX hat gefunden, dass es bei 92 % der Vorstände keine erkennbare oder dokumentierten Kenntnisse über Digitalisierung gibt. Und das ist einer der Gründe, warum sie entweder generell enthusiastisch oder misstrauisch sind. Eine wie steht es mit Journalisten aus? Eine Untersuchung in Großbritannien zeigte, dass 60 % der Artikel über künstliche Intelligenz von Rechts Telegraph über Guardian über BBC nun von Journalisten geschrieben wurden, die im Wesentlichen die Versprechen der Industrie, Kritik bloß wiederholen. Wie sieht es mit Digital Natives aus? Nun, eine OECD Studie zeigte, dass über 90 % der Digital Natives nicht Fakten von bloßen Meinungen oder Fakes unterscheiden können. Und eine Studie in Stanford, wo wir den Nachwuchs der digitalen Zukunft haben. Dort hatte man 3000 andere Credits und High School Studenten untersucht. Und mit der Fragestellung können Sie die Vertrauenswürdigkeit von Webseiten einschätzen. Die Antwort ist 96 % können das nicht. Und dabei ist Digitalisierung gerade eine tolle Technik, die es uns erlaubt, solche Vertrauenswürdigkeit einzuschätzen, indem man zum Beispiel lateral das Lesen macht, also lateral ist. Lesen bedeutet, dass Sie nicht eine Webseite von oben bis unten durchlesen und dann sagen Oh, sieht cool aus, also muss ich vertrauenswürdig sein, sondern das sind nur anlesen, soweit Sie wissen, um was es geht und dann sofort über das oder über uns rausgehen und auf andere Seiten gehen, um rauszufinden, wer steckt denn dahinter hinter dieser Webseite, um sie in eine bestimmte Weise zu bewegen und diese Beispiele zeigen, dass wir auf der einen Seite eine eine bewundernswerte technologische Entwicklung haben, auf der anderen Seite aber wenig Wert darauf gelegt wird, nämlich die Menschen kompetent zu machen. Es ist in Deutschland ja auch so, dass, wenn Digitalpakt Schule hat haben, der im Wesentlichen darin besteht, Zugang und Technik in die Schulen zu bringen, aber nicht die Jugendlichen darauf vorzubereiten, kritisch zu denken. In einer digitalen Welt. Also mussten Sie heute in einer Service Hotline lange warten. Warum? Nun, ein Algorithmus hat wahrscheinlich berechnet, dass sie einen niedrigen Kunden Wert haben. Angenommen, es ist Samstag und Sie liegen mit Ihrem Partner, Ihrer Partnerin im Bett und schauen Fernsehen. Am nächsten Tag bekommen Sie auf Ihrem Handy Werbung für Viagra oder ähnliche Potenzmittel. Wieso? Nun, Sie haben sich einen Smart TV gekauft und die Datenschutzbestimmungen nicht gelesen. Nun, bei Samsung etwa können Sie nachlesen Führen Sie keine persönlichen Gespräche vor dem Fernseher, denn alle werden aufgezeichnet, genau wie der Rest über Ihr Verhalten und an Dritte weitergegeben. Die. Es handelt sich hier um Risiko. Kompetenz, das heißt. Und ich werde Sie heute anhand von einem paar Beispielen versuchen zum Mitdenken zu bringen. Denn Digitalisierung bedeutet eben nicht, dass wir uns zurücklehnen können, sondern wir müssen genauso smart werden wie die Technik. Sind Sie bereit? Dann fangen wir an Und riesige Kompetenz ist nicht nur im Digitalen, auch im analogen Bereich wichtig. Und die. Tja, und die Corona Pandemie hat uns mal wieder gezeigt, wie wenig wir mental darauf vorbereitet sind. Also es gibt noch eine andere Pandemie, nämlich die Zahl Blindheit der Menschen. Also ein Werkzeug der Ungewissheit ist ja Evidenz zu verstehen. Ich gebe Ihnen mal ein Beispiel. Im November 2005 und 21 war eine der vielen Talkshows, die es damals gab über die Corona Pandemie. Und hier, das war ein Talkshow von und mit Markus Lanz. Und es wurden die üblichen Gäste eingeladen, nämlich ein Virologe, so eine wie in diesem Fall ein Journalist, ein Minister, Präsident und dann noch ein Gast. Markus Lanz zeigte eine Grafik in diesem Sendung, die Sie vielleicht gesehen haben und er sagte Wenn ich das sehe, dann läuft es mir kalt den Rücken runter. Und er fragte seine Gäste Erklären Sie mir das bitte. Ich zeige Ihnen mal die Grafik in groß. Es ging hier um Menschen über 60 und die Grafik zeigte das 91 %. Das ist der oberste Grüne Balken sind geimpft und 9 % nicht. Das ist der rote Balken. Dann zeigte die Grafik, dass unter den neu Infizierten 60 % geimpft sind und 40 % nicht. So zwei Balken. Und die anderen Balken zeigen dann ganz Ähnliches über schwere Erkrankungen bis zum Tod hin. Das schien zu suggerieren, dass Impfung nichts hilft. Das sehen Sie doch auch so, oder? Nun, jetzt würde man meinen, dass wenn es schon der Talkshow Meister nicht versteht, dass vielleicht die Gäste das verstünden. Nur der Journalist sagte Ja, die Impfung ist wohl nicht das, was man uns versprochen hat. Die Virologen hat auch nicht verstanden, dass diese Zahlen ganz klar zeigen, dass Impfung funktioniert. Sondern sie hat gesagt Na ja, bei älteren Menschen ist die Wirkung heute nicht so da. Das ist übrigens auch etwas. Nachdem schon eingeführt worden, muss aufgrund meines Hustens nun sehr viele Ärzte gekommen sind. Darüber bin ich sehr dankbar, dass sie sich um mich kümmern. Aber statistisches Denken, wenn Sie jetzt hier in Bielefeld eine neue medizinische Fakultät haben, dann sollten Sie die ersten sein, die den jungen Ärzten statistisch das Denken beibringt. Und Sie wären in Deutschland die ersten. Okay, zurück zu Markus Lanz. Nun, aus dieser Sendung sind Millionen von Zuhörern und Zuschauern rausgegangen mit dem Eindruck, dass Impfung wohl nicht hilft. Wie kann man das verstehen, dass diese Zahlen das Gegenteil zeigen? Nun stellen Sie sich mal vor, es wäre nicht 91 % geimpft, sondern alle geimpft. Der oberste Balken ganz grün, Was wäre dann? Alle neu Infizierten werden geimpft und auch alle die mit Corona sterben werden geimpft. Das ist das erste, wie man das verstehen kann. Das zweite was verstehen kann ist Stellen Sie sich 100 Menschen über 60 vor. 91 sind geimpft, neun nicht. Jetzt infizieren sich zehn von den 100. Das heißt sechs von den 91 Geimpften und vier von den neun nicht Geimpften. Also unter den Geimpften ist die Chance, etwas über 6 % sich zu infizieren. Unter den nicht Geimpften ist es 4/9, also über 40 %. Das könnte man ganz einfach erklären. Ich nehme das hier als ein Beispiel zur Veranschaulichung eines Kernproblem im Umgang mit Ungewissheit. Wir haben nie gelernt, statistisch zu denken. Wir lernen unseren Kindern in der Schule die Mathematik der Gewissheit Algebra, Geometrie, Trigonometrie und andere schöne Systeme. Aber wir lernen immer noch kaum die Mathematik der Ungewissheit, statistisches Denken und auch noch Heuristiken. Aber das ist ein anderes Betrachten. So. Das gleiche Problem finden wir jetzt auch im digitalen, in der digitalen Welt und wo Algorithmen immer mehr unser Leben bestimmen. Und beginnen wir mal mit einem positiven Beispiel. Also viele von uns suchen den idealen menschlichen Partner. Also ich habe übrigens meine Frau in diesem Raum kennengelernt. Also das hat eine romantische Anbindung für mich. Nun, vielleicht gelingt es heute Abend für Sie auch Zeiten. Aber wir haben inzwischen andere Methoden, nämlich Online Partner Agenturen, die einen Algorithmus haben, wo ihr Profil mit anderen Profilen verglichen wird und so der ideale Partner gefunden werden soll. Ob es. Wir haben hier ein kleines technisches Problem, aber das würden wir schon irgendwie hinkriegen. So ja. Alle elf Minuten verliert verliebt sich ein Single über Parship. Ja, das scheint doch gut zu sein, oder? Alle elf Minuten. Also, Sie zahlen ein paar 100 €. Dann sind Sie Mitglied und warten. Elf Minuten. Diese Werbung ist über Jahre gelaufen und denken Sie mal mit, was das bedeutet. Also alle elf Minuten ein Single. Wir vergessen mal, dass man zwei bräuchte. Das ist in der Minute knapp sechs am Tag unter 44 im Jahr 365 rund 50.000. Wenn Parship 1 Million Mitglieder hat, dann sind 50000 5 % im Jahr 95. Die warten. Und Sie können sich ausrechnen wenn Sie zehn Jahre zahlen und warten, dann haben Sie vielleicht 50, 50 Jahre vor Parship über 5 Millionen Mitglieder hat, wie es behauptet, ist die Chance nicht 5 %, sondern nur 1 %. Aber das halte ich für eine Übertreibung. Diese Ich habe mit versucht, mit verschiedensten solchen, unter Ihnen Agenturen, bei der Recherche zu meinem Buch Clique zu sprechen und Daten zu bekommen, wie viel Kunden sie wirklich haben und wie viele sich am Ende zusammenfinden. Und das, was ich erlebt habe, ist Vernebelung, Vernebelung, Vernebelung. In einem Fall hat man mich gebeten, die Fragen schriftlich einzureichen. Habe ich zehn Fragen eingereicht. Zu diesen Dingen haben Sie gesagt Fünf beantworten wir nicht, nur die anderen. Auf die Antworten warte ich immer noch und die Studien zeigen, die es weltweit gibt, dass die Algorithmen, die nun so den Markt und versuchen, ihren idealen Partner zu finden, bei diesen sogenannten ernsthaften Partner Agenturen im Vergleich zu Tinder, etwa, dass sie keine besseren Ergebnisse finden als die traditionellen Methoden, also dass sie etwa in Online Chatroom gehen und dort Menschen finden, die ähnliche Interessen haben, oder dass sie tanzen gehen. Oder dass sie sich einen Hund zulegen und andere Menschen mit Hunden kennenlernen. So, jetzt ist die Frage Warum kann KI die besten Menschen im Schach und Google schlagen, aber uns nicht den besten romantischen Partner finden? Die Antwort darauf und das sind allgemeine Antwort. Das ist das Prinzip der stabilen Welt. Komplexe Algorithmen. Also wie diese Partner Agenturen. Algorithmen sind in der Tat nicht besonders komplex, aber das ist eine andere Geschichte. Komplexe Algorithmen arbeiten am zuverlässigsten in wohl definierten und stabilen Situationen mit großen Datenmengen. Das ist Schach Go. Das ist ein Industrie Anwendung. Das ist, wenn Sie die Geschichte, wenn Sie Literatur digitalisieren und da sind, ist hoch nützlich. Der Mensch, die menschliche Intelligenz im Gegensatz evolviert, um mit Situationen von Ungewissheit umzugehen. Und die Ungewissheit kam damals wie heute etwa von anderen Menschen, vom Wetter, von der Natur, von Viren und in solchen Dingen, bei der Vorhersage von menschlichen Verhalten wissen wir aus den Studien, dass komplexe Algorithmen nicht besser sind als ganz einfache AI es ganz einfache Algorithmen, die wir Heuristiken nennen, wo man nur auf zwei oder drei Merkmale schaut. Das Prinzip, das zweite, über das Heute sprechen möchte, ist das Prinzip der Anpassung an die KI, um die Leistungen von KI in Situationen von Ungewissheit zu verbessern, müssen wir die Umwelt stabiler und das Verhalten von uns Menschen vorhersagbar machen. Dann funktioniert das, falls wir das wollen. Also als Beispiel Bei der Zeit ist Online Partnerschafts Agenturen gibt, verändert sich das romantische Verhalten vieler Menschen. Also es gibt eine Geschichte aus einem Film, da ist 111 junge Frau und ein Mann haben zusammengefunden und sich ineinander verliebt und sie sind zusammen im Bett und er geht zur ins Bad und sie holt automatisch das Handy raus und geht auf Tinder und sucht nach anderen Männern. Und sie kann sich nicht erklären, warum sie das tut. Es ist einfach automatisch. Man braucht nur zwei links, rechts, links, rechts und so ändern sich auch unsere Werte zum Beispiel. Für manche wird ja Partnerschaft immer mehr zum Optimierungswahn Problem. Also in der Entscheidung steht wie unterscheidet man zwischen Satisfaction? Das heißt man sucht nach in diesem Fall eine Person, die indem man sich verliebt, die gut genug ist, statt ewig weiter zu suchen. Da könnte noch jemand besseres sein und solche Dinge werden verstärkt dadurch. Aber ich gehe dann noch mehr auf das Problem ein. Die um ein Beispiel zum Prinzip der stabilen Welt. Das Beispiel ist die gleiche Maschine kann bestimmte Probleme lösen, aber andere nicht. Also Sie erinnern sich sicher noch, dass Watson IBMs Watson eine erstaunlich Erfolg Leistung hingelegt hat in einem Spiel, das heißt Shepard. Da muss man Sprache mit verstehen und IBM CEO Rosetti hat daraufhin den nun Shoot ausgerufen, nämlich IBM wird jetzt die Medizin revolutionieren und nebenbei auch noch die Geheimdienste und die Finanzwelt. Alles. Und das erste war Wurzeln für Onkologie. Und Sie sehen hier ein Beispiel von einem dieser Werbe Posters, die Wurzel von Carnegie wurde eingekauft von vielen Kliniken in der Welt, also etwa die nach Anderson, einer der renommiertesten amerikanischen Krebs Kliniken, hat 62 Millionen $ von IBM für Watson ausgegeben, bevor sie festgestellt haben, dass Watson die Versprechungen des Marketing Department von IBM gar nicht halten kann und hat ihn gefeuert. IBM hat daraufhin zurück rudert und hat gesagt Oh Watson ist auf dem Level eines Medizinstudenten des ersten Semesters. Watson war sicher der Medizinstudent, der bestbezahlte Medizinstudent. Und inzwischen wird Watson zerlegt und in seinen Teilen verkauft. Und IBM hat erkannt, dass es ja. Also die Ingenieure wussten das schon immer, dass es nicht geht. Aber das Marketing Department hat das dominiert. Und Sie sehen hier ein Zitat von Oren Etzioni, der Chef des Instituts für Chemie der IBMs Watson mit den Versprechungen von Donald Trump vergleicht. Und der Punkt, den ich machen möchte, ist Es ist ganz wichtig, sich die Frage stellen Was können komplexe Algorithmen leisten und was ist nur Marketing, Hype oder Techno? Religiöser Glaube wie zum Beispiel Kurzweil als Superintelligenz oder Harari als Homo Deus? Alle Fantasien, die mit der Realität so wenig zu tun haben wie Watson mit Onkologie. Und es ist ganz wichtig, hier aufzupassen. Und ich gebe Ihnen jetzt noch ein zweites Beispiel, Was zum Mitdenken helfen soll. Und es geht über Gesichtserkennung. Wir haben in vielen Ländern Regierungen, die versuchten, digitale Technologien einzusetzen, um uns alle zu überwachen. Und das ist nicht nur in China. Wir haben das in Deutschland immer wieder. Ich lebe in Berlin, und in Berlin passierte ein schreckliches Attentat am Weihnachtsmarkt und 2017 und 18 wurde daraufhin ein Projekt durchgeführt, von dem Bundesinnenminister zuerst de Maiziere, dann war es Seehofer. Und wo man Kameras am Bahnhof Südkreuz montiert hat und einige 100 von Leuten eingestellt hat, die sollten Verdächtige spielen, die mussten jeden Tag durchgehen. Und dann hat man untersucht, Wie gut sind diese Gesichtserkennung, Kameras. Und nach einem Jahr hat man zwei Zahlen angegeben. Die sehen Sie hier. Das System hat eine Trefferquote von 80 % und eine falsche Alarm Rate von nur 0,1 %. Also Treffer bedeutet, dass man von 100 Verdächtigen 80 richtig erkennt und falscher Alarm gerade bedeutet, dass man von 1000 nicht verdächtigen normalen Leuten. Wir sehen nur eine. Ja, für einen gesuchten Helden. Und Seehofer, der ja nicht bekannt ist dadurch, dass er mit Zahlen sehr gut umgehen kann, hat darauf daraufhin verkündet, dass das Ergebnis zeigt Wir können das jetzt flächendeckend in ganz Deutschland einsetzen, also Kameras an allen Bahnhöfen. Nun aber das Ergebnis klingt doch gut, oder? Sie sehen hier noch ein paar Zitate von anderen Politikern, wo zum Beispiel der Vorsitzende der Deutschen Polizeigewerkschaft sagt, dass die Falscher Alarm gerade in einem kaum messbaren Bereich liegt. Kann man vernachlässigen, oder? Oder eine Abgeordnete des Europäischen Parlaments, die hat ja einen Zwitter, eine Twitter Auseinandersetzung mit anderen Leuten, die sich auf unsere uns Statistik berufen haben. Das sollte ich erklären. Ich schreibe mit drei Kollegen zusammen die Statistik des Monats. Das können Sie unter uns Statistik oder e nachlesen, wo wir Pressemeldungen nehmen, die die Zahlen verdrehen, absichtlich oder unabsichtlich und erklären. Und das war auch eine der Statistiken. Gut. Nun aber nicht Referate von 80 % und eine pauschale Rate von 1 % ist so beeindruckend. Aber denken Sie mal noch. Also laut Bundesbahn sind jeden Tag 12 Millionen Menschen an Bahnhöfen bei einer Falscher Alarm Rate. Praktisch alle von denen sind nicht gesucht, Bei einer falscher Alarm Rate von 1000 erwarten wir das. Wie viele Menschen jeden Tag angehalten werden. Durchsucht werden müssen, festgehalten werden müssen, bis man ihre Identität feststellt. Also, wie viele unschuldige Menschen würden jeden Tag für verdächtig gehalten? Na ja, von 12.001.000 sind 12.000 und das jeden Tag. Also die Einführung eines solches Modells würde dazu führen, dass die Polizei damit beschäftigt wäre, unschuldige Menschen wie uns alle ständig zu untersuchen und für die eigentlichen Arbeiten keine Zeit oder kaum Zeit hätte. Das heißt, diese Systeme führen nicht zur Sicherheit durch Überwachung, sondern sie führen zur Disruption des ganzen Systems. Klar, Massenüberwachung funktioniert nicht mit Gesichtserkennung. Was funktioniert? Mit Gesichtserkennung sind zwei andere Probleme, nämlich Identifikation. Das heißt, wenn eine Kamera in der Ubahn ist und einen Vorfall filmt und man dann das Gesicht des Täters vergleicht mit einer Täter. Aber das funktioniert, weil hier haben Sie eine Person, von der sie schon wissen, dass sie schuldig ist und hier haben sie nicht Tausende von Unschuldigen. Und was noch besser funktioniert, ist authentisch. Ist Fixierung nämlich. Also, wenn Sie in Ihr Smartphone schauen und das damit öffnen, dann haben Sie ein Problem. Sie und Ihr Smartphone ist fast nie jemand anders. Massen Erkennung ist Viele Menschen werden mit vielen verglichen. Das ist das Problem. Identifikation ist eine Person mit vielen verglichen. Und Authentifizierung heißt es meistens. Sie und Ihr Smartphone kann sie gut lesen. Also hier ist es wichtig, das zu lernen. Das Problem ist, dass in den meisten Bereichen der Politik diese Unterscheidung nicht bekannt sind. Also wir brauchen bessere Politiker, brauchen bessere Journalisten und wir brauchen auch eine Allgemeinheit, die mitdenkt, so künstliche Intelligenz. Ist das das gleiche wie menschliche Intelligenz? Also es gibt ja die Behauptungen immer wieder, wie zum Beispiel Singularität, dass demnächst oder schon künstliche Intelligenz alles tun kann, was Menschen tun kann. Das ist ein großer Fehler. Künstliche Intelligenz ist völlig anders als menschliche Intelligenz. Und damit meine ich jetzt mit Künstliche Intelligenz jenen Teil, der heute am erfolgreichsten ist. Also tiefe künstliche neuronale Netzwerke. Und hier ist nur ein Beispiel dafür, dass auch die besten natürlichen Sprachen Modelle wie PPT zwar sehr gute Antworten bringen können, aber sie verstehen nicht, was sie tun. Ja, das ist genau das gleiche wie Alpha Zero jeden von uns in Schach und Go schlagen kann. Aber das Programm weiß nicht mal, dass es ein Spiel gibt, das Schach heißt. Und das auf der anderen Seite. Es kann nur etwas sehr gut sein. Sie erwarten ja auch nicht von Ihrem Kühlschrank, dass der philosophiert darüber, was Kälte ist, sondern er kühlt einfach gut. So, das ist ein Beispiel, was Sie einfach nur mitgebracht haben, weil es von Isaac Hofstetter stammt, den Sie vielleicht noch erinnern über Gödel, Escher, Bach. Das war einmal die Ikone der künstlichen Intelligenz, und er hat sich ein Spaß daraus gemacht, weil er so verärgert war über diese ständigen Behauptungen und hat also, wenn Sie Wikipedia Free eine vernünftige Frage stellen, kriegen Sie auch eine vernünftige Antwort in der Regel, wenn Sie nicht zu tief schauen. Also das hat mein Buch, das im deutschen Glück heißt, im Englischen How to stay smart. In der Smart Road wurde ein Review geschrieben von Cpt. Sri und das klang gut für jeden, der das Buch nicht gelesen hat und auch wenn Sie genauer hinschauen, es versteht nicht. Aber man sollte eben auch hier einfach bewundern, diese Leistung, dass man so ein Programm machen kann, was einen solchen Text schreiben kann und nicht dann jetzt weiter behaupten, das sei jetzt, nun ja, menschliche Intelligenz oder so etwas. Also die also Hofstetter hat gefragt Wann wurde Ägypten zum Zweiten Mal über die Golden Gate Bridge transportiert und gibt die Antwort. 18. Oktober 2017 Das war irgendwie die beste Antwort, die es fand. Also nochmal mein Punkt ist nicht, jetzt hier zu sagen das ist Unsinn. Nein, mein Punkt ist, wir sollen die Technik bewundern, aber auch wissen, wo ihre Grenzen sein. So was. Der Unterschied zwischen menschlicher Intelligenz und neuronalen Netzwerken. Und ich gebe Ihnen Recht Stichworte menschliche Intelligenz, Macht, kausales Denken. Schon kleine Kinder fragen ständig, Warum sind die Nachbarn reicher als wir? Warum muss ich Brokkoli essen? Und tiefe neuronale Netzwerke sind kausale Maschine. Die berechnen Korrelationen. Es ist für diejenigen unter ihnen, die Statistiken studiert haben, so etwas wie eine multiple Regression, nur rekursiv und mit viel, viel mehr Power. Dann Menschen haben eine intuitive Psychologie, intuitive Physik, intuitives Sozialverhalten. Und ganz interessant Menschen brauchen wenig Daten, um zu lernen. Also Common Sense und Intuition. Das geht sehr schnell und Klassifikation genauso. Also ein Kind muss nur ein Exemplar eines eine Giraffe sehen und dann weiß es was eine Giraffe ist mit in der Dunkelheit, in der Helligkeit, im Zoo. Und so weiter. Ein tiefes neuronales Netzwerk muss Zehntausende von Beispielen sehen. Warum? Weil es eine statistische Maschine ist, die Parameter hat. Und die muss ich schätzen. Es funktioniert völlig anders als menschliche Intelligenz. Und ich zeig Ihnen mal ein paar, was das bedeutet. Entschuldige, aber das geht nicht so, so wie man sich das vorstellt. Ha, Jetzt Technik digital. Okay. Sie sehen auf der linken Seite das Bild eines amerikanischen Schulbus, wenn Sie in USA gelebt haben. Die sind gelb und haben so schwarze Umrahmung. Und in der Mitte sehen Sie Pixels. Die habe ich um das Zehnfache vergrößert und vergrößert, damit Sie überhaupt was sehen. Die Pixel sind von einem sogenannten gegnerischen Algorithmus berechnet worden. Auf der rechten Seite sehen Sie den Schulbus und das Pixel Bild überlappt und sehen Sie rechts immer noch ein Schulbus. Das neuronales Netzwerk sieht jetzt einen Vogel Strauß. Das ist ein Beispiel für unbegreifliche Fehler, die die Netzwerke machen. Genauso könnte ein neuronales Netzwerk denken, würden wir aus seiner Sicht unbegreifliche Fehler machen, zum Beispiel Autofahren. Menschen sind betrunken oder passen nicht auf oder lassen sich durch das Smartphone ablenken. Das ist für ein Netzwerk ja gar nicht denkbar. Ich zeigen das an meine Kinder, am besten an den Fehlern, die man macht. Wie unterschiedlich die beiden Systeme sind. Und hier ist das der umgekehrte Fall Wir haben wieder ein neuronales Netzwerk, was lernt über Zehntausende von Exemplaren Schulbildung, von Schulen, Bussen korrekt zu identifizieren. Und durch diese gegnerischen Algorithmen kann man Bilder finden, die das Netzwerk auch für einen Schulbus hält. Zum Beispiel das Bild, was sie rechts sehen. Die Abfolge von Streifen schwarz gelb, schwarz, gelb, schwarz. Hält das Netzwerk mit 99 % Sicherheit für einen Schulbus. Und Sie möchten so ein Netzwerk nicht auf der Straße haben, in einem autonomen Auto? Was uns hilft, ist an diesen Fehlern kann man so etwas abschätzen, an was sich das Netzwerk orientiert. Und in diesem Fall sind es wohl die Farben. Und wenn Sie die Farben immer wieder wiederholen, dann wird es immer sicherer, dass es ein Schulbus ist. Genauso, wenn Sie ein Zebra haben, erkennen, dass die Streifen Struktur und wenn Sie an Zebra noch zwei weitere Beine ran machen, da gibt es mehr Streifen. Es ist sicherer. Das Zebra ist also hier. Das sind Dinge, die wichtig sind für die Entwicklung von autonomen Fahren, denn die Netzwerke funktionieren in der Regel genau wie Cpt. SSRI sehr, sehr gut, aber machen dann etwas, was für uns vollkommen überraschend kommt. Und das hängt damit zusammen, dass ein neuronales Netzwerk anders als ein Kind kein Konzept von einem Schulbus hat, sondern es analysiert nur Korrelation zwischen Pixels und deren Farben. Und das ist eine völlig andere Intelligenz als unsere. Und kommen wir zurück zu der Frage Sind selbstfahrende Autos zum Greifen nah? Also. Musk verspricht jedes Jahr, dass wir im nächsten Jahr selbstfahrende Autos ist Stufe fünf von der S a e Klassifikation haben. Und ich erklär mal kurz, was diese verschiedenen Stufen sind. Aus dem Grund, weil es in der Presse, in den Medien fast überall eine Konfusion gibt und na ja, also die Stufe eins ist ja, das hat wir schon seit 50 Jahren. Also zum Beispiel Abstand, Kontrolle. Stufe zwei bedeutet, dass man mehrere von diesen Systemen zusammenführt und etwas schafft wie automatisches Einparken. Das sind unsere Autos heute, die sind Stufe zwei. Stufe drei würde bedeuten, dass das Auto wirklich alles kann, was ein menschlicher Fahrer kann. Aber da es nicht zuverlässig ist, muss ein menschlicher Fahrer immer noch aufpassen. Also Stufe 1 bis 3 braucht einen menschlichen Fahrer. Und Sie sehen das Problem, das auf uns zukommen wird. Wenn wir Stufe drei erreichen, werden die Menschen immer weniger aufpassen. Und dann, wenn das unerwartete Ereignis kommt, dann nicht reagieren können. Stufe fünf ist das selbstfahrende Auto. Das ist ein Auto, was ohne einen Menschen der bergab da ist, der aufpasst, fahren kann, und zwar sicher und unter allen Verkehrs bedingungen. Dieses Auto gibt es heute nicht. Und nach meiner Einschätzung wird es auch nie geben, obwohl ständig darüber geredet wird. Also die Autos, die zum Beispiel das Auto, was der bekannte Vorfall wird uber von 2018 ein autonomes angeblich selbstfahrendes Auto von Uber. Nun, eine Frau, die Lena Herzberg überfahren hat. Das war eben kein selbstfahrendes Auto. Da stand eine war eine Fahrerin drin, die hätte aufpassen sollen. Und das war ein Auto und besser das Stufe zwei Auto. Also die, die so das jetzt mal hingestellt. Elon Musk ist einer der letzten, der behauptet, dass nun selbstfahrende Autos da sind. Das Prinzip der stabilen Welt sagt uns Das wird wahrscheinlich nicht funktionieren. Warum? Weil zu viel Ungewissheit da ist. Und die Ungewissheit kommt im Wesentlichen von menschlichen Fahrern. Denn wir sind die Quelle von Ungewissheit für die anderen. Und wir sind eben nicht wirklich berechenbar. Und was passieren wird, ist wahrscheinlich Stufe vier und das ist wesentlich interessanter, weil es wesentlich tiefgreifender ist. Stufe vier bedeutet das sind Autos, die ohne Fahrer fahren können, also kein Fahrer in der Nähe, aber nur in dafür eingerichteten Straßen oder Städten. Das heißt, wir müssen uns anpassen an die beschränkten Möglichkeiten der KI. Und wir müssen Autobahnen bauen, wo diese Fahrzeuge sicher fahren können oder ganze Stadtteile oder ganze Städte umbilden, sodass die auf Stufe vier Autos fahren können. Umbilden heißt, dass auf der Straße niemand anders als diese Autonomen Fahren Fahrzeuge fahren dürfen, dass die Straßen abgeriegelt sind von Fußgängern und von Radfahrern und gut oder alles, was so in den Verkehr kommen könnte. Und vor allen Dingen, dass in diesen Städten, wo Stufe vier fahren, ist, wir nicht mehr fahren dürfen, weil wir das Problem sind. Das ist eine mögliche Zukunft, die passieren wird. Stufe drei hat ein Problem, nämlich was wir gesprochen haben, nämlich die Menschen werden nicht mehr aufpassen und es wird dann zu mehr Unfällen kommen. Die Alternative zu dem ganzen Stufen ist, über Kalifornien hinauszudenken. Und wir haben in Deutschland exzellenten öffentlichen Verkehr gehabt. Also wir sollten statt in Autos, sei es elektrisch oder autonom, meiner Meinung nach investieren, dass man endlich mal wieder ein gutes Verkehrssystem bekommen und das wirklich zugänglich machen und ein Teil der der Illusion von selbstfahrenden Autos ist ja in Kalifornien politisch motiviert. Elon Musk ist bekannt dafür, dass er öffentlichen Verkehr nicht will. Die Millionäre in Kalifornien die Gott Gott, Brüder, vielleicht kennen sie die sind ganz rechts gelagerte. Die nehmen diese Vision von selbstfahrenden Autos, um den Wiederaufbau von öffentlichem Verkehr in Kalifornien zu unterbinden. Und das ist ja in den letzten Jahren wieder mal richtig gelungen, denn man wollte eine Verbindung zwischen Los Angeles und San Francisco bauen. Haben Sie das mitbekommen, wie das nach unten, wie das zerstört wurde? Und dazu gehört auch Uber, der auch an Autos interessiert ist, und die Fiktion von fliegenden Ubers ein. Das sind alles Versprechen. Die IAA, die zum Teil politisch modifiziert sind, um den wirklichen Aufbau von öffentlichen Verkehrsmitteln, wo auch die arm sind, teilnehmen können, zu unterbinden. So, und das letzte ist die Frage gehen wir schlafwandeln in die Überwachung. Ich gebe meine Analogie, um zu verstehen, was es bedeutet, wenn man auf Facebook oder Google oder ähnlichen Plattformen ist. Nun stellen Sie sich vor, in Ihrem Stadt, wo Sie wohnen, sondern in Bielefeld gibt es ein Kaffeehaus, das kostenlosen Kaffee anbietet. Also gehen da alle hin und haben Spaß mit unseren Freunden. Und das ist alles kostenlos. Nur in den Tischen sind Wanzen und an den Wänden Videos, Kameras, die jedes Wort, das wir sprechen, aufzeichnen und auch mit wem. Das ist die Situation in der Analogie, in der Sie sind, wenn Sie auf Facebook oder Instagram sind und in diesem Kaffeehaus sind eine Heerschar von Vertretern, die einem ständig unterbrechen und personalisierte Waren anbieten. Das ist so die Analogie, und diese Analogie zeigt auch, wo das Problem ist. Das Problem ist im Geschäfts Modell dahinter Zahlen mit deinen Daten und dadurch sind die Kunden in diesem Kaffee nicht wir, sondern es sind die Vertreter. Das sind die Kunden. Und die Ware dient in erster Linie den Vertretern, nicht uns. Und diese Vertreter bezahlen unseren Kaffee. Und da hängt eine ganz lange Serie von Problemen dran, die bis dahin führen, dass in einem solchen Geschäftsmodell das primäre Ziel ist, den Nutzer so lange auf der Plattform zu halten, wie es nur geht und auch Bedürfnisse zu erwecken, dass man unbedingt wieder hin muss. Und das zu checken. Das sind einige meiner besten Postdocs arbeiten für kalifornische Firmen und das ist, was sie machen. Und ich würde mir nur wünschen, dass dieses Geschäftsmodell aufhört, sodass meine Postdocs wieder bessere, also ihre Logins für vernünftige Dinge einsetzen können. Dinge, die den Menschen helfen und nicht den wenigen superreichen Milliardären, die diese Firmen leiten. Was ist die Lösung? Diese Analogie zeigt uns auch mit dem Kaffee, was die Lösung ist. Wir brauchen ein Kaffeehaus, wo wir das recht haben, wieder selbst für unseren Kaffee bezahlen zu dürfen. Dann sind wir die Kunden und dann muss man die Algorithmen auch so ändern, dass wir davon haben und nicht die Werbetreibenden. Also das sind die aus meiner Sicht, die wirklich Grundlagen, Dinge, die man angehen muss. Es hilft nichts, wenn Regierungen Facebooks immer wieder mal einige Milliarden Strafe zahlen lassen. Wir können ja nicht anders. Sie müssen ja Facebook verdient 97 % von Werbeeinnahmen. Das ist alles, was zählt. Sie müssen das immer machen. Wir müssen eine rechtliche Form finden und auch eine Politik finden, die das versteht und die einen Weg findet, dass wir wieder für unseren Kaffee bezahlen dürfen. So ist das auch, dass in der deutschen Öffentlichkeit. Nun, wir haben eine Untersuchung gemacht in Deutschland und die Menschen befragt, wie viel wären sie denn bereit zu bezahlen? Pro Monat, wenn Sie wieder der Kunde sind und Ihre Daten nicht über den Kühlschrank, über die Glühbirne, über die Matratze und über alles andere und auch das Auto eingesammelt werden und für Zwecke verwendet werden, die mit dem Fahrzeug oder der Nutzung gar nichts zu tun haben. Wie zum Beispiel herauszufinden, ob Sie gerade schwanger sind, ob sie depressiv sind, ob sie eine schwere Krankheit haben, um dann etwa in USA für sie die Krankenversicherung nach oben zu tragen oder in anderen Weise ihnen zu schädigen. Nun würde man meinen, dass in Deutschland das Bewusstsein das Problem ist, von kommerzieller und auch staatlicher Überwachung mehr ausgereift ist als in anderen Ländern. Wir hatten ja schließlich Erfahrung die Stasi oder noch früher. Nun, wir haben die Deutschen gefragt wie viel wären Sie bereit zu zahlen pro Monat? Hier sehen Sie die Antwort Das ist in diesem Jahr 20 zwei, 20 Nichts sagen 72 % eine repräsentative Untersuchung und nur 18 % sind bereit, irgendetwas zu bezahlen. Und ich habe diese Befragung schon seit einigen Jahren gemacht, zusammen mit dem Versicherer Ergo. Und als ich das zum Ersten Mal sah, war ich wirklich schockiert und ich meinte, wenn wir so denken, dann denken wir genauso, wie es die Milliardäre, die hinter Facebook oder Google oder was auch immer stehen möchten, also uns zu steuern, zu manipulieren. Nur dass wir nichts bezahlen müssen. Jetzt kann man sich fragen, wie viel müsste man denn bezahlen, damit zum Beispiel das Meter Konzern oder früher hieß es Facebook mit Facebook, Instagram und so weiter wie gesamten Umsatz bekommt. Was meinen Sie also wie viel müsste jeder Nutzer weltweit pro Monat bezahlen, sodass der Gesamtumsatz von Facebook erstattet wird? Und damit müssen Sie nicht mal rausfinden, in welchem internationalen Zustand sie sind. Und so weiter. Nun, das kann man ausrechnen. Das liegt ungefähr bei 2 € pro Monat. Also einen Kaffee. Das ist alles. Also, das ist machbar das zu verändern. Aber man braucht dennoch eine Politik, weil es auf der anderen Seite die Industrie der Überwachung des Kapitalismus hat nicht das Interesse, sondern verfolgt größere Träume von Überwachung. Und auch die Verbandelung mit Politik ist viel enger, als viele glauben. Nun, das ist nicht nur ein deutsches Problem, sondern es ist ein internationales Problem. Hier sehen Sie eine Studie, wo viele Länder befragt worden sind und auch dort gab es ganz ähnliche Interessen. Da war die Frage Wären Sie bereit, einen einzigen Dollar zu bezahlen pro Monat. Und unter den Deutschen sind ungefähr 80 % nicht bereit. Auf der anderen Seite die Länder, wo viel mehr Menschen bereit sind, sind diese, die mehr Erfahrung mit Überwachung haben, wie China oder die Arabischen Emirate. Und im Westen geht man Schlafwandeln in die Überwachung. Trotzdem Was Edward Snowden gezeigt hat über die enge Verbandelung zwischen der Industrie in Kalifornien und der amerikanischen Regierung welche immer Couleur, denken wir immer noch, dass das Problem nur in China sei und das Problem in China ist eines und in China hat man das sogenannte soziale Kreditsystem. Das bedeutet, sie alle haben einen Schufa Wert, der ihre Kreditwürdigkeit wiedergibt. Also wenn Sie eine Wohnung mieten möchten, dann verlangen immer mehr Vermieter ihren Schufa Ausweis oder? Und China hat das verallgemeinert. Es ist ein sozialer Kredit für das alles, was messbar ist, über sie mit drin ist. Politisch verhalten und ihre sozialen Verhaltens. Also, wenn Sie ihre alten Eltern besuchen, dann kriegen Sie einen guten Wert, wenn Sie bei Rot über die Straße gehen. Das ist auch gut, da kriegen Sie wahrscheinlich keinen Wert. Aber wenn Sie bei Rot über die Straße gehen, geht es runter. Und wenn Sie im Internet Suchbegriffe eingeben wie Thienemann Square oder Dalai Lama, geht das runter. Und wir wissen auch von, dass eine Reihe von Chinesen damit begonnen hat, ihre Freunde online zu entfreunden, weil sie einen zu niedrigen Wert haben. Und man bekommt auch einen und der Wert geht runter, wenn die Freunde niedrige Werte haben. Also Sie sehen, wie das Situation ist und es ist immer noch ein Experimentier Studium in ungefähr 40 Städten und die machen unterschiedliches. Aber wenn sie einen hohen Wert haben, dann werden sie zum Beispiel bevorzugt im Krankenhaus behandelt werden, der anderen warten müssen. Wenn sie einen zu niedrigen Wert haben, dann dürfen sie nicht mehr fliegen, nicht mehr die schnellen Züge benutzen oder die Kinder dürfen nicht mehr auf die besten privaten Schulen. Und dann werden sie zweimal nachdenken, was sie machen. Sie sehen hier bei der Abbildung Diese Werte gibt es nicht nur für Individuen, sondern auch für für Fabriken, die meine chinesischen Freunde sind einmal vorsichtig, aber wir wissen von Studien, dass anscheinend die meisten Chinesen das gut finden, weil man versucht, wieder eine Gesellschaft zu haben, wo man weniger Korruption hat, mehr Vertrauen in die anderen zu haben kann. Und sie sagen, die Guten werden belohnt und die Schlechten bestraft. Der Preis dafür ist Überwachung und Steuerung. Nun meinen viele, das ist ein chinesisches Problem, das bei uns nicht. Aber wir haben im Westen ganz ähnliche Überwachungssysteme. Nur in China ist das offen und bei uns versucht man das zu verdecken. Und hier ist ein nur ein Beispiel von einem der großen Data Brokers Axiom. Und hier sehen Sie, was Axiom für Daten sammelt weltweit. Und es hat auch Daten, angeblich über 50 Millionen Deutsche, also viele von ihnen hier und für jede Person angeblich Tausende von Datenpunkte. Und hier wird ebenfalls alles gesucht und man darf in Deutschland nicht so viel suchen wie in USA, aber es wird dann sehr oft einfach dennoch gemacht. Also das ist die Frage Möchten wir eine Zukunft, indem wir alle einen sozialen Kredit haben und sofort wissen, wem wir vertrauen können oder nicht? Zumindest in dem Sinne, dass sich die Person so verhält, wie der Staat das möchte. Und auch die Firmen, die dahinter stehen. Oder möchten wir eigentlich eine Demokratie haben, wo wir selber noch entscheiden können und uns verhalten können, ohne dass wir immer schielen müssen? Geht unser Kredit weiter runter oder rauf? Das wird die Frage sein der Zukunft. Und hier sieht man auch in, dass in vieler Weise Digitalisierung unsere neue Form von Ungewissheit bringt. Nämlich Wie ist das Verhältnis von Demokratie mit Digitalisierung? Also wir sehen in Kalifornien, dass sich viele Tech Firmen so verhalten, als ob Demokratie für sie nicht zählt. Und wir sehen eben auch hier in Deutschland, dass das Bestreben von Kontrolle in vielen Bereichen nun durch die neuen Techniken realisiert werden. Aber was wir aus meiner Meinung brauchen ist wir brauchen wieder ein Internet, was die ursprüngliche Vision hat. Die Vision, Zugang von Menschen von allen Menschen auf dem Planeten zu Information, die sauber ist, die nicht werbe getrieben ist und wo Menschen auch dem Ziel der Aufklärung näher kommen können. Das ist nur zum Teil realisiert und zum großen Teil ist das Ganze kommerzialisiert worden. Und wir haben inzwischen genauso wie irreführende Information, wie nützlich Information. Also wir müssen einen Weg finden, damit wir das Internet wieder zu etwas machen, mit wir wirklich leben möchten. So, und ich komme zum Schluss. Ich habe heute gesprochen darüber, wie sich menschliche Intelligenz von künstlicher Intelligenz unterscheidet. Und die Antwort ist Es sind völlig verschiedene Systeme. Wenn man jetzt neuronale Netzwerke nimmt im Vergleich zu menschlicher Intelligenz, und das ist sozusagen etwas Beruhigendes für sie, das heißt, sie werden nicht demnächst oder Ihre Kinder werden nicht von Robots, von Superintelligenzen im Zoo von Bielefeld ausgestellt werden. Ich habe über das Prinzip der stabilen Welt gesprochen, nämlich Das gibt uns eine erste Orientierung. Was sind die Probleme, die KI wahrscheinlich lösen können, und was sind die Probleme, die es nicht lösen kann und wo wirklich menschliche Intelligenz gefordert wird? Und das Prinzip der Anpassung an die KI ist eine Folge des ersten Prinzips, nämlich wenn wir die einsetzen möchten, müssen wir die Umwelt ändern und uns auch berechenbarer zu machen. Und am Ende die Frage Gehen wir schlafen und sind in der Überwachung? Und wenn wir Häuser, Fabriken und Städte smarter machen, warum dann nicht auch die Menschen? Vielen Dank für eure Aufmerksamkeit.

Interview: „Wohin uns die Technologie führen wird, ist eine neue Erfahrung von Ungewissheit“

Anlässlich seines Vortrags im Zentrum für interdisziplinäre Forschung ging Gerd Gigerenzer im Interview darauf ein, was den Umgang mit Ungewissheit in der heutigen Zeit ausmacht.

Warum trägt, Ihrer Meinung nach, das digitale Zeitalter zusätzlich zur Ungewissheit der Menschen bei?

Gerd Gigerenzer: Digitale Technologie verändert uns alle, unsere Aufmerksamkeit, die Konzentration und auch unsere Werte. Wir sind so vernetzt wie nie zuvor. Die Kinder, die heute geboren werden, werden wahrscheinlich keine privaten Momente in ihrem Leben mehr erleben, in denen sie nicht überwacht, gescort und analysiert werden. Zugleich werden wir mit Medien-Hype überflutet, die uns alles verspricht, bis hin zum ewigen Leben in der Cloud. Wohin uns die Technologie – und die Interessen der Tech-Milliardäre hinter ihr – führen wird, ist eine neue Erfahrung von Ungewissheit.

Inwiefern führen unsichere Zustände dazu, dass sich Bürger*innen von Autoritäten bevormunden lassen oder Fake News glauben?

Gerd Gigerenzer: Regierungen und Tech-Konzerne versuchen uns zu überzeugen, dass wir besser daran sind, ihrer Autorität zu folgen und im Gegenzug dann Sicherheit erhalten. China ist etwa derzeit dabei, sein Sozialkredit-System landesweit auszuweiten. Alle Bürger erhält einen Punktwert, der ihr sozial- und politisch konformes Verhalten misst, und alles andere Verhalten, das man digital erfassen kann. Personen mit hohem Score erhalten Bonusse, wie bevorzugte Behandlung im Krankenhaus; jene mit niedrigem Score werden bestraft – in den letzten Jahren durften etwa zehntausende Menschen keine Flugtickets kaufen und ihre Kinder nicht auf die besten Privatschulen senden. Die meisten Chinesen finden das System gerecht. In Deutschland sind nach meinen Studien in 2022 bereits 20 Prozent der Erwachsenen für die Einführung eines Sozialkredit-Systems, und noch mehr unter den Jüngeren und Beamten. Staatliche Autorität und Überwachung wird immer mehr akzeptiert, Privatheit ein Wort der Vergangenheit.

Welche Strategie ist laut Ihrer Forschung besonders hilfreich, um Ungewissheit zu bewältigen?

Gerd Gigerenzer: Wir müssen alle wieder lernen, mitzudenken. Nach einer Studie über britische Journalisten, die zu KI-Themen schreiben, bestehen 60 Prozent dieser Medienberichte im Wesentlichen aus einer kritiklosen Wiederholung von Industrie-Werbung. Nach einer kalifornischen Studie wissen 96 Prozent von über 3,000 Studenten nicht, wie man die Glaubwürdigkeit einer Webseite beurteilen kann. Wenn Kühlschränke, Häuser und Städte smart werden, warum dann nicht auch die Menschen?

Professor Dr. Gerd Gigerenzer
Der bekannte Psychologe und Risikoforscher Gerd Gigerenzer war zu Gast im Zentrum für interdisziplinäre Forschung der Universität Bielefeld. Foto: Arne Sattler

Zur Person

Professor Dr. Gerd Gigerenzer ist Gründer und Gesellschafter von Simply Rational – Das Institut für Entscheidung. Er war unter anderem Direktor des Forschungsbereichs „Adaptive Behavior and Cognition“ (ABC) am Max-Planck-Institut für Bildungsforschung und am Max-Planck-Institut für Psychologische Forschung, München, Professor an der University of Chicago und John M. Olin Distinguished Visiting Professor an der School of Law der Universität von Virginia. Er ist Mitglied der Deutschen Akademie der Wissenschaften (Leopoldina) sowie der Berlin-Brandenburgischen Akademie der Wissenschaften, Ehrenmitglied der American Academy of Arts and Sciences und der American Philosophical Society. Seine mehrfach ausgezeichneten Sachbücher „Das Einmaleins der Skepsis“, „Bauchentscheidungen: Die Intelligenz des Unbewussten“ und „Risiko: Wie man die richtigen Entscheidungen trifft“ wurden in 21 Sprachen übersetzt.

Mehrere Uncertainty-Talks

Die Uncertainty-Talks sind aus einer Forschungsinitiative an der Universität Bielefeld hervorgegangen. Der Zusammenschluss beschäftigt sich intensiv mit Unsicherheit. Koordiniert wird die Initiative von Professorin Dr. Silke Schwandt, Professor Dr. Andreas Zick und dem Professor Dr. Herbert Dawid. Lange Zeit ist Unsicherheit als allgegenwärtige Bedrohung betrachtet worden, die es zu kontrollieren und im Zaum zu halten galt. Die neue Initiative strebt hingegen danach, die Forschung zu Ungewissheiten und Unsicherheiten auf eine breitere Basis zu stellen und voranzubringen. Dafür stellt sie die vielfältigen Arten der Navigation von Unsicherheit in den Mittelpunkt. Die Uncertainty-Talks sollen durch verschiedene Blickwinkel auf diese Analyse einen Beitrag zum interdisziplinären Verständnis dieses Forschungsansatzes leisten.

Außer dem Vortrag von Gerd Gigerenzer fanden diese „Uncertainty-Talks“ statt:

  • Professor Dr. David Tuckett vom University College London, Großbritannien. Der Ökonom und Medizinsoziologe stellte seinen Vortrag am 5. Dezember 2022 unter den Titel „Conviction Narrative Theory: Understanding ambivalence as a way forward” (Erzähltheorie der Überzeugung: Das Verstehen von Ambivalenz als Schritt vorwärts). Die Aufzeichnung ist hier zu sehen.
  • Professor Dr. Armin Nassehi von der Ludwig-Maximilians-Universität München. Der Soziologe sprach am 19. Dezember 2022 über das Thema „Entscheidungen unter Unsicherheitsbedingungen. Ein Pleonasmus oder ein steigerbarer Sachverhalt?“ Zur Aufzeichnung geht es über diesen Link.

Das Zentrum für interdisziplinäre Forschung (ZiF) der Universität Bielefeld ist eine unabhängige, thematisch ungebundene Forschungseinrichtung und steht Wissenschaftler*innen aller Länder und aller Disziplinen offen. Das ZiF befindet sich auf dem Südcampus der Universität Bielefeld, Adresse: Methoden 1, 33615 Bielefeld.