 Ja, hallo. Zum Vortrag debugging the mind. Ja, fange ich mal an, oder? Gut, also mein Vortrag geht es um kognitive Bayes, wie angekündigt war. Und zwar ist das der Aufbau, den ich mir gedacht hatte. Ich gehe zuerst die verschiedenen Arten der kognitiven Verzerrung durch. Also natürlich nicht alle. Das würde sehr, sehr lange dauern. Sondern ich habe mir ein paar rausgepickt, die so alltagsrelevant sind. Macht dann ein paar konkrete Beispiele. Und dann kann man diese Bayes sozusagen verallgemeinern. Das haben zuerst in den 70er Jahren zwei Forscher vorgeschlagen. Und kommt dann zu dem Konzept der kognitiven Heuristiken. Das ist der zweite Teil des Talks. Ja, was ist ein Bayes? Ich habe da eine ganz gute Definition gefunden. Das ist eine Tendenz, die verhindert, dass man eine Frage vorurteilsfrei betrachtet. Ja, also ein ganz, ganz häufiger Bayes, den sicher alle von uns schon mal, ja, ich sage mal, den alle von uns schon mal reingefallen sind. Das ist der Bestätigungs Bayes oder auf Englisch Confirmation Bayes. Das bedeutet, dass Informationen, die die eigene Meinung, mit der man schon ankommt, bestätigen, bevorzugt wahrgenommen werden. Beziehungsweise alles andere, was diese Meinung nicht bestätigt wird, verworfen. Oder man tut das ab als Spezialfall oder besondere Ausnahme. Ja, das führt also dazu, dass man eben durch diese, dass man die Welt in einer Art sieht, die durch das, durch die eigene vorgefasste Meinung sozusagen schon eingefärbt ist. Das ist in diesem Comic hier ganz gut wiedergegeben von Dilbert. Also die Frau kommt da rein und sagt, ja, ich weiß, dass sie Bulli sind. Und er erwidert dann, bin ich nicht, aber dadurch, dass du das erwartest, klar, wird jetzt alles, was ich sage, so klingen. Ja, es gibt weitere Beispiele. Das ist zum Beispiel ein gefährlicher Bayes auch in der Wissenschaft. Und da, denke ich, kann man sagen, auch sehr, sehr verbreitet. Auch wenn man eine wissenschaftliche Studie macht, wie im Alltag, dann erwartet man ja ein bestimmtes Outcome. Also auch wenn es natürlich nicht so sein sollte, aber Studien werden ja von Menschen gemacht und die bringen alle ihre eigenen Meinungen mit. Und noch schlimmer sogar, wenn eine Studie aus einer bestimmten Quelle finanziert wird, dann ist diese Meinung ja sozusagen instituzionalisiert. Das heißt, das Pharmaunternehmen, das die Studie sponsert, geht natürlich davon aus, dass das eigene Medikament ein gutes ist und wirksam ist. Und die Mitarbeiter, die von dieser Firma bezahlt werden, die übernehmen dann quasi von Beruf, ist wegen dieser Auffassung. Und so kommt das dann, dass Ergebnisse, die diese Erwartung gestätigen, vermehrt wahrgenommen werden oder vermehrt dokumentiert werden. Wenn die Studie, ich sage mal, ein schlechtes oder unkontrolliertes Design hat, weil es gibt natürlich Maßnahmen, um dagegen zu wirken. Und so werden dann Dinge positiv getestet, die eigentlich keine Wirkung haben oder sogar eine negative Wirkung. Oder weitverbreitet ist das sicher auch in Schulen beispielsweise, wenn also Lehrer oder Lehrerinnen mit dem Vorurteil ankommen, also ein bekanntes Vorurteil ist ja, dass Mädchen schlechter in Mathe sind oder auch dass Kinder, die aus dem Ausland kommen und Probleme mit der deutschen Sprache haben. Deswegen automatisch in allen Fächern schlechter sind, was ja nicht so sein muss. Und sowas kann sich leicht auf die Notengebung auswirken. Das kann man sich hervorstellen, weil das ja immer noch sehr in den Händen des individuellen Lehrers liegt und kaum kontrolliert wird. Und eine andere Art von Confirmation-Bias ist, wenn man selber eine Entscheidung trifft, beispielsweise für einen neuen Laptop, dann fallen einem hinterher vermehrt positive Berichte über diesen Laptop auf, weil man natürlich seine Entscheidung für gut halten will im Nachhinein oder das umgekehrte gibt es auch, wenn man im Nachhinein unzufrieden ist, dass einem dann auffällt, dass negativ berichtet wird. Obwohl sich die Frequenz der positiven und negativen Berichte eigentlich im Vergleich zu vorher gar nicht verändert hat. Ja, das war der Confirmation-Bias. Dann komme ich gleich zum nächsten. Das ist die Erinnerungsverzerrung oder Recall-Bias. Es ist so, dass wir ja, wenn wir zurückdenken, was vor einem Jahr unsere Meinung war oder auch nur was letzten Wochen unsere Meinung war, dann haben wir keine Möglichkeit mehr ein objektives Bild darüber zu erhalten. Es sei denn, wir hätten das aufgeschrieben und warum sollten wir es aufschreiben? Das passiert ja ganz selten. Deswegen ist unsere eigene Erinnerung immer verzerrt. Und ein ganz gutes Beispiel dafür, also viele kennen bestimmt noch diese Serie, Aktenzeichen X-Opsilon, ungelöst, die ja zu guten Zeiten bestimmt ein Großteil der deutschen Bevölkerung oder zumindest der deutschen Rentnerschaft vor den Fernseher gelockt hat. Und nach jeder Sendung denken dann die Zuschauer zurück, was in den letzten Tagen auffälliges passiert ist, weil sie durch diese Sendung sensibilisiert sind und dann fallen ihnen ganz viele verdächtige Personen ein, die sie gesehen haben. Wenn sie die Sendung nicht gesehen hätten, dann hätten sie das einfach so abgetan als Alltagserscheinung. Und so kommt es dann natürlich auch zur Falschmeldung bei der Polizei. Ja, oder eine andere Sache, ein anderes Beispiel für Recall-Bias, wenn sich im Nachhinein herausstellt, dass irgendjemand besondere Leistung erbringt, also positiv oder negativ, also bekannter Schauspieler oder Unternehmer oder auch Verbrecher, dann denken die Leute, die ihn früher gekannt haben, zurück und meinen dann damals schon erkannt zu haben, dass sich da was ganz Besonderes abzeichnete. Aber es ist natürlich so, dass Lehrer oder Erzieher oder auch Eltern sich das ganz oft denken und es hinterher wieder vergessen. Und nur, wenn man hinterher nochmal darauf aufmerksam gemacht wird, dass es tatsächlich passiert ist, dann denkt man zurück und meint sich daran erinnern zu können, dass man es damals schon gewusst hat. Ja, das kann man, das kann man auch für allgemein an, es kommt ja ganz oft zu zuverlegen erfolgen, also Dinge, die einfach passieren, gut laufen, schlecht laufen. Und wenn man dann zurückdenkt, dann findet man möglicherweise in der Erinnerung Verhaltensweisen oder Umstände, die das erklären. Das kann ganz gefährlich sein. Es gibt ja diesen häufig geäußerten Verdacht, dass Impfungen Autismus auslösen. Der hält sich auch hartnäckig gegen alle gegen lautenden Studien oder auch der Verdacht, dass Impfungen alles andere möglichst schrecklich auslösen. Aber nehmen wir mal den Autismus. Und es ist ein Zufall, dass Kinder die Masamumsrötelimpfung in einem Alter erhalten, also 11 bis 14 Monate, wo sich im Nachhinein betrachtet auch bei autistischen Kindern die ersten Verhaltensauffälligkeiten gezeigt haben. Das ist Korrelation, aber nicht Kausation. Und wenn die Eltern dann irgendwann im Alter von 2 oder 3 oder 4 Jahren, was so das Alter ist, wo die definitive Diagnose gestellt wird, feststellen, dass ihr Kind autistisch ist, dann denken sie zurück und sind durch diese Diagnose sensibilisiert und denken nach, was war denn, hätte ich das merken können und wann ist uns das denn aufgefallen und was war denn zu der Zeit, also was aufgefallen ist und ja, die Impfung, das war der Recall-Bias. Dann gibt es noch den Spielerfehlschluss oder Gamblers-Fellacy. Da haben sich ja die meisten von euch auch schon von gehört. Das ist die Annahme, dass ein zufälliges Ereignis wahrscheinlich ist, wenn es lange nicht eingetreten ist oder unwahrscheinlicher, wenn es gerade erst eingetreten ist. Das ist natürlich falsch. Man sagt dann gerne so, der Zufall hat kein Gedächtnis und es gibt ja diesen Witz von dem nervösen Mathematiker, der immer eine Bombe mit ins Flugzeug nimmt, weil die Wahrscheinlichkeit, dass zwei Bomben im Flugzeug sind, ist ja so gering, dass ihm das Leben retten könnte. Das ist aber nur dann ein Fehlschluss, wenn diese Ereignisse wirklich statistisch unabhängig sind. Also wenn ich jetzt die Entscheidung treffe, eine Bombe mit ins Flugzeug zu nehmen, ist das, da ich ja keiner terroristischen Vereiligung angehöre, unabhängig davon, dass irgendjemand anders die Entscheidung trifft, den ich nicht kenne. Aber häufig sind ja solche Ereignisse doch in irgendeiner Art miteinander kausal verknüpft, beispielsweise wenn ich beobachte. Wenn jemand würfelt und dann überzufällig häufig eine 6 würfelt, dann liegt ja die Annahme nicht fern, dass der Würfel in Wirklichkeit gezinkt ist und ich das nicht weiß. Und weil häufig wissenschaftlich ausgebildete Personen diesen Grundsatz hier beachten, der Zufall hat kein Gedächtnis und damit dann eben wieder falsch liegen, wenn die Dinge doch korrelieren, dann nennt man das auch the Nerds Gallability Fallacy. Also da muss man dann auffassen, dass das wirklich ein Fall ist, in dem diese Regel anwendbar ist. Sonst ist es kein Bayes. Ja, das nächste Beispiel, die Stichprobenverzerrung oder Selection Bayes. Das ist auch eine wichtige Sache in der Wissenschaft, wenn man unvoreingenommene Studien machen will, aber kommt eben auch im Alltag vor. Das bedeutet, dass man eine Stichprobe als repräsentativ annimmt. Sieht das aber nicht ist, weil sie durch bestimmte Mechanismen anders zusammengesetzt als die Allgemeinheit, auf die man eigentlich schließen will. Es gibt verschiedene Mechanismen, wie das passieren kann. Ich fange mal mit dem ersten an, das ist die Selbstelektion. Ja, ein Beispiel, das wahrscheinlich jeder kennt. Also wenn man die Leute nimmt, die unter Onlineartikeln Dinge kommentieren, dann ist das kein repräsentative Ausschnitt aus der deutschen Gesamtbevölkerung. Sondern das ist insofern eine Selbstelektion, als dass jemand die bewusste Entscheidung treffen muss. Ich will zu diesem Artikel was sagen und sich die Mühe machen muss, sich da hinzusetzen und seine Gedanken zu formulieren. Und ein ganz großer Anteil, also erstmal die Leute, die Onlineartikel lesen, sind ja sowieso schon nicht mal, mal nicht die ganze Bevölkerung. Und die, die das tun, da denken sich ganz viele, ja, stimm mich jetzt nicht zu, egal, ich gehe jetzt in Rasenmähen oder so. Und dadurch, dass die Leute erst dann sichtbar werden, wenn sie diese bewusste Entscheidung treffen und die Mühen auf sich nehmen, ist das eine Selbstelektion. Und deswegen bekommt man, wenn man Online-Kommentare liest, ein falsches Bild von den vorherrschenden Meinungen der deutschen Bevölkerung. Also, da werden natürlich vor allem die extremen Meinungen geäußert, weil diese Leute überdurchschnittlich motiviert sind, ihre Meinung kunst zu tun. Oder ein anderes Beispiel dafür, es gibt ja psychologische Untersuchungen zu allen möglichen Angelegenheiten. Und wenn man diese Studien dann genauer liest, wer die Versuchspersonen sind, die werden, weil es so schon einfach ist, dann aus der Kororte der Psychologiestudenten an dieser Universität rausgepickt. Und die Charakteristik von dieser Gruppe stimmt natürlich auch so gar nicht mit denen der deutschen Allgemeinheit überein. Was wahrscheinlich ein Grund dafür ist, dass in letzter Zeit rausgekommen ist, dass die Ergebnisse von vielen psychologischen Studien gar nicht replizierbar sind. Das heißt, man macht die Studie nochmal und es kommt was ganz anderes dabei raus. Ja, das ist auch ein schönes Beispiel für den Selection-Bias der überlebenden Bayes. Entsteht dadurch, dass man immer nur die Beispiele für eine Gruppe sieht, die tatsächlich noch da sind, um betrachtet zu werden. So gibt es ja Raucher, die ihre Angewohnheit gerne damit begründen, dass es alte Menschen gibt, die unterstelliger Nikotin-Zufuhr sehr alt geworden sind. Hier Helmut Schmidt zum Beispiel. Oder das andere ist Queen Mum, die ja wie man gehört hat, bis zum Alter von fast 100 Jahren, immer gerne täglich ein Glas Gin getrunken hat. Und die Sache ist aber, dass die ganzen Beispiele für Menschen, die Kette geraucht haben und mit 55 an AKHK gestorben sind, oder die sich mit 40 schon totgesoffen haben, die sind halt in diesem Moment nicht mehr da, um als Beispiel zu dienen. Die sind tot. Überlebenden Bayes kann man auch auf andere Dinge beziehen als auf Menschen. Man gibt sich ja gerne manchmal diese Nostalgie hin. Früher hat man noch anständige Dinge gehabt, aber die haben immer bessere Musik gemacht. Die Autos waren solider, die Häuser haben besser ausgesehen. Klar hat man früher auch Scheiße produziert, aber die hatten nicht bis heute überlebt, sodass man sie jetzt in den Straßenbildern sieht, um sich dran zu verinnern. Oder die schlechte Musik von vor 30, 40 Jahren, die wird heute halt nicht mehr im Radio gespielt. Okay. Manche von denen, die jetzt gelacht haben, das ist natürlich ein Gegenbeispiel, aber ich sag mal, die schlechte und unbelebte Musik von damals hat nicht überlebt. Ja. Und das letzte Beispiel für Selection Bayes ist die Sache, dass manche Leute oder manche Dinge aus der Stichprobe rausfallen, weil sie einfach nicht mehr laut ihre Meinung sagen. Beispielsweise, wenn eine Umfrage gemacht wird in einer Firma, mit der die Arbeitsbelastung ermittelt werden soll, dann muss der Angestellte, der befragt wird, sich die Zeit nehmen, sich hinzusetzen und die Umfrage auszufüllen. Und da ist beispielsweise ein Risiko des Bayes, dass eben nur die Leute, die eine niedrige Arbeitsbelastung haben, die Zeit haben, diese Umfrage auszufüllen. Und wenn man dann alles mittelt, dann bekommt man ein falsches Bild von der Arbeitsbelastung in der Firma. Und die Schweigeverzerrung spielt doch oft mit rein, wenn man nach, ja nach Delikatenangelegenheiten fragt. Also viele Leute möchten sich aber beispielsweise nicht zu ihren sexuellen Gewohnheiten äußern, sodass dann entweder die aus der Studie rausfallen, die eher konservativ sind und eher zurückhaltend und weil eben eher die Leute antworten, die ausgefallene Vorlieben haben und das gerne und das gerne bekannt machen. Oder andererseits, dass die Leute antworten, die eher langweilige Praktiken bevorzugen, weil sie weniger befürchten, von dem Befrager dafür negativ verurteilt zu werden. Der nächste Bayes, der Sankt Coast Bayes oder auf Deutsch der Bayes der Versuchenden und Kosten, das bezieht sich nicht nur auf Geld, also nicht nur auf Kosten im Sinne von Geld, sondern Kosten können auch Zeit oder Arbeit sein, die man in irgendwas investiert hat. Das bedeutet, dass jemand, wenn ihm schon Kosten entstanden sind durch irgendein Plan oder irgendein Projekt, eher daran festhalten wird und das weiterführt, auch wenn es ihm weiteres Geld oder weitere Arbeit oder Zeit kostet, weil er eben schon so viel investiert hat. Das passiert auch, wenn völlig klar ist, dass man keinen weiteren Gewinn daraus zieht, wenn man beispielsweise im Kino sitzt und einen schlechten Film sieht und die erste Hälfte war schon scheiße und eigentlich ist es extrem unwahrscheinlich, dass es doch besser wird, aber man denkt sich, ich habe ja für die Karte bezahlt. Oder wenn man im Restaurant ist und man ist satt, das heißt, man hat gar keinen Gewinn dadurch, dass man weiter ist, aber man hat es ja bezahlt. Oder auch wenn man auf der Arbeit irgendein Projekt hat und schon viel Arbeit investiert hat, das auf eine bestimmte Art zu machen und auf halbem Weg fällt einem eine viel bessere Methode ein, aber dann bringt man es doch auf die alte Art zu Ende, weil sonst müsste man den Code wegschmeißen, der bisher entstanden ist. Verwandt mit diesem Bayes der versunkenen Kosten, ist das Dilemma der versunkenen Kosten, wenn man sich selber nicht so ganz darüber im Klaren ist, ob man da jetzt was drauf geben soll oder nicht, was man schon investiert hat. Und zwar ganz typisch, wenn man an der Haltestelle steht und die Wetter, das heißt, Bahn fallen aus und man weiß nicht, kommt die Bahn noch und jetzt steht man da schon 15 Minuten, 20 Minuten und man könnte weggehen, aber man hätte ja vor 20 Minuten schon weggehen können, dann hätte man ja 20 Minuten umsonst gestanden. Aber andererseits kommt die Bahn vielleicht gar nicht oder erst in einer Stunde und dann hätte man die restlichen 40 Minuten, die man noch reinstecken will, eben an der Stelle schon gespart. Also das ist ein sehr schwieriges Entscheidungsproblem. Ich glaube, das ist jetzt mein letztes Beispiel für Bayes. Das Framing, das beispielsweise häufig in der Werbung verwendet wird oder in der Politik. Das bedeutet, dass die gleichen Fakten von Menschen unterschiedlich bewertet werden, wenn sie mit unterschiedlichen, unterschiedlicher Wortwahl präsentiert werden. Hier habe ich ein Studium, da ist das getestet worden. Ich glaube, die Studie ist nicht am Psychologisch-Studium geführt worden, sondern man hat Beschäftigte in der Medizin befragt. Ich glaube, es waren nur Ärzte. Man hat den Vorgesetz, den Fall, dass eine exotische Krankheit im Land erwartet wird und es wird erwartet, dass sie 600 Leute tötet, wenn man nichts tut. Es gibt zwei verschiedene Programme, die dagegen durchgeführt werden können. Jetzt hat man die Probanden in zwei Gruppen geteilt. Die erste Gruppe bekommt die Möglichkeiten A und B vorgesetzt und die zweite Gruppe C und D. Was die Probanden nicht wissen, aber das seht ihr jetzt natürlich, dass A und C und B und D die gleichen Möglichkeiten sind. Also A bzw. C heißt, wenn dieses Präventionsprogramm durchgeführt wird, dann werden 200 Leute gerettet, heißt im Umkehrschluss 400 Leute sterben. Und B bzw. D bedeutet, dass mit einer Wahrscheinlichkeit von einem Drittel 600 Leute gerettet werden und mit einer Wahrscheinlichkeit von zwei Drittel wird keiner gerettet. Das heißt, also nebenbei der Erwartungswert ist auch in beiden Fällen gleich, aber A und C sind halt sichere Sachen und B und D sind halt so Wahrscheinlichkeitssachen. Und wenn man das so formuliert, also dass entweder bei der ersten Möglichkeit 200 Leute gerettet werden oder dass 400 Leute sterben, dann entscheidet sich die ganz große Anzahl der Menschen für Möglichkeit A. Und wenn man aber die Wortwahl so nimmt, dass 400 Leute sterben werden, dann wählen, wählt die Mehrheit der Probanden die Option, wo man eben noch so eine Wahrscheinlichkeit hat, dass manche Leute sterben, manche gerettet werden. Obwohl es ja im Prinzip in beiden Fällen die gleiche Auswahlmöglichkeit ist. Ja, hier jetzt nochmal ein Bilderbeispiel für Framing. Es geht um Kaffee. Das ist, glaube ich, so eine alte Lavazza-Werbung. Ich lasse das einfach mal im Moment wirken. Noch mal Kaffee. Das ist jetzt irgendwie so eine, weiß ich nicht, Aufnahme aus irgendeinem Hübsterladen, wird gearbeitet im Kaffee getrunken. Und nochmal Kaffee. Da sitzt die Oma auf ihrer Terrasse. Ja, und es geht ja in allen drei Fällen um den Kaffee, aber die Anmutung ist jeweils eine ganz unterschiedliche und weil das eben so leicht zu erreichen ist mit Bildern, wird das in der Werbung so häufig genutzt. So, das ist jetzt mal ein Ausschnitt aus Wikipedia. Also es gibt ganz viele von diesen kognitiven Verzerrungen, weil man dir auch beliebig kleinteilig einteilen kann. Und man kann sich da wirklich in ganz kleinen Details mit befassen. Die Frage ist, will man das? Oder will man vielleicht lieber überlegen, warum es dazu kommt? Weil, also ich sage mal, wir sind ja nicht bescheuert und trotzdem fallen wir ständig auf diese Sachen rein und das muss ja einen Grund dafür geben. Hier hatte ich jetzt eigentlich eine Animation, die funktioniert jetzt leider nicht. Gut, also man kann diese ganzen Arten der kognitiven Verzerrung, kann man zurückführen auf die Tatsache, dass das menschliche Gehirn Heuristiken einsetzt. Das ist ähnlich wie in der Informatik. Eine Vorgehensweise, die man nutzen kann, um schneller zu Entscheidungen zu kommen, mit begrenzten Ressourcen, weil wir auch nicht unendlich Gehirnressourcen haben. Und auch Entscheidungen zu treffen, an unvollständige Informationen, was dann in unserem Alltagsleben die Regel ist, dass wir unvollständige Informationen haben. Ich hatte jetzt hier eigentlich als Animation ein Beispiel für eine Heuristik, also Versuch und Irrtum, wenn man so versucht, den USB-Stecker reinzustecken und dann nochmal anders herum und so. Aber gut, das kennt ihr. Das erste Mal veröffentlicht wurde dieses Konzept 1974 von Twersky und Karnemann. Die nannten das dann auch Judgment under uncertainty, also praktisch Entscheidungsfindung anhand Unsicherheit oder unvollständige Informationen. Gut, und das menschliche Gehirn, muss das, würde ich mal sagen, noch häufiger einsetzen. Als man das in der Informatik muss, weil wir eben begrenzte Ressourcen haben und es kommen Ablenkungen von außen. Und unterm Strich ist ja auch das menschliche Gehirn keine perfekte Rechenmaschine, sondern ist ja im Prinzip näherverwandt. Also ich würde jetzt gerne sagen, das ist ein Spatzenhirn, was ich auf dem Bild habe, ist aber ein Hirn von der Taube. Und da sind wir ja jetzt auch nicht so weit entfernt worden. Und Twersky und Karnemann haben die Heuristiken in drei ganz große Obergruppen eingeteilt, denen man dann diese Beisarten auch zuordnen kann. Das ist die Heuristik der Verfügbarkeit, der Repräsentativität und die Heuristik von Anker und Anpassung. Und auf diese Heuristiken sollen sich alle diese Denkfehler zurückführen lassen. Ja, Verfügbarkeit bedeutet, wie leicht ist ein passender Gedächtnisinhalt zu einer Frage abrufbar. Man steht also vor einer Frage, man muss irgendeine Situation beurteilen und fragt sich dann, welche Beispiele dafür kommen mir selber leicht ins Gedächtnis. Das führt beispielsweise dazu, dass man sehr einprägsamereignisse in ihre Eintretenswahrscheinlichkeit überschätzt. Also ganz klassisch zum Beispiel in den Flugzeugabsturz. Ich habe jetzt hier mal ein Beispiel rausgesucht, wo die Wahrscheinlichkeiten sich nicht so krass voneinander unterscheiden. Also vor allem jetzt nach der jüngsten Berichterstattung hat man ja so subjektiv, doch irgendwie mehr Angst bei einem Flugzeugabsturz zu sterben, als wenn man morgens aufsteht, einfach so den Tag nicht zu überleben. Es ist aber so, wenn man ein junger, sportlich aktiver Mensch ist und jung würde ich jetzt auch mal flexibel auslegen, dass dann die Wahrscheinlichkeit höher ist, an plötzlichem Herz tot zu sterben, als an einem Flugzeugabsturz. Das ist aber intuitiv nicht so, weil wir ständig vom Flugzeugabsturz hören, aber die meisten von uns kennen keinen 25-Jährigen, der beim Sporttraining tot umgekippt ist. Oder ein anderes Beispiel. Da hat Karnemann eine Studie gemacht und Leute befragt, die zusammen wohnen. Und gesagt, die sollen mal einschätzen, wie viel Prozent der Hausarbeit sie selbst machen und eben nicht der Wohnpartner. Und wenn man dann diese ganzen Prozentzahlen addiert, dann kommt man für jeden Haushalt auf weit über 100 Prozent. Weil jeder von sich selber das Gefühl hat, dass er vielleicht 70 Prozent, 80 Prozent macht, weil man bei dieser Frage ja daran zurückdenkt, was habe ich dann in den letzten Tagen gemacht? Und dann fällt einem ganz viel ein. Wenn aber der Partner oder der Wohnungsgenosse Dinge macht, dann ist man ja nicht dabei. Oder man ist dabei, aber man macht sie nicht selber. Und deswegen drehen die nicht so gut ins Gedächtnis ein. Und deswegen fällt man ein falsches Urteil. Man will sozusagen die eine Frage beantworten. Wer hat mehr gemacht oder wie viel habe ich tatsächlich gemacht und beantwortet stattdessen eine andere. Das nennt sich Substitution, also eine leicht dazu beantwortende. Nämlich die Frage an wie viele Beispiele für Hausarbeit, die ich gemacht habe, kann ich mich erinnern. Und kann ich mich erinnern, ohne dass ich viel geistigen Aufwand da reinstecken kann, er will, muss. Oder ein anderes Beispiel, wie man diesen Effekt auch manipulieren kann. Da wurde Probanden die Frage gestellt, wie durchsetzungsfähig sind sie? Da sollten die sich selber einschätzen nach Skala von 1 bis 10. Das hat man erstmal an der Kontrollgruppe gemacht, also bei Probanden, die nicht speziell vorbereitet wurden. Und dann hat man jeweils eine Gruppe dazu gehabt, die vorher, ich sage mal, manipuliert wurden. Im ersten Beispiel hat man den Probanden gesagt, sie sollen vorher 6 Beispiele aufzählen für Situationen, wo sie sich durchsetzungsfähig benommen haben. Und die meisten Leute kommen leicht auf 6 Situationen die dann so geprimed sind, schätzen sie sich selber als durchsetzungsfähiger ein, als die unvorbereiteten. Dieser Effekt dreht sich aber um, wenn man den Leuten vorsagt, sie sollen sich an 12 Beispiele erinnern, weil sie dann so beim 7., 8. Beispiel merken, jetzt muss ich schon anfangen nachzudenken, und beim 12. müssen sie dann halt schon richtig nachdenken und dann führt das unbewusst zu dem Schluss so richtig durchsetzungsfähig, sondern wenn wir nicht mal 12 Beispiele dafür einfallen. Ja, oder ein anderes Beispiel für Verfügbarkeit ist gleichzeitig auch ein Überlebensbeis sozusagen. Man überschätzt generell die Wahrscheinlichkeit, dass man groß rauskommt als Musiker oder als Start-up, weil man nur die positive Beispiele im Gedächtnis hat. Weil die eben durch die Medien gehen und immer wieder zitiert werden und jeder kennt sie und die ganzen Leute, die es versucht haben und gescheitert sind, die sind vielleicht in ihrem engeren Umfeld bekannt, aber über die wird ja nicht mehr 10 Jahre später in der Businesspresse geschrieben. Und deren Produkte sieht man eben auch nicht im Regal. Oder auch, das ist ein Effekt, der vor allem in Studien, also man hat das ja jetzt bei Pegida dann auch nochmal getestet und so, da in der Gegend häufig dann auch beobachtet wird, dass die Leute den Ausländeranteil in der Bevölkerung weit, weit überschätzen, was wahrscheinlich daran liegt, dass wenn in einer Gegend wenig Immigranten leben, der einzelne Stärke im Stadtbild raussticht, wenn es denn Leute aus Ländern sind, denen man das ansieht. Und wenn dann eben einer der, ich sag mal der Ureinwohner befragt wird, dann fallen ihm direkt ein paar Beispiele ein und so wird dann der Anteil in der Bevölkerung überschätzt. Weil eben alle, die nicht auffallen, quasi so als Hintergrundrauschen untergehen. So, Verfügbarkeit war die erste Heuristik. Dann gibt es die Repräsentativität. Das bedeutet, dass Dinge oder Personen oder Ereignisse anhand ihrer Ähnlichkeit zu gewissen Prototypen eingeschätzt werden. Ich fange gleich mal mit einem Beispiel an. Leuten ist eine Beschreibung vorgesetzt worden von einer Person. Also, Albert hatte in der Schule gute Noten in Matto und Physik, hat ein gutes Zahlengedächtnis, ein schlechtes Gedächtnis für Gesichter, vielleicht wenig soziale Kontakte und trägt oft drei Tage lang den gleichen Pullover, ohne es zu bemerken. Und die Leute werden gefragt, ist es wahrscheinlicher, dass Albert Kernphysiker oder Verkäufer ist? Also, wahrscheinlicher. Gut, ich frage jetzt nicht. Ihr habt wahrscheinlich alle intuitiv jetzt eine Entscheidung getroffen und habt euch dann entschieden, dieser Entscheidung wahrscheinlich nicht zu vertrauen, weil ich sonst die Frage nicht stellen würde. Aber wenn man auf der Straße fragt, dann werden natürlich die meisten Leute sagen, Albert ist Kernphysiker. Ist aber unwahrscheinlich. Weil die Base Rate, also die Wahrscheinlichkeit, die a priori Wahrscheinlichkeit, dass jemand Kernphysiker oder Verkäufer ist, für den Verkäufer so viel höher ist, dass es einfach so viel mehr Verkäufer in Deutschland gibt und in wahrscheinlich jedem anderen Land. Ja. Oder ein Beispiel, dass ich selber noch erstaunlicher finde. Das ist wieder mit so einer Personenbeschreibung gemacht worden. Also Linda ist Anfang 30 und Single, sagt auf freimütigere Meinung, ist intelligent, hat einen Philosophieabschluss von der Universität, hat sich als Studentin für soziale Gerechtigkeit und gegen Diskriminierung eingesetzt, hat einen Atomkraft demonstriert und dann wurden den Leuten mehrere Aussagen über Linda vorgesetzt und sie sollten sie ordnen, von der Wahrscheinlichsten zu Unwahrscheinlichsten. Also nach Zutreffenswahrscheinlichkeit. Ja. Ich lasse jetzt mal die langweiligen Aussagen raus, worauf es ankommt, dass es ja die Möglichkeiten gibt, wenn man sich das so als Fendiagramm vorstellt. Linda ist Bankangestellte und Feministin. Also das eine ist ja im anderen Enthalten. Das heißt, die Wahrscheinlichkeit muss geringer sein, dass sie Bankangestellte und Feministin ist. Aber es passt halt weniger gut auf das Stereotyp, das uns vorher präsentiert wurde. Und man hat dann für diese Studie die Doktoranden im Bereich der Entscheidungstheorie befragt. Und von denen fanden 85 Prozent. Fünftens wahrscheinlich als zweitens. Was ja, also wenn man Haarschräumt ist. Und wenn man das dann einfachst möglich macht, diese Entscheidungsfrage. Und nur noch zwei und fünf präsentiert. Denn irren sich immer noch 36 Prozent dieser Entscheidungstheorie. Doktoranden. Ja? Ich denke, das hängt auch damit zusammen, wie Sprache verarbeitet wird. Oder wie man das in dem Kontext sieht. Und dass man dann implizit liest. Linda ist Bankangestellte und nicht engagierte Feministin. Dadurch, dass es mit fünf kontrastiert wird. Und dann wegt man die beiden gegeneinander ab. Und nicht das eine ist halt irgendwie allgemeiner als fünf. Das kann man vielleicht annehmen, wenn man nur zwei und fünf dastehen hat. Aber ich finde, da ist es ja jetzt nicht drin. Also man würde ja auch nicht implizit annehmen. Linda ist Grundschullehrerin und keine Feministin. Also kann ich mir schon vorstellen, wenn man nur zwei und fünf präsentiert. Aber wenn man eins bis fünf präsentiert, dann finde ich das schwierig. Ja, bitte. Das ist nicht nur ein Scherz. Derjenige, der einen Versuch gemacht hat, den bei ist. Und aufgrund dessen hat er geframed. Ja gut, das kann natürlich auch sein. Forscher sind dagegen ja nicht immun. Und wenn ich jetzt hier sage, das und das sind die Ehrungsmöglichkeiten, wenn du wissenschaftliche Studien machst, dann entbindet mich das ja selber. Ja, eine Verständnisfrage. Können wir noch mal eine zurückgehen? Wenn ich jetzt da diese Wahrscheinlichkeiten habe und die Zuordnung und den Text oben, verstehe ich das richtig, dass die Wahrscheinlichkeiten, die ich unten habe, eigentlich völlig unabhängig sind von den Aussagen, die oben getroffen worden sind. Das ist jetzt noch nicht nach Wahrscheinlichkeit geordnet. Meinst du das? Nein, das ist nicht nach Wahrscheinlichkeit. Die Rangreihe der Wahrscheinlichkeiten, die dann irgendwann die echte Wahrscheinlichkeit ist, eigentlich völlig unabhängig ist von den Aussagen, die ich unter Linder zusammenfasse. Nicht völlig, aber viel, viel mehr, als man das intuitiv denkt. Dann fragt sich nämlich der Teilnehmer, wenn das alles dasteht, dann hat es doch einen bestimmten Zweck, der nicht unabhängig davon ist, aber der überwiegende Einfluss auf die Wahrscheinlichkeit ist die Base Rate. Und dann kannst du die daraus folgenden Wahrscheinlichkeiten ein bisschen anpassen durch die Informationen, die du über Linder hast. Wie korrekt du diese Base Rate einschätzen kannst, hängt ja auch noch ein bisschen davon ab, ob du überhaupt weißt, dass es viele Bankangestellte gibt. Das bedeutet es ja, dass es eigentlich unabhängig ist, weil die Base Rate mehr Einfluss hat auf die Wahrscheinlichkeit, als das, was um noch drauf sitzt. Also es ist nicht völlig unabhängig, aber die Base Rate hat den weit aus größeren Einfluss in dem Fall. Das war ja quasi noch der Punkt, wenn du jetzt irgendwie, was du sich berufe hast, die Linder jetzt nicht ausüben könnte, aufgrund dieses Dingens, dann geht das natürlich nicht. Aber das macht's dir bestimmt. Aber solche sind ja nicht dabei, genau. Und das Framing ist dazu da, die Leute zu manipulieren, oder? Bitte? Das Framing, also die Informationen zu Linder, die sollen dazu führen, dass man voraussetzt, dass sie gewisse Einstellungen hat. Genau, weil man hier eben diese Repräsentativitätshoristik unwillkürlich anwendet. Es sei denn, man bemüht sich bewusst, das nicht zu tun, sondern wirklich statistisch zu denken. Haben wir noch mal das Mikro? Es gibt dir dieses Beispiel zum Beispiel an einem Ort, wo viele Klapperstorche leben, werden noch mehr Babys geboren. Und das ist zwar so, der erste Schluss ist okay, Klapperstorche bringen die Kinder, ist natürlich Bullshit. Aber trotzdem gibt es da ja eine andere verbindende Konstante, nämlich dass es auf dem Land ist, und mehr Leute kriegen Kinder auf dem Land. Das kann es ja da auch geben, theoretisch. Das Frage ist, ob das dann dumm ist, da eine Ahnung zu treffen. Wenn ich jetzt sage, ist intelligent, dann ist die Wahrscheinlichkeit höher, dass sie Feministin ist, weil intelligente Menschen sehr Feministin sind. Ja, aber hier geht es ja noch nicht mal um Kausalität. Das heißt, es wird ja keine Aussage darüber getroffen, ob sie bankangestellt ist, weil sie intelligent ist oder ob sie weniger wahrscheinlich in der Bank angestellt ist, weil sie intelligent ist. Das heißt, um Kausalität geht es hier überhaupt nicht, sondern rein um Wahrscheinlichkeit. Die sollen das ja nur nach Wahrscheinlichkeit ordnen. Und wenn die Wahrscheinlichkeit jetzt erhöht wird, durch Hinweise darauf, dass man irgendeine Korrelation hat oder ob das tatsächlich eine Kausalität ist, das spielt in diesem Beispiel ja keine Rolle. Aber das nehmen halt die meisten an, weil sie halt eine Real-Sicht auf die Dinge haben und das nicht mathematisch. Ja, wird das aber nicht ändern. Selbst wenn intelligente Leute mit höherer Wahrscheinlichkeit bankangestellte Unfeministin wären, dann ändert das ja trotzdem nichts daran, dass es mehr intelligente Bankangestellte gibt und weniger intelligente Bankangestellte Unfeministin, weil das zweite einfach ein Spezialfall ist, der im Erster enthalten ist. Aber ich glaube, in der Realität hast du einfach zu viele Faktoren, die das alles... Klar, in diesem Bereich, wenn du nur diese Daten hast, dann kannst du nur sagen, okay, dann muss es das Einfachste sein, eins der einfachsten Sachen Bankangestellte, aber ansonsten... Ja, du lässt dich halt durch viele Informationen verwirren. Und weil du dann eben so viel Hirschmalze reinstecken müsstest, greift dein Gehirn auf eine Heuristik zurück, um eben einfach und schnell eine Entscheidung treffen zu können, das ist ja hier auch um schnelle Entscheidungen. Denn man hat gezeigt, die Leute fallen weniger leicht auf solche Sachen rein. Das zeige ich auch ganz zum Schluss noch mal, wenn ich dafür denn noch Zeit habe. Wenn Sie bewusst daran denken, na ja, Ihr Gehirn anzustrecken, sag ich mal. Das heißt, man kann das alles bewusst vermeiden. Man muss nicht zwangsläufig draufreinfallen. Ich muss jetzt glaube ich mal weitermachen, sonst komme ich mit der Zeit nicht wieder. Entschuldigung, nur ein kurzer Einwurf. Wenn ich das jetzt richtig sehe, dann ist das noch nur für die Entscheidung im Endeffekt bei den Berufen eine einzige Sache relevant. Nämlich im Zweifelsfall das Philosophiestudium. Klar, sie kann einen weiteren Abschluss haben in irgendwas. Aber wenn ich annehme, dass die meisten Leute nur einen machen, ist sie im Endeffekt wahrscheinlich keine Grundschuld erinnern, weil man dafür einen anderen braucht. Das ist das Einzige. Aber ich glaube, die Vorbeurteilung kommt noch ganz woanders her. Wenn ich mir das alles angucke, dann sagen wir gegenüber einer anderen Person, meintet wegen ein Mitte 40-Jährig, männlich, was auch immer, ist die Wahrscheinlichkeit, dass sie ein Feministin ist höher. Das heißt, wir sagen, diese Person, die wir da vorgestellt bekommen, ist wahrscheinlicher Feministin als alle möglichen anderen Leute. Und daraus ziehen wir den Fehlschluss, dass sie wahrscheinlich Feministin ist. Das kann gut sein. Das wäre auch wieder so ein Fall von Substitution, dass du halt eine einfacher zu beantwortende Frage als Ersatz nimmst für die schwerer zu beantwortende Frage. Ja, gut, das haben wir gesprochen. Und die letzte Heuristik, das ist die Heuristik von Anker und Anpassung. Da ist das am weitesten verbreitete Beispiel, dass eine numerische Schätzung sich einfacher an einer willkürlichen, kürzlich gehörten Zahl orientiert, auch wenn die mit der Frage gar nicht in Zusammenhang steht. Man hat also ein Versuch gemacht, dass Leute zuerst nach den letzten 2 Zahlen ihrer Sozialversicherungsnummer gefragt wurden und dann in einer Auktion Gebote abgeben mussten, für ganz verschiedene Sachen, Wein, Schokolade, Computerzubehör und die Leute mit den höheren, letzten 2 Ziffern, die sich mit der Frage, mit den höheren, letzten 2 Ziffern der Sozialversicherungsnummer haben höhere Gebote abgegeben. Nee, das ist ein Beispiel auch aus Karnemann. Ich weiß nicht, ob das irgendwo als Originalarbeit publiziert ist, wo dann die Wahrscheinlichkeiten stehen. Das ist aber auch das Dilemma, was ich gerade schon gesagt habe, dass ich hier auch nur Studien zitieren muss und ich weiß gar nicht, ob da jetzt auch ein Bayes im Spiel gewesen ist. Aber ich kann mir schon vorstellen, dass man es irgendwo nachlesen kann. Anker und Anpassung. Ich kann dir auch das Originalpaper hinter schicken. Dann habe ich jetzt hier einen kleinen Versuch vorbereitet. Eigentlich wollte ich die Hälfte der Leute raus schicken, aber weil der Flur so klein ist und der Saal so groß, habe ich das jetzt überlegt, anders zu machen. Und zwar, ich würde euch bitten, eine Schätzung auf Papier zu schreiben. Ich mache eine Gruppe hier und eine Gruppe da und ich gebe euch dazu eine Information, die ihr dann bitte in einer stiller Post weitergebt, weil ich ja hier die Gruppen nicht räumlich trennen kann. Und dann schreibt ihr die Antwort auf die Frage, die ich gleich stelle, auf die Zettelchen. Ich habe leider nur zwei Coolies organisieren können. Aber ihr könnt es auch aufs Handy schreiben oder so. Geht nur darum, dass es irgendwie festgehalten ist und den ich hinter eurem Meinung ändert. Das wäre kluge, das Mikro auszumachen. Und dann eure numerische Schätzung. Es ist ja eine zweiteilige Frage. Ich habe einmal eine Ja-Nein-Frage gestellt und dann einmal, dass ihr das Ergebnis nummerisch schätzen sollt. Und das zweite Ergebnis sollt ihr aufschreiben. Ja oder Nein folgt ja daraus. Also ich habe es in der Form noch nicht gemacht. Deswegen wusste ich jetzt nicht, ob es funktioniert. Ihr könnt natürlich auch die Antwort googeln, aber das wäre doof. Ja, was wäre jetzt kontraproduktiv, mein ich? Ja, wenn ihr es aufgeschrieben habt, dann dürft ihr googeln. Seid ihr soweit, dass ich nach Antworten fragen kann? Nein, okay. Ja, stimmt, aber ich wollte so ein allgemeines Meinungsgrundsinn hören. So, gibt es noch jemanden, der gern mehr Zeit hätte oder kann ich fragen? Dann würde ich jetzt einfach mal hier bitten, dass ihr so nacheinander, also es muss nicht jeder, wenn ich will, muss nicht, aber dass ihr eure Schätzung mal so laut in den Raum werft. Wie groß die Bevölkerungsanzahl von Brasilien ist. Laut bitte. 70 160 200 130 90 Was? 25 120 50 160 Was? 20 160 Wie viel habe ich jetzt auf der Seite? 70 200 200.000.000 300 650 12 250 80 450 360 160 Okay, gut, also wir haben jetzt natürlich keine statistische Auswertung gemacht, also kein Mittelwert und Standardabweichung. Wäre schön gewesen, aber ich habe ja eh schon so wenig Zeit. Ich habe euch jetzt am Anfang ein Anker gegeben. Deswegen habe ich zuerst die Frage gestellt mehr oder weniger, damit ich halt irgendeine Zahl des Spiels bringen konnte. Und auf dieser Seite war der Anker 40 Millionen und auf der Seite war der Anker eine Milliarde. Und ich hatte gehofft, dass es funktioniert. Es gab ja hier ein paar hohe Zahlen und gut, hier gab es ein 12 Millionen in ausreißer Schade. Okay, aber ich denke, es hat so grob funktioniert, um die Sache zu illustrieren. Aber ihr habt es wahrscheinlich eh schon gut googled. So, dann komme ich jetzt zum Ende und zwar es stellt sich ja jetzt ja, nehm ich hinter wieder mit. Stellt sich jetzt die Frage, ob das ob diese Denkfehler unvermeidliche Bugs sind oder ob man irgendwas dagegen tun kann. Es gibt von Karnemann, also diese Menschen, der das zuerst veröffentlicht hat ein Buch von 2011, da führt er das darauf zurück. Das ist natürlich auch nur ein Modell und jetzt nicht neurophysiologisch oder so. Aber er stellt so die Theorie auf, dass es ein System 1 und ein System 2 im Gehirn gibt, wobei das System 1 für schnelle Entscheidungen zuständig ist, intuitiv arbeitet und eben anfällig vorbei ist. Und System 2 ist langsam und rational, also fähig zu statistischem Denken und deswegen robust dagegen über Bayes. Es ist eben schneller geistig erschöpft. Das heißt, wenn wir viel geistig arbeiten mussten, dann sind die Ressourcen sozusagen aufgebraucht, weil es mehr geistigen Aufwand erfordert. Man kann aber bewusst fragen, mithilfe von System 2 beantworten und nicht sich auf das System 1 verlassen. Karnemann schreibt, dass es einige Faktoren gibt, die Bayes verstärken. Das ist auch experimentell herausgefunden worden, nämlich vertrauen Leute mehr auf ihr intuitives Urteilsvermögen, dass eben fehleranfällig ist, wenn sie gleichzeitig eine andere mental anstrengende Tätigkeit durchführen müssen. Außerdem sind sie fehleranfälliger, wenn sie in fröhlicher Stimmung sind und wenn sie in einem Gebiet ein Anfänger sind, der gerade so ein bisschen Wissen angesammelt hat, also kein blutiger Anfänger mehr, sondern ich sag mal ein fortgeschrittener Anfänger. Solche Leute sind anfälliger für Bayes im Gegensatz zu echten Experten, die dann wieder weniger anfällig werden, weil sie wahrscheinlich, weil sie eher darin geschult sind in ihrem Gebiet statistisch zu denken. Und was den Bayes auch verstärkt, ist ein Gefühl der Macht, unabhängig davon, ob diese Macht tatsächlich oder eingebildet ist. Und es gibt diese schöne Zitat von George W. Bush von der Zeit, um die Welt zu betrachten, um mir zu sagen, was ich denke, ist das richtige Weg, um zu betrachten. Ich habe einfach viel zu wissen. Ja, und dann gibt es auf der anderen Seite auch Faktoren, die den Bayes abmildern. Nämlich machen Versuchspersonen weniger Fehler, wenn sie von vornherein ihren Entscheidungen weniger vertrauen. Also, wenn sie beispielsweise kürzlich eine Fehlentscheidung getroffen haben und sich dann selbst mehr in Frage stellen, dann haben sie bei daraufforgenden Entscheidungen weniger Bayes mit im Spiel. Also, vertrauen weniger auf ihre Intuition. Dann kann man die bewusste Entscheidung treffen, sorgfältig über einen Sachverhalten nachzudenken. Und das wird eben auch gefördert durch eine wissenschaftliche oder statistische Ausbildung. Ja, das ist jetzt so ein bisschen vielleicht ein Antiklimax, dass es da kein Geheimrezept gibt, sondern naja, man trifft halt die bewusste Entscheidung, rational über Dinge nachzudenken und die statistischen Sachverhalte nicht außer Acht zu lassen und eben nicht aus dem Bauch heraus Dinge zu beurteilen. Das kann man natürlich nicht ganz ausmerzen, weil sonst wären wir praktisch nicht alltagsfähig. Man muss ja ständig, ständig schnelle Entscheidungen von Sekundenbruchteilen treffen und da kann man ja jetzt nicht immer eine halbe Stunde lang für und wieder abwägen. Aber wenn es eben um solche solche Fragen geht, wo auch mal ein bisschen Nachdenken vertretbar ist, dann kann man eben die bewusste Entscheidung treffen und die Fehlermöglichkeiten kennt. Dann hat man relativ gute Chancen, die von vorne rein zu vermeiden. Ja, dann habe ich noch diesen Daniel Karnemann mehrmals zitiert, der hat dafür auch vor ein paar Jahren den Nobelpreis in Wirtschaft bekommen. Sein Kollege Tversky ist vorher gestorben, sonst hätte er den wahrscheinlich auch gekriegt und in diesem Buch ist das alles sehr, sehr gut erklärt. Wie heißt er denn? Okay. Ja, also den hat er gekriegt jedenfalls. Ja, dann bin ich durch.