 So, du hast gleich den Talk Social Cooling auf Deutsch Soziale Abkühlung vom 34. Kastcommunication Congress in der Übersetzung von Lena Schimmel. So, heute Nacht hören wir Taiman Shep, er ist Privatsphärenforscher und er hält einen Talk darüber wie digitale Überwachung unsere sozialen Interaktionen verändert. So, ich folge Applaus. Hallo alle zusammen. Schön, dass ihr alle hier seid, es ist meine große Freude hier zu sprechen. Mein Name ist Taiman Shep, ich bin ein Technologiekritiker und das heißt, mein Beruf ist es nicht das zu glauben, was man uns erzählt. Und das macht eine Menge Spaß. So, wie schaffe ich es, dass eine breitere Publikum die Themen versteht, die aus der Technologie erwachsen? Ich denke, die Veränderung findet statt, sobald die Öffentlichkeit sie verlangt. Und für mich als Technologiekritiker sind Worte, die weise, wie ich diese Welt verändere und hecke. Heute Nacht werde ich über ein Wort sprechen, was uns helfen wird. Und dieses Thema überhaupt erstmal in einem Rahmen zu fassen, ist schon der halbe Kampf. Wenn wir das Problem beschreiben können, wenn wir es rahmen können, dann wird das Problem und die Position dazu bereits sichtbar. Und dann haben wir die in den halben Kampf schon gewonnen. Der Film ist Social Cooling, soziale Abkühlung. Und bevor ich jetzt da rein gehe, eine Frage, wer erkennt das? Man ist auf Facebook oder irgendeinem anderen sozialen Netzwerk? Und da ist ein Link und wir klicken aber nicht darauf. Denn wir denken, wenn ich da jetzt draufklicke, das könnte jemand aufzeichnen, jemand sich daran erinnern, das könnte schlecht wirken, das könnte negative Effekte haben. So, offenbar gibt es Audioprobleme. Okay, der Sprecher beginnt nochmal. Also, du bist auf Facebook und denkst, oh, das ist ein interessanter Link. Den könnt ich anklicken, aber dann zweifelst du und wartest und denkst, ja, vielleicht lieber nicht. Wer kennt so eine Situation? Okay, fast das gesamte Publikum meldet sich. Und die Sache ist, wenn ich mit Leuten darüber spreche, dann merke ich, dass sie diese Situation kennen. Und das Wort dafür ist Klick 4, also Klick Angst. Und es gibt Forschung, die zeigt, dass das ein sehr großes Problem ist, dass Menschen tatsächlich zweifeln und warten, links anzuklicken. Und auch wenn man jetzt solche Hypediali ist, vielleicht mag die NSA das nicht. Und das betrifft auch Google suchen. Das ist ein Muster, was also von der Forschung erkannt wird. Und das ist gar nicht so verwunderlich. Wenn man sich beobachtet fühlt, dann verändert man sein Verhalten. Und ich denke, dass Technologie diesen Effekt deutlich verstärkt. Das müssen wir erst mal uns klarmachen. Und deshalb ist Social Cooling ein sinnvolles Wort, meiner Meinung nach, um zu beschreiben, wie in der digitalen Welt unsere digitalen Leben, die immer mehr digitalisiert werden, wie es immer einfacher wird, diesen Druck zu verspüren, diese normativen Effekte dieser Systeme. Und man sieht das immer mehr, weil unsere Daten, die wir angeben, immer mehr in Bewertungen ins Kurs konvertiert werden. Und diese Bewertungen verändern unsere Chancen, die wir im Leben haben. Und dadurch entsteht quasi ein System der Unterdrückung. Und in einer gewissen Weise ist die Idee durch Silicon Valley hervorgebracht. Die lange Zeit gesagt haben, Daten sind das neue Gold. Aber in den letzten Jahren wurde die Narrative geändert. Man sagt jetzt, Daten sind das neue Öl. Und dann stellt sich natürlich die Frage, okay, Öl hat uns globale Erwärmung gebracht. Was gibt denn Daten uns? Und wenn Öl globale Erwärmung macht, dann machen Daten soziale Abkühlung, Social Cooling. Und um das wirklich zu verstehen, müssen wir uns drei Sachen angucken. Zum einen müssen wir da die Ökonomie des Ansehens ansehen. Zweitens, wie das Ganze unser Verhalten verändert. Und drittens und letztens, damit das Ganze nicht zu deprimierend ist, die Frage, wie können wir damit umgehen? Also erstens, die Ökonomie des Ansehens. Wir haben heute schon gesehen, China führt ein neues soziales Bewertungs- und Kreditssystem ein, wo überwacht wird, wie jeder einzelne Bürger sich verhält. Und das Ganze verändert, ob für einen Job ein Visum oder vielleicht sogar ein Date bekommen können. Und die frühen Prototypen, die wir davon haben, geben bereits jedem eine Bewertung. Und das Ganze ist auch mit den chinesischen Dating-Webseiten verknüpft. Und wir können auf dieser Dating-Webseite schon sehen, was ist das für eine Person? Hat die ein gutes Ansehen in der chinesischen Gesellschaft? Und da wird es wirklich hinterhältig aus meiner Sicht. Und ja, man könnte sagen, ist es ja schön, wenn du dich gut verhältst, kriegst du einen guten Score, wenn du dich schlecht verhältst, kriegst du einen schlechten Score. Aber so einfach ist es nicht. Dein Score und der deiner Freunde beeinflussen sich gegenseitig. Und da entsteht natürlich ein sozialer Druck. Da fragt man sich, wer sind meine Freunde und mit wem sollte ich eigentlich befreundet sein. Okay, jetzt könnte man denken, ja, das passiert ja nur in China. Und in China sind die Dinge halt anders. Aber genau das Gleiche passiert hier im Westen. Außer, dass hier ein Markt dafür entsteht, der das Ganze aufbaut. Dies ist die Firma Dimly, die ein Service hat. Und wir schauen uns jetzt ein Video von Ihnen an. So, Sie sehen eine Frau, sie versucht etwas zu erwerben und das Ganze hat keine Bewertung dieser Artikel. Aber zum Glück bietet dieser Dienst eine Bewertung an, basierend auf anderen Daten. So, versuchen Sie sich vorzustellen, dass Sie Ihren Dimly Score zum Beispiel verwenden für Ihr Datingprofil, für Ihre Jobbewerbung. Dimly.co, besser ist, wenn Du es teilst. So, der Werbespot ist zu Ende, Applaus. So, es gibt allerdings einen Unterschied. Diese Sache ist sehr unsichtbar für uns. Die chinesische Regierung ist sehr offen darüber, was sie dort macht. Aber was hier passiert in diesen Märkten ist eher unsichtbar. So, es gibt Systeme, die geben uns ein sehr klares Rating. So weiß wir eher B&B oder eben über Dimly. Und dann gibt es Systeme, wie Facebook paläntät, wo diese Vorgänge nicht sichtbar sind. Denn du bist nicht der Kunde dieser Daten, du bist einfach nur die Ware. So, diese Dienste versuchen so viel Daten über dich zu ermitteln, wie sie können. Aber das ist nicht alles. Sie erzeugen daraus bis zu 8.000 verschiedene Bewertungswerte. In den USA sind es ungefähr 8.000. In Europa sind es nur etwa 600 Bewertungswerte, die erstellt werden. Das sind Dinge wie dein EQ, psychologisches Profil, Religion, erwartete Lebenserwartung. 8.000 verschiedene solcher Faktoren. Und wie funktioniert das? Also durch Maschinenlearning, durch Maschinelles Lernen können, die in der Gesellschaft gefunden werden, die man gar nicht so erwarten würde. Zum Beispiel, späte vor, du hast Diabetes. Und sagen wir mal, diese Firma hat eine Mailingliste oder eine App oder so etwas, die von Diabetes-Patienten genutzt wird. Jetzt unser richtiger Übersetzung leider, weil der Zonen ausfällt. Übersetzter Kabine 1. Ton geht wieder. Okay, weiter geht es. Das ist ein Beispiel dafür gewesen, was wir jetzt leider verfasst haben, was alleine mit den Facebook-Bewertungen möglich ist. Und 60 Prozent der Fälle konnte erkannt werden, ob die Eltern der Person sich vor dem 21. Lebensjahr getrennt haben. Und auch die sexuelle Orientierung konnte in 88 Prozent der Fälle bei Männern und in 75 Prozent der Frauen abgeleitet werden. Und das Geschlecht wurde mit 93 Prozentiger Wahrscheinlichkeit vorhergesagt. Auch auf jemanden schwarz oder weiß, ist mit 95 Prozentiger Wahrscheinlichkeit. Die erste Sache, die man hier verstehen muss, es geht hier nicht nur um Daten. Es geht nicht nur um Kontrolle über die eigene Daten zu erfüllen. Also das sind Meinungen, die über dich gemacht werden. Das heißt, obwohl man nie einen psychologischen Test macht, gibt es davon eine Meinung über dich. Also ein gutes Beispiel von einer Firma, die das macht, heißt Cambridge Analytica. Die hat detaillierte Profile über dich und die heißen Psychographics. Aber ich lasse die selber klären. Indem man 100.000 von Amerikanern diesen Fragebogen ausfüllen lässt, haben wir jetzt ein Modell, das über jeden Amerikaner ein Profil voraussagt. Das heißt, man kann entsprechend die Targeten aufgrund ihrer Persönlichkeit, also zum Beispiel für sehr neurotische und selbstbrusse Personen, will man eine Nachricht, die national ist, rational ist. Also hier zum Beispiel über ein Diebstahl oder eine Versicherungspolizei für eine Schusswaffe, das ist rational. Wenn man hier genau hinschaut, dann könnte man die Daten bis auf ein individuelles Niveau runterbrechen. Also, das ist die Firma, die bei der Brexit-Kampagne und bei der Trump-Präsidentschaftskampagne mitgebracht hat. Natürlich, nach der Trump-Kampagne wurden die Daten gelegt. Also, Daten über Millionen von Amerikanern wurden gelegt. Und da sieht man eben, dass diese Daten nach Modellen hergeleitet wurden über die Passe der Leute. Also, es geht hier nicht bloß um Werbung. Was tatsächlich passiert, ist, dass der größte Teil des Geldes in diesem Markt wird von Risk Management gemacht. Also, nicht unbedingt Marketer bezahlen für diese Daten, sondern Banken, Versicherungen, Arbeitgeber und Regierungen. Das sind die, die diese Profile kaufen, also eher als Werber. Also, das Versprechen von Big Data ist, dass man Risiko besser managieren kann. Also, was nicht passiert in dieser Datenökonomie, ist die Demokratisierung des Hintergrundchecks. Jetzt kann man halt alles über jeden rausfinden. In der Vergangenheit konnte vielleicht nur deine Bank deinen Credit Score wissen, aber jetzt kann eigentlich im Prinzip, ja, dein Detail-Händler das wissen über dich. Es ist nicht nur unsichtbar, sondern auch ein riesiger Markt. Also, die FCC schätzt zum Beispiel, dass das 150 Billionen Dollar sind dieser markende USA. Es ist unsichtbar, es ist riesig und es geht halt um alle. Aber das wird sich wahrscheinlich ändern. Jetzt geht es um die Verhandlungsverhaltensänderung. Man sieht im ersten Teil, dass durch Einfluss von außen das passiert. Also, das sieht man hier an der Konferenz auch viel. Also, man sieht hier zum Beispiel Facebook oder Russland oder China, die Wahl versuchen zu beeinflussen, oder eben natürlich Cambridge Analytica auch. Also, man fragt sich halt hier zu welchem Ausmaß kann ja tatsächlich Einfluss genommen werden. Aber wir sollten uns was anderes fragen. Machen wir das selbst? Also, schaffen wir neue Formen von Selbstsensur? Und erwarten wir, was diese Systeme machen mit uns? Also, weil es geht ja auch um Banken und Arbeitgeber, die einem versuchen zu verstehen. Also, es geht weiter als Klickfear. Also, wenn Leute rausfinden, dass man zum Beispiel einen Job nicht erhalten könnte, oder dass die Versicherungspayment teuer sind, dann macht das den Leuten Sorgen. Die wollen das wissen, falls das passieren könnte. Also, zum Beispiel bei der Steuerbehörde in der USA könnte es sein, dass die rausfinden über diese Datenprofile, die viele Wessen steuern, sie genauer überprüfen. Und also, wenn jetzt zum Beispiel jemand einen bösen Tweet über die Steuerbehörde schreibt, dann könnte es sein, dass die Person den Tweet gleich wieder löscht, weil man will halt nicht ins Rampenlicht gerückt werden. Oder hier eine Story über Algorithmen, die voraussagen können, ob man schwul ist oder nicht. Also, das läuft auf Chilling-Effekts raus. Also, Firmen oder Staaten, die können auch unter diesem Einfluss leiten, wie einzelne Personen. Das ist Social Cooling. Das sind diese zwei Dinge kombiniert. Einerseits, dass es sozialen Druck gibt. Und auf der anderen Seite, dass Leute breiter zu sind, ihr eigenes Verhalten zu ändern. Davon gibt es jetzt drei langwährende Effekte. Also, erstens auf einer individuellen Ebene, zweitens auf einer gesellschaftlichen Ebene und drittens im Markt. Also erstens. Auf individueller Ebene sehen wir eine Kultur von Selbstsensoren. Das hier ist aus einem Artikel, aus der New York Times, die sagt, wir sind sehr, sehr zurückhaltend. Du willst halt nicht, dass du später dich verteidigen musst wegen etwas, das du gemacht hast. Deshalb tust du es halt einfach nicht, weil am nächsten Tag es ist auch Facebook. Also, man hat eigentlich die Freiheit, z.B. Dinge nachzuschauen, Dinge zu sagen, aber man ist da zurückhaltend. Zweitens, auf gesellschaftlicher Ebene, da geht es um den Wert des Datenschutzes, der Privatsphäre. Weil kleine Fehler können Fehler größer werden später. Also, ich schaue uns z.B. Marihuana an. Das Mal ist so ein bisschen, äh, aber dann probiert man es vielleicht doch mal und, ähm, mit der Zeit ändern die Leute die Meinung als, als ganzes über zu Marihuana. Oder vielleicht auch mit größeren Dingen wie das hier. Also ich, äh, will mich nicht verstellen. Ich will, dass die Segeration beendet wird. Ich will, dass es keinen Diskriminierung mehr gibt. Das ist das gleiche Muster, das immer passiert, wenn, äh, die Gesellschaft sich verändert. Also es ist wichtig, dass man Dinge nachschauen kann, dass man die Meinung erinnern darf, dass man, ja, denken kann, was man will. Das Dritte ist, wie das dem Markt beeinflusst. Hier sieht man eine Kultur von Risikominderung. Das ist ein Beispiel aus 1995, da gab man Ärzten schon Scores. Und was dann passiert ist, ist, dass Ärzte, die eigentlich Krebspatienten im vorgeschrittenen Stadium helfen wollten, dann haben Ärzten, Ärzte, die denen geholfen haben und die Patienten sind dann gestorben, hatten tiefen Score. Aber natürlich Ärzte, die nicht geholfen haben, hatten hohen Score. Das heißt, da man an ganz perverse Anreize, weil die Leute, die die Risiken eingeben, haben da halt eben schlechten Score. Jetzt bei Ärzten oder zum Beispiel bei Entrepreneurs könnte man das auch haben. Also es gibt so einen Trickle-down-Risiko-Verminderungseffekt. Das heißt, eine Firma will ein Risiko managen und das hat dann ein Effekt auf uns, an der Basis unten. Okay, wie gehen wir damit um? Also wir müssen zusammen damit umgehen. Es ist ein großes Problem. Wir können dieses große Problem nicht einfach nur durch einzelne Hacker oder Nerds gelöst werden oder durch einzelne Politiker die Gesetze machen. Es ist ein gesellschaftsweites Problem. Also ich möchte aber alle Gruppen sprechen, die da zusammenkommen müssen. Öffentlichkeit, Politiker. Also zunächst mal die Public. Wir müssen erst mal gucken, was gibt es in der Cloud? Was steckt dahinter? Und wir versuchen es jetzt mal mit Humor zu erklären. Zum Beispiel, letztes Jahr war ich Teil davon, eine Ausstellung zu machen über fragwürdige Geräte. Und zum Beispiel eine Kaffeemaschine, die einem Kaffee gibt, je nachdem, in welcher Gegend man lebt, je nach Postlerzahl. Gute Postlerzahl, kriegst du guten Kaffee und wenn du in einer schlechten Gegend für uns bist, hast du schlechten Kaffee. Manchmal kann man Humor benutzen, um so etwas, so einen Ansatz darüber zu bringen. Aber auch so ist es eine ganze Weile, wie lange es gedauert hat, um globaler Werbung zu verstehen. Und bis alle Leute, also außer Donald Trump, langsam daran glauben, dass dies ein Problem ist. Und mit Daten und Social Cooling sind wir gerade erst am Beginn dessen, das zu erkennen. Die zweite Gruppe, die aufwachen muss, sind Politiker. Und die müssen verstehen, es geht dort um Machtverteilung, um die Machtbalance. Und wenn man sich das Ganze mal im großen Maßstab anguckt, dieses Gilles Deleuze, ein französischer Philosoph und er hat etwas sehr Nützliches erklärt, man hat zwei Kontrollmechanismen in der Gesellschaft. Das eine ist institutional und man ist zwar frei zu tun, was man möchte, aber wenn man ein Gesetz überschreitet, dann kommt die Polizei, man kommt ins Gefängnis, das versteht man. Aber es gibt auch das soziale System. Und das soziale System wurde lange Zeit nicht gestaltet. Und wenn man sich suboptimal verhält, dann wird man sehr sanft in eine richtige Richtung gedrückt, sehr unerschwellig. Und die institutionale Seite hat dieses Ideal, dass man ein freier Bürger ist und das soziale System arbeitet immer, selbst wenn man sich an alle expliziten Regeln hält. Das institutionale System, da geht es um Bestrafung. Und manchmal ist es auch voll okay, bestraft zu werden. Aber das soziale System ist noch viel mächtiger. Es arbeitet mit der Angst ausgeschlossen zu werden. Als soziale Tiere wollen Menschen halt immer zu einer Gruppe gehören. Und der wichtige Unterschied ist auch, dass institutionale System ist halt sichtbar und letztlich auch demokratisch bestimmt. Aber das soziale System ist eher unsichtbar und entsprechend auch schwer zu verstehen. Und China liebt dieses System, weil man kann es nicht so richtig verstehen, was dort in dieser Cloud, in dieser Wolke passiert. Und ja, manche Leute sagen, ich habe halt nichts zu verbergen. Und man kann das natürlich verstehen. Ich habe nichts zu verbergen vor dem alten System. Ich vertraue der Polizei. Ich vertraue der Regierung. Das kann man ja alles so sehen. Aber dabei wird übersehen, dass dort andere Teile sind, die man nicht demokratisch kontrollieren und überprüfen kann. So, die dritte Sache, die dritten Gruppe von Menschen, die aufwachen müssen, sind halt die Firmen, die unternehmen. Und wenn man jetzt mal eine Metapher dafür sucht, wenn man zum Beispiel, wenn man das mit der globalen Erwerbung vergleichen will, oder wir sagen jetzt mal, dann bräuchte so etwas wie, so etwas wie biologisches Essen, gesundes Essen. Wir brauchen eine Metapher für Umgang mit Daten. Und auch Gesetze könnten nützlich sein. Wir könnten so etwas haben, so eine Scala wie hier. Man sieht ein Produkt, wo eine Privatsphäre im Scala darauf abgebildet ist. Oder vielleicht auch solch eine Warnung. Darauf steht, Daten könnten deine Jobaussichten verschlechtern. Und die Politiker sind mittlerweile in Europa sehr darauf bedacht. Und hier entstehen halt auch schon Produkte, die das machen. So, und letzten Endes können wir alle Teil des Ganzen sein. Es gibt auch eine Parallele zur globalen Erwärmung. Es geht ja nicht nur um Technologie, es geht um eine komplette Denkweise, wie man die Welt erfasst. Und das heißt auch, wir müssen aufhören zu sagen, wir hätten nichts zu verbergen. Die Privatsphäre ist nämlich auch das Recht, unperfekt zu sein. Und es gibt aber einen steigenden Druck, perfekt zu sein. Und Privatsphäre bedeutet halt, aus diesem Druck herauszukommen. Und natürlich sollte es einem Menschenrecht geben, ihm perfekt zu sein. Wir sind alle Menschen, wir sind alle unperfekt. Und dann gibt es halt auch Leute, die sagen, ja, Privatsphäre ist halt nur so eine Phase. Dass das kommt, das geht, wie die Wellen. Und man sagt ja eigentlich auch nicht, Frauenrechte sind nur eine Phase und die gehen wieder vorbei. Und es gibt keine Weise, das besser zu erklären als argumentieren, dass man Privatsphäre nicht braucht, weil man nichts verstecken muss, so als man sagen würde, man braucht keine recht zur freien Meinungsäußerung, weil man ja nichts zu sagen hat. Und das Wichtige ist, diese Nuancen zu verstehen. Man muss davon wegkommen zu sagen, Daten sind gut, Daten sind ein Verbesserung, sondern Daten haben Vor-Nachteile, das ist ein Kompromiss. Und mehr Daten heißt zum Beispiel auch weniger psychologische Sicherheit. Mehr Daten für ein Land könnte, mehr Daten auch heißen weniger Autonomie der Bürger. Länder brauchen es, dass ihre Bürger autonom handeln können und entscheiden können, zum Beispiel wählen zu gehen. Und man kann auch sagen, mehr Daten führt dazu, dass es weniger Kreativität gibt, weniger Bereitschaftsideen zu teilen und zu verbreiten. Und zusammenfassend kann man sagen, soziale Abkühlung, Social Cooling ist eine Weise, die Probleme, die wir haben, in einen Rahmen zu fassen, um sie zu beschreiben und letztlich die Probleme zu verstehen. Und ja, es ist auch eine Art Alarm, ein Weckruf. Es ist alarmierend, was dort passiert, aber es geht auch um Hoffnung. Und ich vertraue gar nicht so sehr in Technologie, sondern vor allem in uns, in uns Menschen, die Probleme verstehen können. Und wenn wir zum Beispiel globale Erwärmung haben, dann machen wir halt was dagegen. Es dauert, aber wir machen etwas. Und das Gleiche können wir auch mit Daten machen. Es wird eine Weile dauern, das zu verbessern, aber wir fangen an und es wird passieren. Und dann gibt es noch einen Unterschied zwischen oberflächlichen Optimismus und tiefgründigen Optimismus. Oft hört man so, ja, Technologie, eine ganz tolle Technik, damit können wir alles lösen, alles wird besser. Und das ist eine sehr oberflächliche Optimismus. Und der tiefgehende Optimismus sagt, okay, es gibt da Probleme. Und diese Probleme zu erkennen ist gar kein, ist nicht schlecht, es ist kein Nachteil. Es muss halt gemacht werden. Es ist ein Anreiz, dass diese Probleme zu lösen. Und wenn wir unsere Denkweise so anpassen, dann werden wir, wenn wir das nicht machen, werden wir uns wahrscheinlich besser benehmen, aber wir werden auch weniger menschlich sein. Das Publikum applaudiert. Und applaudiert immer noch. Thank you, Timon. That scares the shit out of me. We still have five more minutes. So, wir haben noch fünf Minuten, um einige Fragen anzunehmen. Hello. Hello. Danke für deinen Talk. Ich habe eine Frage. Also, bei Indie, es gibt ein Projekt, das heißt Indie von der Southern Foundation, weißt du was darüber? Also, um es kurz zu erklären, diese Leute wollen eine Identitätsschicht bauen, bei denen die Leute selber entscheiden können, was sie über sich offenlegen, wann sie wollen. Aber halt, es ist eine einzige Identität, ganz durchs Internet. Also, man kann da dann halt seine eigene Daten kontrollieren, aber das würde natürlich auch so ein Bürgerscore möglich machen. Also, was hältst du von dem Projekt? Ja, also die erste Sache, die ich darüber denke, ich habe versucht zu erklären, es gibt viele Initiativen, die eigenen Daten kontrollierbar zu machen, aber das geht am eigentlichen Punkt vorbei. Es geht nicht um deine Daten selbst, sondern es geht um das, was aus deinen Daten abgeleitet wird, abgeleitete Daten. Und natürlich ist es toll, wenn du deine eigentlichen Daten begrenzen kannst, aber dieser Unterschied ist nicht allen bewusst. Und das zweite ist ein Beispiel für Technik, die wirklich gut ist. Wir haben ein Problem und wir versuchen, eine technische Lösung zu finden. Aber es gibt Probleme, die sind so kompliziert, die können wir nicht nur auf der Ebene einer Gruppe ändern, nicht nur mit Politikern oder nur mit den Firmen. Wir müssen alle zusammen daran anfassen, weil es eine grundlegende Problematik ist und dass wir Risiken managen wollen, ist so im Menschen eingraviert. Es ist so eine fundamentale Angst vor Risiken. Und da muss man gemeinschaftlich daran arbeiten. Wir haben eine Frage aus dem Internet. Also, gibt es einen Bezug zwischen Selbsteinsur und Echo Chambers? Was heißt, die Leute haben Angst, ihre eigenen Ansichten zu hinterfragen? Ja, es gibt eine große Antwort darauf, eine umfassende. Also, ich habe, wenn Surf E-Mails geschrieben und er schnell geantwortet und er sagte, das, was man eigentlich suchen muss, ist nicht nur die Ökonomie des Ansehens, sondern auch des Attachments. Wenn man sich diese Verknüpfung anschaut, dann ist dort eine Verknüpfung. Das Wichtige ist, die wichtige Nuance dabei ist, nicht jeder wird sich wirklich gut verhalten und gut abschneiden. Was diese Situation macht, ist, wir spielen uns mehr. Wir verkörptern mehr diese Identität. Und die meisten Menschen werden vorsichtiger und konservativer werden. Und andere werden aus sich herausgehen. Und erst mal richtig, dass wir eine Bühne nutzen und würden von einem solchen System tatsächlich einen Nutzen haben. Und sie würden eine Menge Aufmerksamkeit bekommen. Da ist also eine Verknüpfung. Man könnte auch noch mehr dazu sagen. Okay, wir haben aber wenig Zeit. Ich denke, das Publikum, zu dem du hier sprichst, ist eigentlich schon sich dieses Problem sehr bewusst. Aber ich frage jetzt nach Taktiken oder Tipps, um deinem Nachricht weiter zu verbreiten. Die Inhalte ist insbesondere Leute, die nicht interessiert sind. Also was ist da dein Ansatz? Also ganz praktisch, wie machst du das? Also, ich freue mich wirklich sehr, hier zu sein. Ich weiß, ich bin ein Nerd, aber ich bin auch ein Philosophischer Denker. Und ich arbeite nicht nur mit Konzepten, auch mit Worten. Und ich denke, Wörter können eine sehr kraftvolle Möglichkeit sein, um Menschen anzuregen. Ich habe bisher noch nicht den Weg gefunden, um das alles herauszubringen. Und ich kann Witze darüber machen, warum was Privatsphäre ist. Aber ich müsste einen ganzen Vortrag voraus schicken. Um Privatsphäre zu verstehen, um die ganzen Aspekte von Reputation, von Ansehen und so erkennen. Und trotzdem betrifft es die Menschen. Sie werden die Konsequenzen zu spüren. Sie werden bestimmte Jobs zum Beispiel nicht kriegen so. Und dann werden sie die Konsequenzen spüren. Aber was wir natürlich wollen, als Wissenschaftler, der mit Technik umgeht, wir wollen die Menschen auf das Problem aufmerksam machen und das beheben, noch bevor sie Opfer des Problems werden. Wir versuchen halt, Menschen vorher darauf hinzuweisen. Und die Romanwissenschaften sind wirklich gut dabei, die artige Dinge zu erklären. In 1995. Also es gibt keine kurze Weise, es zu erklären, warum Privatsphäre wichtig ist. Aber es wird uns immer besser gelungen, die Wichtigkeit herüberzubringen. So, dieser Vortrag ist nun zu Ende. Und damit verabschieden Sie sich aus der Übersetzerkabine in Lena Schimmel und Sie warten den Talk Social Cooling und mit viel...