 Meine Damen und Herren, hier im Saal und zu Hause an Ihren Bildschirmen, es geht jetzt darum, die datengesteuerte Gesellschaft zu verstehen, einen Sinn daraus zu schöpfen. Wir kommen bei dieser Veranstaltung Politik im freien Theater. Unsere Serie gibt es schon seit fünf Jahren, im Dezember 2017 erstmals in Berlin und seitdem gibt es diese Veranstaltungsreihe, es ist eine Zusammenarbeit zwischen der Bundeszentrale für politische Bildung und dem Humboldt-Institut für Internet und Gesellschaft. Vielen Dank, dass wir hier in Frankfurt für diese Veranstaltung Aufnahme gefunden haben. Die Struktur ist denkbar schlicht. Wir werden unsere Referente in etwa 40 bis 45 Minuten lang lauschen, dann wird sich ein Gespräch hier auf der Bühne entspinnen. Es gibt Fragen aus dem Publikum, wir haben ein Mikrofon, das wir herum geben können und für die an den Bildschirmen zu Hause oder wo auch immer. Da gibt es Slido, darüber können Sie sich mit Fragen beteiligen, die können wir dann bündeln nach Themen und entsprechend hier vorlesen und beantworten. Ich möchte Ihre Aufmerksamkeit auch lenken auf ein Tool beim Humboldt-Institut für Internet und Gesellschaft. Es ist ein Online-Kompendium, Sie sehen hier den Link. Da gibt es Vorträge, Vorlesungen, auch in Videoformat in voller Länge, aber auch hier die Menge anderen Inhalt, Podcasts zu verschiedenen Themen, zusätzliche Interviews nach den jeweiligen Vorträgen. Das Ganze ist, wenn Sie mich fragen, wirklich eine Goldmine, Top-Experten aus dem Bereich digitale Gesellschaft, schauen Sie sich es an. Und zuletzt, das wäre vielleicht auch noch was für Dozenten und Lehrer und Lehrerinnen, falls Sie in diesem Bereich kein Profi sind und da schließe ich mich absolut ein, jedenfalls bin ich kein Forscher, da muss ich sagen, es ist wirklich schwierig an den Themen dran zu bleiben, digitale Transformation. Wohin wendet man sich, wenn man gerade in der heutigen Zeit seine Kenntnisse auf dem Laufenden halten will, auf dem Neuesten Stand halten will? Die Zeiten sind lange vorbei, in denen ich morgens mindestens eine Zeitung von vorne bis hinten durchlasse. Zur Studienzeiten waren es sogar mal zwei. Manche Menschen schauen sich dann vielleicht die Hauptnachrichtensendungen am Abend im Fernsehen an oder mittags eine Radiosendung zur Information oder auch abends. Heute finden wir das übertrieben. So viele Zeitungen, so viele Nachrichtensendungen, aber eigentlich war das gar nicht übertrieben. Meine Tätigkeit im Medienbereich hat natürlich damit zu tun. Man das aber vergleicht mit dem, was viele Verbraucher und Verbraucherinnen heute tun. Da sind meine alten Medienverhaltensweisen oder meinen Medienkonsum viel weniger übertrieben, im Vergleich dazu wie es heute ist. Heutzutage suchen wir im Internet nach Nachrichten, am besten nach negativen Nachrichten, aber man muss nicht mal online sein. Man kann auch auf der Straße sozusagen mit dieser Datenerfassung konfrontiert sein. Darüber werden wir jetzt noch mehr erfahren. Viele von uns konsumieren nicht nur am Tag ein oder zwei Offline-Medien, sondern sind vor allen Dingen online auf vielen unterschiedlichen Websites unterwegs. Während wir das surfen, werden unsere Daten erfasst. Was machen wir denn heutzutage in der EU mit unseren Cookies? Wir haben ja jetzt die Wahl, aber machen wir das wirklich jedes Mal, wenn wir auf eine neue Website gehen? Es gibt einen Grundsatz, der Online und Offline gilt. Mehr Verkehr bedeutet weniger Sicherheit. Das stimmt im Straßenverkehr, aber das gilt genauso auch für den Internetverkehr. Wenn man beides haben will, Mobilität ohne Ende, aber auch hohe Sicherheit, dann steht man vor einer Reihe von logistischen Problemen. Heute Abend, denke ich, werden wir einiges davon darüber erfahren. In den letzten fünf Jahren haben wir diese Frage mehrfach beleuchtet, wie widersteht man diesen massiven Daten sammeln und dem Handeln mit Daten? Wie macht man das individuell als einzelner, aber wie macht man das auch auf politischer, gesetzlicher Ebene? Wir haben im Verlauf unserer Gespräche und Vorträge viel über diese Fragen nachgedacht und natürlich sind das Fragen, die schwer zu beantworten sind. Die Wissenschaft hat auch keine Pflicht, sie zu beantworten. Aber wenn wir ehrlich sind, dann haben die meisten Professorinnen und Professoren zugegeben, dass es für sie einfacher ist, den Internetverkehr einzuschränken, digitalen Detox zu betreiben, weil sie beispielsweise Assistenten und Sekretärinnen haben. Heute soll es darum aber nicht gehen, es gibt ja auch kein Handbuch, wie man online und auf der Straße sich sicher bewegt. Das sollten sie zumindest heute nicht erfahren, aber Widerstand in der datengesteuerten Gesellschaft, so heißt der Vortrag heute, das ist möglicherweise ein ganz guter Hinweis darauf, was man tun kann oder was zumindest wünschenswert wäre. Wie kann man die Online-Überwachung, das Datameining usw. im Ausweichen begegnen? Unser Gast heute ist von Amsterdam nach Frankfurt gekommen, im Zug, und das auch noch pünktlich. Das kann man ja nicht immer sagen in Deutschland, sie wurde in Padua im Norden Italiens geboren und fuchs dort auf, hat dann in Florence politische und Gesellschaftswissenschaften studiert. Aktuell ist sie Professorin für New Media und Digital Culture an der Universität von Amsterdam und außerdem tätig am Bergman Klein Center for Internet and Society an der Harvard Universität. Und ich zitiere jetzt von ihrer tollen Website, schauen Sie sich die an, Grassroots Engagement with Data and Data Infrastructure, also das nennt sie, so umschreibt sie Datenaktivismus, beispielsweise ist sie auch leitend tätig im Data Active Ideas Lab. Sie hat etliche Bücher herausgebracht, Social Movements and Technologies, Wiring Social Change. Im letzten Jahr war sie mit Herausgeberin eines Bandes über Covid-19 from the margins, die Effekte der Pandemie in der datengesteuerten Gesellschaft und dann auch noch ein Werk über Datenaktivismus. Jetzt aber bitte ein herzliches Willkommen an Stefania Milan aus Amsterdam. Einen schönen guten Abend zusammen und ich bedanke mich herzlich bei den Organisatoren für die Einladung. Es ist mir ein Vergnügen aus verschiedenen Gründen. Zum einen weil das eine meiner ersten Vortragsveranstaltungen seit meinem Mutterschutz Urlaub ist. Also mal schauen ob ich mich noch an das erinnere, wie ich das gemacht habe, bevor mein Leben sich für immer verändert hat. Und in meinem Vortrag werden wir auch ein paar Beispiele dafür sehen was es bedeutet heute in der datengesteuerten Gesellschaft groß zu werden aufzuwachsen. Hier lernen wir Robert Julian Bochak-Williams kennen. Den Mann, den Sie hier sehen, da gab es einen Fall in Michigan in den Vereinigten Staaten, bei dem er vor zwei Jahren fälschlicherweise in einer teuren Boutique des Ladendiebstahls bezichtigt wurde. Er war nämlich falsch identifiziert worden von Gesichtserkennungssoftware. Die Polizei war also der Meinung, es waren recht verschwommene Bilder, aber diese Bilder, die eine Sicherheitskamera in diesem Laden aufgenommen hatte, dass sie das Gesicht dieses Mannes zeigten. Es zeigte sich dann, dass das ein Wohl- und Rechtschaffende Bürger war und nichts mit Ladendiebstahl zu tun hatte. Das war natürlich keine angenehme Erfahrung und er hatte auch das Vergnügen, dass die Polizei sich hinterbei ihm entschuldigt hatte, aber er war tatsächlich zunächst verhaftet worden. Nun, die Polizei und Sicherheitskameras, Überwachungstechnik, aber letztlich reden wir hier über Entscheidungen, die ein Algorithmus trifft oder verschiedene Algorithmen. Ein Algorithmus, wie bei Gesichtserkennungssoftware, der bestimmte Charakteristik eines Gesichtes erkennt, nicht das gesamte Gesicht, aber Abstände zwischen bestimmten Punkten im Gesicht, beispielsweise Nasenspitze und Augen- oder Mundwinkel. Und basierend auf diesen Abstandsmessungen wird dann das Bild abgeglichen mit der bestehenden Datenbank und dann werden halt Verdächtige oder Schuldige ausgemacht und identifiziert. Gesichtserkennungstechnologie ist im öffentlichen Bereich ja schon seit über zwei Jahrzehnten im Einsatz, auch wenn es bekanntermaßen immer mal wieder nicht richtig funktionierte. Robert war angeblich das erste Opfer eines solchen algorithmischen Fehlurteils. Ob das wirklich der Fall ist, sei da hingestellt, er war der erste, über den die Medien berichtet haben, aber es gibt sicherlich sehr, sehr viel mehr Robots da draußen. Gesichtserkennungstechnologie ist Gang und Gebe in der heutigen Gesellschaft. Sie sagen vielleicht Robert, das bin ja nicht ich, ich habe keine dunkle Haut, ich bin da sicher, ich lebe in Deutschland, da passiert sowas nicht, aber Gesichtserkennungstechnologie ist schon da mitten unter uns und deutlich näher, als wir vielleicht glauben. Beispiel, es ist mehr und mehr im Einsatz im Bildungsbereich an öffentlichen Schulen. Vor ein paar Jahren gab es ein paar französische Schulen, die mit Gesichtserkennungstechnologie experimentierten, beispielsweise Nizza und Marseille, die verwendeten ein Tool, das interessanterweise gratis zur Verfügung gestellt wurde vom Tech-Unternehmen aus den USA, Cisco, haben sie vielleicht schon mal gehört. Und diese Technologie wurde nun verwendet, um den Zugang am Schultor zu kontrollieren. In Paris, zur ungefähr gleichen Zeit, wurde Gesichtserkennungssoftware von einigen Schulen verwendet, um den Gesichtsausdruck auszulesen und die Augenbewegung, um zu überprüfen, ob die Studierenden den Vorträgen aufmerksam lauschten. Also es reicht nicht mehr irgendwo hinten zu sitzen und sich hinter dem größeren davor im Sitz zu verstecken, denn diese Software erwischt sie und wird natürlich dann Meldung machen beim Professor oder Lehrer und sagen, sie hör nicht aufmerksam zu. Es gibt ähnliche Geschichten aus anderen europäischen Ländern wie zum Beispiel auch Schweden. Das waren ja nun nur Tests und Versuche. Da reden wir von 2017, 2018. Und das hier aber ist die Zukunft, die unseren Kindern und auch unseren Studierenden bevorsteht. Sie erinnern sich, die Pandemie, die Software, die dafür sorgte, dass die Studierenden bei Tests und Prüfungen zu Hause nicht betrügen konnten. Dazu komme ich später noch mal mit einem Beispiel. Gestern aber war ich in Amsterdam und war bei einer großen Messe, Edutech Europe heißt die. Eine Messe, die immer an verschiedenen Orten stattfindet und 2022 findet sie nun in Amsterdam statt. Die endet heute und dort wurde sehr viel geredet über Emotionsdetektion und personalisiertes Lernen. Ja, wie gesagt, das waren da die Worte der Stunde und als Unterrichtende habe ich dann festgestellt, sich darüber nachgedacht habe, ja, personalisiertes Lernen, das streben wir ja durchaus an, auch ohne Technologie, Aufbau von Gemeinschaft, von Community und so weiter. Aber da war ja das Argument, wir brauchen Technologie, um diese Probleme zu lösen, beispielsweise auch den Lehrermangel. Ich habe dann etwas erfahren über ein Tool, das heißt SmileML, das ist hier das Bild auf dem Bildschirm, das ist ein Ergebnis dieses Tools und unter anderem wird das Betrieben von Google Education und dieses Tool nutzt künstliche Intelligenz, um menschliche Gefühlsregungen zu erkennen. Idee dabei ist, dass der unterrichtende Dauer des Feedback aus der Klasse bekommt, weil die Grundannahme ist, dass zufriedene glückliche Schüler und Schülerinnen besser lernen. Aber wenn man da mal etwas hinterfragt, kann man sich natürlich auch überlegen, ob die vielleicht auch zu begehigeren Konsumenten werden. Kann man sich mal Gedanken machen, aber solches Feedback kommt dabei heraus. Und das ist nur eine der vielen Komponenten, die da unterrichtenden zur Verfügung gestellt werden. Wir leben in einer stärker datafizierten oder datengesteuerten Gesellschaft. Das urberne Umfeld ist datengesteuert, beispielsweise Smart City. Der Arbeitsplatz ist datengesteuert, beispielsweise on-demand Arbeitskräfte, die bereitgestellt werden durch Plattformen wie Uber oder Deliveroo oder sonstige Leistungen, die es in Deutschland gibt, mit denen man sich Essen nach Hause bringen lassen kann. Aber auch Freundschaften und Beziehungen sind datengesteuert. Denken wir an soziale Medien und auch Apps wie zum Beispiel Tinder. Und auch unsere Gesundheit ist datengesteuert. Als Frau denke ich da immer an diese Apps, die die Periode nachvollziehen und nachverfolgen. Ein sehr gutes Beispiel dafür, dass etwas dauernd überwacht wird. Oder vielmehr wir uns selbst dauernd überwachen. Aber Hauptzweck oder die Hauptmission, wenn man so will, der datengesteuerten Gesellschaft ist es ja, die Welt besser zu machen durch Daten. Informationen ist in dieser datengesteuerten Gesellschaft eine konstituierende Kraft geworden. Etwas, was allgegenwärtig verfügbar ist. Etwas, was die Unternehmen untereinander handeln. Eine Währung auch für Regierungen, für den Staat um Informationen über seine Bürger zu gewinnen. Aber auch etwas, was nicht nur kollektiv gesammelt ist, sondern auch etwas, mit dem man die soziale Realität formt. Überlegen wir Social Media Inhalt, mit denen sich Wahlen beeinflussen lassen? Denken wir an die Wahl Trumps 2018 oder vielmehr Trumps Wahlbeeinflassung 2018 oder auch 2021 in der Niederland die Rolle von Facebook. Da reden wir nicht von Stimmdiebstahl, aber dadurch wird Homophilie gefördert. Also dass Leute, die gleiche Meinung sind, sich finden und damit natürlich nicht anders laut eine Meinung und Ideen konfrontiert sich sehen. Daten, und das ist hier immer die Grundeinnahme, Daten müssen es doch besser wissen, als wir kleine Menschen. Gleichzeitig ist es aber so, Daten haben keine Werte, auch wenn sie definitiv nicht so neutral sind, wie wir immer gesagt bekommen. Das heißt immer, Daten, die wissen es besser, Daten sind hier objektiv. Nun, da gibt es auch andere und nicht nur ich, die da eine andere Meinung verfechten würden. Aber das ist ja immer noch eines der Konzepte dieser Zeit, in der wir leben. Die Covid-Pandemie hat nun möglicherweise die Data-Fizierung der Gesellschaft noch beschleunigt. Denn das war ja eine Art Test-Labor, in der Technologien neu entwickelt oder umfunktioniert werden konnten. Biometrische Überwachung beispielsweise. In der Hoffnung oder auch in dem teilweise fälschlichen Versprechen, damit die Verbreitung des Virus einzudämmen. Also zum Beispiel Kontaktverfolgung, diese Apps, das würde uns definitiv helfen, hat vielleicht in Deutschland funktioniert. Ich kann Ihnen sagen, in Italien wurde das Projekt sehr schnell wieder fallen gelassen. Aus ganz offensichtlichen Gründen, weil die gar nicht in der Lage waren, irgendwas damit zu verfolgen und schon gar nicht auf sichere Art und Weise. Aber das ist ja nur ein ganz kleines Beispiel. Digitale Identität, ein anderer wichtiger Punkt. Es gab einen rund 80-prozentigen Anstieg bei der Nutzung digitaler Lösungen im Markt, aber auch auf staatlicher und Regierungsebene. Das gilt für USA und Kanada. Also wenn eine öffentliche Stelle Behörde nicht direkt mit den Bürgern interagieren kann, dann wendet man sich eben solche Lösungen zu, die möglicherweise sehr bequem sind. In den Niederlanden beispielsweise hat man eine digitale Identität und kann damit quasi alles machen. Gesundheitswesen und auch die weniger angenehmen Elemente wie zum Beispiel Steuern bezahlen. Aber auch da gibt es natürlich immer die andere Seite. Es ist nämlich nicht immer ganz klar, wer und zu welchem Zweck die Daten erhoben werden. Und auch in Deutschland gibt es ja Beispiele und auch die bestimmte App. Es ging um die Eindämmung der Verbreitung des Virus, aber letztlich ja auch das Argument, dass Polizeidienste diese Daten anderweitig verwenden könnten. Das Ganze hat nun auch die Nachfrage auf staatlicher Seite befördert für Problemlösung durch digitale Technologien und hat gleichzeitig auch die Sorgen in der Öffentlichkeit über Datenschutzrisiken vermindert. Also ein bisschen nach dem Motto, ja ich gebe gern alle meine Daten her, damit ich entweder tanzen gehen kann, wieder ins Fußballstadion gehen kann und so weiter. Und so wurde es als Technologie ja auch oft eingeführt und vorgestellt. Gesichtserkennungsoftware beispielsweise. In Italien gegen Ende der Pandemie und das würde ich suggerieren, dass sie schon zu Ende ist, was wahrscheinlich nicht der Fall ist. Aber als dann endlich wieder Fußballspiele stattfinden konnten, hat der Fußballclub in Rom im Stadion mehrere Millionen ausgegeben für ein System von Gesichtserkennungskameras. Das Argument war eben, wir können endlich wieder die Leute ins Stadion lassen, weil sie mit dieser Software die Temperatur messen konnten, bei denen die ins Stadion ging. Aber keiner hat zumindest meines Wissens öffentlich zumindest die Frage aufgeworfen, wie es damit Datenschutz aussieht und ob das da wirklich die beste und vielleicht auch nützlichste Maßnahme wäre. Uns wurde und wird eine bessere Welt versprochen durch Datafizierung, durch Datensteuerung. Aber sie führt zu einer Verstärkung von Ungleichheiten und einer Perpetuierung von Ungerechtigkeit. Es ist schwieriger in marginalisierten Gemeinschaften und in Ländern mit schlechterem, rechtsstaatlichem System. Vulnerable Gruppen sind besonders betroffen und auch einzelne und einzelne Personen. Beispielsweise gibt es fast überall mittlerweile Software bei der Studierende an Universitäten während der Pandemie ihre Prüfungen zu Hause ablegen konnten. Wie stellt man da sicher, dass nicht betrogen wird, dass nicht irgendwer daneben sitzt und was einflüstert oder dass sie nicht irgendwo ein Buch unter dem Tisch offen liegen haben oder sich alles hinten an die Wand geklebt haben? Wie stellt man sicher, dass eine Prüfung wirklich fair abgelegt wird, was natürlich für alle Unterrichtenden eine Frage ist? Die Software, die da an den meisten niederländischen Universitäten verwendet wurde für die Prüfungsüberwachung, um sicherzustellen, dass die Studierenden nicht betrügen, war diskriminierend gegen Menschen mit dunklerer Hautfarbe. Aus diesem Grunde hat ein Studierender der Freien Universität Amsterdam klage eingereicht vor dem niederländischen Institut für Menschenrechte. Auf das Ergebnis warten wir noch. Das Bild, was wir hier sehen, war ein erster ähnlicher Fall. Und es gibt eine ganze Sammlung von solchen durchaus furchterregenden Fällen mittlerweile. Es gibt einen Film, Coded Bias, falls Sie den noch nicht kennen, sehr zu empfehlen, aus dem Jahre 2020. Ein Dokumentarfilm, der die Geschichte von Joy Burlam Vini erzählt, ein Studierender am MIT, der ein ähnliches Problem hatte, dunkler Hautfarbe und Diskriminierung durch Gesichtserkennungssoftware. Und wir reden ja heute über Widerstand und das hat halt dazu gefügt, dass die Studierenden protestiert haben. So dass nicht nur dieser Dokumentarfilm entstand, sondern auch eine Organisation daraus hervorging, die Algorithmic Justice League, die nun diese Situationen zu ändern anstreben. Bislang waren meine Beispiele der größten Teils aus Europa oder aus Deutschland, also sozusagen aus Ländern, die wir durchaus als privilegierte Regionen und Situationen beschreiben würden. Auch wenn wir wissen, dass es auch hier in unseren reichen westlichen Gesellschaftarmbussprobleme gibt. Wenn wir aber mal darüber hinausgehen in Länder, die vielleicht kein wahnsinnig ausgebildetes, rechtsstaatliches System haben, da sehen wir, dass die Situation noch deutlich schlimmer ist. Da wird solche Technologie eingesetzt für Situationen, wo es wenig Schutz gibt für die Bürger. Und das kann schon durchaus beängstigende Level erreichen. In Indien gibt es einen Fall, über den mein Kollege Silvia Masiedov in der Universität Oslo berichtet hat. Biometrische Identifikation wurde dort verwendet, um bedürftigen Menschen Zugang zu gewähren zu rationierten Nahrungsmitteln durch ein Netzwerk dieser Rationierungsshops, also Nahrung für bedürftige Familien. Und Zugang wurde dadurch Fingerabdruck gewährt. Also diese biometrische Identifikation hat aber gleichzeitig das Programm zu einem Stopp gebracht, weil man der Weinung war, dass Krankheiten übertragen werden können durch diesen Fingerabdruck. Also überlegen wir uns, dass ein Land schließt ein solches Programm und das waren Menschen, die zuvor schon von Nahrungsmittelspenden oder Nahrungsmittelzuwendungen abhängig waren. Und jetzt wird dieses neue biometrische Identifizierungssystem eingesetzt, also ein digitales System. Und das wurde für gefährlich gehalten in dieser Situation, sodass sie plötzlich nicht mehr in der Lage sind, ihre Familien zu ernähren. Also Datenschutz, die ganzen Probleme der datengesteuerten Gesellschaft, das klingt manchmal so ein bisschen wie ein Luxusproblem. Etwas, was wir uns mal genau überlegen müssen, worüber wir nachdenken müssen. Wofür man aber auch die Fähigkeiten, die Qualifikationen braucht, die richtigen Geräte natürlich auch. Die Konsequenzen sind aber durchaus noch schlimmer für Menschen, die diese Luxushilfsmittel eben nicht haben. Ist es also ein Versagen des Systems? Sicherlich als Soziologin bin ich schon der Meinung, dass Datafizierung etwas ändert und in gewisser Weise auch das demokratische System gefährdet, so wie wir es kennen. Demokratie sehe ich hier nicht als die einzige Referenz, als das einzige und wahre System, obwohl rund die Hälfte der Weltbevölkerung ja in Ländern mit demokratischem System lebt, wobei es da natürlich Abstufungen gibt und nicht alle perfekt funktionieren. Ich beziehe mich aber auf Demokratie und vor allem liberale Demokratie, weil es das System ist, was konstitutionell verfassungsmäßig den höchsten Schutz bietet für seine Bürger, beispielsweise bezüglich Menschenrechten. Wenn also bei Demokratien hier schon Abstriche gemacht werden müssen, können wir uns vorstellen, was in Ländern passiert, die eben nicht demokratisch regiert sind, wenn solche Überwachungssoftware und Ähnliches zum Einsatz kommen. Aber ich beziehe mich jetzt auf Demokratien. Und ja in gewisser Weise ist es ein Versagen des Systems oder könnte zu einem werden, denn Datafizierung hat zweifellos die Krise der liberalen Demokratie beschleunigt. Wir wissen bereits, wir haben das auch reichlich gehört in den Medien und Gesprächen und überall, dass die liberalen Demokratien ein Problem haben. Bei Wahlen gibt es Probleme und die repräsentative Demokratie oder repräsentative Wahlsysteme, dass da die Wahlbeteiligung immer weiter zurückgeht. Die jungen Menschen, die jüngeren Generationen sind gar nicht mehr besonders interessiert und nehmen keinen Anteil am Wahlprozess. Und populistische Strömungen, Regierungen sind aus solchen Wahlen hervorgegangen. All das ist weit hin erforscht durch wunderbare Kollegen. Aber ich möchte dir das Augenmerk legen auf das, was die Datifizierung für Systeme liberaler Demokratie tut. Und ich mache hier nur ein paar Punkte, ein paar Beispiele. Es gibt wahrscheinlich noch eine endlos viel längere Liste, aber hier habe ich persönlich zu geforscht. Also es ist zweifellos nur ein Teil des Problems und nicht das Gesamtbild. Ihre eigene Perspektive können Sie da gerne hinzufügen. Zunächst mal die steigende und wachsende Rolle von Industrie und Wirtschaft in der Demokratie. Und damit meine ich, dass eine Handvoll großer Unternehmen monopolistischer oder semi monopolistischer Natur sehr vertikal organisiert, die eine zunehmend wichtige Rolle spielen bei staatlichen Angelegenheiten. Also in der Vermittlung zwischen der Rolle des Staates und seinen Bürgern. Ich rede hier nicht über das Problem von Lobbying. Also Sie wissen ja beispielsweise, dass auf EU-Ebene in Brüssel, dass da gerade über die neuen Gesetze zu künstlicher Intelligenz und Digital Market, digitale Markt gesprochen wird, dass da Grenzen eingezogen werden in diesem unübersichtlichen Markt. Ich habe da keine Daten zum Thema Lobbying, was diese spezifischen Gesetzesvorhaben angeht. Aber ich weiß, es gab unglaublich viele Lobbyisten, die hier tätig waren. Rund 4000 ist eine Zahl, die gehört ab dem Zuge der Aushandlung dieser allgemeinen Datenschutzrichtlinie nach Brüssel gereist sind, die Sie ja alle bestens kennen dürfen, die ja 2017 in Kraft trat. Also schon vor ein paar Jahren. Und die wiederum hat ja für Unternehmen mit Sitz in den USA, Tech-Unternehmen aus den USA einiges an Problemen geschaffen, da eben da der Datenschutz beim Hin und Her problematisch wurde. Also das ist das erste Problem Einfluss von Industrie und Wirtschaft auf den Gesetzgebungsprozess. Aber nicht nur das. Ich rede auch darüber, dass beispielsweise in Amsterdam und auch in den meisten holländischen Städten und Gemeinden es so ist, wenn ich mit meinem örtlichen Vertreter, meiner örtlichen Verwaltung, Stadtbehördet sprechen will, Müll oder was auch immer, irgendwas Funktioniertes. Man muss das über Facebook oder WhatsApp machen. Also letztlich das gleiche Unternehmen. Also wir sehen ein immer stärkeres Vordringen der Technologie in diese Art von Beziehung zwischen Regierung und Bürgern. Und das gleiche gilt für viele Covid bezogene Technologien. Kontaktverfolgungsapp beispielsweise oder das Digitale Covid-Certificat. Ein Großteil dieser Software wurde ja vom Privatsektor bereitgestellt. Und da können wir nur spekulieren, was das bedeuten kann. Beispielsweise bezüglich Datenschutz und Privatsphäre. Aber auch, was den demokratischen Prozess angeht, in dem ich mich halt an meine Vertreter, an meine Volksvertreter wende. Zweite Beobachtung, zweiter Punkt. Da geht es um Überwachung. Und es gibt jede Menge Leute, die besser informiert sind, als ich mehr darüber wissen. Wenn ich also heute über das Thema Surveillance, Überwachung rede, Massenüberwachung, dann geht es hier um das Beispiel der Entfüllungen durch Snowden, die gezeigt hat, wie nationale Sicherheitsbehörden präventiv ihre Bürger ausspionieren, quasi über die gesamte Bevölkerung hinweg. Und der Öffentlichkeit wurde so klar, dass das wirklich eine Massenüberwachung ist. Und das wiederum hat dazu geführt, dass das Vertrauen der Bürger in den Staat, in die Regierung sich geändert hat. Auch das, was immer als der soziale Kontakt bezeichnet wird, zwischen Regierung und Bürgern. Und dann auch eine dritte Beobachtung, wie die Krise der liberalen Demokratie durch diese Datifizierung leidet, nämlich die algorithmische Personalisierung des Inhaltes, auch Inhalte politischer Natur, die ja von diesen sozialen Medienplattformen betrieben werden. Auf diesen Social Media-Plattformen werden wir ja bekanntlich nur mit Meinungen konfrontiert, die der Unserigen ähneln und das wiederum verstärkt dieses Gruppen interne Verhalten und reduziert jegliche Expeditionen, die auseinandersetzen mit anders lautenden Meinungen. Also dieser Austausch, der ja entscheidend ist für eine gesunde Demokratie. Ich habe versprochen, nicht nur depressive Geschichten oder deprimierende Geschichten zu erzählen, sondern auch auf den Widerstand einzugehen. Wie können wir also unsere politische Handlungsfähigkeit aufrechterhalten und nutzen? Kann man überhaupt Widerstand leisten oder ist das utopisch? Wie können wir den Widerstand individuell, aber auch kollektiv in dieser datengesteuerten Gesellschaft organisieren? Das Problem betrifft nicht nur den Widerstand gegen die datengesteuerte Gesellschaft an sich. Kameras im öffentlichen Raum könnten ja abgebaut werden, man könnte verlangen, dass sie abgebaut werden. Nein, es geht auch darum, sich ausdrücken zu können und zwar eine anders lautende Meinung in der Öffentlichkeit in einer Gesellschaft äußern zu können und zwar in einer Gesellschaft, die ihre Bürger immer stärker überwacht. Ich forsche ja in diesem Bereich, beispielsweise Gesichtserkennungssoftware, dadurch geben wir ja unsere Identitätpreise, indem wir einfach von einer Kamera erfasst werden. Das heißt, wir könnten uns genauso gut unseren Personalausweis offen auf die Stirn kleben, weil wir ganz genau so sofort offenlegen, wer wir sind. Ich weiß nicht, ob hier in Frankfurt ähnlich viele Kameras eingesetzt werden wie in London. London ist jedenfalls berühmt berüchtigt für das hohe Niveau dieser Überwachung durch Kameras. Die Polizei setzt seit 2020 Gesichtserkennungssoftware in ihren Kamerasystemen in der ganzen Stadt ein. Und es wird geschätzt, dass jede Bürgerin jeder Bürger Londons pro Tag etwa 300 Mal erfasst wird, erkannt wird, dass aber nur in 19 Prozent der Fälle Verdächtige richtig erkannt werden. Also von 100 Menschen, die erkannt werden, werden 81 Prozent falsch erkannt und unter Umständen eingebuchtet. In London ist die Situation vielleicht besonders extrem, aber fragen Sie sich, wie Sie in Ihrem eigenen Umfeld aussehen. Wie gesagt, jeder Londoner, jede Londonerin wird am Tag etwa 300 Mal von einer Kamera auf der Straße erkannt. Wie viele Daten entstehen dadurch oder werden dadurch ständig eingesammelt über uns? Hier ein Bild aus den USA, also ein etwas anderer Kontext, aber hier sehen wir eine Demonstration, ein Aktivist der Black Lives Matter Bewegung, Derek Ingram, der vor einigen Jahren in New York festgenommen wurde, weil er an einer Demonstration von Black Lives Matter teilgenommen hatte, also dieser antirassistischen Demonstration und Bewegung, seine Daten entsprachen den Gesichtserkennungsdaten, die irgendwo erfasst worden waren. Er hat natürlich nichts zu verstecken, nichts zu verbergen, ich denke das gilt für Sie auch, hoffe ich zumindest, aber wenn Bilder dann sozusagen mit Bildern in sozialen Medien erkannt werden, um die Bilder einer Person zuzuordnen, dann hat man natürlich ein Problem. Damit sollen Verdächtige oder Schuldige gefunden werden und nun kann man sagen, ich habe ja nichts zu verstecken, aber wenig überraschend haben wir hier noch ein Beispiel aus New York und ein Beispiel von Widerstand 2019, gab es ja die Demokratiedemonstration in Hongkong und hier sehen wir eine Gruppe von Demonstranten, die diesen intelligenten Laternenfall versuchen abzubauen oder zumindest die Kameras zu zerstören, denn mit diesen Kameras wurden die Demonstranten identifiziert und somit Daten an China geliefert, an Festland China und in Hongkong will man nun wirklich nicht bei bestimmten Aktivitäten erkannt werden, weil das auf jeden Fall negative Konsequenzen zeitigt. Hier haben wir also ein tolles Beispiel von Widerstand, aber was möchte ich jetzt in der restlichen Zeit noch besprechen? Ich möchte noch einige Beispiele bringen, wie wir Widerstand leisten können in dieser datengesteuerten Gesellschaft gegen die Datafizierung. Nicht alles wird sozusagen ein magisches Mittel sein, um Probleme zu lösen, aber mündige Bürger können sich engagieren. Fünf Punkte. Also es gibt fünf verschiedene Arten von Aktionen, die ich als Soziologin das Aktionsrepertoire nennen würde. Das sind also Aktionen, die protestierende oder auch Protestbewegungen ab und an einsetzen. Dieses hier ist relativ neu. Die sozialen Bewegungen haben natürlich zum Teil seit Jahrzehnten, seit Jahrhunderten Dinge in der ganzen Welt auf bestimmte Art und Weise gemacht. Das heißt, hier wird ja auch nicht das Rat ständig neu erfunden, sondern Strategien werden neu angewendet, in diesem Fall auf das Problem der datengesteuerten Gesellschaft. Und diese Bewegungen erlauben es Einzelnen, sich zu engagieren, aber auch dem Kollektiv sich zu engagieren. Man kann den Widerstand über sein Telefon leisten oder gemeinsam mit anderen Menschen auf der Straße, was natürlich ein machtvoller Auftritt unter Umständen ist. Und praktiziert wird das, wie gesagt, individuell, aber auch kollektiv. Die erste Strategie ist möglicherweise ein wenig individualistischer angelegt, nämlich eine Selbstverteidigung gegen die Überwachung. Das hier ist von einer Organisation Frontline Defenders. Die möchte ich hier eigens erwähnen für ihre tolle Arbeit bei der Unterstützung der Menschenrechte in autoritär regierten Ländern. Also diese Selbstverteidigung in der datengesteuerten Gesellschaft kann zum Beispiel bedeuten, dass man entscheidet, was man mit seinem Smartphone macht und was nicht. Wir haben das ja quasi alle in der Tasche und da kann ein jeder entscheiden, was er oder sie wie macht, also welche Apps Zugriff auf die Kamera haben dürfen, welche Ordnungsdienste man verwendet und wie beispielsweise auch Apps, die zur Nutzung des öffentlichen Nahverkehrs dienen. Da muss man sich natürlich immer das Kleingedruckte durchlesen. Wir wissen, es ist sehr lang und zäh und dann kann man sozusagen über das Telefon eine Reihe von Funktionen nutzen, vielleicht auch Ordnungsdienste nutzen, die man eigentlich gar nicht wirklich braucht. Aber man stimmt dem irgendwie zu. Das Ganze betrifft natürlich auch soziale Medien, vielleicht Bankkarten und so weiter. Das heißt, sich informieren und dann genau überlegen, welchen Dingen man zustimmt und welchen nicht. Das ist schon eine Form von Widerstand. Das Ganze bezieht sich beispielsweise auch auf die Nutzung von Internetbrowsern, wo man die höchsten Sicherheitseinstellungen auswählen kann. Google gehört allerdings nicht zu den, die da höchste Sicherheitsniveaus bieten. Das dürfte klar sein. Dann zweitens Subversion. Subversion in der datengesteuerten Gesellschaft kann in vielerlei Form sich ausdrücken. Eine beispielsweise die althergebrachte Zerstörung, wie wir sie in Hongkong gesehen haben. Aber beispielsweise auch den Tausch von Reisekarten, von Chipkarten. In den Niederlanden verschwanden die Papiertickets vor ein paar Jahren und man musste jetzt Chipkarten verwenden, um den öffentlichen Nahverkehr zu benutzen. Die können personenbezogen sein, also einer Person zugeordnet sein, aber auch personenunabhängig genutzt werden. Was haben also dann Menschen gemacht? Die haben in den Niederlanden kleine Tauschpartys organisiert, wo die Karten durchgetauscht werden. Einfach nur, um sozusagen hier die Datensammlung zu torpedoidieren bzw. die Daten unbrauchbar zu machen. Es gibt andere kreative Arten und Weisen, wie man das hier und da aushebeln kann. Dann Kompetenz und Aufklärung. Das gilt für uns alle, für alle Altersstufen. Da muss man sich einfach fortbilden, einlesen, dranbleiben. Beispielsweise auch die Nutzungsbedingungen aufmerksam lesen und daraus Konsequenzen ziehen. Kompetenz und Aufklärung, das fängt bei einem selbst an. Ich muss mich informieren nicht nur, weil ich dazu forsche und unterrichte, sondern weil ich auch Nutzerin bin. Das heißt, das ist eine Herausforderung, die mich ständig und überall trifft, das aber auch extrem wichtig ist, beispielsweise in die Schulbildung einzubringen. Es gibt in vielen Ländern inzwischen Ansätze Schulkinder darin zu unterrichten, wie sie mit Algorithmen umgehen, wie sie mit Beliebtheit auf sozialen Medien umgehen und so weiter. Und davon brauchen wir noch viel mehr, denn wir brauchen informierte Bürgerinnen und Bürger für die Zukunft, die nicht nur wissen, wie Wahlsysteme oder das Parlament funktionieren, sondern die eben auch wissen, wie sie sich in der immer schwiegerigeren Umgebung zurechtfinden und schützen können. Also wir müssen informiert bleiben, wir müssen uns aktiv informieren. Wir können aber auch an Krypto-Parties teilnehmen, sowas wie Tupperware-Parties, aber um Krypto-Verschlüsselungstechniken zu lernen. Vielleicht verrate ich hier meinen Alter, in dem ich von Tupperware spreche, aber das sind diese Plastikbehältnisse, die zumindest unsere Mütter noch fleißig benutzt haben und die wurden vertrieben über so eine Art Pyramidensystem. Man musste zu Parties einladen und sozusagen bei Freundinnen und Bekannten werben dafür und das dann verkaufen im eigenen Haus. Also man trifft sich zu einem Kaffee oder irgendwelchen anderen Getränken, um Informationen auszutauschen über etwas, das man für wichtig erachtet. So Krypto-Parties sind genau das gleiche. Man trifft andere Menschen, die mehr lernen wollen darüber, wie sie ihre Privatsphäre schützen können, also sozusagen online. Es gibt auch Privacy-Kaffees. Vor der Pandemie wurden die vor allen Dingen öffentlichen Bibliotheken angesiedelt, weil man dort Platz hat und nicht nur Hacker oder bestimmte junge Leute trifft, sondern alle möglichen Gruppen antreffen kann, die sich interessieren für so was. Kompetenz und Aufklärung sind wichtig und wenn man Widerstand bei den Bürgern anregen will, dann hat das sehr viel mit Bildung zu tun. Dann Gegenbilder. Das kennen wir vielleicht nicht so gut, aber es gibt soziale Bewegungen, die versuchen auch einen Normenänderung sozusagen in unterschiedlichen Bereichen herbeizuführen. Beispielsweise Umweltbewegungen haben das gemacht. Wir alle fühlen uns jetzt beim Fliegen unter Umständen ein wenig schuldig, ein wenig schlecht, anders als vor 10, 15 Jahren. Gerade weil es eine öffentliche Debatte gegeben hat und gibt über die Umweltkosten des Fliegens, über die Umweltschädigung und genauso gibt es viele Gruppen, die versuchen und das sind letztlich Vermittler zwischen Experten, Entwicklern und Menschen, die digitale Rechte verteidigen wollen und den weniger drinsteckenden Bürgern den Laien. Also hier geht es darum die Probleme zu verstehen, die Herausforderungen zu verstehen, die mit Technologie zusammenhängen und Alternativen aufzuzeigen. Hier werden die Bedarfe verschiedener betroffener sozialer Gruppierungen analysiert, durchleuchtet und es gibt quasi Möglichkeiten, die dann aufgezeigt werden auf bestimmte Situationen zu reagieren. Das hier ist ein wenig ein witziges Beispiel. Das ist CVDESIL, ich habe das mal rausgesucht, weil das ein bisschen bekannter geworden ist in letzter Zeit. Hier sehen wir beispielsweise die Anwendung von Makeup und Frisur, um Gesichtserkennungssoftware auszutricksen. Also bestimmte Frisuren oder Farbe im Gesicht kann hier schon weiterhelfen. Das ist eine Art Tarnung, die uns vor der Gesichtserkennungssoftware schützen kann. Das ist natürlich nicht besonders praktisch im Alltag, sich auf diese Art und Weise sozusagen vor dieser Technologie zu verstecken und das macht auch jede Menge Arbeit, morgens sich so herzurichten. Aber diese Workshop, Shops, die in diesem Projekt CVDESIL veranstaltet werden, dienen dazu, Menschen aufzuzeigen, wie die Technologie überhaupt mal funktioniert und regt sie dazu an, nachzudenken, was sie mit sich anstellen können, um sich vor diesem Zugriff zu schützen oder eben auch sich über ihre Gefühle gegenüber dieser Technologie und diesen Software klar zu werden. Also wir können natürlich gegenüber dieser Technologie nicht immer frei wählen, wie wir hier entgehen wollen oder wie wir damit umgehen wollen, weil sie überall zu finden ist, aber immerhin regt das hier schon mal zum Nachdenken an. Und jetzt komme ich zu fünf, dem letzten Punkt. Das hat mit Kampagnen zu tun, mit denen man für die eigenen Rechte eintritt. Hier sehen wir den Ausdruck der Macht von Gruppen, die sich zusammen tun. Diese Kampagne hat vor einigen Jahren begonnen, ist eine europäische Kampagne im Wesentlichen. Und das Ziel war, ich erkläre gleich, warum ich in der Vergangenheit spreche, dass die Europäische Union Gesichtserkennungstechnologie im öffentlichen Raum in der gesamten Europäischen Union verbieten sollte. Ich habe wahrgesagt, also Vergangenheit, weil das ein Versuch war, dieser Bürgerinitiative ein Referendum zu erzwingen in der Europäischen Union. Das ist aber ein sehr komplexer Prozess. Das Ziel war, innerhalb von zwölf Monaten eine Million Unterschriften zu sammeln in mindestens sieben Mitgliedstaaten. Leider hat die Kampagne dieses Ziel verfehlt. Auch die Pandemie kam dazwischen. Aber wie Sie sehen, ist dieses Thema Gesichtserkennungssoftware noch nicht auf dem Radarschirm aller europäischer Bürgerinnen und Bürger. Also hier diese Gegenbilder, mit denen man versucht, sozusagen diese Gesichtserkennungstechnologie als dehumanisierend darzustellen oder auch das Beispiel, wie wir uns weiterbilden können, auch im Bereich Gesetzgebung oder hier ein Beispiel für Selbstverteidigung. Aktuell ist es so, dass reclaiming your face, also verlangen dein Gesicht zurück. Diese Kampagne nicht mehr sich damit beschäftigt, weitere Unterschriften zu sammeln, um den Gesetzgebungsprozess oder ein Verbot dieser Technologie herbeizuführen, sondern sie konzentrieren sich derzeit darauf, den Gesetzgebungsprozess im Bereich künstlicher Intelligenz zu beeinflussen. Das Ganze ist aber durchaus eine gute Denkposten, um uns daran zu erinnern, was können wir als Gruppe oder auch als Einzelne tun, um Widerstand zu leisten. Der beste Widerstand ist, uns zu informieren, Gesetzesänderungen zu verlangen, zu mobilisieren gegen Maßnahmen, die wir unfair und diskriminierend finden oder einfach die zu stark in unsere Privatsphäre eingreifen. Das Ganze ist natürlich keine vollständige Sammlung von Strategien oder Maßnahmen, aber ich hoffe, ich konnte sie zum Nachdenken anregen und danke Ihnen jetzt an dieser Stelle sehr für Ihre Aufmerksamkeit. So, thank you. Ganz herzlichen Dank für diesen Vortrag und für das, was Sie uns da beigebracht haben, Stefania. Fünf Möglichkeiten des Widerstandes gegen die Datifizierung. Und das würde ich gleich ein bisschen detaillierter gern beleuchten, aber zu Anfang vielleicht eine Beobachtung meinerseits. Vor zehn Tagen war das hier in Frankfurt und das passt ganz gut zu einem der Beispiele. Übrigens, war es Aesrom oder Lazio-Rome, es ging ja mal in römischen Fußballverein. Gut, denn morgen findet ein anderes Event statt, zum Thema Kryptowährungen, Trading Apps, Sustainable Finance und so weiter. Und da wollte ich eine Straßenumfrage machen mit meinem Handy. Hab die Leute gefragt, ob ich sie filmen dürfte. Hab einfach gefragt, ob sie Krypto kennen, ob sie Kryptowährung verwenden, ob sie Trading Apps verwenden, ob sie der Meinung sind, dass die Banken stärker reguliert werden sollten, vor allem hier in Frankfurt und so weiter. Ich habe acht Stunden auf der Straße verbracht und hatte drei, die zugestimmt haben. Das war wirklich wenig und ich musste dann letztlich Freunde und Freunde von Freunden bitten, da in die Bresche zu springen, damit ich überhaupt genug Leute zusammen bekam, damit ich drei kurze Clips zu diesen Themen zusammenschneiden konnte. Und da wäre ich wirklich überrascht, denn vorher war das immer sehr viel einfacher gewesen. Möglicherweise hatte ich jetzt nicht die große Kamera, da war kein Toningenieur hinter mir, ich hatte, wirkte vielleicht nicht so autoritär, das war nur so ein Typ mit dem Selfie-Stick und ein Handy, das war jetzt nicht so beeindruckend möglicherweise. Aber dann habe ich mich gefragt, vielleicht werden die Leute da ja auch sensibler, was Gesichtserkennung angeht. Ich war acht Stunden lang an fünf verschiedenen Orten hier in der Stadt und nur drei Leute haben zugestimmt, das ist wirklich eine sehr geringe Quote. Und da fiel mir jetzt das Beispiel dem Fußballstadion ein. Hooligans eines römischen Fußballvereins, die das zulasten Gesichtserkennung in ihrem Stadion, das wäre fast undenkbar, vor allem jetzt nach meiner Erfahrung hier in Frankfurt. Oder werden die Leute da wirklich sensibler, empfindlicher, was Gesichtserkennung angeht, da ist doch was passiert. Ich würde mir wünschen, dass da bei den Menschen ein stärkeres Bewusstsein, ein kritischeres Bewusstsein herrschen würde. Aber von meiner Perspektive aus gesehen, die natürlich auch nicht umfassend ist, gibt es aber nicht genug Bewusstsein. Die Leute haben nicht genug Angst, wenn man so will. Wahrscheinlich auch, weil viele der Beispiele, die wir kennen, da geht es um rassenmotivierte Diskriminierung, Menschen mit dunkler Hautfarbe und die Menschen in der Gesellschaft, in der wir hier liegen, haben, wie gesagt, das Gefühl, dass sie nichts zu befürchten haben, weil die bekannten Beispiele oft welche sind, bei denen die Menschen anders als die Mehrheit sind. Bei Gesichtserkennungssoftware weiß man, dass sie nicht optimiert ist, sollte ich sagen, nicht diskriminierend, sondern nicht optimiert auf Menschen mit dunklerer Hautfarbe. Und das ist wahrscheinlich die Botschaft, die bei den meisten ankommt. Quasi eine neue Version von Ich habe nichts zu verbergen. Mich betrifft es ja nicht so wirklich und deswegen mache ich mir da keine Sorgen. Ich muss aber sagen, ich glaube, es hängt auch stark ab von der jeweiligen nationalen Kultur. Das ist natürlich jetzt auch ein Stereotyp, aber ich kann Ihnen sagen, beispielsweise, wir waren mal mit unserem Van in Deutschland unterwegs und ich wollte mit Karte irgendwas bezahlen, weil ich nicht genug Bargeld hatte beim Campingplatz und der hat gesagt, nee, das geht hier nicht. Hab ich gesagt, wieso kann ich denn nicht mit Karte zahlen und der sagte dann, naja, wir werden doch alle überwacht und ich hätte ihn küssen können. Ich dachte, Mensch, Wahnsinn, das ist jetzt hier eine Unterhaltung mitten in der Nacht, wir mit unserem Camper an irgendeinem Campingplatz und da war jetzt jemand, der sich da Gedanken zugemacht hatte. Es scheint mir so, dass die besondere Geschichte Deutschlands mit der Erfahrung der Stasi vielleicht auch noch so ein bisschen bei den Menschen im Bewusstsein nachwirkt und sie, und damit meine ich jetzt die Deutschen, scheinen da ein sehr viel stärkeres Bewusstsein zu haben für Überwachung und ihre Risiken, als das beispielsweise in Italien der Fall ist. Mein Beispiel mit dem Fußballstadion, das war SCROM, da habe ich nicht eine einzige kritische Stimme ausmachen können, die diese Technologie infrage gestellt hätte, was den Datenschutz angeht. Alles, was ich dazu gefunden habe, war, hey, toll, wir sind doch fortschrittlich, wir sind anderen voraus, das ist doch coole Technologie, Innovation und wir können wieder ins Stadion und auch die Fans, die Hooligans haben überhaupt keinen Widerstand gelassen, das wäre in Deutschland schwer vorstellbar. Antwort, das wurde ja vorgestellt nicht als etwas, was die Polizei verwenden würde, sondern es wurde eingeführt mit dem Argument, wir wollen damit die Temperatur erfassen, sodass Menschen mit erhöhter Temperatur nicht ins Stadion können, damit sich Covid nicht ausbreiten kann. So wurde es präsentiert. Es war ein privates Unternehmen, das das durchgeführt hat und es war nicht, zumindest offiziell, nicht an sonstige Sicherheitsfragen und Behörden angebunden. Frage, Sie sprechen kulturelle Unterschiede an, da würde ich sagen, einerseits ja, andererseits hätte ich da doch noch Zweifel. Ich meine, ja, es gab die DDR, ein kleines Land jetzt auch im Vergleich zu Westdeutschland, aber auch gab es hier in Deutschland ja beispielsweise bei der Volkszählung in den 80ern heftigen Widerstand und wir alle wissen aber auch, welche Spuren wir freiwillig alle im Internet hinterlassen. Da ist Deutschland ja kein bisschen anders als andere Nationen, wo die Menschen halt online gehen. Also ich weiß dann nicht, wie das Ganze für mich einen Sinn ergeben soll und damit komme ich natürlich jetzt auf ihre fünf Wege oder Möglichkeiten des Widerstandes, die wir eben gehört haben. Letztlich geht es darum, die Handlungsfähigkeit, die Agency, zu verstärken, was gut klingt. Aber was wir gesehen haben nach den Snowden Leaks, wann war das, 2013, da haben Kryptopathies angefangen, zumindest in Berlin, da komme ich her, da wurden die Kryptopathies dann etwas bekannter, aber letzten Endes weiß ich nicht, ob das wirklich so einen großen Wandel gebracht hat. Also ich kenne wenige, die da aktiv sind. Das ist nicht wirklich ein Erfolg. Es muss schon was Massives sein. Die Snowden Leaks, das ist ja nun auch schon zehn Jahre her. Und sehr interessant auf ganz anderer Ebene. Ist es einfach viel Arbeit. Es ist viel Arbeit für jeden, vor allem für diejenigen, die ohnehin schon mehr als gut zu tun haben, sei es aus Geld gründen, sei es Gründe unterbezahlt. Wie auch immer, es ist einfach irre viel zu tun, wenn man sozusagen den Widerstand auf die Ebene des Einzelnen zu delegieren versucht. Wie stehen Sie dazu? Antwort, ja absolut richtig. Es hat noch nicht genug Wandel stattgefunden, zumindest auch von meiner Warte ausgesehen nicht. Es wurde eine Finanzierungs-App vorgestellt. 2014 war das basierend auf der Hypothese, dass diese Enthüllungen wirklich unsere Wahrnehmung von Überwachung verändern würden. Ich meine, Leute wie ich, die das ganze erforschen, die Aktivismus in der Richtung bereits kennen, wir wussten das ja nicht die Details und das Ausmaß, aber letztlich hatten wir über die Jahre gelernt, da alles mit Vorsicht zu genießen. Aber das war jetzt erstmals eine Tatsache. Ein Überwachungsprogramm war täglich in den Nachrichten. Brasilianische Präsidenten waren involviert. Die Vereinten Nationen haben sich das Thema angenommen. Also es war wirklich in der öffentlichen Debatte und das war vorher nie geschehen. Aber wie bereits gesagt, längerfristigen Wandel hat das nicht herbeigeführt. Wir alle wissen jetzt irgendwie, dass wir in gewissem Maße überwacht werden und irgendwie ist das okay für uns. Denn letzten Endes ist es ja auch bequem. Unser digitales Leben. Ich fahre nach Frankfurt und mein Telefon weiß schon, was ich gerne esse und kann mir dann schon mein ideales Restaurant empfehlen und ja, warum nicht. Und es gibt aber auch eine Reihe sozialer Gruppen, Individuen und auch ganze Communities, die nicht so privilegiert sind und die eben bestimmte Arten von Überwachung nicht ablehnen können. Überlegen Sie mal, Oberfahrer, habt ihr Uber in Deutschland? Haben wir. Ja, in einigen Städten sind die verboten, einige haben sie. Kommt drauf an. Ja, gut. Und die sind an die Plattform gebunden, denn nur da bekommen sie ihre Arbeit her. Also sagen wir es mal so, der Widerstand sollte nicht exklusiv auf die Ebene des Einzelnen delegiert werden. Deswegen habe ich ja auch so einen gewissen Reformaufruf gestartet. Aber gleichzeitig ist es auch wichtig, die Generationen der Zukunft zu schulen, was es heißt, eine gut informierte Wahl zu treffen, Entscheidungen zu treffen. Direkt von Anfang an, wir, die mit solchen Tools, solchen Werkzeugen nicht groß geworden sind, brauchen dafür wahrscheinlich mehr Energie, mehr Zeit. Menschen in unserer Altersgruppe sage ich mal, als es der Fall ist für Kinder, die 2015 geboren wurden, aber auch die müssen wir von Anfang an befähigen. Das ist sehr interessant. Es quasi wirklich schon von Anfang an bei ihnen verankern, schon in der schulischen Ausbildung, die Möglichkeit, eine informierte Entscheidung zu treffen. Frage. Jetzt nochmal zu diesen fünf Wegen des Widerstandes. Zunächst mal Ihr erstes Beispiel, Einstellungen entsprechend vornehmen. Also was lässt man zu, was das Handy macht, wenn es für eine App die Kamera anfordert, obwohl sie dafür gar nicht nötig ist. Dann zweites, Obfiskation, dann drittens, Bewusstsein und Information. Dann das andere Beispiel, Apps wie Dazzle und Evoke mag durchaus ein kulturelles Phänomen sein, das cool wird, sich so anzusehen oder sich so solche Haar, Stile, Frisuren zuzulegen und ja letztlich einfach grundlegender politischer Widerstand, indem man Forderungen aufstellt. Das erinnert mich in gewisser Weise an Diskussionen und zwar nicht in ländischer Weise, aber ich versuche dann eine Verbindung herzustellen. Diskussionen, die es in den 90ern gab, der Chaos Computer Club beispielsweise, wo alle auf einmal dachten, ich muss Coden lernen. Das ist dann der direkte Eintritt ins Paradies. Das schaffen wir, wenn wir alle Coden können, hat natürlich keiner wirklich gelernt oder zumindest nicht sehr viele und die Apps und Schnittstellen wurden einfach immer bequemer und da stehen wir jetzt im Grunde. Dieser Aufruf, wenn man so, ist das eine Aufruf, das umzukehren, diese Entwicklung dieser bequemen Schnittstellen, sondern ein bisschen auf das zu blicken, was dahinter steht, wie das Ganze verdratet ist. Man kann das ja, man muss halt nur einfach wahnsinnig viel Zeit aufwenden. Antwort, Antwort, ja, da komme ich zurück auf meinen Punkt zum Thema Infrastruktur und es läuft alles darauf hinaus, dass informierte Entscheidungen nur über diesen privilegierten Fahrt verlaufen können. In dem Sinne, dass man halt vielleicht nicht genau wissen kann und muss, wie die Dinge funktionieren. Das ist ja fast unmöglich auch für erfahrene Software-Entwickler. Ist es nicht möglich, die Algorithmen jeglicher Social Media Plattform zu kennen und zu wissen, wie die funktionieren. Das ist ja auch geschützte Software. Man kann dann natürlich ein Reverse Engineering durchführen, also den Quellcode aus dem Verhalten ableiten, aber das wäre natürlich wahnsinnig kompliziert. Aber trotzdem glaube ich, dass zumindest die Einstellung, dass man die Leute ermutigt, die Dinge, was auch immer es jetzt ist, eine App, ein Gerät, eine technische Lösung, einfach für sich hinzunehmen. Darum geht es. Man muss nicht Codenlernen, aber man kann lernen, kritische Fragen zu stellen. Also wirklich einfach mal üben, ein Verdacht zu äußern, üben, nachzufragen, wofür ist das denn, wie funktioniert das denn? Das bedeutet nicht, dass man Coden lernt und selbst wenn wäre es unmöglich, den Großteil dessen zu verstehen, was uns da umgibt, aber zumindest die Fähigkeit zu entwickeln, eine informierte Wahl zu treffen, Entscheidung zu treffen. Wir werden niemals rein und pur sein, selbst wenn wir irgendwo in der Einsamkeit auf dem Berg leben würden. Aber wenn wir Bürger sein wollen, die zumindest verstehen wollen, wie Informationen verarbeitet wird heute, was deutlich anders ist als damals, als wir in der Universität waren, dann muss man schon grob verstehen, wie die Maschine funktioniert. Informationen und Kompetenz, das hatten wir besprochen heute Abend, haben wir ja hier sozusagen das Joint Venture, eine bürgerliche Organisation, die Bundeszentrale und das Helmholtz-Institut. Gibt es ja auch ambivalente Signale verschiedener Ausbildungseinrichtungen oder Denkrichtungen, vielmehr das habe ich ja in einigen ihrer Veröffentlichungen geliefert. Manchmal ist es ja, wie Sie sagen, verpflichtend WhatsApp oder Facebook oder Google Drive zu verwenden, um überhaupt teilnehmen zu können, um überhaupt eine Prüfung ablegen zu können beispielsweise. Ich würde jetzt daher gerne ein bisschen über das regulatorische Level sprechen. Es gibt da Vorschläge bestimmter Gruppen und Kommissionen auf europäischer Ebene, die das herstellen wollen, was sie Interoperabilität nennen. Klingt kompliziert, ist aber letztlich einfach, wenn man einen WhatsApp-Dienst hat, eine Messenger-App, dann muss man in der Lage sein, eine solche Message auch an Signal oder eine andere Messaging App zu schicken. Und wenn man das mal zu Ende denkt, ist es sehr viel weitreichender. Zum Beispiel, man muss frei hin und her können zwischen Spotify und Apple Music, das wäre Interoperabilität. Also was Sie auf der einen Plattform kaufen müssen, Sie auf die andere schicken und nutzen können. Ist das eine vielversprechende regulatorische Herangehensweise an einem Trend, der sich ja vielfach findet, dass man gezwungen ist, bestimmte Plattformen, bestimmte Apps zu verwenden? Denken Sie, dass das erfolgsversprechend ist? Es wird ja gerade probiert in Brüssel. Ich bin mir nicht hundertprozentig sicher, dass Interoperabilitäter die Antwort ist, denn man ist immer an die eine oder andere Plattform gebunden. Und man möchte vielleicht bestimmte Plattforms, bestimmte Services nutzen, Chats und Messaging, sehr praktisch. Meine Familie lebt in einem anderen Land. Ich muss da kein Internet-Zeltes Telefongespräch mehr führen. Ich nehme Signal Telegram, was auch immer. Aber und da sind wir jetzt wieder in der Falle der Bequemlichkeit. Und ich denke jetzt vor allem an den schulischen, an den Bildungsbereich, brauchen wir da wirklich diese ganze Technologie? Und was macht denn die Technologie? Was ersetzt die? Ist sie und gibt es dafür wiederum eine Ersatzung? Kann man es vielleicht auch ohne hinkriegen? Gestern hatte ich erzählt, war ich kurz auf der EDOTEC, eine, kein Festival, wie heißt sie, EDOTEC Europe heißt sie. Also letztlich sind Unternehmen, die unglaublich viel Geld dafür zahlen, dass sie da einen Stand haben, eine Messe, die besucht wird von Ministerien oder auch Behörden aus dem öffentlichen Beschaffungswesen, die diese ganze Ausrüstung und Software kaufen für die Schulen in ihrem Land, auch einzelne Universitäten und andere Bildungseinrichtungen usw. Und ich habe gehört, Google sagt, wir brauchen mehr Standardisierungen. Was jeder eine andere Geschichte ist, denn Standardisierungen, da geht es ja im Grunde darum, dass wir sicherstellen, also das ist nicht Interoperabilität, Maschinen, die miteinander reden sozusagen und Inhalte teilen, aber Standardisierungen bedeuten, dass die Maschinen direkt miteinander arbeiten, einander verstehen, also auf noch grundlegenderer Ebene. Und als ich dann von Google hörte, Standardisierungen, da fing in meinen Gedanken direkt an, dass es darauf hinausläuft, ihr verwendet unser Produkt, ist eine Plattform, ja das stimmt, eine gut funktionierende Plattform, ich mein Google Class beispielsweise, jede Menge Funktionen und letztlich läuft es darauf hinaus, kommt zu uns und kauft unser Produkt. Für mich wäre die Lösung wiederum mal einen Schritt zurückzutreten und sich zu fragen, brauchen wir das wirklich irgendwelche Echtzeittechnologie, damit ich als Lehrender sehen kann, was die Schülerinnen und Schüler gerade machen, ob die Folgen oder ob die gerade traurig sind, weil der Hund morgens gestorben ist, ist vielleicht wichtige Informationen, aber nicht unbedingt notwendig, um durch die Technologie dort anzukommen, man kann ja auch einfach miteinander reden. Ich weiß nicht, ob ich damit die Frage beantwortet habe, aber ich bin mir nicht so sicher, dass Interoperabilität wirklich die Lösung ist. Sie ermöglicht möglicherweise, dass einige Monopole ein bisschen angekratzt werden und bessere Entscheidungen zu treffen. Mit meiner Familie kommuniziere ich über WhatsApp und jetzt muss ich nicht mehr WhatsApp installieren, sondern kann meine App dafür nehmen, ist vielleicht eher Kosmetik. Gut, eine letzte Frage, bevor wir dann Fragen aus dem Publikum zulassen. Einer ihrer Kernaussagen war ja Datafizierung, gefährdet liberale Demokratien, etwas, was wir über die letzten fünf Jahre auch immer wieder besprochen und diskutiert haben und sicherlich ein großes Thema. Ich frage dann immer gern, kann man das vielleicht auch, wenn es anders kodiert ist, zu einer Befähigung der Maginalisierten führen? Also im Grunde liegt darunter die Frage in wessen Händen befinden sich die Tools, befinden sich die Werkzeuge. In China beispielsweise sehen wir die Datafizierung und die Überwachung der großen Unternehmen führt auch zu weniger Verschmutzung. Also damit auch ein positiver Effekt. Das ist zugegeben eine autoritäre Datafizierung in China, aber das hat eben auch solche Auswirkungen. Das meine ich aber natürlich jetzt nicht als ein möglichen Weg für Europa, aber einfach nur die Frage, können wir diese Tools, diese Instrumente in die Hände der Maginalisierten geben, um diese Datafizierung gegenzuwirken? Wird das dann eine diverse Datafizierung? Antwort? Ja, ich wollte mich ja heute konzentrieren auf den Widerstand in der datengesteuerten Gesellschaft. Aber ja, die datengesteuerte Gesellschaft bietet auch unglaubliche Möglichkeiten. Ein Beispiel fällt mir gerade ein. In Formazonia, eine Koalition, ein Netzwerk von Aktivisten, Umweltaktivisten, Geschichtenerzähler, Journalisten, Lehrer und so weiter und das ganze umspannt mehrere Länder und da werden Identifizierungstools verwenden, Drohnen, Apps und so weiter, um bei einem Wiederaufforschungsprojekt in dem Fall das Ganze zu überwachen und der Abholzung entgegenzuwirken, die natürlich massiv ist in Brasilien. Auf der einen Seite sagt man ja, jede Menge Bäume werden gefällt. Auf der anderen Seite ermöglicht die Technologie aber eben hier auch Beweise zu sammelt für etwas, was weit, weit weg von allen passiert, die in städtischen oder sonst wie bevölkateren Bereichen wohnen. Das war ein Beispiel. Und noch eins auch aus Lateinamerika, Argentinien. Da wussten die Menschen sehr lange, es gab gendermotivierte Gewalt, Gewalt gegen Frauen, aber es gab aber keine Zahlen. Es wurde auch kein Versuch unternommen seitens der Polizei, der Behörden das zu verfolgen und aufzubereiten. Also wie will man da Daten sammeln, seine Fall präsentieren, eine andere Kultur einfolge einfordern, wenn man einfach nicht die Zahlen des Problems kennt. Und feministische Gruppen kamen da zusammen und haben buchstäblich gezählt, wie viele tote Frauen es im Land gab und haben dann frei verfügbare Software genutzt, um Datenvisualisierung durchzuführen. Und durch die Datenvisualisierung wurde das Problem wirklich sichtbar und damit auch in der Öffentlichkeit etwas, an dem die Menschen auf einmal ein Interesse und Anteil hatten. Also das war jetzt nicht mehr meine eigene Erfahrung, meine Freundin wurde umgebracht, sondern etwas, das landesweit uns als Gesellschaft betrifft. Oder andere Beispiele. Sammlung von Beweisen im Syrienkonflikt. Das ist das Syrien Archive in Berlin, die Beweise sammelt für jegliche Form von Gewaltanwendung im gesamten Syrienkonflikt. Und vielleicht sind das Beweismittel, die irgendwann mal möglicherweise im Internationalen Gerichtshof in den Hague zugelassen werden, wie es ja auch der Fall war mit dem Jugoslawien-Tribunal. Also da ist noch viel Arbeit zu tun und auch im Rechtssystem beispielsweise, welche Beweismittel werden denn zugelassen vorgerichtet und unter welchen Bedingungen, die durch irgendeine Art von Telefon oder sonstige Mittel gesammelt wurden. Aber wir haben schon sehr, sehr viele Tools, sehr, sehr viele Instrumente, die wir auch zu unseren Gunsten drehen können sozusagen. Danke für diese Beispiele. Jetzt möchte ich gerne mich an unser Publikum im Saal wenden. Es gibt ein Mikrofon. Stephanie geht damit herum. Möchte jemand die Gelegenheit nutzen, aus dem Publikum heraus eine Frage hier live im Raum zu stellen, bevor wir gegebenenfalls unser digitales Tool anschauen, ob sich da Fragen gefunden haben. Hier vorne haben wir jemanden. Ansonsten schauen wir dann gleich mal aufs Leido nach. Ja, danke für den Vortrag. Ich habe keine Detailfrage in diesem Sinne, aber vielleicht könnten Sie selber ein paar Ihrer Strategien mal beschreiben oder Maßnahmen des Widerstands. Was machen Sie selber? Wie weit gehen Sie, um der Überwachung zu entgehen? Ich habe beispielsweise angefangen, andere Suchmaschinen zu nutzen, aber das führt manchmal zu amüsanten Situationen zu Hause mit meiner Frau, die sagt, nutz dieses oder jenes nicht, weil die Ergebnisse taugen einfach nicht so viel wie früher. Wir wissen, es gibt natürlich viele unterschiedliche Beispiele im Kindergarten an den Schulen. Kommunizieren wir mit Kolleginnen und Kollegen? Antwort, das ist eine gute Frage. Ich habe natürlich auch hier kein Patentrezept. Das Scheitern gehört immer dazu. Wir wollen alle gehen mit den besten Absichten an die Sache heran, wollen sozusagen uns rundum schützen, aber hinterher funktioniert der Plan nicht. Verschlüsselte Mails funktionieren nur, wenn man mit anderen Mails, die ihre Mails auch verschlüsseln oder wir verlieren unser Passwort und fangen wieder von vorne an. Ich hatte mal ein bombensicheres Passwort, das habe ich hinterher einfach nicht mehr gefunden. Also, ich beschäftige mich ja beruflich, forscherisch mit diesen Themen. Das heißt, ich wüsste natürlich, wie es geht, bin in dem Sinne privilegiert, aber nicht immer funktioniert es dann in der Praxis. Dann beispielsweise auch die Kinderbetreuung, gerade diese Woche mit angefangen. Wir haben da jetzt eine Einrichtung, die nicht kommuniziert, wenn man das Kind mal abgegeben hat. Man kriegt wieder Bilder, noch Textnachrichten. Es gibt ein auf Papier geführtes Tagebuch, das existiert noch in dieser Kinderbetreuungseinrichtung. Und auch das wäre sozusagen eine Strategie. Ich erinnere mich an einen Kollegen, da benutzte die Schule der Kinder WhatsApp, um positive Covid-Fälle zu melden, um beispielsweise den anderen mitzutreiben. Sie sollen zu Hause bleiben oder sich testen. Und es gab aber Leute, die ihre WhatsApp-Nachrichten sehr unregelmäßig und vielleicht erst zwei Wochen später gelesen haben. Das hilft dann natürlich auch nicht mehr. Positive Erlebnisse. Ich kann sicherlich eines erwähnen aus unserer Forschungsgruppe in Amsterdam. Das illustriert auch die Bemühungen, die man manchmal entwickelt. Wir haben zwei Jahre investiert, um einen Tool zu entwickeln, mit dem wir zusammenarbeiten können. Das sind verschlüsselte Kanäle. Das nutzen wir auch, um über unsere Forschung auszutauschen, miteinander zu kommunizieren. Beispielsweise, was macht man, wenn man einen Text gemeinsam verfasst, aber nicht die handelsüblichen Tools verwenden will, die von Suchmaschinen durchsucht werden können, sondern was anderes geschütztes will. Da braucht man dann unter Umständen auch Geld, das man in die Hand nimmt, um besonders geschützte Dienste zu nutzen. Eigene Server vielleicht. Aber das wird natürlich auch an den Universitäten immer schwieriger, denn die Universitäten wollen, dass wir zum Beispiel ausschließlich Microsoft-Produkte nutzen, auch um Dinge zu speichern. Software kommt und geht. Die Marken ändern sich. Manchmal wird sie auch nicht besonders gut gepflegt oder es gibt kommerzielle Versionen, die sehr viel schöner aussehen und nicht irgendwie skurril oder seltsam. Manchmal muss man einfach auch sagen, hier und da scheitert man. Naja, Sie haben die Kenntnisse und sozusagen dann auch die Zeit, ab-to-date zu bleiben. Hier eine weitere Publikumsfrage. Vielen Dank nur zu. Ja, danke. Zunächst mal auch meinerseits danke für den Vortrag bisher. In Deutschland sind wir vielleicht bewusster, also aufgrund unserer Geschichte, was mit Überwachung zu tun hat, Stasi und so weiter, das haben Sie gesagt. Können Sie vielleicht verschiedene Weltgegenden oder Länder miteinander damals vergleichen, wie viel Bewusstsein gibt es jeweils? Ja, das ist natürlich die große Preisfrage. Meine Anmerkung zu Deutschland fuß nicht auf Daten oder fest belastbaren Informationen, sondern einfach auf Gesprächen, die ich geführt habe. Ich glaube, etwa im Jahr 2007 gab es eine Gesetzgebung der EU, die quasi unbemerkt blieb, weil es einfach sehr trocken und langweilig war, als Thema. In Deutschland hingegen gab es ein paar Demonstrationen dazu, die eine sogar mit 30.000 Teilnehmerinnen und Teilnehmern. Das ist natürlich anderswo nie passiert. Also daraus entnehme ich zum Beispiel auch, dass in Deutschland zumindest mehr Menschen ein Bewusstsein für diese Probleme haben. Ich habe aber keine empirischen Daten. Ich habe auch keine empirischen Daten über andere Länder. Als Forscherin sollte ich möglicherweise nur und ausschließlich auf grundlage empirischer Daten sprechen. Aber nun denn, wir haben ein EU-Barometer, das also das Instrument der EU für ständige Umfragen ist und so werden bei den Bürgern der EU unterschiedliche Haltungen, Einstellungen usw. abgefragt, beispielsweise auch das Bewusstsein für Digitales, die Kompetenz im digitalen Bereich. Und in Abraham einer dieser Umfragen wird jetzt nicht unbedingt gefragt, haben sie eine kritische Einstellung gegenüber X oder Y, sondern wie informiert, wie kompetent halten sich sich selbst im Bereich XY dieses oder jenes Tool und in Nordeuropa sind meistens die Länder, die die Liste anführen und insbesondere in Südeuropa hinken die Bürgerinnen und Bürger in diesen Bereichen häufig hinterher. Ich habe auf die Stasi abgehoben, einfach weil ich an diese Demonstration zur Vorratsdatenspeicherung auch gedacht habe und das wurden auch zum Teil Designs aus dieser Zeit aufgegriffen, um beispielsweise den damaligen Informationsminister oder den obersten Zuständigen für diese Gesetzgebung hervorzuheben oder in diesen Kontext zu stellen. Also wie nimmt man beispielsweise auch historische Erfahrungen oder Ereignisse her, um ein anderes Schlaglicht auf aktuelle Entwicklungen zu werfen und da ist mir einfach aufgefallen, dass Menschen hier immerhin davon gehört haben und diesen Zusammenhängen hangt darstellen, auch oder herstellen auch zu Vorfällen in der aktuellen Gesellschaft. Danke. Schauen wir mal, ob bei Slido sich was getan hat. Wir haben noch eine Wortmeldung aus dem Saal, haben wir vielleicht einen Schreinwerfer, um das Publikum zu beleuchten? Nein. Ja, Frage vielen Dank. Zunächst mal vielen Dank für ihre Zeit und ihren Vortrag und die Diskussion. Ich würde gerne mehr wissen über den Kontext, wie Dinge für breite Schichten zugänglich werden. Können Sie mir das Schlüsselwort noch mal nennen, was ist nicht zugänglich oder zugänglich? Technologie, genau. Also Technologie ist ja für manche Gruppierungen weniger zugänglich. Das ist durchaus eine relevant brannte Frage. Ich möchte auf etwas zurückgreifen, dass jetzt nicht mehr so beliebt ist, aber es zur Jahrtausendwende war, also vor rund 20 Jahren oder 25 Jahren, nämlich die digitale Kluft. Heben Sie darauf ab? Okay. Dann schlage ich mal diesen Bogen, um dann ins Heute zu kommen. Also die digitale Kluft ist wichtig. Das bedeutet einfach, manche Menschen haben Zugriff auf Technologie, andere nicht. Das ist heutzutage eigentlich nicht mehr Gesprächsthema. Es gibt dazu nicht viele politische Maßnahmen, auch nicht in den Entwicklungsländern. Das Ganze wird häufig der Privatwirtschaft überlassen als Problem. Also natürlich gibt es noch das Problem, dass Maschinengeräte fehlen, dass Menschen die nicht haben. Aber wir sehen das jetzt die Wirtschaft versucht, das zu lösen. Sie erinnern sich vielleicht an die Diskussion, na ja gut, vor etwa zehn Jahren über Dienstleistungen, die dafür sorgen, dass Menschen sich quasi komplett durchsichtig machen müssen. Wenn man in Indien beispielsweise ein Telefon hat, aber kein Datentarif, dann gab es die Möglichkeit, über Facebook sozusagen bestimmte Dinge zu bekommen. Da eben nur dieser sehr schmale Zugang bestand für viele Menschen, haben extrem viele Menschen ihre Nachrichten ausschließlich von Facebook bekommen oder über Facebook bekommen, weil sie da freien Datenverkehr hatten, wenn sie auf Facebook zugriffen, auf andere Websites oder Plattformen nicht. So, das ist eine Dimension des Problems, dann das Problem auch der Sichtbarkeit und Unsichtbarkeit. Wenn wir hier an Privacy denken, das ist natürlich extrem wichtig, seine Daten privat und geschützt zu halten, aber nicht jeder hat die Möglichkeit, Nein zu bestimmten Dienstleistungen zu sagen, beispielsweise noch mal Indien, wo dieses System der digitalen Identität besteht, da kann man auch vielleicht sagen, ich möchte nicht mitmachen. Aber was passiert denn, wenn man arm ist und beispielsweise subventionierte, verbilligte Lebensmittel beziehen muss, weil man sich die zum normalen Preis nicht leisten kann, dann muss man seinen Fingerabdruck rausrücken. Das heißt, der Schutz der persönlichen Daten tritt zurück gegenüber anderen Bedürfnissen. Und hier ist der Staat einfach unheimlich wichtig in seiner Schutzfunktion. Beispielsweise auch Migrantinnen und Migranten oder Undokumentierte, von denen es ja in unserer Gesellschaft natürlich auch viele gibt. Diese Menschen haben Angst, den Behörden gemeldet zu werden, hatten in der Pandemie Angst zu Coronatests zu gehen. Aber gleichzeitig bedeutet sozusagen diese Unsichtbarkeit, dass sie auch nicht Zugriff bekamen auf vielleicht verbilligte Lebensmittel oder sonstige soziale Hilfen. So, das Ganze verzweigt sich also in viele unterschiedliche Dimensionen. Und Technologie, Ungleichheit sind schon ein Kontext. Schauen wir mal aufs Slido, ob sich inzwischen was getan hat. Ja, es gibt einige Fragen. Die letzte Antwort hat einige davon schon abgedeckt. Das ist ein Thema, das immer mal wieder bei Slido angeschnitten wurde. Wie betreffen die Überwachungstechniken, die soziale Spaltung und die soziale Situation, kann man auch im kleinen Rahmen Widerstand leisten, beispielsweise indem man Appelgeräte verwendet oder nicht verwendet. Das wäre eine Frage. Vielleicht können Sie darauf eingehen, eine andere. Da können wir noch schauen, wie wir die behandeln. Die Überwachung ist allgegenwärtig, besonders die jungen Generationen wachsen damit auf. Wie können wir überhaupt klar und verständlich machen, dass es wichtig ist, sich dagegen zu wenden? Also wird sorgt die Überwachung dafür, dass Ungleichheit noch verstärkt wird oder sich immer weiter fortsetzt und das Thema Kompetenz bei diesen Dingen. Wie unterrichtet man das? Ich möchte auf Dina Dantrich und ihre Kollegen aus Cardiff eingehen. Diese Forscherin hat über den Überwachungsrealismus geschrieben. Wir sind so tief drin in dieser überwachten Gesellschaft, dass wir die Fähigkeit verlieren, das überhaupt wahrzunehmen oder das überhaupt problematisch zu finden. Also ausspioniert zu werden, überall von Kameras umgeben zu sein. Das ist so verankert im Alltag, dass man sich dem letztlich dann hingibt und aufgibt. Das ist durchaus ein Problem. Ich finde es immer interessant, die Menschen das erst mal erfahren zu lassen und dann mit den Folgen umzugehen. Ich nenne mal ein Beispiel. Claudia Agosti, eine tolle Entwicklerin, die mit uns in Amsterdam zusammenarbeitet. Die wollte gerne mal Menschen über eine Informationsdiät nachdenken lassen. Also können wir uns abkoppeln von YouTube, Facebook, anderen Plattformen. Zeigen wir den Menschen doch erst mal, was sie überhaupt verpassen. Also was diese Plattform mit ihnen macht, ohne dass sie es wirklich merken. Sie hat also eine Software geschrieben, die Daten erfasst über die privaten Inhalte, die diese Inhalte dann aber auch jemandem vorführt, einem vorführt. Und dann vergleicht man das mit dem Content, mit dem Inhalten, die andere Bevölkerungsgruppen sich anschauen, sodass man sieht, was man eigentlich alles verpasst. Das heißt, es geht hier nicht nur um die theoretischen Gedanken, sondern um die praktische Erfahrung dessen, was das für die einzelnen bedeutet. Ein anderes Beispiel ist Amazon und das Dynamic Pricing, also die dynamischen Preisgestaltung, die dort läuft. Also wir wissen ja, man bekommt unterschiedliche Preise angeboten auf Amazon. Je nachdem, was die IP-Adresse ist, welchen Browser man benutzt, welchen Computer man benutzt, also wenn man Apple-Geräte benutzt wird, kriegt man normalerweise etwas höhere Preise angeboten, weil man automatisch verortet wird in einer wohlhabenden Bevölkerungsschicht und so weiter. Und beim Geld werden die Leute dann doch ein wenig empfindlicher. Also politisch hochfliegende Gedanken. Ja, da hat man so seine Gedanken, aber da will man nicht unbedingt sein Leben deswegen umkrempeln. Niemand will auch gesteuert werden durch die Plattform, ja. Aber wenn man dann aufzeigt, wie das Ganze sich auf den Geldbeutel auswirkt und wie das unsere Kaufgewohnheiten beeinflusst, dann wird es doch konkret genug und interessant genug für diejenigen, die Geld haben oder verdienen und ausgeben. Das funktioniert vielleicht eben auch nicht bei allen Bevölkerungsgruppen gleich, aber bei anderen schon. Und Claudia Agosti hat genau dieses Experiment durchgeführt, hat auch davon ein Video angefertigt für die Reihe des italienischen Fernsehens. Und da wurde also eine Software eigens entwickelt zum Zwecke des Reverse-Engineerings der Algorithmen, dessen was uns vorgeführt wird oder welche Preise uns angeboten werden und so weiter. Und ich glaube, das hat viele Menschen schon zu nachdenken angeregt, was die Algorithmen mit ihnen anrichten. Danke, Stefania. Normalerweise kommen die harten Fragen am Ende, die Fragen nach den Gesetzen und sonstigen Regelungen. Aber ich möchte es heute etwas anders spielen und mal des Teufels Advokat machen. In Deutschland haben wir eine andere App. Hier bei mir zeigt sie gerade Rot, das ist die Corona-Warn-App. In Italien verfinden sie wahrscheinlich eine andere oder eben nicht mehr, wie sie sagten, aber die Entwicklung dieser App im Sommer 2020, glaube ich, wobei die Zeit ja irgendwie inzwischen auch so richtig ihre Referenzpunkte verloren hat, oder ich verliere zumindest den Überblick, kann auch am Alter liegen. Aber das Interessante war da, die Datensicherheit, die hier von Apple in dem Fall vorgeschlagen wurde, viel höher war, als das, was die vom Staat von der Regierung bevorzugten Modelle zunächst vorsahen. Und diese Tracing-App, diese Verfolgungs-App, die ja noch viele andere Dinge kann und anbietet, war ein Misserfolg offenbar gerade, weil sie einen so hohen Sicherheitsstandard befolgt. Ja, also die Entscheider sagten, okay, nehmen wir doch den Standard, den unser Technologieanbieter, in dem Fall Apple anbietet oder vorschlägt und nicht das, was die staatlichen Stellen vorgeschlagen haben. Das finde ich schon interessant. Also was lernen wir aus diesen Dingen? Das ist jetzt nur ein Beispiel. Ich weiß nicht, ob es ein wirklich schlagendes Beispiel ist, aber was sagen Sie dazu? Ja, das andere Beispiel ist WhatsApp. WhatsApp war nicht verschlüsselt und nun kann man dann jetzt auch darüber bestreiten, wie stark die jetzige Verschlüsselung ist, aber WhatsApp hat sich irgendwann entschieden, umzustellen und zu verschlüsseln. Und die Branche führt oft, aber reagiert oft auch auf den Bedarf und die Nachfrage des Marktes und der Verbraucher. Also richtet sich nach den Wünschen der Menschen und Nutzer. Wenn sich die Gesellschaft ändern sollen, brauchen wir natürlich Aufklärung, brauchen wir Kompetenz, brauchen wir entsprechende Kampagnen, dass ein Bewusstsein entsteht bei den Menschen und dann werden die großen Technologieanbieter dem möglicherweise folgen und bessere technische Lösungen anbieten. Ich habe so meine Zweifel daran, ob die wirklich so höhere Ziele verfolgen und so gute Absichten haben, aber es gibt immerhin Beispiele aus der Branche. Ich kann es selbst nicht abschließend sagen, aber natürlich werden da auch Interessen verfolgt. Ich denke, wichtig ist, dass wir als Verbraucherinnen und Verbraucher, Nutzerinnen und Nutzer ein Bewusstsein entwickeln, um den Wandel eben mitzugestalten. Ja, vielen Dank. Das war für 2022 die letzte Veranstaltung dieser Serie, exklusiv in Frankfurt am Main. Danke, dass Sie hier bei uns waren, dass Sie uns online gefolgt sind. Stefania Milan, vielen Dank an Sie und Ihnen allen noch einen schönen Abend. Danke sehr.