 tun Kommunen in Deutschland gegen Diskriminierung durch ihre Digitastrategien. Eine billigere Blick auf diese Frage wäre ja zu behaupten, die Kommunen in Deutschland vermeiden einfach jede Form von Digitalisierung. Das stimmt so natürlich nicht mehr. Denn längst haben auch in Deutschland Algorithmen begonnen, unser alltägliches Leben über die digitalen Sphären hinaus zu beeinflussen. Unser vortragender Leonhard Vollner ist Student der Urbanistik mit einem Bachelor in der Medien Informatik. Er wird uns nun einen datenethischen Überblick darüber geben, ob deutsche Kommunen ein Bewusstsein für die Risiken von Digitalisierungsvorhaben entwickeln und welche Maßnahmen sich hier gegen Diskriminierung ergreifen. Lieber Leonhard, deine Bühne. Hört ihr mich wieder? Ich habe eine Idee, die wir uns gelegen haben können. Sehr gut. Vielen Dank nach kurzem technischen Problem. Los geht's. Mein Thema ist Datenethik in der Smart City. Wie gesagt, wie mein Herole gerade schon angekündigt hat, ich habe ersten Bachelor in der Medieninformatik gemacht, bin dann in die Urbanistik, also Stadtplanung, ein bisschen mehr gewechselt und habe mich immer gefragt, wo liegt dort die Schnittstelle? Und ich habe dann angefangen Bücher zu verschiedensten Themen zu lesen, also ungefähr vor einem Jahr und bin dann das erste Mal auf diesen Begriff Datenethik gestoßen und habe mich gefragt, was bedeutet der überhaupt und wie findet das Anwendung in der Stadt? Datenethik ist, glaube ich, so am einfachsten zu verstehen als die Normen und Werte für Digitalisierung, für IT-Projekte und Big Data, auf was es dort zu achten aus einer ethischen Perspektive. Und ich bin dann ganz schnell über verschiedenste Literatur auf diesen Smart City Begriff gestoßen. Der sagt euch bestimmt allen was und habe dann festgestellt, oh okay, Smart City, da laufen super viele Prozesse ab, die digital gesteuert sind, wie macht sich da irgendwer Gedanken drüber, wie die Datenethisch irgendwie zu betrachten sind. Und dann habe ich in den Büchern, die ich gelesen habe, erzähle ich euch später noch mehr dazu, welche genau das sind, habe ich mehrere Beispiele dafür gefunden, wie das in der Stadt Anwendung findet. Davon mal drei Auszüge hier. Das erste Beispiel, was ich kennengelernt habe, ist mangelhafte Gesichtserkennung. Also Software, die Gesichter erkennen kann und das mit einer Datenbank abgeleicht. Da bei solcher Software sind häufig Personen of people of color und schwarze Personen weniger akkurat wiedergegeben oder werden weniger akkurat erkannt, da sie häufig in den Trainingsdaten unterrepräsentiert sind. Wozu führt das? Beispielsweise, wenn die Polizei eine solche Software einsetzt, um Personen zu erkennen, die sie suchen, werden schwarze Personen häufiger fälschlich verdeichtigt, fälschlich verhaftet, fälschlicherweise angehalten und durchsucht. Das ist das erste Beispiel. Beispiel Nummer zwei, predictive policing. Protective policing ist der Versuch, Verbrechen vorherzusagen. Dazu füttert man ein Programm, ganz häufig sind es Algorithmen, die gekoppelt sind mit künstlicher Intelligenzmaschine, in einem Lernen, die füttert man mit Polizeidaten, mit soziodemografischen Daten, mit Geoinformationen und dann versucht man vorher zu sagen, wann, wo ein Verbrechen auftreten wird. Oft kommt dann so ein Heatmap raus für die Polizei, nach der, die sie zur Unterstützung ihrer Einsätze, Einsatzplanung nutzen können. Die Hersteller behaupten mit dieser Software auf Minuten genau, Verbrechen vorherzusagen zu können. Oft geht es darum, wakatelldelikte, Drogen, Dieels, Einbrüche, dergleichen. Kritik daran, sie haben die starke Gefahr von Feedback-Schleife, sprich sie beeinflussen die Daten selbst, die ihnen wieder als Input gefüttert werden. Wir haben vielleicht Daten, die schon aus rassistischer Polizeiplanung herauskommen. Natürlich haben wir dann in bestimmten Gebieten eine höhere Dichte, scheinbare Dichte von Verbrechen. Dann wird dieses Programm natürlich sagen patrouilliert. Dort mehr. Was macht die Polizei? Entdeckt dort mehr Verbrechen, deckt die auf. Diese Daten werden wiederum in dieses predictive policing System gefüttert und verstärken natürlich die Wahrnehmung des Systems. Außerdem scheint es so, als wäre das System sehr erfolgreich, denn die aufgedeckte Verbrechensrate steigt natürlich tatsächlich. Was nicht auffällt, sind alle Verbrechen, die in anderen Bezirken beispielsweise begrenzt werden. Beispiel Nummer drei sind sexistische Schneeräumen-Praktiken. Das ist ein sehr interessantes Beispiel, gab es tatsächlich aus Karlsgoer in Schweden, da hat sich der Stadtrat 2011 damit beschäftigt, als sie alle ihre Policies auf Gender-Gerechtigkeit untersucht haben und haben festgestellt, wenn wir zuerst Hauptstraßen, große Verkehrs, Adern räumen, dann bevorzugen wir Leute, die im Auto sitzen. Soweit erst mal nur Politik, aber der Großteil, zwei Drittel in etwa, aller ÖPNV-Nutzerinnen in Schweden sind Frauen. Und es zeigt sich, dass der Großteil aller Verkehrsunfälle mit Krankenhausaufenthalt Fußgängerinnen sind und diese überwiegend im Winter sind und Frauen sind. Also ein Großteil der Fußgängerinnen sind Frauen. Sprich, was Karlsgoer dann gemacht hat, sie haben die Reihenfolge, in der ihre Wege geräumt werden geändert und fangen nun mit kleinen Seitenstraßen, vor allen Dingen mit Fußwegen und Haltestellen an und so sinkt die Anzahl an Verkehrsunfällen, da die Anzahl an Unfällen mit Fußgängerinnen sinkt und damit sinken Krankenhausaufenthalte, sinken Kosten, die kommunale Sportgeld. Über diese drei Beispiele hinaus gibt es noch viele weitere Beispiele, sowohl mit städtischen Bezug als auch nicht städtischen Bezug. Als eines sei nur hier mal genannt rassistische Kreditsvergabe, wenn Banken beispielsweise zur Unterstützung ihrer Entscheidung Systeme einsetzen, die auf rassistischen Datensätzen trainiert wurden. Was sind denn jetzt so Ursachen für solche Diskriminierung sowohl im städtischen Raum als auch nicht im städtischen Raum? Das kann beispielsweise eine mangelnde Diversität in den Teams sein, die diese Systeme entwickeln. Wie beispielsweise bei der Gesichtserkennung das einhäufiges Problem, dass die Teams, die diese Gesichtserkennungssoftware entwickeln, überwiegend männlich sind, überwiegend weiß sind und dementsprechend niemandem aufgefallen ist. Oh, okay, wir hätten hier vielleicht mal auch People of Color testen sollen, ob die erkannt werden. Das Beispiel von predictive policing gerade eben sind die Feedbackschleifen, dass ein System die Daten, die es selbst verändert wiederum als Input erhält und so einen selbstversteckenden Effekt hat. Außerdem ein weiterer Punkt aus dem predictive policing Bereich sind die Daten, die Ungleichbehandlungen abbilden. Beispielsweise Rassismus, dass man eben in Gebieten mit einer überwiegend schwarzen Bevölkerung deutlich mehr patrouilliert hat und dementsprechend schon in den Daten, die dem predictive policing System gefüttert werden, eine Ungleichheit repräsentiert ist. Ein weiteres Problem ist, wenn man versucht Entscheidungen auf statistischen Mittel beruhen zu lassen und nicht auf einzelne Daten. Zum Beispiel, wenn ich versuche einen Kredit zu erhalten und ich aufgrund des Durchschnitts der Bevölkerung, beispielsweise in meinem Bezirk beurteilt werde, also die Leute in meinem Bezirk haben durchschnittlich Zahlungsschwierigkeiten, dann sagt das ja noch nichts über mich aus. Vielmehr würden Daten über mich aus sagen, wie beispielsweise mein Gehalt oder steuerliche Daten dergleichen. Also Einzeldaten, die konkret wirklich von mir stammen, sind deutlich repräsentativer als der statistische Mittel. Kontextfaktoren spielen eine große Rolle, beispielsweise im Medizinwesen. Gibt es eine 6-Aggregation, also eine Aggregation nach Geschlechterdaten? Wenn ich das nicht tue, kann ich viel schlechter beurteilen, wie Männer und Frauen beispielsweise verschieden auf eine Behandlung oder ein Medikament anschlagen. Das kann ich erst beurteilen, wenn ich die Daten auch nach Geschlecht getrennt agrigiert und erhoben habe. Ein weiterer Punkt, der sehr problematisch ist, der spielt so ein bisschen in die ehemalige Ungleichbehandlung hinein, ist die Beurteilung durch andere Nutzerinnen. Beispielsweise, wenn ein Restaurant, das von Ausländerinnen geführt wird, schlechtere Bewertungen bekommt, nicht weil der Service etwa schlecht war, sondern weil sich Leute nicht wohlfühlen in diesem Restaurant auf kontrastistische Stereotypen. Dann bekommt dieses Restaurant schlechtere Bewertungen. Was dazu führt, dass wenige Leute dorthin kommen oder beispielsweise auch dazu führen kann, dass mehr staatliche Kontrollen stattfinden. Diskriminierung durch Bewertung von anderen Userinnen. Ein weiteres Beispiel dafür ist die Bewertung von verteilten Belegschaften, beispielsweise Bewertungen von Jubelfahrerinnen, die dafür genutzt werden zu entscheiden, ob die Leute bleiben dürfen oder entlassen werden, wenn es dazu kommen soll. Okay, so war der Überblick zur Datenethik. Wie lässt sich dieses ganze Thema jetzt in die Stadt übertragen? Wie der Harold gerade eben schon angekündigt hat, links vielen Dank dafür. Es ist uns, glaube ich, allen bewusst, dass der Einfluss von IT-System immer weiter steigt, auch außerhalb der Digitalen fern, auch in der Verwaltung, in der Digitalisierung der Verwaltung. Da gibt es, das kann von Steuerung, von Ablaufung über die Planung von Städten bis zu Einzelfallentscheidungen in der Verwaltung gehen. International gibt es sehr spannende Beispiele. Es gibt zum Beispiel die Woven City von Toyota, die sie versuchen zu errichten und dort sehr viel auf digitale Planung setzen oder im arabischen Raum The Line, wen das interessiert, könnt ihr gerne mal dazu nachschauen. Aber auch Internet, das waren gerade zwei Beispiele aus der neue Beispiele, neugeplante Beispiele. Aber auch im Bestand gibt es immer wieder spannende Fälle, so arbeitet Rio de Janeiro zum Beispiel sehr intensiv mit Frühwarnsystemen, bei Katastrophen. Barcelona macht auch sehr viel mit Verkehrsdaten beispielsweise, die gelten so als weltweit führend, also Barcelona, was Smart City Systeme im Bestand angeht. Wie seht ihr das ganze jetzt aber in Deutschland aus? In Deutschland haben wir nämlich kaum neue Planung von Smart Cities, sondern sehr, sehr viel muss im Bestand erfolgen. Dementsprechend ist dieses ganze Thema, der Smart City läuft in Deutschland erst sehr, sehr langsam an, viele Themen davon sind einfach smartest Stadtmobiljahr. Beispielsweise der Müll einmal der meldet, okay, ich bin voll oder der Parkplatz, der sagt, hier kannst du packen, so oder was dergleichen. Und dann damit verknüpft Datenplattformen, auf denen die ganzen Daten der Stadt zusammenraufen. Oder natürlich ganz klassisch Digitalisierung der Verwaltung. Von Seite der Gesetzgebung gibt es da bisher sehr wenig, was solche Digitalprojekte regeln würde und vorschreiben würde, wie viel davon, wie dort die Diskriminierung behandelt werden soll oder vermieden werden soll. Es gibt aber ein paar Projekte dazu. Beispielsweise hat die letzte Bundesregierung eine Datenethik Kommission ins Leben gerufen, die sich nicht nur in städtischen Raum, sondern auch generell im digitalen Sphäre mit Diskriminierung auseinandergesetzt hat und Risiken davon. Die Antidiskriminierungsstelle des Bundes macht dort relativ viel. Der Herr Steinmeier hat ein Projekt gestartet, was gerade erst im Februar, glaube ich, abgeschlossen wurde. Und das Bundesministerium des Inneren hat ein großes Projekt über das sehr, sehr viele Feuerwehrgelder laufen, um sogenannte Modellkommunen zu gründen oder aufzubauen, die Smart City Dialogplattform. Im Rahmen davon ist die Smart City Charter entstanden, die beispielhaft vorschlägt, worauf geachtet werden soll, wenn eine Kommune ihre Smart City startet, ihre Projekte oder ihre Digitalprojekte. Da sind so allgemeine und einfache Grundsätze drinne, wie beispielsweise, dass die Smart City Partizipativ und inklusiv sein soll oder dass die Stadt und Kommune ihre Hoheit über Daten sichern sollte und selbst behalten sollte, um sie eben nicht an Konzerne wie Google, Apple, Facebook oder Amazon abzugeben. Ein weiterer Punkt dabei ist natürlich Open Data, damit Wissenschaft, Journalismus und Privatpersonen, aber auch Wirtschaft mit städtischen Daten, die ja von allen produziert werden, eben gemeinschaftlich arbeiten können und gemeinschaftlich damit weiter der Auswertungen betreiben können. Das ist auch allgemein ein ganz großer Punkt, den immer wieder verschiedene Institutionen fordern, dass es einen Wissensaustausch und Kompetenzzentren geben muss, damit Kommunen voneinander lernen können. Diesmal City Carter bleibt da aber relativ im Allgemeinen und macht keine konkreten Vorschläge, wie das alles geschehen soll, sondern sie gibt viel mehr allgemeine Handlungsgrundsätze. Konkreter wird da etwas, die Datenethik-Kommission der Bundesregierung, die sind weniger auf die Stadt fokussiert, sondern haben einen weiteren Blick und haben verschiedene Forderungen aufgestellt, wie Datenethik in Deutschland erfolgen soll. Einer der wichtigsten Punkte von dem ist ein risikoadaptiertes Regulierungssystem. Das heißt, es soll eine technologische Folgenabschätzung erfolgen, bei der geschaut wird, dieses IT-System, was hat das für einen Impact auf Gesellschaft, auf Wirtschaft, auf ganz viele verschiedene Themen. Und daraus wird dann ein Schädigungspotenzial abgeleitet, das setzt sich zusammen aus der Wahrscheinlichkeit eines Schadens gesellschaftlich und der Schwere des Schadens. Und daraus sollen dann Regulierungen abgeleitet werden, konkrete Vorschläge machten an die Datenethik-Kommission, ob so ein System zugelassen werden sollte, wie das zugelassen werden sollte. Sie schlagen auch in dem Rahmen ein Gütesiedel für algorithmische Systeme vor, um eben mir als Laien oder mir als Konsumenten ersichtlich zu machen, was das für einen Impact hat, dieses System. Außerdem möchten Sie, dass es ein bundesweites Kompetenzzentrum für Datenethik gibt und dort eben auch die gesetzliche Regulierung nachzieht über klassische Themen des Datenschutzes hinaus und sich mit Fragen der Datenethik und vielleicht auch einer Erweiterung von geschützten Merkmalen beschäftigt. Eben dieses klassische Antidiskriminierungsrecht, was sich hauptsächlich auf fünf geschützte Merkmale, Geschlecht, Religionszugehörigkeit, Parteizugehörigkeit und dergleichen beruft, erweitert wird, auch in einem gesetzlichen Rahmen. Ich habe verschiedenste Dokumente gelesen, nicht nur diesmal CityCarter und dieses Gutachten der Datenethik-Kommission, sondern noch vielmehr auch von der Antidiskriminierungsstelle des Bundes und habe mal ein paar Punkte für euch zusammengefasst, wie sich Diskriminierung vermeiden lässt im Großen und Ganzen oder was diese Stellen vorschlagen, um dem Ganzen entgegenzukommen. Der erste Punkt, den sehr, sehr viele Stellen fordern, ist Austausch und Kompetenz. Verschiedene Städte sind verschiedenweit, da komme ich gleich nochmal dazu und Städte wie Hamburg, die sehr, sehr viel schon in die Richtung Smart City machen, sollen anderen kleineren Kommunen helfen, einzuschätzen, wie Projekte umzusetzen sind und ihre Best Practices teilen. Dazu fällt, da rein fällt auch die digitale Souvenilität. Beispielsweise stellt Hamburg ihre Entwicklungen auch anderen Kommunen zur Verfügung, damit diese Kommunen nicht auf Lösungen der Wirtschaft zurückgrafen müssen, sondern auf Lösungen, die von staatlichen Geldern entwickelt wurden und dementsprechend in staatlicher Hand sind. Ein weiterer Punkt, den verschiedensten Stellen fordern, ist der freie Zugang zu Daten und teilweise auch zu algorithmischen Systemen. Das geht auch darüber hinaus. Die DSGVO erlaubt es ja mir persönlich auf die Daten, die einen Anbieter über mich gespeichert hat, zuzugreifen und wir kennen das alle Veränderungen zu verlangen, Lösungen zu verlangen. Aber hier wird ganz häufig gefordert, das zu erweitern, auch auf nicht unmittelbar Betroffenen. Damit soll es beispielsweise den verschiedensten journalistischen Institutionen oder der Wissenschaften möglich sein, algorithmische Systeme einzuschätzen und zu kontrollieren. Das damit zusammenhängt auch die Forderung nach Transparenz und Dokumentationen für öffentliche Stellen. Dass es also eine öffentliche Kontrollinstanz gibt, die über Schnittstellen Zugriff auf die algorithmischen Systeme hat und diese vielleicht sogar mit einer oder idealerweise sogar mit einer Dokumentation versehen, einsehen kann und kontrollieren kann, was tut dieses System? Vielleicht kann diese öffentliche Institution dann auch ein Gütesiegel vergeben, wie ich es gerade eben schon diskutiert habe, auch angeknüpft an dieses risikoadaptierte Regulierungssystem. Allgemein wird immer wieder die Forderung laut, dass die Gesetzgebung auf jeden Fall noch nachbessern muss und Fortschritte machen muss, da sie jetzt gerade sehr auf Privatsphäre und Datenschutz fokussiert ist, aber weniger auf dieses weitergefasste Feld der Diskriminierung. Und eine interessante Forderung, die ich finde, ist die nach einem Algorithmic Accountability Codex, also so etwas wie der Alt der Ärzte, für Programmiererinnen. Ich habe mir in meiner Masterarbeit oder bin gerade dabei, mir drei Beispielstädte anzuschauen, die repräsentativ sind oder die sehr fortschrittlich sind für die deutschen Verhältnisse. Als Erstes habe ich mir Darmstadt angeschaut. Darmstadt fährt nach einem eigenen Ansatz, wir haben eine Digitalstadt, Darmstadt GmbH gegründet, die 100 Prozent Tochter der Stadt ist und diese hat sich als Allererstes einen Ethik- und Technologiebeirat gegeben. Dieser Ethik- und Technologiebeirat berät die Stadt und diese Digitalstadt Darmstadt GmbH, um eben richtige Technologieentscheidungen zu treffen oder Diskriminierung zu vermeiden. Der erste Schritt, und deswegen ist Darmstadt spannend als Fall, ist, dass sie sich ethische Leitplanken gegeben haben. Das sind neun oder zehn Punkte, glaube ich, die vorschreiben, wie Technologieprojekte in Darmstadt erfolgen sollen. Da sind allgemeine Punkte, wie, dass solche Projekte immer der Allgemeinheit dienen müssen oder dass digital nicht der alleinige Zugang zu Infrastruktur sein darf, sondern auch immer ein analoger Weg dabei sein muss. Aber da sind eben auch Punkte, wie eine Technologiefolgenabschätzung dabei, die für jedes Projekt erfolgen sollen. Ich habe mit den Leuten von der Digitalstadt Darmstadt GmbH geredet und sie sagen, dass es mehr ein Ziel, worauf sie hinstreben, was sie aber leider noch nicht erreichen können. In dem Ethik- und Technologiebeirat gibt es eine Untergruppe, die macht das für einzelne Projekte, aber noch nicht für jedes Projekt. Außerdem gibt es, wie in den meisten Smart City- Ansätzen in Deutschland, eine Datenplattform, auf der alle städtischen Sensor-Daten und verschiedenste andere Daten zusammenlaufen. Aber es gibt nicht nur Motivation von der städtischen Seite, sondern auch eine gebildete Zivilüberfolgung, die sich beispielsweise in der Schule fortbildet, im Stadtlabor, das ist eine Institution von der Stadt oder im Bündnis Demokratie statt Überwachung zusammengeschlossen hat und dort der Stadt kritisch auf die Finger schaut. Das zweite Beispiel, was ich mir angeschaut habe, ist Hamburg. Hamburg gilt in Deutschland als Vorreiterstadt für jegliche Smart City-Bestrebungen. Das liegt daran, dass die das, glaube ich, schon sehr lange betreiben und auch sehr intensiv. Sie haben ein eigenes Amt für IT und Digitalisierung geschaffen, was unmittelbar an der Senatskanzlei angegliedert ist, also eine sehr direkte und zentrale Rolle hat. Die haben eine Digitalstrategie entwickelt, in der Übertragbarkeit ein ganz zentraler Projekt Baustein immer ist, sodass es eben Sie Ihre Entwicklungen auch anderen Kommunen zur Verfügung stellen können. Außerdem haben Sie sich an manchen Punkten, also Sie haben zum einen große Richtlinien, das sind eben beispielsweise eine Diversitätsrichtlinie, die gerade entwickelt wurde oder eben diese Digitalstrategie, die sehr viel umfasst und eben auch im Wert einen sehr großen Fokus auf digitale Souveränität liegt. Aber auch im Kleinen haben Sie Entscheidungen getroffen, die Ihre Souveränität oder die Datensicherheit der Bürgerinnen stärken. Zum Beispiel haben Sie sich entschieden, an Ihren Kameras nur Wärmebildkameras einzusetzen, was eben keine Nummernschild lesen erlaubt, sondern nur einzuschätzen, ob dort ein großes Auto oder ein kleines Auto steht. Genau. Und ein drittes Beispiel ist ULM. ULM hat ein sehr großen oder ein sehr umfangreiches Datenetikkonzept. Das hebt ULM ein wenig in der deutschen Szene hervor. Während Hamburg ein sehr umfangreiches allgemeines Konzept hat, das viele verschiedene Themen und Prozesse betont, hat ULM sich ein spezielles Konzept für die Datenetik gegeben. Das ist sehr empfehlenswert, sich das mal durchzulesen. Insbesondere da am Ende ein ausführliches, ja weiterführende Literatur angegeben wurde. Falls euch das interessiert, ist das ein guter Ansatzpunkt, um mehr zu erfahren. Außerdem, das ist auch eine Forderung von verschiedensten Stellen und auch ein Beispiel aus Barcelona, dass wenn man Verträge mit privat wirtschaftlichen Partnerinnen abstießt als Stadt, dass man Daten mit denen teilt und nicht nur in eine Richtung heißt, für ULM zum Beispiel konkret, dass sie ein Abkommen geschlossen haben mit eScooter anbietern, dass sie den eScooter Anbietern vorschreiben dürfen, wo die Scooter abgestellt werden dürfen. Im Gegenzug, also im Gegenzug dafür bekommen sie Daten von den eScooter Anbietern, welche Fahrten und welche Wege am häufigsten genutzt werden. Und so kann die Stadt Rückschlüsse über den Verkehr ziehen, aber eben auch auf die Wünsche und Bedürfnisse der eScooter angehen. So liegt die Datenhoheit nicht ausschließlich bei den Firmen, sondern eben auch bei der Stadt. Und die haben trotzdem Zugang dazu. Wenn das interessiert, der kann sich mal das Beispiel von Vodafone mit Barcelona anschauen. Die haben ein ähnliches Abkommen geschlossen. Das sind meine drei Beispiele aktuell. Ihr habt gesehen, oder anders, ich habe jetzt drei Beispiele gebracht, die ein sehr, sehr großes Bewusstsein schon haben in diese Richtung und sehr, sehr viel in diese Richtung gemacht haben. Genauso gibt es aber auch Beispiele Köln, Bonn, Dresden, die auch Smart City Bestrebungen haben, aber nach außen hin sehr wenig sich über Datenethik bewusst sind oder Gedanken machen. Also es gibt eine sehr große Bandbreite in diesen Smart City Ansätzen in Deutschland. Ein Punkt ist da auch, dass es eben sehr wenig gesetzliche Regulierungen gibt, die über den Datenschutz hinausgehen. Da muss auf jeden Fall nachgebessert werden, weil die Städte, das nicht alleine leisten können und auch teilweise gar nicht wollen und sich da, sondern nur so nach diesem Hippenbegriff Smart City auszutun, aber nicht drüber nachdenken, was da eigentlich dahinter steht, was dort für Gefahren dauern. Da gibt es zwar erste Ansätze, wie gesagt, die drei Städte beispielsweise, die ich euch vorgestellt habe. Die verschiedenste Stiftung, die Berthel in Mannstiftung macht da relativ viel und die Regierung macht dort immer mal wieder was, aber eben, das steckt alles erst in den Startlöchern. Das fängt alles gerade erst an. Und ich finde, dass gerade dort jetzt eben über diese ersten Studien und Gutachten hinaus Entscheidungen getroffen werden müssen, gesetzliche Regelungen herbe müssen, Grundlagenwerke, die über Hinweise und Hilfestellungen hier ausgehen und handfeste Vorschläge machen, wie man Smart City gerecht umsetzen kann. Ein Punkt, der immer wieder betont wird, den ich auch mehrfach aufgegriffen habe und den ich auch nur unterschrechen kann, ist, dass es ein Austausch braucht zwischen den Kommunen. Das ist ja auch genutzt wird, damit eben die verschiedenen Städte nicht nur Ideen austauschen, sondern konkrete Ansätze, konkrete Handlungsansätze tauschen können, wie sich diese schönen Paper und diese schönen Gedanken, die sie sich in ihren Strategiedokumenten geben, in die Praxis, in den städtischen Alltag übertragen werden können. Ich habe immer mal wieder Material vorgeschlagen und erwähnt. Das ist mal die Slide mit meinem Material, was ich euch empfehlen würde, falls euch das interessiert. Ein sehr, sehr guter Einstieg in dieses Thema ist diese Studie der Antidiskriminierungsstelle, die wirklich von Grund auf anfängt, Dinge zu erklären, was ist Datenethik, wie lässt sich das in der Stadt anwenden, was sind die Probleme dabei und vor allen Dingen, wie lassen sich diese Themen, diese Probleme lösen. Drei Bücher dazu, die kann ich euch nur empfehlen, die sind vielleicht weniger anspruchsvoll als diese über 200-seitenlange Studie von der Antidiskriminierungsstelle. Diese drei Bücher sind populär wissenschaftlich geschrieben, gerade dieses Weapons of Math at Destruction beschäftigt sich sehr mit Datenauswertungen und den Problemen dahinter, nur empfehlenswert. Und wie gesagt die letzten beiden Beispiele, der Bertelsmann Stiftung, die tatsächlich auch ein bisschen mehr in die Operationalisierung reingehen. Dies slides findet ihr auch vielleicht ab morgen auf meiner Webseite, dann könnt ihr den Links folgen, die ich hier mit hinterlegt habe. Und jetzt zum Schluss noch, ich bin mitten in meiner Bachelor- Masterarbeit-Bearbeitungszeit. Ich hoffe, dass ich noch Beispiele finde, noch mehr Beispiele finde. Mein Problem ist nämlich, dass die meisten Beispiele aus den Büchern von gerade eben aus dem Englischsprachengraum sind, aus den USA, aus Großbritannien, aber sehr wenig Beispiele aus dem Deutschsprachigen Raum. Hier meine Frage an euch. Kennt ihr Beispiele aus dem Deutschsprachengraum, in denen städtische IT-Systeme diskriminierend gewirkt haben? Oder vielleicht nicht nur städtische IT-Systeme, generell IT-Systeme diskriminierend gewirkt haben? Und der zweite Punkt, mit dem ich immer mal Video mit verschiedenen Leuten diskutiert habe, können Sensor-Daten diskriminierend wirken? Können städtische Sensor-Daten diskriminierend wirken? Habt ihr dazu Ideen? Schreibt mir gerne eine Mail oder noch besser, kommt gleich mit in den Breakout-Room und wird diskutieren dort weiter. Vielen Dank euch. Lieber Leonhardt, habe sehr, sehr herzlichen Dank für diesen ausführlichen und die tiefe gehenden Vortrag. Ich freue mich sehr, dass du ihn gehalten hast, denn er macht ja nicht nur Lust und schafft Bewusstsein darauf, dass Kommunen in Deutschland ein neues Universum entdecken können, an den vielfältigen Möglichkeiten, möglicher, neuer Digitalisierungsvorhaben, sondern auch gleich jetzt gewarnt sind mit nicht nur deiner Maßarbeit, die ja dann irgendwann kommen wird, auch gleich immer im Hinterkopf behalten, dass Daten eben sehr wohl diskriminierend sein können. Ich hoffe, dass auch dein Vortrag, dein Talk dazu beitragen wird, viel mehr Digitalisierungsvorhaben in deutsche Kommunen zu fördern, das Bewusstsein dafür zu schärfen und gleichzeitig auch vor den Gefahren gewarnt sind. Herzlichen Dank für deinen Vortrag. Ja, sehr gerne. Wir haben ein Question & Answer-Pet und da sind einige Impulse und Anregungen drin. Vielleicht auch auf deine Bitte noch einmal explizit hingewiesen, dass du durchaus auch Beispiele suchst von Kommunen in Deutschland, die über Darmstadt, Ulm und Hamburg hinausgehen. Was das sein könnte? Nämlich mal kurz diese Impulse auf, kannst du vielleicht noch mal um die Fantasie ein bisschen anzuregen, Einzug eingehen? Was macht, was ist, was ist in Barcelona so geil? Verkehrsplanung oder was machen die alles? Barcelona beschäftigt sich schon sehr lange mit der Frage, wie kann digitale Stadt gerecht ablaufen? Und ein Grundsatz, den Barcelona von Anfang an verfolgt hat, ist, dass die Daten der Bürgerinnen der Stadt auch den Bürgerinnen gehören und nicht irgendwelchen Konzernen. Das hat verschiedenste Implikationen im Alltag, aber das ist so der Grundsatz, den sie auch immer wieder in ihre Datenethik oder in ihren Richtlinien ausarbeiten. Die Beispiele dafür sind, dass Barcelona, die Stadtverwaltung, hat einen Vertrag mit Vodafone abgeschlossen, dass Vodafone den Zuschlag bekommt, dass sie für alle Mitarbeiterinnen der Stadt die Handys zur Verfügung stellen dürfen oder die Mobilfunkverträge. Und sie haben daraufhin eine Bedingung gestellt an Vodafone. Ihr müsst uns, da ihr über euren Marktanteil berechnen könnt, wo wie viele Leute zurzeit sind, ihr müsst uns diese Daten zur Verfügung stellen. Und dann können wir als Stadt darüber ausrechnen, wie viele Leute sich zurzeit wo aufhalten. Das sind städtische Daten, die von Bürgerinnen generiert werden. Warum sollte nur Vodafone darauf zugriff haben? Warum nicht die ganze Stadt? Ein zweites Beispiel noch kurz, weil ich den Verkehr auch angesprochen hatte. Barcelona hat ein sehr umfangreiches Bike-Sharing-System, was super viel genutzt wird. Und auch da eben, es ist möglich bei, es gibt auch eine Person, die ausschließlich für den Datenschutz oder das Datenmanagement der Stadt verantwortlich ist. Und es ist möglich, über diese Stelle einzusehen, wie viele Daten, wie viele Fahrräder, wo genutzt werden, sich von wo nach wo bewegen. Und das sind wieder Daten, die von der Stadt generiert werden und die natürlich auch bei der Stadt bleiben sollten. Ja, die Hoheit sozusagen. Du tatsächlich ein interessanter Punkt, die nur als Beispiel die Luca-App, die ja eine Rolle in der Corona-Pandemie gespielt hatte, wird alleine durch ihren hohen Verbreitungsgrad nach wie vor interessant für, in Anführungsstriche, neue Funktionen. Da ist dann so ein bisschen, ich will nicht sagen Gefahr, aber vielleicht so die Versuchung, dass Kommunen, die alleine, technisch nicht in der Lage sind, sich natürlich ausgeliefert sehen oder angewiesen sind auf Firmen, die dann natürlich privatwirtschaftlich organisiert all unsere Daten bekommen. Und da ist die Frage, wo bauen wir da quasi die Sicherheitsregel ein? Wo muss Sorge getragen werden? Ist das die EU, DSGVO, die uns da hilft? Oder gibt es dann vielleicht im Kommunal oder im Körperschaftsrecht die erste Ansätze? Weißt du das? Das ist rechtlich schwierig, weil an der Stelle überlappen sich zwei Themenfälle meiner Ansicht nach. Das eine ist die Privatsphäre der Datenschutz. Das andere ist das Antidiskriminierungsrecht. Das sind also zum einen, auf der einen Seite steht so, dass die DSGVO verschiedenste Datenschutzrechte im europäischen Raum Abkommen mit den USA Data Privacy Shield, auf der anderen Seite steht noch nicht so viel auf der Seite des Antidiskriminierungsrechts. Es gibt das Antidiskriminierungsrecht, aber das beschränkt sich eben auf diese fünf geschützten Merkmale, sagt man da immer wieder. Und darüber hinaus haben sie eben noch keinen Bewusstsein, wie viele Faktoren gerade eben im Maschinell lernen, lassen sich sehr leicht Korrelationen herstellen, beispielsweise zwischen angenommenem Wohnort und dann Ethnizität. Ethnizität ist ein geschütztes Merkmale. Das geht niemandem was an in meiner Beurteilung. Aber wenn ich den Wohnort habe und dann über demografische Daten schätzen kann, wer dort wohnt. Also eben, der Datenschutz ist schön und gut, aber in vielen Fällen reicht der nicht aus oder es ist vielleicht auch ein bisschen auszuklammern, weil es nicht unbedingt um Datenschutz geht, sondern darum, dass man das Antidiskriminierungsrecht neu denkt und dort eben einschränkt, welche Daten lassen sich auswerten über Geschlecht, also welche Daten lassen sich schützen über Geschlecht und Sexualität, Ethnizität hinaus. Also und da, wie gesagt, da fordern ganz viele Stellen eine Erweiterung des Antidiskriminierungsrechts, was meines Wissens noch nicht in Arbeit ist. Ich habe da zumindest noch nichts gehört. Danke dir. Da kommt mir natürlich gleich dieses Beispiel in den Sinn. Wir hatten im Vorfeld dieses Vortrags darüber gesprochen, was du das gut gemeint firmen in einer großen amerikanischen Stadt nur Angestellte anstellen wollten, die im ungefähren Umkreis der Firma leben, um damit der Umwelt zu helfen. Dann stellte sich raus, dass gerade Menschen nicht weiße Hautfarbe weiter wegwohnen müssen, weil dort die Mietengünstiger sind und damit indirekt, indirekt eine massive Diskriminierung anhergegangen ist. Also gut gemeint, aber über diese ja bei der Programmierung oder bei dem Willen nicht bedachten Kriterien. Ich habe noch eine weitere Frage. Ich lese mal vor, es gibt heute schon Systeme in stark frequentierten Urlaubsstätten, wie zum Beispiel Venedig, die Urlauber-Tracken. Frage, sind die negativen, sind da negative Auswirkungen schon bekannt? Schon, nehme ich zurück, sind welche bekannt? Da sei empfohlen ein exzellentes, exzellente Artikel der New York Times. Die haben mal ein Datensatz gekauft von einem Data Broker, von Bewegungsdaten von einzelnen Leuten. Und zwar gibt es ja sehr, sehr viele Apps, die immer ganz dezent euren Standort oder unseren Standort weiterreichen, beispielsweise eine Wetterapp. Logisch muss sie machen, aber auch andere Apps einfach über Werbeanzeigen und dann kann man schätzen, wo diese Person sich gerade befindet. Und wenn immer alle Werbeanzeigen von verschiedenen Apps immer zu der gleichen zentralen Stelle zusammenlaufen, kann diese zentrale Stelle natürlich, vielleicht so wie in Venedig, ein Bewegungsprofil aufbauen. Was hat die New York Times gemacht? Die hat sich einen solchen Datensatz gekauft über einen längeren Zeitraum für die gesamte USA. Und haben dort einzelne, ich weiß nicht, Akteuren quasi nachverfolgt und geschaut, was machen die? Und haben dann beispielsweise einen US-Szenator gefunden, eines Wissens oder Hochrangigenpolitiker, wenn ich mir nicht mehr sicher, der eben bei verschiedenen Demonstrationen mitgelaufen ist. Ganz klar, wenn man sein Handy nicht ausschaltet, fragt das Handy trotzdem im Hintergrund das Wetter ab oder so, auch wenn ich auf einer Demonstration bin. Und dann kriegt man ja mit, okay, diese Person hat sich genau entlang der Demonstrationsroute bewegt. Super spannend und hochbrisant, dass diese Person bei welchen Demonstrationen sie mitläuft. Und das lässt sich natürlich nicht nur für Politikerinnen machen, das lässt sich auch für Privatpersonen machen. Und dann ist genau so spannend, okay, diese Person hält sich regelmäßig an einem dritten Ort außerhalb ihrer Arbeit und Wohnung auf. Was ist da? Was könnte das sein? Ist das Kanangst-Trip-Club oder sowas? Oder sowas. Also auch für Privatpersonen auf jeden Fall Bewegungsraten sind hochsensibel. Wo hält sich eine Person auf? Sagt sehr, sehr viele darüber aus. Welche Geschäfte besucht sie? Welche Orte besucht sie? Das ist super privat. Ende des Jahres beim RC3. Beim letzten hatten wir einen interessanten, hochinteressanten Talk darüber das Glaube Oldenburg. Die Stadt könnte noch eine andere gewesen sein. Die öffentliche Nahverkehr App tatsächlich nach dem Verlassen des ÖPNV immer noch, glaube ich, bis zu 15 Minuten nachgetrackt hat. Du kennst ihn. Auch da ist natürlich dieses Potenzial, was du gerade beschrieben hast, enorm hoch. Missbrauchspotenzial. An der Stelle ist aber auch wieder schwierig abzugrenzen, was ist Privatsphäre, was ist Datenschutz und was ist Diskriminierung? Also Diskriminierung des Einzelnen. Ich kriege raus, was für Demonstrationen er besucht und kann ihn darüber irgendwie gezieltes Advertisement schicken. Aber wo ist da das Potenzial für Diskriminierung von ganzen Bevölkerungsgruppen? Du sprachst in diesem Zusammenhang von ethischen Leitplanken. Ich glaube in Ulm, die sich sozusagen vorbereitet haben um das... In Darmstadt. In Darmstadt, Entschuldigung. Die schon in Vorbereitung auf mögliche, auf diese Problematik sich ethische Leitplanken gegeben haben. Frage, wäre so etwas ja einklagbar? Also kann man das so festzuren? Also das ist das Problem, wie ich mehr vorhin schon erwähnt hatte, dass Antidiskriminierungsrecht ist in vielen Fällen noch nicht soweit. Der zweite Punkt dabei ist, es ist sehr schwer nachweisbar, wer diskriminiert wurde, ob man diskriminiert wurde. Und man muss überhaupt erst mal bewerken, dass man diskriminiert wurde. Dann selbst wenn ich bemerke, dass ich diskriminiert wurde, wie weiß ich das nach? Also das ist unglaublich schwer, auch das Gericht vor Gericht vorzubringen, weil Diskriminierung ist durchaus einklagbar, kommt auf den Fall an, aber so vom Prinzip her. Wie weiß ich das nach? Wie kann ich das nachweisen, wenn ich kein diskriminiertes, kein informatisches Fachverständnis habe? Es ist für mich vollkommen nicht nachvollziehbar, vielleicht wie eine künstliche Intelligenz funktioniert, maschinelles Lernen, das überhaupt nachzuvollziehen. Dafür brauche ich in sehr, sehr vielen Fachwissen. Dann in vielen Fällen ist das geschützt durch Uherheberrecht. Da beruft sich eine Firma auf, das ist privat, das ist unser Geschäftsgeheimnis. Leonhard, danke, ich fürchte nur, die Zeit läuft uns davon. Aber du siehst, wie wir Fragen wir noch haben. Lass uns sozusagen in den Breakout-Rohmen wechseln und den Link auf den Breakout-Rohmen finden alle Anwesenen in der Programmankönnung. Ich hoffe, wir sehen uns da gleich.