 Guten Abend, herzlich willkommen am Alexander von Humboldt-Institut für Internet und Gesellschaft zum Digitalen Salon. Eine feste Institution seit Jahren und zwar in Kooperation mit der Kooperative Berlin. Warum weiß ich, dass es eine feste Institution ist? Ich habe lange Jahre hier als wissenschaftlicher Mitarbeiter und Doktorant gearbeitet und im letzten Jahr meine Dissertation zum Thema Bekämpfung der Computerkriminalität in Europa veröffentlicht. Das ist wahrscheinlich auch der Grund, warum ich hier vorne stehen darf. Warum mache ich dafür Werbung? Es gibt sie Open Access. Es muss also keiner 84 Euro dafür ausgeben. Einfach googeln oder auf der Internetseite. Aber viel spannender. Heute catch me if you can. Wir spielen direkt hier mit einem Filmtitel und der zweite Filmtitel bei Pre-Crime. Kommt natürlich in den Sinn, wenn man älter als 20, 25 ist. Minority Report, ich glaube Ende der 90er Jahre. Die Neuauflage in Dokumentarform hat einer unserer Gäste hier gedreht. Dazu werden wir bestimmt noch sprechen. Ich habe jetzt aber die Ehre, drei möglichst schlaue Gedanken zu äußern und hoffentlich werden diese Fragen dann beantwortet oder es werden noch weitere neue Fragen aufgeworfen. Pre-Crime. Viele haben von uns davon gelesen, dass die Firma Palantir von Herrn Peter Thiel in diesem Bereich forscht und für wen es erst nicht ganz mitbekommen hat. Seit ungefähr sechs, sieben Jahren nutzt Palantir in den USA Verbrechensdaten der Polizei New Orleans und werdet diese aus, baut einen Algorithmus und versucht, ein Programm zur Verbrechensverhütung damit zu schreiben. Es ist wohl so gelaufen, dass das nicht nur funktioniert, um Verbrechen zu verhüten, sondern sie auch hinterher aufzuklären. Und gerade in diesem Bereich stellen sich jetzt viele weitere Fragen mit der Strafprozessordnung in den USA, die sich teilweise auf Deutschland übertragen lassen und teilweise nicht, aber insbesondere da viele Fragen aufwerfen. Zweitens Thema, der die Human Rights Data Analysis Group, eine eine Gruppe, die ähnlich arbeitet wie eine Gruppe der einer unserer weiteren Gäste heute Abend hier angehört, hat herausgefunden, dass diese Algorithmen mit den Verbrechensverhütungen betrieben wird eigentlich immer falsch sind. Ein Grund dafür ist, dass die Daten da gewonnen werden, wo Verbrechen schon begangen werden. Dann wird da mehr Polizei hingeschickt, dann werden da mehr Verbrechen aufgeklärt, dann hat man da wieder mehr Daten, schickt wieder mehr Polizei hin und so weiter und so fort. Welche Probleme stellen sich an dieser Stelle, werden nur an auf rassistischen Motiven oder auf sozialekonomischen Vorurteilen basierende Urteile gefällt und Informationen gegeben. Das wird bestimmt auch diskutiert werden gleich, würde ich mich drüber freuen. Unser dritter Aspekt, wofür auch unser dritter Gast bestimmt eine Meinung haben, würde ich mich besonders froh, dass auch er hier ist. Pre-Crime gibt es eigentlich längst und das ist die Arbeit der Polizei. Gefahrenabwehr basiert eigentlich darauf, dass man glaubt, wo sind Verbrechensschwerpunkte, wo können wir am besten die Bevölkerung schützen und Straftaten verhindern und wenn es dann eben doch passiert ist, aufklären. Ist es also neu oder können wir eigentlich auf bewährte Maßnahmen zurückgreifen? Es sind einige Fragen, die sich mir stellen, andere Fragen werden sich beantwortet werden, fragt einfach rein oder fragt hinterher. Wie auch immer, dass unsere Moderatoren, Theresa, euch erlaubt. Viel Spaß. Ja, vielen Dank, Adrian Hase. Und Adrian hat ja jetzt auch schon gesagt, worum es geht. Also der heutige digitale Salon steht unter dem Motto catch me if you scan. Wir wollen also über predictive policing sprechen, also über die Vorhersage von Verbrechen mittels Software. Und wie ihr alle seht, ich bin ja nicht alleine da. Die drei Gäste hier neben mir sind auch noch da. Ich fange vielleicht mal da drüben an, das ist Matthias Heder. Er ist Dokumentarfilmer. Die aktuelle Doku zu diesem Thema heißt Pre-Crime und gibt Einblicke in die internationale Polizeiarbeit eben zu diesem Thema. Und er sagt, predictive policing wird die Polizeiarbeit in Zukunft zu einem Nachrichtendienst im Inland verändern. Dann Lorenz Mazzat an meiner Seite. Er ist Datenjournalist, Softwareunternehmer und Mitgründer von Algorithm Watch und Algorithm Watch. Vielleicht stellst du es einfach selber kurz vor. Algorithm Watch hat sich vor zwei Jahren hier in Berlin gegründet von vier Leuten, einer davon bin ich. Ich mache es ganz kurz und wir kümmern uns um automatisierte Entscheidungssysteme oder Automated Decision Making und die Konsequenzen Auswirkungen auf Gesellschaft. Und ich werde bestimmt das eine oder andere heute Abend noch erzählen. Genau. Und ich habe auch noch ein schönes Stichwort zu dir. Du sagst nämlich, wenn ich könnte, würde ich die Datenanalyse Fähigkeiten der Polizei regelmäßig von einer unabhängigen Kommission überprüfen lassen. So, da kommen wir vielleicht noch zu. Dirk Pegelow, Sicherheitshalber gebe ich das schon mal kurz weiter. Ah, sehr gut. Dirk Pegelow, hessischer Landesvorsitzender beim Bund Deutscher Kriminalbeamter, ist tätig auch im Polizeipräsidium in Frankfurt am Main und kann natürlich jede Menge zur Einsatzpraxis erzählen, was predictive policing betrifft, speziell zu der Prognose Software KLB operativ heißt sie in Hessen. Und er sagt, die Debatte über predictive policing in Deutschland ist zum Teil von der Angst beherrscht, dass die Polizeibehörden einer Datensammelwut unterliegen würden und die kann er aus seiner beruflichen Praxis aber erst mal nicht bestätigen. Richtig. Richtig. Sehr gut. Und da kommt schon gleich eine Frage. Wo ist denn unser unser Mikrofon? Mensch, der keine Frage. Okay, keine Frage. Es hat sich alles schon erledigt, aber das ist sehr gut, dass wir da bei diesem Stuhl sind. Denn der Stuhl ist nicht umsonst leer. Ich würde mich total freuen, wenn noch jemand vielleicht Lust hat zu diesem Thema mitzudiskutieren. Dafür ist dieser offene Stuhl gedacht, vielleicht ja sogar noch eine Frau, die noch unterstützen zu diesem Podium mit dazukommen würde, aber auch alle anderen sind willkommen. Gibt es jemanden, der sich traut, setzt dich dazu und stelle dich einmal kurz in dieses Mikrofon vor, wer bist du? Hallo, Test. Ja, mein Name ist Martin Lehmann. Ich bin Anwendungsentwickler. Das heißt, ich bin Programmierer und zwar bei der Stuttgarter Lebensversicherung Stuttgart. Und ich mache, ja, ich sagen wir mal so, ich mache vieles auf Mainframes, also alte IBM Großrechnungen, wie man sich so vorstellt und wir sind gerade in Berlin und machen an so ein Projekt mit, das heißt InjoHub. Mein Kollege ist noch da, Henrik von der Provinzial Nordwest. Und bei uns ist es um das Thema Digitalisierung gehen. Da sehen wir mal Montags bis Mittwochs hier und wir hatten den Tipp bekommen, dass man hier auch was Neues erfahren kann in allen Bereichen und da sind wir jetzt nach der Arbeit einfach mal hier und wollen hier mitdiskutieren. Dann sind wir sehr gespannt. Vielleicht fangen wir einfach mal damit an, was predictive Policing eigentlich stand heute so bedeutet. Was können wir uns darunter vorstellen? Vielleicht fangen wir mal bei Matthias Heder an. Ja, geht. Ja, schönen guten Abend auch. Ausgangspunkt des Films, den wir gemacht haben über predictive Policing, war eine Nachricht aus der Zeitung, die darüber berichtete, dass ein Algorithmus der Chicago-Polizei eine Liste von 400 Bürgern erstellt hat und diese 400 Bürger wurden beschrieben, als eine hohe Risikogruppe entweder Gewalttaten selbst zu begehen oder eben Opfer von Gewalt zu werden. Aus diesem Moment heraus ist das ganze Projekt entstanden und was wir begriffen haben war, es gibt auf der einen Seite und das ist sehr stark in den USA und in Großbritannien vertreten. Es gibt wirklich diese auf Einzelindividuen zielenden Software Programme, die tatsächlich Listen mit Namen erstellen und diese Listen und Namen und Personen werden dann von der Polizei aufgesucht und darauf hingewiesen, dass sie auf dieser Liste sind und das andere, was weniger aufregend ist, ist eben diese Art von predictive Policing oder voraus präventive Polizeiarbeit, die auf Einbruchstiebstahl in erster Linie gezielt und diese Projekte werden jetzt hier in Deutschland allmählich umgesetzt. Bayern ist der Vorläufer in der Bundesrepublik, in den USA sind diese Programme gang und gäbe. Also sie finden kein Polizeidistrik, keine amerikanische Großstadt, die nicht die eine oder andere Form dieser Softwareprogramme einsetzt und das ist auch das gängige Instrument sozusagen in Deutschland. Ich habe es vorhin schon gesagt, die KLB operativ Software ist es in Hessen. Was genau macht die? Ja, also ein Einleiten muss man vielleicht mal dazu sagen, predictive Policing ist ja nur der Oberbegriff. Also wir reden hier von verschiedensten Anwendungsmöglichkeiten, die die Polizei in Deutschland hat. In den USA, in den USA, in den USA, in den USA, in den USA, in den USA, in in Hessen haben wir KLB, KLB heißt Kriminalitätslagebild, nur dass das auch mal übersetzt wird. Von schöner, sperriger Begriff. Ja genau, Kriminalitätslagebild, operativ, warum operativ? Weil wir tatsächlich nicht nur ein Computer haben, der uns dann sagt, wo irgendwer was Böses vorhat oder tun wird, sondern wir brauchen Menschen, die dann auch draußen arbeiten. Also das muss man gleich einleitend zu dem ganzen Thema mal sagen. Es ist eigentlich immer nur ein ganzheitlicher Ansatz, den wir fahren. Also das ist einerseits natürlich eine Verwendung von Daten, die wir haben, die dann mit bestimmten Systemen ausgewertet, mit Analyseplattformen ausgewertet werden. Aber am Ende des Tages brauchen wir Kolleginnen und Kollegen, die dann auch draußen arbeiten. Also die dann tatsächlich auch auf der Straße rumlaufen, fahren und die Ermittlungen führen. Also es ist immer noch Handwerk. Und ich glaube, das muss man so ein bisschen entzaubern. Das, was eben hier schon gesagt worden ist, der wesentliche Unterschied ist, in Amerika wird personenorientiert gearbeitet. Wir in Deutschland arbeiten fallorientiert. Das heißt, wir geben keine oder wir nutzen keine Personendaten, also Vornamen, Name, Geburtsdatum, Adresse oder so was. Sondern wir machen reine fallorientierte Analyse, die wir anwenden. Das heißt, Einbrüche werden begangen, die werden nach einem bestimmten System untersucht mit bestimmten Triggerfällen. Das heißt, Tatzeit, Tatort, was für eine Beute Das sind sozusagen die Daten, mit der die Software arbeitet? Genau, mit der die Software arbeitet. Und diese Daten oder beziehungsweise diese Einbrüche, die jetzt in dem letzten, was was ich, 24 Stunden begangen wurden, werden nach einem bestimmten Modus gerastert. Nach dem Modus, der zum Beispiel für uns interessant ist, für uns sind interessant, sag ich mal, nicht unbedingt jetzt Drogenabhängige, die ihre Drogensucht finanzieren, indem sie Einbrüche begehen. Das ist zwar eine Straftat, aber bei dieser ganzen Geschichte, Predictive Policing, KLB operativ geht es um Bandentäter. Da geht es darum, dass wir bestimmte Taten, Tatmuster erkennen wollen, um dann eben Bandentäter zu begleiten, beziehungsweise überhaupt zu gucken, ihrer Habhaft zu werden. Also da hängt aber Ermittlungen dran. Das ist Handwerk. Das ist nicht IT, sondern das ist kriminalistisches Arbeiten. Aber woher kommen jetzt die Daten? Also wie kommen die Daten? In die Software ist das doch was jemand, wo ein Beamter am Schreibtisch sitzt und dann händisch diese Daten in die Software eintippt und die spuckt dann ein Ergebnis aus oder wie kann man sich das vorstellen? Das ist eine ganz normale Strafanzeige. Also Bürgerinnen und Bürger, die Opfer eines Einbruchs wurden, da statten eine Strafanzeige. Deswegen ist das Deliktsfeld des Einbruchs auch sehr gut dafür, weil das eine keine oder fast keine Dunkelziffer hat. Also der Einbruch wird in fast allen Fällen angezeigt. Schon mal allein deswegen, weil das Versicherung notwendig ist, dass eine Hausratversicherung auch entsprechend den Schaden ersetzt. Und so haben wir im Prinzip kein Dunkelfeld. Beim Raub zum Beispiel oder bei Sexualstraftaten ist das Dunkelfeld sehr hoch. Das heißt, die Anzahl der Taten, die ich überhaupt analysieren kann, sind, sag ich mal, nur ein kleiner Teil dessen, was tatsächlich passiert. Insofern geben wir ganz normal, was die Strafanzeige, wenn die erstattet wird, werden diese Daten eingegeben. Das heißt, wir analysieren Daten, die nur rechtmäßig erlangt wurden und auch nicht nur die Tatorte, so wie ich es eben dargestellt habe. Die werden automatisch quasi recherchiert, werden dann in Steckhartensysteme eingegeben, also Google Maps vielleicht vergleichbar und wir haben dann, stellen dann fest, sind bestimmte Schwerpunkte, es werden bestimmte Taten begangen, die nur an U-Bahnlinien, an Autobahnausfahrten. Das gibt also bestimmte Möglichkeiten, wie wir das Ganze auswerten. Entscheidend ist, wie gesagt, sind diese Parameter, diese Triggerwerte, die wir haben, dass wir sagen, okay, wir gehen nicht darauf, dass jetzt irgendwelche Fernseher rausgeholt werden, dass Scheiben eingeschmissen werden, sondern wir gehen zum Beispiel auf den Modus Operandi. Also wie ist die Tatbegehung? Wird gehebelt? Wird Fensterbohrer? Gibt's so eine Tatbegehungsweise? Und das sind im Prinzip Anhaltspunkte dafür, dass es sich um Banden bzw. Professionellität erhandelt. Und das ist genau das, was wir auswerten. Und wie geht es dann weiter? Also die Software sagt, ah, es ist jetzt also sehr wahrscheinlich, dass in Gebiet XY, also eine Bande bald mal wieder um die Ecke kommt und einbricht und was passiert dann? Dann fährt automatisch die Wache los, da läuft der Alarmknopf in der Wache und sagt los, einbruch, los geht's oder also wie konkret sieht die Arbeit dann sozusagen aus? Also es ist meistens so, dass es Kolleginnen und Kollegen sind, die in einer Analyse Stelle arbeiten. Die diese Feststellungen treffen und die werden verknüpft mit der Sachbearbeitung, also sprich die Kolleginnen und Kollegen, die im Einbruchsbereich oder in Bandenkommissarjaden arbeiten. Und die setzen dann Kräfte ein. Also im Prinzip ist es auch ein Steuerungsinstrument für Polizeikräfte, dass man sagen kann, wir haben ein Schwerpunkt im Bereich, keine Ahnung, Kreuzberg. Da waren jetzt die letzten zwei Wochen, waren eben verstärkt Einbrüche und diese Software geht im Prinzip zurück auf kriminologische Erkenntnisse, die man hat, die man schon sehr lange hat. Das zum Beispiel eben, das ist diese Repeat Theorie, die es da gibt, dass im Prinzip Täter, die erfolgreich waren, wieder dann eben zum Tatort oder in Tatort Nähe zurückkehren und das innerhalb eines Zeitraums von 48 bis 72 Stunden. Das ist so der Zeitraum, wo man kriminologisch sagen kann, aufgrund der wissenschaftlichen Erkenntnisse, dass Taten wiederholt werden. Amselben Tatort beziehungsweise in Tatort Nähe. Und das ist das Kräftesteuerungselement, dass wir dann, wenn wir sie haben, das ist auch noch Voraussetzung, dass wir dann, wenn wir sie haben, Kolleginnen und Kollegen in diesem Bereich einsetzen, die dort gezielt Streife fahren, offen und verdeckt, also zivil und in Uniform. Das ist im Prinzip alles, also ist relativ, klingt relativ unspektakulär eigentlich. Das wollte ich auch gerade sagen, es klingt total unspektakulär und es klingt auch so, als wäre das durchaus eine praktikable Methode. Wie seht ihr das? Also was dieses Verfahren angeht, soweit ich weiß, ist bislang auch noch nicht klar, ob es wirklich wirksam ist. Also es gibt soweit ich weiß, bislang eine unabhängige Studie dazu, vom Max Blank-Institut, die haben den Einsatz in Baden-Württemberg untersucht von so einem anderen System. Das heißt, glaube ich, PreCops. Das wird auch in Thüringen und so eingesetzt und die haben aber nur ein halbes Jahr untersucht und konnten jetzt erst mal nicht wirklich sagen, dass das großartig was verändert hat. In Baden-Württemberg ist aber die Einbaussituation auch relativ geringer. Also ich glaube, ganz anders als beispielsweise in Nordrhein-Westfalen eine Zeit lang war. Also und es ist ja, klang ja schon an, es ist relativ triviale Statistik, die da gepassiert, die wahrscheinlich jemand manuell auch machen könnte. Also soweit ich jetzt verstanden habe, wie so ein System funktioniert. Ich finde einen anderen Aspekt aber wichtiger, wo der, glaube ich, nicht in der Form klar ist, was so predictive Policing angeht. Wir haben ja mittlerweile eine stärkere Vermischung von Geheimdiensten und Polizeiarbeit. Wir haben zum Beispiel in Berlin ja ein gemeinsames Lagezentrum, wo eigentlich diese Gewaltenteilung aufgelöst wird oder auch dieses Kooperationsverbot. Und dort werden ja auch sogenannte Gefährder identifiziert und da, also zum Beispiel islamistische Gefährder etc. und da spielt immer mehr Software auch eine Rolle. Und soweit ich weiß, ist sehr wenig darüber bekannt, dass dieses Software eigentlich angeht, wie die funktioniert, ob die eben überhaupt sozusagen erprobt ist, ob die evaluiert ist, ob die nicht sozusagen auch ganz viele sozusagen Daten erfasst, die eigentlich gar nicht erfasst werden dürfen und so weiter. Und das finde ich so ein bisschen das größte Problem bei solchen Software, dieses, sagen wir, Wohnungseinbrüche ist, könnte man jetzt auch sagen, ist eine PR-Aktion, das betrifft ja in der Regel Wohnungseinbrüche eher besser situierte Bürgerinnen und Bürger, also es passiert ja, glaube ich, eher weniger in, ja, also soweit ich, dass über Nordrhein-Westfalen weiß, sind das Gegenden, wo Leute wohnen, die eigentlich in der Regel ein Eigenheim haben oder Eigentumswohnung etc. und nicht gerade eben in Siedlungen, wo Leute mit wenig Geld leben, würde ich ja als Bande auch nicht machen. Ich breche natürlich da ein, wo ich am meisten Gewinner ziehen kann, würde ich jetzt mal vermuten, dass Banden so operieren, worauf ich hinaus will. Und es gibt halt eine relativ niedliche Aufklärungsquote bei Wohnungseinbrüchen. Das heißt, es ist auch ein bisschen prästisch könnte dahinter stecken, dass die Polizei da sagen will, wir sind aktiv in dem Bereich. Und jetzt sozusagen, was diesen Aspekt angeht, würde ich sagen, Bürgerrechte sind da jetzt noch nicht großartig von betroffen. Aber wie gesagt, wir haben ja dieses sozusagen die Mentalität oder diese Idee des predictive policing auch schon in analoger Form. Das klang ja vorhin schon an. Also das Polizei natürlich versucht, Kriminalität zu verhindern, ist ein Teil ihrer Aufgabe. Es passiert aber eben so, wie ich finde dieses Bild ist gefährd, das ist ein ganz wichtiges. Das gibt es ja auch bei so namenten Hooligans, aber eben auch bei politischen Demonstrierenden. Ja genau, also wir hatten jetzt zum Beispiel im Vorfeld oder während G20 bei den Protesten ja zum einen Journalistinnen und Journalisten, die sozusagen auf Basis von seltsamen Zustand gekommenen Datensätzen verweigert wurde, der Eintritt in das Pressezentrum, obwohl sie eigentlich akkreditiert waren, wo sie später herausstellte, dass es zum Teil einfach völlig rechtswidig war, dass ihnen oder zumindest ist das der Stand der Dinge, dass sie eben auf Basis einer Datensammlung, die in der Form eigentlich hätte gar nicht passieren dürfen, ausgeschlossen worden. Und wir haben eben ja auch dass Leuten sozusagen untersagt wird, ihre Grundrechte wie Meinungsfreiheit, Demonstrationsfreiheit, Bewegungsfreiheit wird ihnen untersagt, indem ihr quasi im Vorfeld von Veranstaltungen gesagt wird, du darfst da nicht hin. Und das ist rechtlich natürlich sehr problematisch, weil es gibt ja erst mal, das ist ja sozusagen dann wirklich schon diese Disotopie, dass Leute quasi unterstellt wird, du wirst ein Verbrechen begehen, deswegen werden wir dich jetzt präventiv daran hindern, überhaupt dich irgendwo hin zu bewegen. Und das würde ich sagen, ist eigentlich das wichtige Thema bei diesen Sachen, also einmal diese Vermischung von Polizei und Geheimdienstarbeit, du ja auch schon angesprochen, dass wir ganz viel nicht wissen, was eigentlich an Software eingesetzt wird in diesen verschiedenen Lagezentren, auch auf europäischer Ebene. Wir wissen nicht wer die Software herstellt, wir wissen nicht wie die Algorithmen oder die Funktionalität dieser Software funktioniert, wir wissen nicht, woher die Daten kommen. Und wir wissen nicht an wen die Daten weitergegeben werden. Genau, das sind Aspekte, die finde ich bei dem Thema wichtig und dieses Wohnungseinbruchding ist halt so, wie gesagt, soweit ich weiß nur, sie werden was anderes sagen, aber ist noch nicht so wirklich erforscht, ob das läuft, glaube ich, seit fünf Jahren in Deutschland ungefähr Versuche dazu. Und es gibt so auf und ab und soweit ich es verstanden habe, so als letzter Satz ist es innerhalb der Polizei Leute, die damit arbeiten, auch gibt es verschiedene Haltungen dazu. Die einen sagen, es hilft uns sozusagen, unser täglichen Arbeit und andere fühlen sich auch in einer gewissen Weise bevormundet. Wenn die ihnen dann sozusagen eine Software, ja jetzt hier laut unserem Softwareprodukt wird jetzt in den nächsten drei Stunden in diesen wegen ihr Sektor ein Einbruch passieren, während sie gerade eigentlich was anderes zu tun haben und dann, genau, das sind es, glaube ich, so Aspekte, die bei sowas auftreten werden anfängt, ein Computer Leuten vorzuschreiben, was sie zu tun haben. Und hat der Pegelow ja gesagt, Datensammelwut wäre gar nicht das Problem, das wäre eher eine Angst, also sozusagen steht das ja in dem Kontrast zu dem, was vielleicht Lorenz Matz hat befürchtet, also, dass da Daten gesammelt werden, von denen man eben nicht weiß, wo sie landen und wie viele eigentlich gesammelt werden und wer sie dann benutzt und so, also was entgegnen sie dem? Also zunächst mal ist das Erheben von Daten geregelt, sowohl im Bereich der Gefahrenabwehr als auch im Bereich des Strafprozessrechts, also wir können nicht einfach irgendjemanden kontrollieren, weil wir Lust dazu haben, sondern es muss eine Rechtsgrundlage dafür da sein und die ist sowohl Gefahrenabwehrrechtlich geregelt, da sind wir dann in dem Bereich erst mal bei den Gefährdern, das ist Gefahrenabwehrrecht, das ist Bundesländergesetzgebung, das ist auch sehr heterogen in Deutschland, es gibt Bundesländer, da können wir im Bereich der Gefahrenabwehr Telefonüberwachung schalten und es gibt Bundesländer, da können wir das nicht, also es ist eine Forderung des BDK, dass wir, die ist jetzt auch aufgenommen worden, zumindest in Absicht, in der Innenministerkonferenz eine Harmonisierung des Polizeirechts, das heißt, alle Bundesländer haben die gleichen Befugnisse, weil das natürlich recht kompliziert ist, wenn ich ein gefährder Sachverhalt zum Beispiel habe, das haben wir ja nun jetzt alle leidvoll erlebt, hier in Berlin, was das Ergebnis davon sein kann, wenn ich ein Gefährder Sachverhalt habe, der sich über Bundesländer hinweg bewegt, dann haben eben die verschiedenen Bundesländer, die da beteiligt sind, verschiedene Eingriffsrechte im Gefahrenabwehrrecht und das macht die Sache sehr kompliziert, sodass wir im Grunde das einheitlich brauchen. Die Datensammelwut, was ich gesagt habe oder was Sie, was ich im Vorfeld geschrieben habe, ist im Grunde so, dass wir bei der Polizei im Grunde so viel Daten haben, die wir erheben, wenn wir heutzutage ein Handy sicherstellen. Also doch Datensammelwut. Nein, nicht Wut, sondern wir sind getrieben, also letztlich, wenn wir heute ein Handy sicherstellen, dann sind da Daten drauf, die sind immens, es sind immens viele Daten und wenn ich im Strafverfahren so ein Handy auswerten will, dann brauche ich Fachleute, die das können, weil das kann ich jeder Sachbearbeiter und jede Sachbearbeiter bin, aber das, was da, was da drauf ist, ist vielleicht nur ein ganz kleiner Teil, was für das Verfahren als Beweismittel relevant ist, aber es ist eben ein riesen Datenwust, mit dem wir zur Arbeiten haben. Es wird auch immer gerne die Statistiken der Telefonüberwachung werden immer gerne herangezogen, dass die Polizei jährlich mehr Telefonüberwachung schaltet, aber das ist halt nur mal heute so, als ich vor vielleicht 18 oder 20 Jahren in diesem Bereich der verdeckten oder der Ermittlungsführung in Banden und organisierte Kriminalität begonnen habe, da hatten wir Beschuldigte, die hatten halt eben ein Festnetztelefon und ein Handy, wenn es hochkam. Und heute haben wir Beschuldigte, die haben sieben bis zehn Handikarten, die sie abwechselnd nutzen. Ergo müssen wir auch sieben bis zehn Handikarten schalten. Ergo geht die Zahl der Telefonüberwachung natürlich nach oben, aber das sind ein Beschuldigter. Und das war eben vor vielen Jahren noch anders. Also letztlich kann ich nicht sagen, wenn ich ein Beschuldigter habe, der so viele Karten nutzt, kann ich natürlich nicht sagen, ich höre jetzt mal nur, wenn ich denn die Befugnis habe und das sind immer Beschlüsse von Richtern. Also die Polizei sagt nicht selber, wir wollen jetzt mal das Telefon abhören, sondern das ist immer ein Beschluss, ein richterlicher Beschluss, das heißt ein Staatsanwalt prüft es und ein Richterin oder ein Richter prüft es und er lässt einen Beschluss zur Überwachung einer Telekommunikations Einrichtung. Aber das wäre jetzt auch wieder ein Anruf. Ja, aber ich sage nur, das hat ja was mit Datensammelwut zu tun. Und glauben Sie mir, die Kolleginnen und Kollegen sind froh, jede Telefonüberwachung, die sie nicht schalten müssen, weil man natürlich alles dokumentieren muss, was die Menschen reden. Und das ist natürlich eine riesen Arbeit und ähnlich sieht es aus mit eben, ob ich jetzt die Vorratsdatenspeicherung nehme oder ähnliche Fälle, da können wir gerne darüber reden. Aber letztlich, vor was hat der Bürger oder die Bürgerin Angst? Das muss man fragen. Und das hängt oft oder sehr oft sehr viel damit zusammen, dass die Leute vielleicht gar nicht so genau wissen, was machen die eigentlich? Ja, was heißt das überhaupt, wenn wir eine Funkzelle auswerten oder so was? Was ist Vorratsdatenspeicherung? Was sammeln die da? Ja, das sind keine SMS, keine WhatsApp-Chat, keine Telekommunikation oder Sprachübertragung, sondern das sind einfach nur ganz feste Datensätze, die wir da auswerten. Also ich, um es zusammenzufassen, ich bin der Meinung, dass da die Angst sehr groß ist und dass man die nehmen kann, indem man einfach mal polizeilicher Arbeit erklärt, soweit man es eben darf. Aber das ist, denke ich, in vielen Fällen schon im Internet nachzulesen, was wir machen. Von daher denke ich, wir brauchen Software. Also gerade diese Pre-Cops oder diese Analyse-Tools, die wir haben. Man könnte sagen, vor 20 Jahren haben wir eben 36 Einbruchsvorgänge nebeneinandergelegt und haben uns die durchgelesen, haben irgendwie eine Excel-Tabelle erstellt und haben gesagt, okay, ein Einbruch in der Grünernlage, ein Einbruch im vierten Stock, ein Einbruch dort, dort, dort und haben versucht, Parallelen festzustellen. Diese Datenbankanwendungen verhindern, dass Kolleginnen und Kollegen drei Tage brauchen, um das auszuwerten. Nicht mehr und nicht weniger. Ich glaube, dass wir... Ja, das ist ja alles in Ordnung. Also bis jetzt ging es um Themen, also wenn ich sagen, Sie nutzen, tu ich, das stinkt jetzt nach Ihrer Scheidung für mich eher so. Ja, gut, das ist jetzt, wie jedes Unternehmen versucht, Ihre Manual-In-Prozesse zu automatisieren. Versucht jede Versicherung oder jedes Unternehmen versucht ist, dass man sagt, wir wollen weniger Fehler, wir wollen die Kolleginnen lassen, die wollen mehr Zeit für das nutzen, was Sie wirklich können, zum Beispiel, Zusammenhänge zu erkennen, die die Maschine nicht erkennt und so weiter und sofort. Also das, was Sie nutzen, hat ja erst mal mit, was in USA passiert, erst mal überhaupt nichts zu tun. Insofern ist das eher mehr so ein Digitalisierungsthema, das können Sie auch alles machen, ist natürlich auch wichtig. Aber das hat ja, also wir, jetzt haben wir schon wieder über Datenschutz geredet. Darum geht es doch eigentlich gar nicht, dacht ich. Also es geht auch eher um die Frage, ich glaube, du hast es angesprochen, also das habe ich, ich kann auch jeden Dutz, das ist euch besser. Du hast es angesprochen, automatisierte Entscheidungen, das ist doch ein viel großes Thema. Also wenn ich so deine Schilderung höre, dann sind wir davon, die Lichtjahre entfernt von sowas. Da wird eher noch drei Datenschutzbeauftragte aus zehn verschiedenen Ländern organisiert. Also Bundesländern. Und dann wird irgendwann mal ein richtiger Beschluss gemacht und sowas. Das hat ja mit, aber du vielleicht auch noch was dazu schön, was in USA passiert, rein gar nichts zu tun. Also da sollten wir uns doch eher drüber unterhalten oder nicht. Und nicht über Digitalisierung und allgemein Polizeibetrieb. Also man muss mal sagen, dass Deutschland wirklich, was das angeht, ein Ort des Friedens ist, ja, also im Verhältnis jetzt mit, mit im Hinblick auf die USA. Das, was wir gelernt haben oder was ich eigentlich sehe in dieser ganzen Diskussion, was was auch eigentlich völlig verschwindet. Erstens vor dem Hintergrund der Technisierung von Polizeiarbeit verschwindet eigentlich komplett die Diskussion, die soziale Diskussion über Ursachen von Kriminalität. Darüber redet eigentlich überhaupt keiner mehr. Sondern es wird nur noch über die Effizienz von Programmen gesprochen. So dass das eines andere ist. Es ist im Kontext des neoliberalen Systems, in dem wir uns bewegen, natürlich auch ein Rationalisierungsinstrument. Ja, wir bauen systematische Polizeistellen ab. In den USA ist das besonders deutlich, aber das ist auch bei uns zu sehen. Das ist ja auch beklagt worden, nach jedem Terrorangriff und so weiter. Die Polizei ist nicht auf der Straße und dieser ganze Diskurs geht eigentlich nicht darauf ein, dass wir sagen, wir benötigen diese Instrumente, um das, was der Staat vorgibt zu leisten unter anderem, ist eben Herstellung von Sicherheit seiner Bürger. Und das Instrument dafür ist die Polizei. Aber wenn wir die Polizeihusystemat zurückfahren personell, muss das auf irgendeine Form kompensiert werden. Und wir haben den Eindruck, dass es in den USA ist, das ist überdeutlich und hier, soweit ich es einschätzen kann, ist die Tendenz, die Struktur dafür eigentlich auch vorhanden. Und das ist das, worüber man verstärkt eigentlich sprechen müsste. Wollen wir in einer Gesellschaft leben, in der zunehmend Entscheidungen in Bereichen, für die der Staat seine Fürsorgepflicht seinen Bürgern gegenüber hat, dass diese Entscheidungen automatisiert werden. Ein Beispiel aus den USA, die Bewährungsgerichte sind dermaßen überfordert mit der Umschichtung ihrer Gefängnispopulation, dass sie zunehmend Systeme einsetzen, also Software-Systeme, die darüber entscheiden, ob ein Gefangener, also welche Prognose einen Gefangener hat. Also ob noch mal straffällig wird oder nicht? Ob er noch mal straffällig wird, welcher Wahrscheinlichkeit und das ist das gleiche Vorgehen wie in Chicago mit dieser Hidlist. Ja, man scort Leute, man gibt ihnen Punktzahl und entsprechend dieser Punktzahl wird darüber entschieden, kommt da auf Bewährung raus oder welche Art von Bewährungsauflagen sind da. Und wenn ich mich zurück erinnere an die Hysterie im Rahmen der RAF Terror Aktion in den Siebzigeren, wie schnell Gesetze geändert worden sind, ja, wie schnell wir damit einverstanden waren, dass so was wie Rasterfahndung gesetzlich abgesichert durchgezogen werden kann. Wenn ich das jetzt übertrage auf eine vergleichbare Situation München, Hauptbahnhof Bomben an Schlag 300 Tote. So, und Politik ist damit beschäftigt, natürlich immer wieder neue Narrative zu erfinden. Das Narrativ der Zeit ist Sicherheit. Und unter diesem Begriff der Sicherheit drücken wir eigentlich zunehmend die Automatisierung und Digitalisierung durch. Das ist das, was uns in diesem Zusammenhang interessiert und das ist das worüber man glaube ich auch diskutieren müsste. Weil der Datenschutz in diesem Land wirklich, das ist alles wunderbar, das muss man schon sagen. Also wie gesagt, im Verhältnis zu. Woanders. China, China, ja. Wenn wir jetzt aber bei diesem Thema bleiben, also Polizei wird herunter gefahren, Prozesse werden also automatisiert übernommen, könnte man ja auch Spitz formuliert sagen, ja ist doch super, dann gibt es ja immer noch jemanden der es macht und vielleicht ist der Computer objektiver als vielleicht der Mensch der dort sitzt. Keine Technik ohne Unfall. Lorenz Marz hat. Naja, also du hast das Beispiel schon gebracht, dass es in Anführungsstrichen berühmt, dass es Kompass heißt, das System in den USA, oft hast du dich glaube ich bezieß. Es gibt auch Kompass, das kenne ich zumindest, das ist so ein System, das wird dann in verschiedenen Formen eben in der Strafprozesse eingesetzt eben unter anderem auch für Bewährung Prognosen, also entscheidend tut das immer noch ein Mensch, also in der Regel ein Richter, ob jemand da freigelassen wird oder nicht. Da wurde dann durch eine Recherche Gruppe oder ProPublica heißen die eine gemeinnützige Journalismus Einrichtung, die haben das recherchiert und durch eine Informationsfreiheitsgesetzanfrage einen Datensatz einer Gemeinde in den USA bekommen und konnten dadurch sozusagen nachvollziehen, wie wirklich die Rückfallquoten waren dieser Leute die da freigelassen wurden beziehungsweise nicht und konnten dann nachweisen, dass dieses System quasi ein Beis enthielt, also quasi den Rassismus reproduziert hat, den der sich da in den Daten widerspiegelt. Es ist ja bekannt, dass in den USA schwarze in der Regel viel öfter ins Gefängnis kommen als Weiße für die gleiche Tat, beispielsweise Drogenkonsum oder Drogenhandel obwohl der sozusagen unabhängig von der Hautfarbe ist, sitzen vielmehr schwarze Menschen dort im Gefängnis als Weiße für Drogenkonsum beispielsweise. Also es gibt sozusagen institutionellen Rassismus und der findet sich dann in den Daten natürlich auch wieder und wenn ein System mit diesen Daten lernt, reproduziert ist eben diesen Rassismus auch. Und was ich wichtig finde an diesem Aspekt, also ich würde auch sagen, wir sind zurzeit, das ist in Deutschland verhältnismäßig harmlos, was geschieht. Nur wenn wir nach Österreich gucken, sieht man wie schnell so ein Innenministerium und auch Geheimdienste unter die Kontrolle von Faschisten geraten und das ist jetzt in Deutschland, wenn man sich anguckt, wo wer hier in den Bundestag geraten ist, nicht unwahrscheinlich, dass wir in der nächsten Bundesregierung die AfD zum Beispiel sitzen haben und die dann wegen mir das Innenministerium übernehmen. Ist natürlich nur Spekulation, aber wie gesagt, wenn man zum Beispiel in Österreich guckt, nicht so völlig unwahrscheinlich, wie es vielleicht vor zwei Jahren geklungen hätte. Und was ich sagen will, so was kann schnell kippen und die Stimmung zurzeit oder wie schauen wir nach Bayern, wo gerade ich glaube, heute ist es das neue Polizeigesetz verabschiedet worden, wo es große Bedenken gibt. Es gibt auch Aspekte, die gut sind an dem, wo aber zum Beispiel zum Teil auch Polizeigewerkschaften sagen, es geht so weit, da können Leute quasi unendlich lange eingesperrt werden, so wie die sogenannte Gefährder, wenn man will, also muss natürlich überprüft werden richtig, aber es gibt sozusagen keine Frist mehr, obwohl es gar kein Urteil gefällt wurde über die Person und also dieses System können schnell kippen und der Zugriff und es gibt viele Daten über uns, die gesammelt werden, die vielleicht noch nicht direkt im staatlichen Zugriff unterliegen. Einige von euch wissen das vielleicht, wir haben das Projekt Open Shufa vor einiger Zeit gestartet, um besser zu verstehen, wie dieser Shufa-Score zustande kommt. Und das ist ja, wenn man so will, eine Vorstufe. Sollten Leute ihre Shufa-Einträge einreichen? Nein, das kommt noch. Also wir wollen darum bitten, dass jeder, der sich möchte, man kriegt einmal im Jahr eine Shufa-Auskunft kostenfrei, wer es nicht weiß, zahlt nie Geld an die Shufa, ihr könnt kostenfrei eine Shufa-Auskunft bekommen, laut Bundesdatenschutzgesetz oder dann auch jetzt bald der Europäischen Datenschutzgrundverordnung. Und wir wollen diese Daten sammeln und plus demografischen Angaben um besser zu verstehen, wie dieser Score zustande kommt, weil die Shufa selbst will dazu sich sehr bis gar nicht äußern, unter dem Aspekt Geschäftsgeheimnis etc. Und wenn man das eben weiterspint, landet man bei so Systemen, wie sie in China jetzt versucht werden, zu etablieren, wo natürlich auch ein sehr autoritäres Regime eben dieses Social Scoring jetzt anfängt zu etablieren. Das läuft ja noch im Testbetrieb, es gibt auch viel, sagen wir mal mystisches zu überlesen und es wird zum Teil auch sehr übertrieben, was die davor haben. Aber es gibt eben die Aspekte, dass du nur anhand deines Scores, den du dann da erwirtschaftest, in dem du dich wohl verhältst, ja, also in dem du Social Media nie den Staatsführung kritisierst und immer pünktlich alles zahlst etc. und dann kriegst du bestimmte Perks, also Vorteile bzw. kriegst keine Nachteile. Und so was lässt sich mit diesem Shufa Score in Deutschland auch sehr schnell quasi umsetzen. Ja, zurzeit gehört, die Shufa gehört zum Großteil in großen Bankhäusern, ist eine Aktiengesellschaft, dass durch eine Gesetzgebung der Datenwissen dann plötzlich ins staatliches übergeht, halte ich jetzt nicht total für undenkbar. Abgesehen davon, dass ich davon ausgehe, dass zumindest ein Teil der Dienste Zugriff auf die Daten haben, würde ich jetzt mal vermuten. Also wenn ich gar ihm die Zwerge würde ich darauf zugreifen wollen und ob ich es dann legal oder nicht legal mache, ist ein anderes Thema. So, langer Rede, kurzer Sinn. Wir können uns nicht darauf ausruhen, dass wir in einer Situation sind, wo wir denken, in Deutschland ist der Datenschutz zu toll. Es gibt einfach eine, glaube ich, eine unzählige Latte an Beispielen, wo Daten einfach geliegt werden, aus Dummheit einfach veröffentlicht werden, wo die Systeme einfach schlecht gebaut wurden und wir vor allem ganz wenig vorhersagen können darüber, was Technologien fünf in zehn und in 20 Jahren kann. Das ist, glaube ich, mit einer wichtigen Aspekte, wir hätten uns vor 20 Jahren, glaube ich, eben nicht ausdenken können, wie heute die Digitalisierung, die Gesellschaft verändert. Also nicht mal ansatzweise, zumindest nicht vor 20 Jahren. Aber da gibt es ja vielleicht zwei Auswege. Also zum einen könnte man sagen, man versucht eine Software zu programmieren, die also eben nicht bei ist, die also nicht auf zum Beispiel rassistischen Annahmen fußt. Die Frage ist natürlich, wie gelingt das? Also kann man einen neutralen Algorithmus tatsächlich programmieren? Also ist das möglich? Also ich habe, du hast das, glaube ich, eingangs erwähnt, jetzt, wenn ich für meine Organisation spreche, unser, sagen wir mal, Status zur Zeit ist, wir rufen noch nicht nach Regulierung. Wir sagen, wir wissen über die meisten Sachen eigentlich viel zu wenig, bevor wir sagen wollen, wir müssen jetzt unbedingt ein Gesetz oder sowas machen. Oft gibt es vielleicht sogar schon Regulierung, die man anpassen könnte. Plus, es wird mit sehr großer Wahrscheinlichkeit nicht ein Gesetz geben, was alles erschlägt, sondern weil die ganzen Branchen in den automatisierte Entscheidungen eine Rolle spielen. Also wo Software mit oder komplett autark entscheidet über gesellschaftliche Vorgänge sind so spezifisch für Branchen, für bestimmte Technologien, dass es mit großer Sicherheit dann sehr genau angepasst wird. Also die Forderung nach so einem Algorithment-Tüft oder so, die ab und zu laut wird, halt ich also auch viel zu früh. Aber wer macht das, dann macht ihr das dann bei Algorithm Watch? Also meine, also hoffentlich nicht, also hoffe ich, ich weiß nicht, meine Kolleginnen und Kollegen sehen das vielleicht anders, aber dann geht es mir ein bisschen so wie den Polizisten, Polizisten die vor sind, wenn sie nicht noch einen über Telefon überwachen müssen. Aber naja, ich denke jetzt, aber das ist wie gesagt noch zu früh, das ist jetzt so, was ich mir vorstellen könnte oder was ich gut finde, entweder Stiftung, ja, also es braucht ja eine Unabhängigkeit von den staatlichen Stellen, aber es braucht natürlich auch eine Finanzierung von sowas und es brauchen natürlich Leute, die das können, also das Problem ist, ja, viel der Sachen, die mit Daten schiefgehen, passiert ja nicht zuletzt aus Unkenntnis, ja, oder aus schlecht gemachten, weil die Software schlecht gemacht ist, sodass einfach zu viel gesammelt wird, dass plötzlich Leute darauf zugreifen können, weil die Verschlüsselung zu schlecht ist, weil das System zu schlecht geschützt ist, weil einfach banalste Sachen nicht bedacht worden sind und worauf ich hinaus will ist, ich glaube, es müsste in Form oder einfach, ja, irgendwelche quasi Anlaufstellen geben, die unabhängig sowas überprüfen können, die Audits machen können, die können ja auch, da muss ja nicht auch immer gleich das Geschäftsgeheimnis verletzt werden, man kann da ja NDA, also nicht Verlautbarkeitsvereinbarung, eben dann abverlangen und dann könnte eben auch wegen mir so eine predictive policing Software von einer unabhängigen Stelle ein Audit erfahren, was machen die eigentlich, wie funktioniert die, welche Daten werden da wie verarbeitet, wer hat darauf Zugriff und so weiter und so fort und dann schreiben die darüber ein Bericht wegen mir oder, ja, und dann gibt es eine Regelung, dass das einem am Jahr geschehen muss, weil die Software wird ja ja auch weiterentwickelt, das heißt, sie muss in irgendeiner Form immer wieder überprüfen. Aber was ist denn da die Konsequenz, also ich sag mal, bei einer Software auf dem freien Markt, die würde vielleicht so ein Prüfsiegel bekommen und dann sagt sich jemand vielleicht und zweifelt okay, dieses Software kaufe ich nicht mehr, ist ja jetzt anders bei der Polizei, dann steht da vielleicht drauf von einer irgendeine Institution, die nennt wie in den Algorithmen-Hiff, die der gesagt hat, die Software KLB ist nicht so, wie wir uns das wünschen, also hätte das überhaupt einen Effekt? Also im Grunde werden ja die polizeilichen Systeme ohnehin auf dem Prüfstatt gestellt, im Aufstreubungsverfahren und auch in der Errichtungsanordnung für eine Datei, also der Betrieb, einer Datei, Bedarf einer Errichtungsanordnung und das hat auch... Was bedeutet das? Dass quasi genau das gemacht wird, es wird geguckt, nach welchen Möglichkeit oder wie werden, welche Daten erhoben, was ist, sag ich mal, das Berechtigungskonzept, was hinterlegt wird, nach welchen Kriterien werden Daten erhoben, wie werden die eingestellt und wie lange sind sie zu speichern, welche Löschfristen haben wir, also das wird alles genau vorgegeben, also Sie können... Aber das ist nur Polizeientwärm, diese Prüfung, das kann man nicht üblich eingehen. Also ich meine, da ist immer der Datenschutzbeauftragte beteiligt, da will ich kurz was zu sagen. Ich glaube, das ist der Punkt. Es wird immer viel über Daten geredet, aber nicht über die Datenverarbeitung und dieses Beispiel aus den USA mit dieser Software, die eben vorher oder Empfehlung gibt, wer auf Bewerbung freikommen soll oder nicht. Oder wir haben das jetzt bei der Schufa, ist das Beispiel so, also die Schufa sagt, wir werden A. von Datenschutz überprüft, wir haben sozusagen das Go von den Datenschutzbehörden plus überprüft eine universitäre Einrichtung regelmäßig deren Rechenverfahren. Und damit ist alles fein sozusagen. Und da ist alles in Ordnung, aber sozusagen die Effekte, also welche sozialen Auswirkungen hat schon so einen Scoring, zum Beispiel, wird halt nirgendwo überprüft, ist das sozusagen überhaupt rundrechtskonform, ist das einfach gerecht, was da passiert, wird überprüft niemand, macht die Politik auch nicht, das müsste sich meiner Meinung nach tun. So, und das gilt, würde ich jetzt sagen, eben auch bei dieser Software. Ich bin mir sehr sicher, dass Datenschutzkonform alles in Ordnung ist. Aber wenn man nicht weiß, wie die Software funktioniert, was sie wirklich tut mit den Daten, und man sich darauf verlässt, das scheint irgendwie plausibel zu sein. Aber es gibt ja nur Orson, oder in dieser Bayes ist ja oft gar nicht eben ersichtlich, deswegen heißt es ja Bayes. Also es ist eine gleichte Neigung, oder bei bestimmten, sagen wir mal, Grenzfällen fallen die halt immer unter einer bestimmten Sichtweise und wird eben nicht den gerecht. Und das ist der Punkt. Die Software in einer Funktionsweise muss überprüft werden und nicht nur die Daten. Ja, also ich glaube, das mit den Datenschutz und so, das hören wir immer ziemlich oft. Ich glaube, wenn jetzt jemand so eine Art Scoring oder rote, gelbe und grüne Anbeschreiben will, dann kommt er an relevante und signifikante Daten für so eine Anstellung relativ schnell ran. Ich glaube, viel ist auch schon durch im Wohnen durchs Alter abgedeckt. Das kriegt man ja wahrscheinlich von Einwohner, Mädel, Ämter oder so raus. Ich glaube, da braucht man gar nicht darüber reden, wo jetzt wer seine Daten liegt und wie kommt das wohin. Ist eigentlich, ist eigentlich sehr cool, ja für mich jetzt in der Diskussion so ein Ehr. Was interessant ist, ist wirklich so was, möchte man wirklich so so ein Shift, dass man sagt, okay, wir gehen jetzt, wie du gesagt hast, von der fallorientierten Bearbeitung in einer Pre-, wie heißt es, Pre-Crime, wie auch immer, nicht mehr Unschuldsvermutung, steht an erster Front, sondern irgendein School steht an erster Front. Und viele Leute haben da natürlich Bedenken, aber die Frage ist, es gibt ja immer eine Mittelweg, also zwischen jetzt und dem Minority Report, ich weiß nicht, ihr könnt ja wahrscheinlich viel den Film, da geht es ja darum, dass ja, kann ich jetzt nicht alles sagen, aber geht es ja im Prinzip darum, dass jemand schon, sozusagen Vorteil wird, bevor überhaupt was gemacht hat. Und wir stehen dann auch fertig am Anfang und man soll sich doch eher überlegen, genau, was hat es für Sozialaspekte und wie geben wir da mit allgemein um, was da jetzt so genau für Algorithmus und welche Stelle das, wer das ist, eigentlich egal. Ich würde die Frage gerne genau an Matthias Hedder gibt. Das finde ich nicht, das ist eben nicht egal. Ich glaube schon, dass da, wo Algorithmen eingesetzt werden, also von der öffentlichen Hand her, dass diese Algorithmen einfach in der Kontrolle unterworfen sein müssen, insofern, also in der demokratischen Kontrolle, insofern, als das, wir haben zum Beispiel Accenture, das ist die Firma, die mit der Polizei in London zusammen so ein Programm entwickelt hat und die haben eine Datenbank, die heißt Matrix und die dient in erster Linie zur Bekämpfung vom Banden. Okay? Und die Banden sind natürlich alles schwarze oder zu 80 Prozent. Und wir haben versucht, bei den Leuten zu reden, die reden nicht mit uns. Die Software-Entwickler in Chicago reden nicht mit uns oder mit der Presse oder mit irgendjemandem, weil sie überhaupt kein Wert darauf legen, in diese Art von Diskussionen einbezogen zu werden. Ich glaube, und die Chicago-Polizei sagt genauso wie die Münchner-Polizei, wir wissen nicht, wie der Algorithmus arbeitet. Ich bin Polizeibeamter, was interessiert es mich, was aus seiner Perspektive ja auch richtig ist. Aber irgendjemand sollte es interessieren. Und insofern glaube ich schon, man kann das nennen, wie man will. Aber diese Vorstellung und das dringt ja auch so langsam in die politische Agenda ein, dass Algorithmen einer Kontrolle unterworfen sein müssen, damit wir verstehen, was da passiert. Und es muss vor allen Dingen irgendeine Art von Widerspruchsrecht geben. Also wenn ich auf der schwarzen, auf der low-fly-Liste lande, habe ich keine Möglichkeit des Widerspruchs. Weil es gibt keinen Ansprechpartner dafür. Und wenn diese Art von Anonymisierung, ja, also wir landen auf Listen und es gibt aber nichts, wogegen wir uns, also an wen können wir uns eigentlich wenden, außer wir bezahlen Rechtsanwalt. Also diese Dinge sind jetzt im Übergang. Und noch glaube ich, das zumindest für uns hier, ist die Zeit noch da und das auch regulierend einzugreifen und aus den Erfahrungen, wie wir in den USA gemacht werden, zu lernen, das finde ich schon sinnvoll. Was bedeutet das dann für die Menschen, die zum Beispiel eben auf so einer Heatlist stehen? Also wir haben einen jungen, schwarzen Mann, 23, Robert McDaniel, was hat er gemacht? Der hängt mit seinen Jungs, seitdem er acht Jahre alt ist, hängt sie zusammen auf der Straße rum, weil es gibt auch sonst kein Ort für sie. Die haben gekifft, die haben getrunken und die haben Lückspiele, also Würfelspiele, Kartenspiele. Dafür werden sie immer wieder in diesem Zusammenhang aufgegriffen. Das wird protokolliert, das geht ein in die Datenbank, in die Datensammlung der Chicago-Polizei und da er zusammen mit seinem besten Freund immer wieder verhaftet worden ist und als sein Freund ermordet wurde, erschossen wurde, landete er automatisch in dem Scoring nach oben. Er war plötzlich hochgefährdet. Was das für ihn bedeutet, hat das Folgendes. Die Polizei kommt in Begleitung eines Sozialarbeiters bei ihm zu Hause vorbei und sagt pass auf, wir haben dich auf der Liste. Erstens und zweitens hier ist unser Sozialarbeiter wenn du Hilfe brauchst. Der Sozialarbeiter ist reine Makulatur, der hat nie geholfen, der hat doch keine Angebote zu machen, weil es gibt kein Geld in den USA dafür. Was das aber bedeutet, hat für Robert war, wenn sie in Austin, in Tex, in Chicago leben, das sind nur Schwarze und es kommt die Polizei und sie werden nicht verhaftet, dann heißt das, dass sie mit dem kooperieren. Und wenn sie mit der Polizei kooperieren, sind sie isoliert innerhalb ihrer Nachbarschaft. Das heißt, die Tatsache, dass er auf dieser Liste stand, die Polizei vorgekommen und vorbeigekommen ist, führte zu der Explosion seiner sozialen Beziehung. Seine Frau hat sich getrennt, er hat seine Kinder verloren, mit seiner Mutter ist er im ewigen Streit, die Nachbarn meiden ihn. Das ist das, was für ihn dabei rausgekommen ist. Und das ist nur ein Fall. Aber das würde ja bei der, würde auch in 70er ein Computer wäre, das doch auch ein realistisches Szenario gewesen. Die Polizei hätte ja auch wissen können, dass er öfters mit ihm rumgehangen hat. Also warum ist jetzt der Algorithmusböse? Ich sage nicht, dass der Algorithmusböse ist. Ich sage, dass man wissen muss, wie ein Algorithmus arbeitet, der eine Person wie Robert McDaniel auf eine Liste setzt. Und das ist der entscheidende Punkt. Verstehen Sie, wenn jemand wegen Grasrauchen und Alkohol auf der Straße trinken, also in den polizeilichen Zusammenhang gerät und die Polizei dann zur Verbrechensbekämpfung ein System entwickelt, das basiert auf der Netzwerktheorie, nach der Kriminalität anstecken ist, wie eine Krankheit. Und man das in einen Algorithmus verarbeitet und die Datenbanken der Chicago-Polizeidatenbank daraufhin durchforstet und arbeiten lässt. Und er spuckt Namen aus, ich meine, liebe Leute. Ja, ich möchte nicht in der Gesellschaft leben, wo ein Computer oder ein Programm meinen Namen ausdruckt mit der Punktezahl in Zusammenhang von Kriminalität oder später vielleicht von Versicherungen oder Krankheit oder was weiß ich? Ich meine, das ist doch einfach idiotisch. Also vielleicht sollte man mal unterscheiden, weil man muss vielleicht mal unterscheiden. Also ich glaube, das Verständnis muss so sein, das Predictive Policing oder egal wie wir das nennen, KLB operativ, Precops, was es für unterschiedliche Anwendungstools gibt. Das Ergebnis einer solchen Recherche soll ja dazu dienen, Straftaten zu verhüten. Also das muss klar sein. Also wir wollen damit Straftaten verhüten. Also vor der Tatbegehung am Tatort durch Kräfteansatz verhindern, dass es zu einer Straftat kommt. In dem Fall den Einbruch. Deutschland. In Deutschland. In Deutschland. Das amerikanische System muss ich sagen, das kenne ich nicht genug, aber das, was hier geschildert wird, ist schon ein bisschen zweifelhaft, wenn das so ist. Zum anderen, was Sie gesagt oder was Du gesagt hast, denn Kollegen, Kolleginnen, also diese Unterscheidung entweder wird er festgenommen oder er arbeitet mit der Polizei zusammen. Also aus meiner eigenen Erfahrung kann ich sagen, niemand, der mit der Polizei kooperiert, wird zu Hause aufgesucht, weil das ist der dümmste taktische Fehler, den man machen kann. Aber das ist nur ein Randthema vielleicht. Also das macht keiner. Deswegen ist da immer die Frage, was ist Dichtung und was ist Wahrheit, wenn Menschen jetzt irgendwie im Rahmen eines Filmprojekts was erzählen. Da muss man vorsichtig sein. Ich glaube, das alles. Augenblick, Augenblick, Augenblick. Entschuldigung, Entschuldigung, Entschuldigung. Seien Sie versichert, was ich Ihnen erzähle. Ich glaube das. Genauso wie es ist. Ja, das glaube ich. Da ist keine Dichtung und da ist keine irgendwas. Und er erzählt mir auch nicht irgendwas. Okay, gut. Dann habe ich, ich habe halt einen Beruf, wo manchmal die Leute mir nicht die Wahrheit sagen. Und ich bin Filmemacher seit 30 Jahren im Geschäft und Sie können mir vertrauen. Das nächste ist, wenn wir ein Ergebnis aus einer wie auch immer gearteten Datbank haben, dann reicht es nicht, dass wir sagen, wenn wir jemanden jetzt, sage ich mal, verhaften wollen oder polizeiliche Maßnahmen gegen ihn führen wollen, dann reicht es nicht, dass wir sagen, das Analysetool XY hat gesagt, das ist so. Und lieber Herr Richter, oder? Das ist die Dystopie, die Befürchtung. Genau, das ist ja, nein, das ist ja Quatsch. Wir haben ja noch irgendwie, haben ja noch Gesetze und die müssen beachtet werden. Und wenn ich jemanden polizeilich mit einer Maßnahmen, also einer strafrezessualen Maßnahme unterziehen will, dann reicht es nicht aus, dass ich sage, mit einer Datenbank hat mir gesagt, das ist der Böse, sondern da muss ich in irgendeiner Form nachweisen, dass es so ist. Also sprich durch Spuren, durch Aussagen, Zeugen oder dass er ein Geständnis macht oder dass ich sonst irgendwie Ermittlungsergebnisse habe. Also wir brauchen sowas wie einen dringenden Tatverdacht. Und der ist, sag ich mal, der muss begründet werden. Da reicht es nicht aus, dass ich sage, irgendeine Datenbank sagt mir, der ist es. Also es wird keinen Staatsanwalt und keinen Richter mitmachen. Also wir haben hier schon einen Schuldstrafrecht. Das muss man sehen. Wir haben keinen Gesinnungsstrafrecht. Und ich glaube, da liegt schon, das muss man unterscheiden. Und polizeilichs Arbeiten ist eben Mosaik, ist immer mehr, ist nie immer nur Predictive Policing oder nur DNA oder nur Fingerabdrücke oder nur Aussage. Das ist immer ein Mix aus ganz verschiedenen Maßnahmen, die man eben kennen muss, anwenden können muss und vor allen Dingen zielgerichtet anwenden muss. Es haben sich lauter kleine Händchen hier hochgeregt, genau. Das ist der Konrad. Der Konrad trägt Mikrofone für uns. Wir fangen einfach mal dahinten an und machen vielleicht mal so die Reihe rum für den drei Herren. Hallo, wer bist du? Hallo, ich bin der Christian. Ja. Okay, testet. Wenn ich einem Richter jetzt, mal nicht bei Wohnungseinbrüchen, sondern bei Terrorismus vorlege, der Computer hat dann eine Gefährdung festgestellt. Welcher Richter sagt denn, dann ermittelt er mal nicht. Also das ist doch, wenn ich einem Richter sage, der Computer hat gesagt, da liegt eine Gefährdung vor. Und es ist bester Stand der Technik. Dann wird der Richter wahrscheinlich das irgendwie schon gewichten, oder? Der Computer sagt mir nicht, da liegt eine Gefährdung vor, sondern da muss ein Kriminalbeamter oder ein Kriminalbeamter dahinter stehen, der das prüft und da reicht es nicht, dass ein Computer das sagt. Die Systeme, die es da gibt, die sind quasi das hier vorhin schon mal angeklungen, die sollen so einen Prüfmechanismus hinterlegen. Also Amri zum Beispiel wäre so ein Fall gewesen, wo man hätte bestimmte Kriterien in der Datenbank, hätte verarbeiten können, dass dann im Grunde so eine Datenbank sagt, da ist eine Gefahr da oder nicht, untechnisch ausgedrückt. Aber man muss unterscheiden, Gefährder, da sind wir im Gefahrenabwehrrecht. Das ist ein Unterschied. Das heißt, wenn ich eine Person habe, die im Verdacht steht, an Gefährder zu sein, dann bin ich noch nicht in der Strafverfolgung. Da bin ich zunächst mal am Anfang im Bereich des Gefahrenabwehrrechts. Das ist das Polizeirecht. So, da ist natürlich auch in verschiedenen Fällen muss ein Richter eine Entscheidung treffen. Aber grundsätzlich sind wir in einem ganz anderen Bereich. Und bei einer Straftat, also dann, wenn der Richter vorgehen muss, dann haben wir im Grunde genommen ein Straftatbestand, ob das jetzt die Vorbereitung einer Staatsgefährdengewalttat oder ähnliches ist mit Mitgliedschaft in einer terroristischen Vereinigung. Dann habe ich einen Tatbestand. Und dann muss ich definiert an dem, was ich möchte, an der Eingriffsbefugnis, muss ich ein Grad eines Tatvertachtes nachweisen. Der geht vom einfachen Tatvertacht über einen dringenden, also beim Haftbefehl zum Beispiel, dringenden Tatvertacht. Und da brauche ich schon ein bisschen was. Und da reicht es nicht aus, wenn ich dem Richter sage, ich habe eine Datenbank, von der ich nicht weiß, wie sie arbeitet, aber die Sache, der ist es. Also das Blödsinn. Das wird auch die nächsten, denke ich mal, 20 oder noch mehr Jahre, aber hoffentlich zumindest nicht passieren. Also wir müssen immer noch, es ist immer noch kriminalistisches Arbeiten. Es ist immer noch juristisches Denken, was dahinterlegt ist und auch vor allen Dingen Bürgerrechte, die gewahrt werden. Und das muss man immer sehen. Also es wird niemand in dem Bereich einer terroristischen Vereinigung einfach so gerückt, wenn wir nicht dringende Gründe dafür haben, die das eben auch belegen. Wir hatten hier, glaube ich, noch dazu eine Meldung. Nein, dann aber hier vorne und dahinten auch noch. Wir machen erst mal dahinten und dann kommen wir nach vorne. Hallo, mein Name ist Rainer Reak. Ich bin Forum Informatikerin für Frieden und gesellschaftliche Verantwortung. Also ich bin selber auch Informatiker. Ich habe zwei Bemerkungen und zwei Fragen ans Plenum. Also erst mal Bemerkungen von wegen Errichtungsanordnung. Also vor zwei Jahren gab es die Situation, dass die Datei politisch motivierte Kriminalität links mal von damals Peter Scha angeguckt worden ist. Und danach mussten 95 Prozent aller Einträge gestrichen werden. Also so viel zu dem Vertrauen in die Veranordnungen. Zweiter Punkt. Wenn man die Vorratsdatenspeicherung zusammenbrickt mit den Listen der angemeldeten Demonstration, kriegt man wunderbar Teilnehmerlisten von allen Demonstrationen. Also ich finde das keine gute Idee. Jetzt zum Thema, Entschuldigung. Und zwar, wenn ich sozusagen so eine Systeme modelliere, die Frage war ja, gibt es da das richtige System? Also wenn man bei solchen Systemen so was wie Schadenszummern mit reinmodellieren würdelt, dann würde natürlich die Polizei immer nur in den Bankenvierteln patrouillieren. Also die Frage, welche Art von Verbrechenswertung sozusagen die Anzahl der Opfer, spielte das eine Rolle oder eben wie gesagt die Schadensuppe, das ist ja eine Entscheidung, die getroffen werden muss. Da gibt es glaube ich kein richtig oder kein falsch. Da gibt es so ein bisschen dieses Snow-Free-Lunch-Theorem, was sagt, es gibt kein Modell, was in allen Fällen das Beste ist. Und da ist ganz klar so eine Entscheidungsfrage. Da würde ich sozusagen gerne mal einen Kommentar hören, ob diese Modellannahmen da auch reflektiert werden in der Polizeiarbeit. Das ist, glaube ich, eine ethische Frage, die vielleicht ja auch für das gesamte Podium spannend wäre. Und die letzte Sache, also die zweite Frage, ich habe auch gelesen, wie sozusagen von den Polizeibeamtinnen und Beamten diese Art von Software angenommen wird. Und da kann man ganz klar sehen, je näher an der Straße, sozusagen an der echten Beinarbeit, die Leute sind, umso weniger schätzen wird der Einsatz solcher Software geschätzt. Und hier wird da man oben sozusagen im, man würde vielleicht Management in Neudeutsch sagen, umso größer kommt die Zustimmung. Und da ist meine Frage, liegt es daran, dass die oberen besser wissen, wie gut das eigentlich funktioniert oder liegt es daran, dass die unteren besser wissen, dass es nicht funktioniert? Dankeschön. Vielleicht die letzte Frage zuerst an Dirk Tegel. Und dann kommen wir noch mal zu der ethischen Komponente oder der ethischen Bewertung auch. Schwertes zu kommentieren, weil ich ja nicht mit den Kolleginnen und Kollegen gesprochen habe, die da befragt worden sind, die gesagt haben, dass ich weiß nicht, was sie gesagt haben. Also ich kann mir nicht, also es gibt ganz viele Kritik oder beziehungsweise ja doch Kritikpunkte in der ganzen Nummer. Aber die Menschen, die sich damit beschäftigen, tagtäglich sagen eigentlich, es hilft uns in der Vorgangsbearbeitung in der Form, dass wir eben so, wie ich das vorhin erklärt habe, nicht mehr 36 Fälle nebeneinanderlegen müssen und dort eine Systematik erkennen sollen. Jetzt, wenn man jetzt sagt, die auf der Straße, das sind ja Kolleginnen und Kollegen der Schutzpolizei, nehme ich mal an, oder der Bereitschaftspolizei, keine Ahnung, die werden ja eingesetzt, um diese Streifen zu fahren. Ob die jetzt möglicherweise davon begeistert sind oder nicht, kann ich nicht beurteilen. Aber letztlich ist es so, dass die Menschen, die in diesem Analysebereich arbeiten, da sehr wohl ein positives Feedback geben. Und da muss ich jetzt der Fachlichkeit mal vertrauen, weil das sind ja keine Kollegen, die das aufs Juchsendollerei machen, sondern die arbeiten an diesem System und stellen fest, in Beispiel jetzt, ich weiß es aus, glaube ich, München-Wardes im Zuge der Flüchtlingskrise, ist eben nicht so viel Polizei auf der Straße gewesen, um diese dann Folgemaßnahmen, also die operative Arbeit zu machen und da sind nachweislich die Taten der Einbrust, die Einbrusttaten nach oben gegangen selbstverständlich. Jetzt kann man sagen, ja gut, das ist eine alte Weisheit, da brauche ich keine Analyse-Tool, wenn ich keine Polizei auf der Straße habe, dann ist die Wahrscheinlichkeit, dass Straftaten begegnen, begangen werden höher. Es gibt aber umgekehrt auch genau die Modellprojekte aus Studien, aus den Vereinigten Staaten, weiß ich kritisch gesehen, dass die Präsenz von Polizei nicht unbedingt immer damit zu tun haben muss, dass weniger Straftaten begangen werden. Die Täter wissen ganz genau, wann sie was machen können, weil wenn der Funkwagen vorbei ist, dann ist erst mal Luft. Also es gibt eigentlich keine, nach den amerikanischen Studien, keine vernünftige Korrelation zwischen, ich schicke viele Funkwagen auf die Straße und die Bürger fühlen sich deswegen sicherer. Also es gibt genau den umgekehrten Effekt, je mehr Polizei auf der Straße, desto mehr denken die Leute, ach du liebe Zeit, wo bin ich denn hierhin geraten? Alle naßlang fährt irgendein Funkwagen durch die Gegend. Also deswegen muss man vorsichtig sein mit solchen Aussagen. Ich kann dazu nichts sagen, weil ich mit den Kollegen nicht gesprochen habe. Ich glaube, das ist auch sowas wie Neudeutsch Awareness, dass man im Grunde genommen den Leuten mal erklärt, die auf der Straße arbeiten, was da überhaupt hinterlegt ist. Also in Hessen jedenfalls gibt es auch Kritikpunkte, aber in Hessen haben wir auch einen relativ, habe ich ja vorhin gesagt, ein relativ unspektakuläres System, was nur funktioniert in diesem Einsatz, ganzheitlich sowohl einerseits die Analyse, andererseits aber auch begleitende Maßnahmen, auch im Bereich der Kriminalprävention im Übrigen. Ja, das wird ja oftmals vergessen. Einbruchsberatung, also kostenlose Beratung von Menschen, die sagen, ich will meine Wohnung sicherer machen. Das wird immer so ein bisschen belächelt, aber das führt letztlich dazu, dass die Anzahl der Versuchstaten im Einbruchsbereich natürlich hochgehen ohne Ende und die Vollendeten der Likte weniger werden. Ich meine, das muss man auch sehen. Prävention ist im Grunde die erste Aufgabe der Polizei. Also wir sind da schon in einem Bereich auch unterwegs, wo wir sagen, es geht nicht immer nur Straftäter, sondern wir wollen eigentlich Straftaten verhüten. Kommen wir also auf diese ethische Frage zurück, wo es um den Schaden ging, ob der sozusagen oder wie der bewertet wird zum einen und inwiefern der dann eben auch mit einfließt in so eine Bewertung bei einer Software. Mich erinnert es so ein bisschen an das autonome Fahren, wo man dann entscheiden muss, ist dann als wer es eigentlich schuld, wenn ein Unfall passiert, es ist der Programmierer, es ist derjenige, der fürs Auto gelaufen ist, was auch immer. Also wie seht ihr das? Inwiefern sozusagen kann ein Schaden in so eine Software sozusagen mit einbezogen werden bei einer Bewertung, wie wichtig es jetzt ist, zu diesem Ort oder jenem Ort zu fahren? Also wir haben in den USA ein System kennengelernt, das heißt HatchLab und die arbeiten überhaupt nicht mit Polizeidaten, sondern die arbeiten ausschließlich mit Geodaten, Umgebungsdaten, Ereignisdaten und die haben in ihr Programm tatsächlich die Kategorie eingeführt, in der berechnet wird der Schaden eines Mordes und im Verhältnis zum Schaden eines Überfalls, Einbruch und so weiter und der Algorithmus berechnet tatsächlich aufgrund dieser Schadens, dieser Geldmenge des Schadens, den das Verbrechen anrichtet. Es geht tatsächlich um Geld nicht um Menschen, sondern um Geld. Also ein Mord wird mit einer Million Dollar Schaden berechnet und ein Einbruch sagen wir mit zwölftausend Dollar im Schnitt. Und das sind Dinge, die in diese Berechnung der Prognosen tatsächlich mit einfließen und diese Software macht das ähnlich wie Predpool oder was Precops macht, also unterteilt die Stadt in Quadrate und ordnet diesen Quadraten dann zu eine Wahrscheinlichkeit des Einbruchs oder eines Mordes oder wo immer das hinarbeitet. Ob das ethisch ist, das weiß ich nicht und ob das Sinn macht, das weiß ich auch offen gestanden nicht. Wie ist denn aktuell der Stand in Deutschland? Gibt es so eine Schadenskomponente sozusagen innerhalb dieser Software, die dann also sagt, okay, der Schaden bei Einbruch XY in Quadrant so und so wäre jetzt höher als im Quadrant anderswo? Also wir gucken tatsächlich oder es wird tatsächlich danach geguckt, was sind, was ist Beute, was eher, die eher von Bandentätern genommen wird. Das ist ein Kriterium. Kreditkarten sind zum Beispiel schlecht zu verkaufen und haben mich schwierig an einen Mann und an die Frau zu bringen. Deswegen ist es zum Beispiel ein Kriterium, wo man sagt, wenn jemand Kreditkarten klaut, schwierig. Das spricht eher gegen Bandentäter, wenn wir größere Geldmengen, Schmuck und dergleichen mehr. Also da ist dann ein Absatz hinterher. Klar kann auch ein, sage ich mal, Drogenabhängiger zum Leihaus gehen oder kann irgendwas versetzen oder irgendwo anderweitig verkaufen. Aber das sind Kriterien. Und ich glaube nicht, dass das jetzt was damit zu tun hat, dass Menschen jetzt in großen Willen leben oder sowas. Na klar ist da mehr zu holen, aber es ist auch die Sozialkontrolle ist auch eine andere. Also das ist auch ein Faktor, den man berücksichtigen muss. Das ist natürlich einfacher ist. Und deswegen muss man vorsichtig sein mit Aussagen. Es wird überwiegend in ein Familienhäuser oder in reichen Gegenden eingebrochen. Und moderne oder professionelle Einbrecherbanden haben im Grunde genommen kein Problem, weil die machen auch nicht lange rum. Auch die Art und Weise des Angehens, also Modus operandi, wie lange braucht jemand oder schmeißt einer nur eine Scheibe ein. Das sind Sachen, professionelle Täter probieren, hebeln, wenn es nicht geht, gehören sie auf und gehen zum nächsten. Und deswegen ist dieses mit dem Willen Geschichten, das muss man vorsichtig sein. Da wäre ich krimiologisch vorsichtig, so eine Aussage zu treffen. Mehr Familienhäuser werden sehr gerne angegangen, weil die Sozialkontrolle. Aber da kommt vielleicht auch wieder ein anderes Thema rein. Ich würde gerne zur letzten Frage noch kommen. Mir scheint die Thomas, mein Name, die Frage weniger relevant, ob Algorithmen am Werke sind oder menschliche Vorurteile. Denn Irren ist menschlich, diesen Spruch kennen wir auch sehr genau. Und wenn Algorithmen weniger Fehler machen als Menschen, ist dagegen nichts einzuwenden. Aber und das ist die Grundidee von Algorithm TÜV, dass nicht nur überprüft werden muss, ob man überhaupt eine Datenbank errechnen darf, sondern wie sie arbeiten. Welche Folgen sie gerade auch für das Gesellschaftssystem hatten. Bisher sind die Modelle Deutschland gegen USA vorgestellt worden. Wir haben natürlich noch als extremen Beispiel China mit dem Scoring. Aber wir haben natürlich in Deutschland auch so was. Wir haben keine No Fly List, aber wir haben den Begriff des Gefährders, der eben sozusagen gerichtlicher Kontrolle entzogen ist. Ein Gefährder muss halt auch bestimmte Grundrechts einbußen, die dem Normalbürger zugänglich sind, hinnehmen. Und das ist natürlich in unserem Interesse, der Sicherheit auch zu rechtfertigen, wenn es sozusagen von einer Instanz kontrolliert wird, die die andere Perspektive nicht die reine Sicherheitsperspektive, was bei der Einnahme der reinen Sicherheitsperspektive möglich ist, das zeigt uns der die Türkei, in dem also wahrheitsgemäße journalistische Tätigkeit eben zur Inhaftierung wegen Terror verdacht führt. Da glaube ich, es ist jetzt unsere Aufgabe eben so ein TÜV, ein Algorithm Watch TÜV einzuführen. Und da glaube ich, müssen wir sehr dankbar sein, sowohl dem Filmemacher als auch... Herr Retzmeister hat doch eine Aufgabe gehört. Okay, vielen Dank. Was stört dich denn daran? Also ich habe es ja schon versucht darzustellen. Also das Thema hat ja zurzeit Konjunktur und dann besitzen wir deswegen hier und es ist immer beliebt, sehr schnell nach Lösung zu rufen. Und wie gesagt, wir wissen... Unsere Meinung, ich glaube, ich kann für meine Kolleginnen da auch sprechen, wir wissen noch zu wenig darüber. Es ist ganz viel nicht untersucht worden oder mal mit Empirie hinterlegt. Es gibt eben... Wir sind gerade dabei, quasi ein sogenanntes Mapping zu machen. Also wir versuchen eigentlich gerade mal zu erschließen, in welchen Bereichen in Deutschland jetzt erst mal wird, werden eigentlich solche automatisierten Entscheidungssysteme schon eingesetzt. Und da kommt man natürlich dann eigentlich... Am Ende landen wir oft bei ethischen Debatten oder philosophischen Debatten, was ist überhaupt eine Entscheidung? Zum Beispiel kann man mal fragen, da kann man sehr, sehr lange darüber debattieren, würde ich vermuten. Und man kann aber auch sagen, natürlich entscheidet nie eine Maschine, das tut sie glaube ich nicht, sondern sie kriegt Entscheidungen wegen mir Korridorre oder Horizonte vorgegeben in der Regel immer von Menschen. Ob mal sehr simpel entstanden oder in sehr komplexen Designprozessen, wo autonomes Fahren hast du schon angesprochen. Am Ende des Tages sind es auch in diesem Uber-Auto, was jetzt gerade eine Frau fahren hat, vor drei Tagen. War das glaube ich, oder vor einer Woche. Da waren natürlich, sind irgendwie an diesem System wahrscheinlich tausende Menschen beteiligt gewesen. Und die da zum Teil und das offenbar, also was man ja weiß, hat die Software stumm versagt. Also das war auf offener Straße. Eigentlich hätte das Liedersystem, also dieses Radarsystem. Das könnte bei Policing natürlich auch passieren. Genau, also und wie gesagt, bei diesem Wohnungseinbruchding ist jetzt das Risiko, wo das da irgendwie das Grundrechte beeingeschränkt werden, relativ niedrig. Aber ich habe es schon gesagt, noch ist es ja angesprochen, die es gibt ja unterschiedlichste Motivationen. Es gibt Firmen, die wollen ihr Softwareprodukt verkaufen. Teil von euch, die hier Zeit werdet, vielleicht früher, später mal an solchen Firmen arbeiten und dann auch vor eben, ob ihr dann an Systemen mitarbeiten wollt, die wegen mir in den Krieg ziehen sollen und statt Menschen und so weiter, müsst ihr dann auch für euch individuell Entscheidungen treffen, ob ihr an so was mitarbeiten wollt. Aber es ist sozusagen, da gibt es ganz viele schleichende Übergänge. Oft sind die Systeme auch so komplex, dass ihr gar nicht wisst, was hat das für eine Konsequenz, dass wegen mir der Software Bausteine, an dem ich jetzt gerade arbeite, wofür kann da alles eingesetzt werden, dass ich vor Dual-U's gibt es in allen Technologiebereichen. Man kann mit einer Javascript-Biothek ganz tolle Visualisierung machen, aber auch eben vielleicht dann das Fadenkreuz für die autonom tötende Drohne sozusagen zeigen. Ich späte es jetzt zu, aber ich will nur sagen, also die Fragen oder die ethischen Fragen muss ich erstmal auch jeder selbst stellen und doch mal vielleicht als Letztes, wo das überall stattfindet, das wissen wir noch ganz wenig, wir sind bei dem Punkt, dass wir merken, es findet eigentlich fast überall statt, wo ein Prozess war, ob er teiligt ist, weil da ist der Lauf mit Software und es sind teilweise sehr triviale Dinge, das ist gerade so unser Lieblingsbeispiel. Nimm eine Ampel, eine Ampelschaltung, die ist natürlich eigentlich ein ganz simples Softwareprodukt. In der Regel heute passiert das nicht mehr mit Relays, aber diese Ampel implementiert eine Verkehrspolitiker, zum Beispiel einer Kreuzung. Wer ein Autos bevorzugt oder Fußgänger, das macht sozusagen die Software, ist das Instrument dafür. Und jetzt kannst du eben fragen, also solche Beispiele findest du ohne Ende, wenn du erstmal anfängst, mit diesem Blick darauf zu gucken. Und deswegen will ich das gar nicht alles dafür TÜV sein. Das ist mir, glaube ich, nicht mein Berufswunsch. Also ich nehme auf jeden Fall mit, es gibt noch eine Menge zu tun. Wir sind auf jeden Fall trotzdem ganz froh, dass wir in Deutschland sind, zumindest was Predictive-Policing anbetrifft und nicht in den USA. Das habe ich auf jeden Fall auch für heute mitgenommen. Vielen Dank an das gesamte Podium fürs Mitdiskutieren, an euch natürlich auch fürs Fragen stellen, fürs Zuhören. Vielen Dank. Und wir sehen uns, hören uns beim nächsten Digitalensalon wieder. Das ist am 25. April wie gewohnt, also der letzte Mittwoch über im Monat. Da geht es dann um das Motto Directed by Data. Was passiert, werden deine Playlisten von gestern die Filme von morgen bestimmen. So, das war es aber jetzt erst mal für heute mit Predictive-Policing. Es gibt das Ganze auch noch mal zum Nachschauen als Livestream, wenn ihr vielleicht unsere Veranstaltung noch mal irgendwo teilen wollt, auf der Seite des HIEG. Und ein Podcast wird es auch noch geben, der heißt dann Digitalesafari und gibt es bei Audible. Vielen Dank, dass ihr alle da wart.