 Okay, also der Bruch von der Diskussion gerade ist ein bisschen hart, also es hat zwar auch irgendwas mit Sicherheit zu tun, aber predictive policing beschäftigt sich eher mit der konkreten Polizeiarbeit, nicht mit dem nachrichtendienstlichen und Überwachungskram, um meine Auseinandersetzung damit es auch eher eine technische, also ich interessiere mich halt für Datenschutzfragen und da bin ich dann irgendwann mal drauf gestoßen und daher kommt das, sodass hier jetzt keine nachrichtendienstliche und NSA mäßige Überwachungstechnologie, darum geht es nicht, sondern um konkrete Technik, die eingesetzt wird. Als Einstieg wollte ich so ein bisschen popkulturell einsteigen, ihr habt sicher das letzte Woche mitbekommen, das war der Jahrestag oder der Tag in den Marty McFly reist aus dem Jahr 1989 gesehen und das Beispiel ist ganz gut, weil es bei predictive policing so ähnlich funktioniert, sich zu überlegen, was war denn die Science Fiction, die uns damals versprochen wurde von Hollywood, ich damals noch ohne Führerschein, habe mich sehr aus das hoverboard gefreut und wenn man sich anguckt, was daraus heute geworden ist, sieht man, dass es nicht so besonders weit ist, also es gibt natürlich dann Fake Videos, so letztes Tony Hawk mit Doc Brown das hoverboard vorgestellt haben, wirklich funktionierend, es gibt so Dinge wie, dass jemand ein Brett auf einen Multikopter geschraubt hat und damit über Wasser schwäben kann, dann gibt es dieser Haftpipe aus Metall, wo ein magnetisches hoverboard auf dieser einen Haftpipe eben sich bewegen kann und dass das vor gar nicht so langer Zeit auch die Runde gemacht hat, war dieser Skatepark den Lexus, dieser Autofirma für sehr, sehr viel Geld hat bauen lassen und die Technik, die darunter, die dieses hoverboard betreibt, stammt auch glaube ich aus Dresden, wenn ich das richtig in Erinnerung habe, ist aber, obwohl es ein riesiger Skatepark ist, am Ende doch nur eine einzige Fahrspur in diesem Skatepark und das hoverboard, was darauf fährt, muss man alle 20 Minuten flüssigen Stickstoff nachfüllen, das ist auf jeden Fall nicht so das, was ich mir darunter vorgestellt habe, was Marty McFly mir gezeigt hat und was man außerdem daraus lernt, ist natürlich die, was Woge wird Energie reingesteckt, also Lexus zahlt Millionen von Dollar dafür und Hacker und Maker basteln an solchen Dingen wie diesem Multikopter, muss man sich schon fragen, okay das ist sehr weit von dem entfernt, ganz ehrlich von dem, was Hollywood uns damals vorgeführt hat. So ähnlich funktioniert das auch bei Predictive Policing, die Vorhersage geht noch ein bisschen weiter in die Zukunft, also der Film ist von 2001 Minority Report, den kennen wahrscheinlich die meisten, wer hat Minority Report nicht gesehen? Okay, 3-4, ist ja auch schon ein bisschen älter, wenn man junger ist. Die Grundidee ist ungefähr die, es gibt drei Precox, das sind so Mutanten, eigentlich Kinder von Drogensüchtigen, die aus irgendwelchen Gründen, wenn man sie auf Medikamente setzt, Bruchstücke der Zukunft sehen können und die sehen vor allen Dingen Morde und dann kommen Tom Cruise und auf einer coolen Technik kann der diese, die Bilder, die die Leute sehen auswerten und kann die Morde vielleicht noch bevor sie passieren, das sind ungefähr die ersten 15 Minuten des Films, der Rest des Films beschäftigt sich damit, dass eigentlich man sagen könnte das System wurde gehackt, weil das die Minority Reports gibt, die zeigen, dass eigentlich das gar nicht funktioniert und am Ende wird das System auch eingestellt. Nichtsdestotrotz ist das ein riesen Thema bei den Sicherheitsbehörden im Sinne von den Polizei, die alle gerne sowas hätten, auch wenn der Film gezeigt hat, dass das nicht funktioniert. Und deswegen lesen wir seit einigen Jahren, wie das auch gerade schon nangedeutet wurde, so Titel wie Bayern und Nordrhein-Westalen haben ein Precrime System, die Software kann jetzt berechnen, wo als nächstes Einbrüche passieren. Hier Tom Cruise wird demnächst bei uns auf Verbrecherjagd gehen und die Polizei in Bayern arbeitet jetzt auch so. Wie sieht es aber in Wirklichkeit aus und das ist der, der innerliche Teil dieses Vortrags. So kurz zusammengefasst auf einer Folie würde ich sagen, es ist vor allen Dingen ein Hype. Die Software kann lange nicht das, was wir uns vorstellen, was wir in Minority Report gesehen haben. Und im Wesentlichen muss man auch sagen, und das kam auch vorhin in der Diskussion schon, Kriminalität und ein Sicherheitsbereich sind kein reines technisches Problem und das lässt sich so einfach nicht angehen. Aber gehen wir ins Detail. In diesem Vortrag, genau. Werd ich viele Teile ansprechen, einmal Hitlist, dann die Software Predpoll, die sehr oft in der Presse besprochen wird, Handschlepp, ein bisschen eine alternative herangehensweise und Precops ist das, was hier in Deutschland viel getestet wird und ich beschreibe auch immer ein bisschen die Modelle, die dahinter stecken, also die Annahmen, die da und mit welchen Daten gearbeitet wird. Und am Ende sammel ich auch noch ein bisschen die Kritik daran. Okay, das erste sind die Hitlis, bekannt geworden vor allen Dingen aus Chicago, wo die Polizei aus ihren Datenbanken-Listen kompiliert über irgendwelche Mitmodellen, wo am Ende dann ungefähr 400 Personen draufstehen, für die über diese Berechnungen hervorgesagt wird, dass für die das Wahrscheinlichkeit, dass die an schweren Straftaten beteiligt sind oder Opfer solcher werden, sehr hoch ist. Erinnert es ein bisschen an diese Serie Person of Interest. Chicago passiert das dann aber so, dass die Polizei dann mit dieser Liste die Leute einfach abklappert, bei denen es zu Hause vorbeigeht, die ein Custom-Letter überreicht, in dem drin steht, dass für sie vorhergesagt wird, dass sie an schweren kriminellen Straftaten beteiligt sein werden und dass sie doch sich vielleicht überlegen sollten, ob sie nicht ihr Leben ändern sollten. Der Hintergrund ist im Prinzip, also das, was da zitiert wird, ist so eine Studie von 2009, wo amerikanische Wissenschaftler rausgefunden haben, also in dem konkreten Fall, was Andrew Paparisto, dass der hat eigentlich die so öffentliche Daten zu Gangmorden untersucht und rausgefunden, dass es halt auch eine strukturelle Komponente hat, dass Gangmorde nicht einfach hier wird jemand ermordet, sondern dass man, wenn man dieses soziale Netzwerk sich das als soziales Netzwerk vorstellt, man eben sehen kann, dass sie sich gegenseitig bestärken, wenn die eine Gang aus der anderen Gang jemanden umbringt, dann ist die Wahrscheinlichkeit, dass das andersrum passiert steigt. Aber er hat auch damals schon gesagt, dass man das eigentlich nicht, also dass es eine Möglichkeit ist, diese Gangmorde zu untersuchen und hat das eben mit so einer Software zu versuchen für so schön Networks gemacht, hat aber auch gesagt, das ist wesentlich komplexer, also nicht alle Gangmorde beziehen sich darauf, dass vorher, dass es irgendwie so ein Social-Netzwerk gibt, in dem die, also nicht als Online-Social- Network, sondern quasi ein wirklich abgebildetes Netzwerk von Beziehungen zwischen Personen und hat aber auch gesagt, das hat halt seine Grenzen. Nichtsdestotrotz wird das halt in Chicago so umgesetzt, zumindest behaupten Sie, dass die sich daran orientiert haben. Das Problem dabei ist, es gibt halt relativ viele false positives und negatives. Was es heißt, aus der Statistik, false positives heißt, es stehen Leute auf der Liste, die, wenn sie dann Besuch von der Polizei bekommen, das nicht so aussieht wie im Hintergrund, also es sind wohl angeblich Zivilbegleiter zu Polizisten, aber schon als solche zu erkennen, die halt dann Besuch von der Polizei kriegen und denen dann gesagt wird, wir haben sie im Blick und dann gibt es aber mindestens drei, drei Stories von Personen, die sagen, dass sie das nicht so angenehm fanden, also unter anderem 17-Jährige, die eigentlich noch zur Schule ging und für die zumindest, wie das dann als die Interview wurde, sich das gar nicht so darstellte, dass sie irgendwie großkriminell wäre, aber mal festgenommen wurde mit einer Person, die wiederum in diesem Netzwerken auftauchte. Ein anderer Typ hat sich vor allen Dingen darüber beschwert, dass die Polizei vor seiner Haustür stand, aber nur nett mit ihm reden wollte, dass er das ja vor seinen Nachbarn vielleicht aussehen wie ein Spitzel und solche Geschichten, die volles Negatives, also das sind die, wo die Liste quasi, dass diese Person gar nicht darin auftaucht, sind halt um das passiert durchaus und das ist dann auch direkt die Kritik an der, an der, die dann höflich gemacht wird, an der Software, dass sie natürlich nicht vollständig funktioniert, was nachvollziehbar ist und auch sich nicht auflösen lässt eigentlich, dass natürlich auch Leute sterben, ohne dass diese auf dieser Liste standen. Ein ähnliches Projekt näher bei uns ran hat Accenture in London durchgeführt, das ist aber, würde ich mal sagen, relativ gescheitert, also die haben in London, darüber gibt es Unterlagen, dass die so ein Projekt durchgeführt haben, wo Accenture 600.000 britische Fund reininvestiert hat, um eben so eine ähnliche Analyse, wie das in Chicago passiert, auch für London zu machen, weil da gibt es auch halt eine exte Special Unit for Gang Crime und da sollte aber mit einbezogen werden auch noch Twitter Accounts, um so ein bisschen diese soziale Komponente daraus zu kriegen, dann wurde halt die Idee war, dass wenn die Leute sich vorher auf Twitter beleidigen, die Gangs Mitglied sind, dass das irgendwie einen Einfluss darauf hat. Das Projekt wurde dann nach 21 Wochen beendet und das Einzige, was man dazu findet, wie es denn, was von Erfolg, das hat es, dass sie gesagt haben, wir sind zuversichtlich, dass es ein Erfolg war, was mehr findet man dazu nicht, es wird nicht fortgeführt, also nehmen wir an, dass das eine sehr öffemistische Beschreibung des Ergebnisses dieses Projekts war. Ein Gegenbeispiel, wie das, was so ähnlich funktioniert, also von der Idee, aber eben nicht so eine Pre-Crime Komponent hat, wie das man zu Leuten geht und sagt, wir haben sie auf dem Schirm, weil sie werden bald ein Verbrechen begehen, ist in Richmond, was in der Nähe von San Francisco liegt, wo es so eine Art Stipendium gibt für Menschen, die bereits verurteilt sind und von denen angenommen wird, dass die sich weiter in den falschen Kreisen bewegen, aus der Sicht der Polizei. Da gibt es extra eine Einheit, das Office for Neighborhood Safety, das gar nicht baubasierend auf Daten, sondern auf, indem sie mit Leuten sprechen und auf der Straße in Nachbarschaften ansprechbar sind, auch raus, eben raushören, wer da besonders gefährdet ist quasi. Und dann wird ihnen ein Stipendium angeboten, das sagt, du kriegst jetzt von uns Geld in einen Monat, wenn du nicht mehr kriminell bist und quasi dich darüber finanzieren kannst und dann gibt es so Programme und so weiter, um die Leute quasi so ein Rehabilitation-Programm, was man was in den USA jetzt nicht so häufig vorkommt. Und deren Erfolgsgeschichte ist, dass sie, seitdem ist das, glaube ich, seit 2010 von den 68 Leuten, die dieser Stipendium gegeben haben, das damit rügen, die sich das 65 davon immer noch leben. Gut, aber gibt es das nur in den USA? Diese konkreten, diese Hitlist-Projekte kann man echt nicht sagen, weil was bei uns gibt, sind Gefährdatenbanken und polizeiliche Negativpognosen, wie es heißt. Und ihr kennt vielleicht die Diskussionen um die Datei für Gewalthättersport oder die Limo-Remo-Aumo, also es geht um politisch motivierte Kriminalität von Links, Rechts und Ausländern. Und dann gibt es eine Liste in der BTM, also Betäubungsmittel, Konsumenten drinstehen, in der über eine Million Personen verzeichnet sind, die vor allen Dingen die ersten beiden werden eben auch genutzt und von der Polizei für konkrete Ansprachen, wahrscheinlich auch von Mitarbeitern, das Kollegen, der vorhin hier gesprochen hat, um die Leute vielleicht eher als V-Leute zu gewinnen, als um ihr Leben zu ändern. Aber diese Listen sind auch relativ groß. Das Problem mit diesen personenbezogene Listen in Deutschland ist, die sind, werden relativ kritisch begleitet, auch zu Recht, denn die Sache, wie man da, also die sind auch nicht datenbasiert, sondern am Ende entscheidet die Polizeibehörde, wen sie da draufsteigt, wen sie da reingesetzt in diese Liste und die gesetzlichen Bestimmungen dazu sind auch relativ vage. Also es heißt, es müssen bestimmte Tatsachen, die Annahme rechtfertigen, dass die Person zukünftig Straftaten von erheblicher Bedeutung begeht oder wenn man von der Persönlichkeit oder der Betroffenen nicht so überzeugt ist und denkt, dass die sich nicht, dass die eher ins Kriminelle abgeleitet und eben auch, dass auch Kontakt und Begleitpersonen von Personen, wo die Polizei denkt, dass die in diese, dass die Kriminal-Gewalt-Aktur oder so begehen könnten, die können auch auf diesen Listen landen und wie diese Listen funktionieren und was genau passiert, wenn man da draufsteht. Also bei der Gewaltheter-Sport ist es relativ gut dokumentiert. Man kriegt die Leute, die dürfen halt nicht zu Auswärtsspielen reisen und so weiter. Da gibt es aber mal wieder Kritik und auch Klagen. Das hat der Landesverfassungs-Mensch ja auch erzählt, dass man immer, wenn man dann rausfindet, dass man da drin steht, auch dagegen klagen kann und häufig klagen, können sich die Leute da raus klagen, weil eben bei dieser Gewaltheter-Sport gibt es viel Kritik daran, dass da halt auch einfach Leute, die, wenn in einem Stadion es Randale gibt und ein Stadion dann relativ schnell die Polizei, die Gruppe einengt, Leute nicht schaffen, sich davon genug zu distanzieren und dann in dieser Liste landen, wo sie vielleicht gar nichts damit zu tun hatten. Also die Grenzen, eben weil das auch so schwammig formuliert ist, wie man in diesen Listen landet, sind halt sehr weich. Und das ist halt auch ein Daranschutzproblem. Also gleichzeitig möchte die Polizei natürlich nicht, dass man erfährt, dass man auf einer dieser Listen steht. Deswegen werden die sehr viel kritisiert und auch immer stärker eingeschränkt. Und das ist auch eigentlich das einzige Beispiel, wo es für diese predictive policing, wo personenbezogene Daten eigentlich verarbeitet werden. Deswegen ist an der Stelle das Datenschutz auch schon fast zu Ende. Denn die, was sich dann rauskristallisiert hat und in den vielen anderen Softwareprodukten eingesetzt wird, sind halt raumbezogene Risikoberechnungen. Und. Als erstes stelle ich euch der PredPol vor, dass es eine Software, die ich weiß nicht, von PredPol schon mal gehört, dass sie es relativ bekannt. Muss man sich einer gut, die wird, die ist auch schon eigentlich am ersten Mal da Markt gewesen. Hier seht ihr so ein Screenshot. Da sieht man halt so eine so eine Karte von, ich glaube, das ist Atlanta. Und rechts ist jetzt ein bisschen abgeschnitten wegen der Auflösung. Da kann man halt auswählen, welche Crime Typen man denn Deliktarten man angezeigt bekommen möchte, von Einbrüchen zu Autoreinbrüchen zu Diebstellen und Straßenraub und so weiter. Und dann zeigt ihr ermittelt dies Software anhand der anhand vorhandener Polizeiregister Datenbanken, wo denn demnächst diese Verbrechen stattfinden werden. Die Hersteller von dieser Software sind ziemlich offensiv mit dem, was sie glauben, was ihres Software denn erreichen kann und machen damit so die Runde, dass sie behaupten, sie in den bestimmten Städten zu einem Rückgang von 60 Prozent der Kriminalität in bestimmten Bereichen geführt. Die Theorie dahinter ist ein Algorithmus, der aus der Seismologie adaptiert wurde und zwar ist die Idee, dass wenn also bei Erdbeben gibt es häufig auch Nachbeben und es gibt Algorithmen, die diese Nachbeben wann designen werden und wo ungefähr voraus berechnen. Und das wurde halt für diese für die Kriminalitätsbekämpfung adaptiert, indem man sagt, wenn irgendwo ein Delikt passiert, sei es irgendwo auf der Straße, wird immer ausgeraubt, dann steigt die Wahrscheinlichkeit, dass in einem näheren Zeitraum, in der näheren Umgebung eine andere Straftat begangen wird. Außerdem zum Erfolg der Software beigetragen hat sicherlich, dass sie die ersten mal nie eine Tablet-Version hatten und die hatten eine total schicke Oberfläche und weil natürlich gab es auch schon vorher, das habe ich vergessen zu erwähnen, so software die Straftaten im Raum irgendwie orientiert, so Geo-Informationssysteme damit arbeiten und Lageranalysen, damit erarbeitet auch die deutsche Polizei schon länger, also in jedem Tatort hängt eine große Stadtkarte an der Wand und am Ende sind die Pins immer so, dass sie auf den Täter zeigen. Ihr kennt das ja bestimmt. Aber das ist halt jetzt die Sache, wo das stärker digitalisiert wurde. Und da waren die sehr früh dabei. Jetzt gibt es hier dieses Video, das kurz den, das zeigt, wie das in, da gibt es die eine Tagesschau. Redakteurin hat da mal in Santa Cruz die Polizei begleitet und das zusammengefasst, das sind jetzt zwei Minuten. Das wollte ich an der Stelle kurz zeigen, weil das ganz gut zeigt, wie dieses Software funktioniert. Ich weiß nicht, ob wir den Ton kriegen. Ich versuch mal, ich mach mal Play noch lauter. Ein Satz geht auf Streife in Santa Cruz. Ich mach noch mal auf Anfang. Die Tagschicht startet ihren Einsatz, geht auf Streife in Santa Cruz. Und ich soll mitfahren, denn die Polizisten wollen mir unbedingt etwas zeigen, etwas, auf das sie sehr stolz sind. Etwas, das für mich klingt wie aus einem Science-Fiction-Film. Ein System, das aus Polizisten hellseher macht. Wir dürfen uns einen Tatort aussuchen, sagt Steve, zu dem wir hinfahren. Und wenn das System wirklich funktioniert, dann kommt die Polizei noch vor dem Täter am Tatort an. Mal schauen. Ich muss zugeben, ich bin skeptisch. Aber Steve Clark ist überzeugt, auf seiner Karte kann er sehen, wo das Risiko besonders hoch ist. Dass in den nächsten Stunden ein Verbrechen passiert. Normalerweise würde ich wohl ins Zentrum fahren. Da ist ja immer was los. Aber das Programm sagt mir, ich soll lieber in ein ruhiges Wohnfliertel im Osten schauen. Das Plan Quadrat, ein sogenannte Hotspot, gerade mal 150 mal 150 Meter groß. Und da stehen wir dann und warten. Auf einen Verbrechen. Das ist absolut ruhig hier. Aber man hat hat sich dabei, das verdächtig zu finden. Und dann erspät Steve eine Gruppe, die für ihn nicht hier herpasst. Die drei stehen nur an einer Ecke rum, haben nichts getan. Doch als die Polizei ihre Personalien überprüft, stellt sich heraus, einer macht falsche Angaben zu seinen Vorstrafen. Der andere hat ein auffällig teures Fahrrad bei sich. Ein Anruf in der Zentrale bestätigt. Das ist gestohlen und das reicht aus, um den Mann zu verhaften. Als Steve dann bei der Untersuchung auch noch Drogen in einer seiner Taschen findet, steht für ihn fest, vermutlich hat er mit dieser Festnahme ein Verbrechen in naher Zukunft in diesem Viertel. Fein. Ja, so funktioniert es. Also ist es eindeutig oder? Ja, das ist eine ziemlich coole Software. Das ist erstens nicht anstrengend für die Polizisten, weil die da rumstehen können und warten, bis die Verbrecher in die Arme laufen. Ja, tatsächlich, Santa Cruz war eine der ersten Städte, in denen das flächendeckend eingesetzt wurde. Tatsächlich zeigt sich jetzt, dass die Software länger in Betrieb ist, doch so wirklich 100% nicht funktioniert. Zumindest, wenn als Erfolg gilt, wenn die Verbrechensrate sinkt, weil sie verhindert werden, bevor sie passieren. Richmond, die Stadt in der unter anderem in einem anderen Stadtteil dieses Projekt mit der Förderung von Menschen, die da eine negative Fugnose haben, gemacht wird, die haben auch gleichzeitig dieses Software drei Jahre lang eingesetzt und hatten auch am Anfang sehr, sehr starke Reduktionen von 20 pro 40%. Allerdings verlängern die ihren 3-Jahres-Vertrag mit Pretoll jetzt nicht, weil nach zwei Jahren die Zahlen nicht weiter zurückgegangen sind, sondern jetzt mittlerweile auch wieder steigend trotz Einsatz der Software. Alhambra ist so eine andere Stadt, in denen auch das am Anfang sehr gut funktioniert hat und dann funktioniert es wieder nicht in Santa Cruz, der Stadt, in dem wir gerade gesehen haben, hat es auch sehr gut funktioniert, eine Zeit lang, aber seit 2014 gab es dann einen Anstieg bei bestimmten Kriminalitäten, also das wird immer ein Delikter aufgeteilt von 24%. Das heißt, so einen richtigen langfristigen Effekt kann man bei Pretoll jetzt nicht so feststellen. Jetzt ist es gerade vor wenigen Wochen, der Brenne heißt da, glaube ich, im Professor an der Uni LA, noch mal eine Studie rausgebracht, in dem er sagt, doch, es funktioniert, und zwar aber der Trick, den er da gemacht hat, der war gar nicht so schlecht, er hat dann nicht mehr gesagt, hier, wir vergleichen einfach, wie ist die Kriminalitätsrate vorher und wie ist die nachher, sondern wir vergleichen einfach, wie gut funktioniert unsere Software im Vergleich zu menschlichen Allerlüsten, die vorher Sagen treffen. Da ist die Software besser, okay. Sagt aber nichts darüber aus, den Trick, den man lernen kann, wenn du nicht hinab zu Zuzahlen gewinnen kannst, such dir einfach einen schwächeren Gegner und misst dich an ihm. Die dritte Software, die auch gerade in Version 2.0 entschieden ist, ist Handschlepp, und die basiert auf dem Wrist Terrain Modeling. Hier im Hintergrund sieht ihr ein Screenshot, der ist so ähnlich, man hat eine Stadtkarte und die unterschiedlichen Planquadranten zeigen an, wo welcher Delikt in naher Zukunft quasi bevorsteht. Die hat außerdem, die steht zwar aus drei Komponenten, es gibt einfach so eine Analyse, in der man sich angucken kann, in welchem Stadtteil, denn welche Gefahr droht. Dann gibt es so eine Managementansicht, wo der Polizeipräsident auch direkt festlegen kann, welche, was denn vielleicht gerade in der Presse, die Straftaten sind, die am meisten einen Eindruck machen, und da kann man halt einstellen, wie man die Gewichten möchte, weil dann auch automatisch die Streifen koordiniert werden, kann man sagen, momentan wollen wir vor allen Dingen Einbrüche verhindern, deswegen setzt man die Gewichtung für Einbrüche hoch, und in dieser Oberfläche werden dann die Einbruchsvorhersagen stärker gewichtet, sodass die Streifen dahin orientieren. Für die Streifen selber gibt es dann so eine coole Tabletansicht, die sehr minimalisiert ist, in der nur steht, wo sie gerade sind, schön mit Geolocation, wie gerade das Risiko in welchem Deliktbereich ist. Worauf man quasi, also der arme Polizist, der den ganzen Tag sich in seinem Auto auf der Straße stehend langweilt, kann dann darauf achten, ob er eher nach Auto aufbrechern, Ausschau hält, oder nach Sexualstraftaten. Das Modell dahinter basiert auch so auf Ebenen. Das heißt, die machen eine Regressionsanalyse für die StatistikerInnen, und zwar wird halt für verschiedene Läher, verschiedene Läher werden gesammelt, die immer so was einbeziehen, wie wo befinden sich in einer Stadt die Wohngebiete, das ist natürlich trivial für, denn da Wohngebiete sind mehr eingebrochen als auf Feldern, aber auch ganz absurde Dinge, wie wo sind Bushaltestellen, wo sind die Bars, ich glaube, das kommt hier genau, wo sind die also quasi so eine Point-of-Interest-Liste, wo sind Sehenswürdigkeiten und Parks, aber auch was sind die Adressen von bekannten Straftäter in, die ja in den USA anders als hier relativ leicht zugänglich sind. Dann wird für jede Deliktart, indem man zurückschaut, also wo wurden welche Verbrechen im letzten Jahr gemeldet, geguckt, wie die im Zusammenhang stehen mit den einzelnen Points-of-Interests, die man auf diesen verschiedenen Ebenen hat und dann halt eine Wahrscheinlichkeit berechnet, welche Zusammenhänge denn dazwischen bestehen, und das wird halt dafür genutzt, dass dann halt wieder eine Straftat gemeldet wird oder abhängig vom Wetter, um zu gucken, wo in der nächsten Zeit halt sowas ansteht. Das ist für jedes Deliktart, wird halt quasi ein eigenes Risikofaktorenmodell entwickelt und dann gibt es so ein tolles Compendium, wo die auch alle ausführlich aufgelistet werden. Und da steht zum Beispiel drin, dass Einbrüche in Wohnhäuser besonders da passiert, da die Wahrscheinlichkeit höher ist, wo es insgesamt in dem Gebiet eine soziale Desorganisation gibt, wie auch immer man die misst, weil das muss ja dann in so eine Karte eingetragen werden. Dann ist die Nähe zu ÖPNV, also zu Bus- und U-Bahn-Stationen relevant, dann natürlich, dass da Wohnhäuser stehen, Uhrzeit, Wochentag, natürlich wird nachts häufiger eingebrochen als tagsüber, und auch die Nähe zur nächsten Polizeistation spielen da eine Rolle. Die meisten von diesen Zusammenhängen kann man sich da ja noch ganz gut erklären, wobei ich jetzt nicht weiß, was die ÖPNV-Station mit Anzahl von Einbrüchen zu tun hat, aber das bezieht sich auch auf die USA. Dann gibt es so etwas wie Risikofaktoren für Drogenhandel im öffentlichen Raum. Da ist in den USA relevant, wo denn Waffengewalt viel gemessen wird, weil das irgendwie könnte man jetzt auf Geng-Kriminalität beziehen, wo viele Eigenheimdichte, also im Vergleich zum Mietwohnungsdichte ist, die Nähe zum Rotlichtviertel, registrierte Straßenraube, Billigotelveranstaltungszentren, Kaffee und Bars, ÖPNV, Verkehrswege, Schulenpark, Shoppingcenter, all das sind Einflussfaktoren für Drogenhandel im öffentlichen Raum. Merkt ihr was? Ich glaube, es kann überall sein. Wie funktioniert es am Ende? Diese werden diese ganzen Ebenen zusammengerechnet. Das sieht man hier im Hintergrund, die schwarzen und grauen Flächen zeigen dann, wo in dem Fall Street Robbery, also Straßenraub, wo die Wahrscheinlichkeit höher ist. Die roten Punkte sind dann, das war so ein Vergleichstest, den wir ja gemacht haben, die gezeigt haben, wo dann tatsächlich, dass dann auch in dem Jahr, ich glaube das Beispiel war, dass sie für 2008, 2009 voraus berechnet haben und dann die roten Punkte sind, die wo das in 2009 tatsächlich gemeldet wurde. Jetzt kann man relativ leicht an der Stelle schon sehen, dass da, wo rote Punkte auf weißem Untergrund sind, die Software also eigentlich nichts vorhergesagt hat, also der Risk Value war sehr low. Und das sind eigentlich schon die Fee geschlagenen und die, da wo schwarz ist, aber trotzdem nichts stattgefunden hat, ist halt da, wo die Vorhersage eigentlich falsch war. Insgesamt ist das auch alles nicht besonders deutlich, weil die, also diese Werte hier, diese Graustufen sind eigentlich nur vier Stufen und jede Stufe bedeutet, dass die Wahrscheinlichkeit für einen Überfall über das gesamte Jahr, muss man sich dann überlegen, 16 % höher liegen. Das heißt, für jeden einzelnen Ort kann man dann, ob in 365 Tagen an einem Ort ein Straßenraub stattfindet, wird halt mit einem End-Effect 16 x 16 x 16 x 16 % Wahrscheinlichkeit vorhergesagt. Darauf basiert dann die Art, wie die Patrouillen gefahren werden. Was man aber an diesem Beispiel auch ganz gut sieht, ist hier die, ist die eigentlich eine ziemlich allgemeingültige Vorhersage, die in einem wundervollen XSD schon mal zusammengefasst wurde, der nämlich auch dann mit diesen Wahrscheinlichkeitsmaps funktioniert und anzeigt, wo zum Beispiel Martha Stewart Review, Martha Stewart Living-Leser-Innen, genauso wie Webseitenbewohner und wie nennt man das, Consumers of Ferry Pornography auf Deutsch, überlegt ihr euch, die treffen da alle zusammen und das ist genauso wie auf dieser Karte, nämlich wo ist das, da, wo die Menschen überhaupt wohnen. Das ist das Problem mit diesen Heatmaps, die zeigen halt vor allen Dingen mal Konzentration von vielen Menschen an. Immerhin ist Handschlepp, die Firma, die dahinter steckt, relativ offen und sagt, die Software verhindert natürlich keine Kriminalität und deswegen haben sie auch diese unterschiedlichen anderen Aspekte noch viel stärker berücksichtigt, wie das es diese Management-View gibt und dass man Patrouillen und Streifenwagen damit koordinieren kann und dass die Streifenpolizistinnen ein paar coole Übersicht darüber haben, wo sie jetzt nächstes hinfahren soll. Das wird in Deutschland wahrscheinlich nicht eingesetzt werden, weil nach dem olgh-Urteil mit dem Safe Harbor wir wohl keine Software benutzen dürfen, die in der Amazon Cloud betrieben wird und die Software gibt es nur da. Viertes System, PreCops, das habt ihr wahrscheinlich schon mal öfter gehört, das ist das, was auch in Deutschland viel die Runde macht, weil es tatsächlich jetzt auch getestet und eingesetzt wird und wo auch dieser screenshot herstammt. Da geht es um Einbrüche, weil das irgendwie in den letzten Jahren ein riesen Thema geworden ist bei den Innenministern neben Terrorismus und irgendwie ist das die Zahl der Einbrüche, die absoluten Zahlen steigen, fallen mal, aber in jedem Fall ist die wahrgenommene Qualität da ziemlich hoch geworden und auch in Dresden, falls ihr es noch nicht wusstet, wenn ihr ein bisschen Angst schüren, schließt eure Türen ab. PreCops, die Software, die dafür benutzt wird und die ausschließlich sich auf Einbrüche konzentriert, also die Vorhersage von Einbrüchen, die wird in Oberhausen entwickelt und da sieht man auch so ein Screenshots, die hier unten sind, also das basiert darauf, dass die quasi gemeldete Einbrüche verarbeiten und dann bei bestimmten Kategorien berechnen wurde, diese Einbruch stattgefunden für einen Radius, den man angeben kann, wird dann berechnet, wie hoch die Wahrscheinlichkeit ist, dass da dann auch ein Einbruch stattfindet in der nächsten Nacht, bestenfalls oder am nächsten Tag. Da eine Rolle spielen, worauf das basiert, ist die Near-Repeats-Theorie, die davon ausgeht, dass gerade so ein Verbrechen wie Einbrüche sehr strukturiert passiert, also dass man davon ausgehen kann, dass die Leute, die Einbrüche begehen, organisiert sind und deswegen rational vorgehen und sagen, okay, ich habe jetzt hier unten, die Häuser sehen dann teuer aus, da lohnt sich das natürlich einzubrechen, mache ich das eine Nachtstelle fest, die Fenster sind aber auch, wenn die Häuser teuer aussehen, die Fenster noch vor 30 Jahren lassen sich leicht aufhebeln. Wenn ich heute Nacht Erfolg habe, gehe ich morgen einfach nur ein Haus weiter oder eine Straße und versuche es nochmal. So ist die Idee von der Near-Repeats-Theorie, dementsprechend werden, wenn das Verbrechen auch passiert, wie geguckt, war das ein strukturiertes Vorgehen, also war das nicht irgendwie, irgendwie kann man anhand dieser Kriterien, wie auf welcher Art wurde eingebrochen und was wurde geklaut, also geht es nur, die organisierten Einbrecher klauen natürlich nur die kleinen Wertgegenstände und nicht die 300 Zoll-Fernseher, weil damit wird man auf der Straße, auf der Angehalten und so weiter, anhand solcher Kriterien, wie der hat geguckt, war das ein organisiertekraminentät, was dann passiert. Die auch darstellt es sich natürlich, weil es Deutschland ist, die Datenschutzfrage relativ früh und da sie zuerst in München eingesetzt wurde oder dann auch der Datenschutzbeauftragte, der Landesdatenschutzbeauftragte von München dazu befragt und der hat dazu gesagt, naja, die verarbeiten halt nur diese Falldaten, also die einzigen personenbezogene Daten, die da drin stehen, sind die Namen von den Personen, bei denen eingebrochen wurde, aber die sind dafür nicht relevant, die werden also nicht benutzt. Die konkreten Sachdaten eines Falls und deswegen ist das datenschutzrechtlich nicht zu beanstanden. Gut, jetzt gibt es dieses Software schon ein bisschen länger und auch da stellt sich dann die Frage natürlich, wenn es einige Zeit läuft, auch wenn Tom Cruise damit in meine Verbindung gebracht wird, funktioniert es denn wirklich. Und in Zürich, wo das jetzt seit 2 Jahren glaube ich im Einsatz ist, sah es eigentlich erst ganz gut aus, also alle waren total begeistert, die Einbruchsraten gingen um 30% zurück, in den ersten 3 Monaten, in denen die Software eingesetzt wurde. Es hat sich dann ein bisschen relativiert, darüber haben wir nicht mehr so viel berichtet. Am Ende waren es in den Gebieten, in denen das eingesetzt wurde, ein Rückgang von 15%. Und da das offensichtlich, kann man aber relativiert sich die Zahlen nochmal dadurch, dass insgesamt in Zürich und in umgebenden Städten die Zahl der Einbrüche stark zurückgegangen ist, das heißt aus irgendeinem Grund wird halt in Zürich gerade weniger eingebrochen, auch Verbrechen haben Trends. Ich frage, ob dieser Rückgang dann von 7%, ob man den jetzt konkret auf PreCops zurückführen kann oder nicht. In Nürnberg haben sie es auch getestet in der Testphase. Und da haben sie es nach den ersten Tests nicht weiter benutzt. In München sind sie in Regelbetrieb übergegangen. Aber da wird sich dann in nächster Zeit zeigen, ob es denn wirklich funktioniert. Natürlich, man muss sich dabei immer vor Augen führen, dass wenn diese Software in so Städten eingesetzt wird, in einem Jahr in einem Testbereich 300 Einbrüche passieren, davon sind natürlich auch nicht alle, die von dem man ausgeht, dass sie quasi nie repeatfähig sind, weil sie strukturiert und rational durchgeführt werden. Wenn dann halt 15% Rückgang sind, dann geht es am Ende um 20 Fälle. Deswegen ist es auch relativ schwierig, das statistisch Valide zu sagen, ob die Software da ein Erfolg hatte oder nicht. In Nürnberg gab es halt so eine Aussage von einer Person, die daran beteiligt war. Die haben relativ schnell beobachtet, dass PreCops auch Einbrüche nicht vorhergesagt hat. Und das ist der eigentlich interessante Teil. Die Einbrecher suchten sich einfach neue Gegenden und verhielten sich auch sonst nicht so wie gedacht, obwohl es offensichtlich Serientäter waren. Das ist natürlich das Problem, wenn man davon ausgeht, dass sich alle rational in manchen selben Muster verhalten. Wenn sie wissen, dass dieses Muster beobachtet wird, haben sie es relativ leicht, den Muster einfach zu ändern. Doof, dass die lernfähig sind. Die sicherste Methode und das sage ich jetzt, weil heute der Deutsche Tag für Einbruchsschutz ist oder sowas tatsächlich, ist wirklich eine Stunde mehr für Sicherheit, die wir heute haben, ist der Werbespruch. Die sicherste Möglichkeit, sich vor Einbrüchen zu schützen, ist übrigens einfach abzuschließen und sichere Türen und Fenster zu haben, weil 70% der Einbrüche werden nicht durchgeführt, wenn sie schon am Fenster scheitern. So viel dazu. Aber bestimmt können wir es mit Software noch besser machen. Genau. Dann will ich zuletzt, also dass man die vier Software-Lösungen dazu gibt um zu deren Effektivität. Das ist alles nicht so überragend, wenn ihr mir da folgt. Die Frage ist natürlich, wie funktioniert das insgesamt? Dann sagen die Softwarehersteller wie Predpool und Handschlepp, naja, wir wollen ja auch nicht, wir können ja eh die Verbrechen nicht verhindern, aber wir können das Data Driven Policing, das führt auf jeden Fall dazu, dass insgesamt die Zahlen zurückgehen und alles besser wird. Und die Zahlen, die immer fallen, ist natürlich das wesentlich billiger, wenn man die Software benutzt, dass Menschen das alles aufnehmen müssen und dann müssen die Kärtchen mit Pin-Nadeln bedienen und so weiter. Es geht natürlich mit Software viel effizienter. Und das war unter anderem auch in Santa Cruz, wo sie es eingeführt haben gegen die Einführung der Software, gleichzeitig mit einer 10% Reduktion der Ausgaben für die Streifenwagen einher. Also das Geld muss ja auch irgendwo herkommen. Jetzt gibt es, eben diesen Gesamtkomplex sich zu betrachten, vor allem gibt es eigentlich nur eine Studie, die das mal betrachtet hat, von dem Rand Institute, das ist so ein Profiting Tank, wie auch immer. Die haben so ein Test in Louisiana gemacht, in so einer 200.000 Einwohner Stadt, in der sie halt in drei Bezirken, eine Software, die so ähnlich funktioniert, also auch so mit kleinen Flecken auf der Karte, auf denen für die dann berechnet wird, wie wahrscheinlich ein Delict ist oder nicht. Genau. Und die haben das an drei eingesetzt, ein Kontrolltest, und in den Zahlen auch da kein besonderer Effekt, also hier das Dunkle ist, in den das nicht eingesetzt wurde, das Helle sind die, in denen das eingesetzt wurde, auch da sieht man relativ schnell, okay, scheinbar haben die Einbrecher da gelernt, denn am Anfang gegen die Zahlen es war deutlich zurück, aber am Ende gingen sie wieder hoch, lustigerweise gingen sie dafür im Kontrollbereich, also da, wo nichts gemacht wurde, ging sie am Ende zurück. Ist relativ schwierig, geht auch nicht um unglaublich viele Fälle, aber man sieht, es wiegt sich so ein bisschen auf. Was die rausgefunden haben in dieser Studie, was der tatsächliche Unterschied, was tatsächlich den Unterschied dieser Software ausmacht, ist nicht eigentlich die Tatsache, dass sie vorher sagen, sondern, dass die Polizisten Karten haben, auf denen steht, wo sie hinfahren sollen. Das wirkt sich positiv auf die Einsatzplanung aus. Außerdem, eben wie in Santa Cruz, wenn die Polizisten nicht den ganzen Tag immer rumfahren, sondern sich einfach nur auf die Straße stellen, dann verbrauchen sie natürlich auch weniger Sprit. Kosten gespart. Die Empfehlung aus der Studie ist ein bisschen predictive Policing. Na ja, also es ist ganz nett diese Karten zu haben, auf dem Stand, wo mal ein Verbrechen war, um dann da nachzugucken und vielleicht ist das generell eine schlechte Gegend, dann könnte man da ja auch auf der Patrouille fahren. Das ist der eigentliche Effekt und als besonders positiv haben auch die Interviewen, Polizistinnen und Polizisten da zu Protokoll gegeben, dadurch, dass sie halt da herum standen und mit den Leuten gesprochen haben, wesentlich mehr darüber erfahren haben, wie denn der Stadtteil so funktioniert und wie man vielleicht durch Prävention, nicht durch Vorhersage, sondern indem man mit den Jugendlichen arbeitet oder was auch immer, dass das eigentlich auch einen ziemlich guten Effekt hat. Genau. Ziemlich so macht es jetzt auch Bochum in NRW, was glaube ich auch eher darauf zurückzuführen ist, dass die Stadt vollkommen pleite ist und sehe ich eh dieses Software nicht leisten könnte. Wir haben jetzt wöchentlich eine Cartensnetz, wo einfach nur markiert ist auf einer Streetmap, wo denn die Einbrüche stattgefunden haben. Ich weiß nicht, ob das eine Bürgerwerbe fördern soll oder generell nur Transparenz, aber das ist quasi die Low-Cost-Variante von predictive policing. Ein bisschen auf die Meta-Ebene jetzt. Was ist denn überhaupt das Problem, wenn man jetzt sagt, okay, datenschutzmäßig ist das alles in Ordnung, aber was kann man denn noch bei datadream-policing sagen? Das ist viel Text. Also im Prinzip kann keine der Software das versprechen, weder das was pre-cops, also mein das ist das Problem, weil ich da im Urlaub, letzte Woche wurde mal mehr eingebrochen und ich habe es nicht gemerkt, eine Woche lang, wenn dann in den drei Tagen danach mehr Einbrüche passieren, dann kann das das Software natürlich nicht berechnen. Das heißt, man hat ein sehr großes Datenproblem eigentlich und noch mehr Typos. Gerade bei dem Risk-Terrain-Modelling, also wo es so viele Ebenen geht, wo alles gesammelt wird, wo sich die Bushaltestellen befinden, okay, die verschieben sich nicht so oft, wie die Beleuchtungssituation im Park ist oder so, das könnte man ja auch alles mit einbeziehen. Da wächst natürlich der Aufwand, diese Daten überhaupt zu pflegen und daraus erstmal Big Data zu machen, weil die konkreten Fälle, wenn jetzt diese Neorepeats-Sachen auf einen Einbruch dann den nächsten berechnen, okay, aber wenn man halt versucht, die komplette Gegend immer ständig zu wissen, wie sie strukturiert ist und welche Eigenschaften die Umgebung hat, dann hat man ein ziemliches Problem, diese Daten auch von der Qualitätssicherung dazu betreiben. Und das auch abzudehren, regelmäßig. Außerdem zeigt sich in der öffentlichen Diskussion über die Einführung von predictive policing auch immer, dass es einen Haufen Hinten der Genders gibt, also die eine ist halt, dass es eigentlich um Kostensparungen geht, weil man denkt, auch die Polizei muss sich digitalisieren, das ist der Trend der Zeit, und man kann damit Geld sparen. Und das Zweite ist, dass gerade in dieser Diskussion in Bayern auch sehr viele Vorurteile einfach damit spielen, weil wenn man von Serien einbrüchen die Innenpolitiker eigentlich immer auf ausländische Banden verweisen und das, obwohl es dafür eigentlich keine richtigen Belege gibt, weil die Aufklärungsquote bei einbrüchen ist ziemlich gering und eigentlich weiß man nichts über die Person. Also es kann auch, keine Ahnung, wenn ihr Bock habt und gute Lockpicker seid, könnt ihr auch Serien-Täter werden. Deswegen ist es, die Interpretation, die da gemacht wird, eigentlich lässt sich aus den Daten nicht so richtig belegen. Aber es dient trotzdem halt, um die Angst zu erzeugen, dass ja hier sich ausländische wahrscheinlich auch noch Flüchtlinge oder so ihre Einbrüche begehen. Das ist ziemlich durchsichtig, dass die Politik das so macht, aber es passiert. Und da sollte man auf jeden Fall darauf hinweisen. Wozu das führt auch ist, dadurch, dass jetzt eben nicht mehr die personenbezogenen, diese Hidlis, das wird relativ selten benutzt, sondern das eben für Regionen, das berechnet wird, dass eben die Leute nicht konkret angesprochen werden, sondern dass, wenn man sich in einem Ort aufhält, für den eben, der als Kriminogen gilt, wie es heißt, dass da halt die Kontrollen verstärkt werden und auch da sind halt am Ende nicht die Daten, die sagen, wer kontrolliert wird, sondern es sind die konkreten Polizisten, die natürlich auch immer eine Agenda haben. Also das Beispiel, das Bild im Hintergrund, ich weiß nicht, ihr könnt es hier sehen, das Bild aus Hamburg, wo sie diese Gefahrengebiete aufgemacht haben und dann halt alle Leute kontrolliert hatten, die haben für ein paar Wochen, die ihnen verdächtig vorkamen, weil es halt Hamburg war und vorher gab es diese Angriffe auf die Polizeistation, vor allen Dingen Menschen mit Klobisten waren, ich weiß nicht warum. Und dann gibt es auch aus der Soziologie eine Kritik an überhaupt dieser Definition von gefährlichen Orten. Das heißt, man sagt eben für ein Gebiet, da ist jetzt die Gefahr besonders groß. Das ist tatsächlich ein juristischer Begriff, also nicht nur in Hamburg, sondern auch in vielen anderen Bundesländern und dabei geht es in der Regel nicht ausschließlich um Kriminalitätsbekämpfung, sondern eben auch um stattplanerische und ordnungspolitische Ziele. Im Hintergrund kann man auch nicht so gut erkennen. Es ist halt der Girlie in Berlin, ich weiß nicht, ob ihr die Diskussion darum so grob verfolgt, da gibt es halt viel Drogenverkauf, auch viel Kriminalität, aber ich glaube im Vergleich zu der Menge der Drogen, da gibt es relativ wenig andere Kriminalität und trotzdem wird das benutzt, um natürlich das konkret auch rassistisch motiviert Leute dazu vertreiben, stärker zu kontrollieren, Überwachungsmaßnahmen durchzusetzen, Kameras aufzuhängen, Ordnungsdienste einzustellen oder Securitydienste oder auch einfach nur um zu demonstrieren, das war der Fall in Hamburg, wer eigentlich das Gewaltmonopol in hat. Außerdem, was halt immer damit einhergeht, ist die Verwechslung von Korrelation und Kausalität. Also eigentlich, wenn in allen Statistiken immer wieder die Nähe zu ÖPNV Stationen auftaucht als Risikofaktor, müsste man da nicht alle U-Bahn-Stationen schließen und Busse abschaffen oder Pfandhäuser verbieten. Ihr kennt vielleicht diese Seite mit den immer merkwürdig Korrelationen berechnet, die unter anderem hier auch nachgewiesen hat, dass die Ausgaben für Space und Science Technology stark korreliert mit der Anzahl der Strangulationen und Personen, die sich erhängen in den USA. Also das macht keinen Sinn. Wie schon gesagt, Datenschutz ist da eigentlich nicht betroffen, weil keine personenbezogene Daten verarbeitet werden. Aber im Prinzip, wenn man sich auf die Idee von Datenschutz zurückbesinnt, nämlich dass man quasi irgendwie Selbstbestimmung informationell darüber hatte, wie man dann gesehen wird und was dann einem gegenüber für Informationen vorherrschen, das ist schon ein Datenschutzproblem, wenn ich irgendwo langlaufe und nicht weiß, dass für den gesamten Ort die Polizei jetzt hier festgestellt hat, Achtung, hier sind heute ein Haufen, weiß ich nicht, Aktivismus, ob das nicht auch schon vom Verfassungsschutz beobachtet wird, dann treten natürlich die Personen, mit denen ich interagiere, die Polizisten, haben mehr Wissen über mich, nicht über mich, sondern über den Ort, aber da ich mich an diesem Ort befinde, auch über mich, deswegen betrifft es mich schon. Das ist definitiv kein juristisches Datenschutzproblem. Die Zusammenfassung don't believe the hype, erst recht nicht, wenn du aus Hollywood kommst, das funktioniert nie und bei Minority Report ist es wäre sogar, na ja, man müsste halt in Biotechnologie investieren, um diese komischen Klonz zu erzeugen. Außerdem funktioniert die Software rein technisch nicht so gut, man kann sie relativ leicht aus, also es gibt so ein Feedbackproblem, man müsste eigentlich die Modelle ständig weiterentwickeln, aber die Menschen entwickeln sie auch weiter, weil es wichtig in diesem Productive Policing Bereich ist, dass sie technisch nicht alleine existiert, dass es einen Haufen Agendas gibt, die da drum herum sind und vor allen Dingen, wenn man es tatsächlich auf die Zahlen zurückfühlt, die Tatsache, wie viel Verbrechen passieren, dass es auch sehr viele andere Möglichkeiten gibt, die positiv zu beeinflussen, die nicht technisch geschrieben sind, die aber vielleicht dafür, weil es Präventivmaßnahmen sind, ein bisschen teurer sind. Außerdem ein Best-of bei der Recherche und der Präventivmaßnahmen, das sieht in der Praxis so aus. Erleder die Man-Pointing at Screens und meine abschließende Vorhersage von Cruz, wenn niemals auf der Bord fahren. Und wir haben noch 35 Jahre, um diese Theorie der Precox aus dem Menonshow Report zu erreichen, um diese Klonen mit Drogen zu züchten. Aber ich weiß nicht, ob das eine Forschungsauftrag ist. Das war es. Es gibt ein Mikrofon für Fragen oder Anmerkungen. Zwei Fragen. Die erste Frage ist, wie in welchen Kostenfaktoren spielen in diese Lizenzen, die solche Software kostet? Das kann ich dir natürlich nicht für alles beantworten. Also wir haben diesen Preis von der von dem Test, den Sie in London gemacht haben. Da hat Accenture 600.000 Euro für veranschlagt. Ich weiß, dass dieser Einsatz von PreCops, also diese in Deutschland Software in so einem Test, glaube ich, 100.000 Euro gekostet hat. Ich glaube in so einem Sekt für so eine sechs Monate Testlizenz. Zwei Frage. Weißt du, ob solche Systeme geplant sind mit autonomen Fahrzeugen oder irgendwelchen anderen Hardware zu kombinieren? Noch mal, bitte. Es gab ja mal diese Initiative, glaube ich, auch in den USA, diese Drohnen, die über das Stadtgebiet fahren und sehr hohe auflösende Fotos machen. Weißt du, ob es vielleicht Bestrebungen gibt, diese Software mit solchen Drohnen zu kombinieren? Das konkret nicht. Es gab letztens so ein Bericht, dass die in der Egen einer Stadt an der Westküste jetzt die Müllwagen alle mit Kameras ausstatten, damit die kontinuierlich die Gehwege fotografieren, die Häusereingänge und die davor partenden Autos. Aber ob das direkt jetzt in diese Software einfließt, weiß ich nicht. Aber wie wir auch gesehen haben, sind diese alle relativ speziell. Also es gibt gestern in dem letzten Vortrag zum autonomen Lernen, haben wir irgendwie von diesem Algorithmus gehört, der einfach YouTube anguckt und am Ende Katzen erkennen kann, die uns zwar so selbst lernt. Ich bin da skeptisch und die Software, die da jetzt konkret beim Prolektiv Policing eingesetzt wird, die ist auch in der Regel nicht, also dies ist viel konkreter. Die sagen nicht, wir nehmen alle Software, alle Daten der Welt und berechnen daraus Kriminalitätsvoraussagen, sondern das ist immer, also Precops kann nur Einbrüche vorhersagen und das nicht mal besonders gut und auch die anderen haben immer einen begrenzten Bereich, also keine von denen sagt, wir berechnen jegliche Straftaten vorher. Deswegen glaube ich auch nicht, dass die mit jeglichen Daten arbeiten. He, weißt du wie das bei Versicherungen ist? Also gerade so Hausratsversicherungen, die haben ja auch alle möglichen Features und Knöpfe, an denen die Tränung irgendwie Polissen meistens nach oben, manchmal nach unten zu korrigieren und gerade Versicherungen werden ja auch ein bisschen dickere Brieftasche haben, um da jetzt Analyse vorzustrecken. Weißt du wie die das machen? Ob die endlich Software benutzen? Ja, die machen natürlich auch so einen Scoring. Es hat weniger ein vorherragenden Charakter als ein Rückschauender. Ich meine wie bei Autoverseicherung kennt man das ja, dass man einen Unfall gebaut hat, er wird es halt teurer. So und auch bei Hausratsversicherungen, wenn man sich vor Einbrüchen schutzt, geht es eher darum, die zu wissen, wie ist ungefähr in dem Stadtteil und das kann man also im Rückblick schauen, kann man sich halt angucken, wie wahrscheinlich da jetzt oder dass da mehr Einbrüche passieren als im anderen. Es kann sein, dass dann da die Preise ein bisschen steigt, aber ob die auch so eine Vorhersage machen, weiß ich nicht. Ja, ich wollte Agenzen dazu nur noch sagen. Versicherungen gehen ja mit einem ganz anderen Anspruch ran. Die sagen jetzt nicht, wir wollen verhindern, dass dort eingebrochen wird, sondern die versuchen ja einfach nur, die Wahrscheinlichkeit für einen Einbruch zu berechnen, ohne dass sie sich jetzt so irgendwie damit rumschlagen müssten, dass ja die Berechnung selber dann wiederum eine Auswirkung auf den Einbruch hat. Also die haben einfach das Rückkopplungsproblem nicht. Und natürlich haben die keine nicht die Verpflichtung damit zu handeln. Also ich meine, was es halt so schwierig macht, ist, wenn du halt so ein Risiko wert hat, der maximal 24 Prozent ist oder sowas. Ab wann fährst du da hin? Ab wann schickst du eine Streife da hin? Ab wann lässt es und so? Das ist halt auch eine Entscheidung, die am Ende da nicht von dem System getroffen werden kann, sondern das sagt dir für jeden Ort, für jede Straße, wie wahrscheinlich da ist, dass da ein Verbrechen passieren wird, aber in welcher du dann am Ende fährst oder die die Polizeistreife fahren musst, ab wann wertrelevant ist und ab wann nicht, das ist das eigentliche Problem dahinter. Das muss die Versicherung halt nicht machen. Gibt es sonst auch Anmerkungen? Ja, da gibt es eine Meldung hinter dem Pfeiler. Ja, ich hätte noch eine Frage und zwar gab es dann irgendwelche Beweise und so diese Vermutung stützen, dass die Kriminalitätsrat dann wieder zugenommen hat, weil die Täter sich angepasst haben. Also es klang bisher so, als ob man quasi dieses Thema eigentlich nur helfen, den Überblick zu bewahren und man ansonsten vielleicht mit Toten benutzt, die ohnehin vielleicht schon etabliert sind. Ich hätte gedacht, das ist nichts Neues, ist das Täter zu diesem in der Nähe vielleicht noch mal einbrechen, wo es war. Das hat die Polizei vielleicht schon vorher so arbeitet. Daher weiß ich nicht, ist das wirklich so, dass die Täter sich angepasst haben oder es ist jetzt ein Argument dagegen, dass man sagt, wir haben jetzt in der Presse jetzt um das Predictive Policy genutzt wird. Jetzt hab ich es im Fernsehen gesehen, deswegen darf ich das nicht mehr machen, aber kann ich mir nicht vorstellen. Also es gibt nur diesen Kommentar aus Mürnberg, dass sie gesehen haben, dass das Verhalten wesentlich der Person, die da einbrechen, wesentlich komplizierter ist als das, was diese Neorepeech-Theorie abbilden kann. Also mittelfristig wird das auf jeden Fall. Also ich meine, die Einbrecher, wenn Sie feststellen, dass die Türschlösser komplizierter werden, dann sind Sie halt irgendwann angefangen durchs Fenster zu gehen. Also natürlich lernen die und ob die jetzt die Nachrichten verfolgen und dann in Städten, in denen bekannt ist, dass die Software eingebrochen, dass sie dieses Software benutzen. Ich meine, wenn sie eh reisende Banden sind, dann fahren sie halt einfach in die Stadt, in der das nicht genutzt wird oder ich weiß es nicht, aber man muss halt, das berügt sich die Software einfach nicht, das ist das Problem. Also die, die kann, die sind nicht so lernen, dass sie lernen, das andere, dass ihre Gegner quasi lernen. Ja, auch sein ist man dadurch vielleicht die Patrouillen falsch eingeteilt hätten, dadurch vielleicht in anderen Orten wieder die Kriminalität dann quasi auch. Das ist ja eh ein Problem von dieser, auch von diesen gefährlichen Orten. Also wenn man halt sagt, da in Leipzig gibt es das, wurde das auch dokumentiert, da haben Sie halt dann irgendwann einen Platz, der so zentral war, am Bahnhof ja Kameras aufgehängt und dann verziehen sich natürlich alle, die da Kleinkriminalität begehen, verziehen sich aus den Kamerasichten, aber dann sind sie halt fünf Straßen weiter. Am Ende ändert das an der, an der konkreten, an den Zahlen nichts, an den Absoluten. Das ist ja eh das Problem mit so Überwachung. Noch was? Okay, dann, danke schön.