 Wir haben ein ganz, ganz spannendes Thema und zwar Kartierung von Überwachungskameras als Gegenwehr von Martin, der das Projekt OnServe ins Leben gerufen hat. Grund dafür war der Test der Gesichtserkennung am Berliner Südkreuz, welches vor mittlerweile fast drei Jahren große Wellen in den Medien auch geschlagen hat. Und dieses Projekt dienst automatischen Kartografierungen von Überwachungskameras und wir werden letztendlich verfolgt und anscheinend auch im echten Leben. Damit bühne frei für Martin. Viel Spaß! Vielen Dank, Esma. Ich möchte euch direkt zum Anfang einladen, kurz das Plakat hier anzuschauen. Das ist von den Londoner Verkehrsbetrieben entwickelt worden und es ist leider keine Satire und spielt ja ganz eindeutig mit den 1984 Look und viel. Aber leider ist es keine Satire oder politische Werbung und die Briten machen einem manchmal zumindest was das Überwachungsthema angeht, den Einstieg in so einen Talk recht leicht, weil jemand hat dann mal nachgefragt, ein Freedom of Information Request gemacht und das Poster wurde von der Central Illustration Agency erstellt, was natürlich irgendwie in Unterabteilung der Ministry of Truth sich anhört und wenn ihr mal also ein Cover für ein dystopisches Buch oder so braucht, kostet 2000 Dollar bei der Central Illustration Agency und die Briten sind, was Überwachung angeht, den meisten anderen Ländern ja ein bisschen voraus, aber so langsam schwappte das damals, das Poster ist schon fast 15 Jahre alt, glaube ich, und so langsam schwappte diese ganze Videoüberwachungssache auch dann nach Deutschland und unsere damaligen Innenminister Demersier und Seehofer haben praktisch dieses Projekt wie eben erwähnt schon ins Leben gerufen und zwar in Berliner Südkreuz ist das alles entstanden. Das war ein Test von August 2017 bis Januar 2018, drei Firmen waren beteiligt und die haben jeweils eine Rolltreppe und den Eingangsbereich überwacht. Es gab freiwillige Probanden, die wurden mit Amazon-Gutscheinen geködert, d.h. unter allen Teilnehmern wurden irgendwie 25 Euro Amazon-Gutscheine verlost. Wenn man Teilnehmer war, musste man so einen kleinen Bluetooth Beacon mit sich nehmen, damit sie kontrollieren konnten. Derjenige war im Berliner Südkreuz, also ein S-Bahn und Fernbahnhof in Berlin und über den Bluetooth Beacon haben sie eben getrackt, wer in der Station ist und dann haben sie diese Probanden, die vorher Fotos abgegeben haben, in hoher Qualität haben sie dann versucht, die über die Kameras wiederzufinden. Und dann hat mal jemand nachgefragt, wie denn das ganze Projekt designt ist und jetzt möchte ich alle einladen, das Zitat aus der kleinen Anfrage von Konstantin von Notz zu lesen. Und zwar steht mehr oder weniger drin, dass das Projekt erfolgreich abgeschlossen wird, unabhängig von irgendwelchen Erkenntnisraten, was natürlich, ich weiß nicht, wenn man Grundrechtsintensive Eingriffe wie eine Polizeikontrolle am Bahnhof damit verbindet, Leute über eine Kamera zu entdecken und dann nicht irgendwie ergebnisorientiert arbeitet, sondern, ob es einfach nur einen signifikanten Mehrwert für die polizeilichen Aufgaben hat, ändert dann halt darin, dass, wie Erdgeist im CCC-Blogpost erwähnt hat, dass, wenn man von 90.000 Personen täglich am Berliner Südkreuz ausgeht, mit der damaligen Leistung, die heute sicherlich besser wäre, hätte man 600 Fehlalame pro Tag. Und dann muss man die wieder aussortieren. Also, da war ich ein bisschen sauer und hab mir gedacht, ich versuch was dagegen zu unternehmen. So sah das damals aus. Man konnte halt links wählen, wenn man nicht erkennt, nicht gescannt werden wollte und man konnte rechts gehen, wenn man eben Teil des Projekts war oder es einem egal war. Das heißt, in diesem Testpoint gab es noch die Möglichkeit, den ganzen auszuweichen. In die Briten sind uns wieder ein bisschen voraus. Wenn man dort, so wie ich das vielfach gemacht habe in den Städten, das werdet ihr gleich sehen, wenn man dort die Überwachungskameras sich anguckt, wo die sind und die versucht zu kartieren, dann heißt das CCC Sorted. Also, in Deutschland gibt es wohl noch eine Alternative. In England fällt man da schon ein bisschen auf. Und jetzt, wenn ihr das nicht wollt, könnt ihr hier einfach den Eingang nehmen, ohne Gesichtserkennung in England vielleicht nicht. Und wenn ihr nicht wollt, in England, dass euch ins Gesicht gefilmt wird, dann ist das so. Und wenn ihr nicht wollt, in England, dass euch ins Gesicht gefilmt wird, dann seid ihr nicht pöbeln, weil die Bahn anpöbeln oder die Bundespolizei anpöbeln ist, glaube ich, keine so gute Idee. Es gibt auch noch andere Möglichkeiten. Wenn ihr wisst, wo die Kameras stehen, das steht jeweils in den Berichten, könnt ihr euch einfach ein bisschen wegdrehen, mehr als 15 Grad nach oben oder unten. Und dann geht die Kameraerkennungsrate schon eindeutig runter. Daraufhin, in einem älteren Test in Mainz vom BKA, der Deutschen Bahn und ich meine dann auch der Bundespolizei, haben sie dann ein Lösungsansatz aus ihrer Sicht vorgestellt. Man sollte doch eine Laufschrift oder irgendwelche Werbeplakate irgendwo in die Nähe der Kameras hängen, damit man schön in die Richtung guckt und sie ein besser erkennen können. Also, man kann sich wegdrehen. In Mainz haben sie sich noch beschwert, dass die Leute die Treppe runtergehen und dadurch sich kurz und druckartig schnell bewegen. Das ist auch nicht gut für die, die ich im Gesicht zerkenne. Aber wenn wir uns jetzt wegdrehen wollen oder verhindern wollen, dass wir gefilmt werden, müssen wir wissen, wo die Kameras sind und das ist der ganze Sinn des Projekts. Hier noch mal zusammengefasst von Otto Schiele, der uns damals die biometrischen Daten in den Personalausweis reingedrückt hat. Wir haben uns heute, sagen wir mal, fälschlicherweise benutzt würden, damals noch versprochen. Nein, dann wird niemals bleibt auf dem Personalausweis. Heute dürfen alle möglichen Polizeiarten die Daten einsehen. Und seine Probleme waren halt, wir drehen uns weg. Wir laufen die Treppe runter. Heutzutage haben wir oftmals eine Maske auf, ein Bahnhof hoffentlich. Und das ganz unten rechts ist noch interessant, dass es so ein Art Schal oder Tuch mit einem bestimmten Muster, das auf die Gesichtserkennung anspringt und somit ganz viele Treffer auf einem ganz kleinen Raum macht und somit das System versucht, so ein bisschen zu überladen. Im Hintergrund fällt man damit natürlich wieder auf. Man hat plötzlich 30 Gesichter an einer Person, aber es ist trotzdem so eine kleine Gegenmaßnahme. Gibt es einen interessanten Talk auf dem 33C3, so könnt ihr euch mal angucken. Also das waren so die Probleme der, sagen wir mal, Gegenseite. Unsere Probleme sind eher ein bisschen einfacher gestrickt. Wenn wir schauen wollen, wo die Kameras sind und die finden wollen, die sehen alle ungefähr gleich aus. Ein grauer Kasten mit einer Linse vorne dran oder eben so einen Art Tropfen, wo die Linse sich frei bewegen kann. Wenn wir das auf den Menschen übertragen, sind das, wir haben immer das Gleiche an. Wir gucken immer, oder wir sehen gleich aus und nur unser Hintergrund ist ein bisschen anders. Das heißt, wir sind mal da, mal da, mal hinter Bäumen, mal an der Stange, mal an der Wand, am Dach, an der Decke. Jetzt wissen wir, wonach wir suchen. Und jetzt brauchen wir noch irgendwie eine Datenbank und da bietet sich OpenStreetMap. OpenStreetMap besteht. Das gibt es genug Talks zu, da bin ich nicht der beste für es. Es gibt einzelne Notes, diese Notes kann man zusammenlegen, um damit zum Beispiel ein Gebäude oder ein Parkplatz zu beschreiben oder eine Straße. Links ist ein sehr bekannter OpenStreetMap Editor. Und diese einzelnen Notes geben eben in so einer gesamten Gebäude, können aber auch, wenn man sie einzeln benutzt, ein eigenes Objekt darstellen, zum Beispiel eine Überwachungskamera. Es gibt diesen Tag ManMade Surveillance und da sieht er rechts zum Beispiel welche Eigenschaften der hat. Und dann sieht er auch gleich ein interessantes Projekt Surveillance und Surveillance. Diese Daten von Überwachungskameras sind zwar ein OpenStreetMap in der großen Datenbank, aber von den meisten Kartendiensten nicht gerendert. Und Surveillance und Surveillance macht das für euch. Das ist zum Beispiel die Hamburger Innenstadt am Hauptbahnhof, wie das aussieht. Und diese Kreise sollen immer den Einflussbereich so ein bisschen simulieren. Dieser Kamera am Bahnhof ist natürlich schwierig, weil man X-Stockwerke hat. Und deswegen ist das überlappt das da so ein bisschen. Auf jeden Fall ist ein sehr interessantes Projekt, könnt ihr euch mal unter der URL angucken. Das ist die Überwachungskameras in den OpenStreetMap nach Ländern aufgelistet von der Website, die splitten das auf. Man sieht Deutschland, Frankreich, USA. USA hat 11.300 Kameras angeblich, sind sicherlich einige mehr, aber hat halt noch niemand in die Daten in die OpenStreetMap Datenbank eingetragen. Also gibt noch einiges zu tun. Und daran habe ich mich ja versucht, abzuarbeiten. Hier ist noch nach Zeit aufgesplittet, das ist jetzt beispielhaft Berlin. Ihr seht, 2012 gab es einen Spike, vielleicht Edward Snowden, weiß ich nicht, so nur geschätzt. Und man sieht eben, dass die Daten relativ veraltet sein können. Es gibt auch eine API dazu. Ihr könnt euch also die Daten ausgeben lassen, die nutze ich auch, wenn ich das brauche. Overpass API gibt es, Dokumentation auf den OpenStreetMap dazu. Es gibt auch Overpass Turbo, das visualisiert durch die Treffer so ein bisschen. Ihr könnt euch das als JSON ausgeben lassen, als XML, wie ihr das braucht. Für private Projekte ist die API öffentlich. Die kann einige Requestes am Tag verarbeiten. Jetzt haben wir irgendwie eine Idee, wo wir die Daten speichern wollen. Aber jetzt kommen wir zum Hauptteil des Projekts, die Daten eigentlich sammeln. Und da habt ihr irgendwie drei Wege für. Ihr könnt das manuell machen. Ganz links ist WestBucci, ein Android Editor für OpenStreetMap. Da seht ihr, wie ich das manuell mache. Man kann dort die Kameras einfacher stellen, den Tag beschreiben und die einzelnen Werte, die ihr vorgesehen habt, wie Angle, Direction, Height usw. eintragen. Die werden dann später, wenn ihr das richtig macht, werden die dann auch auf surveillance an der surveillance angezeigt. Das funktioniert. Jetzt kommen wir zum Teil des Projekts. Das in der Mitte ist die Android-App, die ich entwickelt habe. Dort beinhaltet eine selbst trainierte Objekterkennung von Google. Das ist eine TensorFlow-Objekterkennung. Das Ganze basiert auf der TensorFlow Beispiel-App von 2018 oder so. Damals war das noch ein bisschen neu. Es war alles ein bisschen komplexer. Die APIs sind heutzutage sehr viel einfacher. Der Hauptbestandteil dieser selbst trainierte Objekterkennung ist die Kameras erkennt mit eigenem Trainingsmaterial, das ich über die Zeit gesammelt habe. Ich war genau der, den die Briten verpiffen hätten am Bahnhof, der die Kameras ausgecheckt hat und Fotos gemacht hat. Ganz recht ist noch eine etwas neue Idee von dem Projekt, das Ganze mit einer 360-Grad-Kamera zu kombinieren und mit einem kleinen AI-Beschleuniger dazu gleich mehr. Jetzt möchte ich euch kurz eine Demo zeigen. Das ist die Android-App in Action. Man muss so ein bisschen die Kamera entlang gehen. Die App protokolliert immer die Handy-Position und mittelt daher so ein Art Wert, wo die Kamera sein könnte und trägt die dann auf der Karte ein. Ihr könnt wählen, welches Fotos ihr nehmt, welche Art der Kamera das ist. Es gibt auch die Möglichkeit, das manuell zu machen oder die Position zu verändern, wenn diese Mittelung nicht ganz geklappt hat. Ihr könnt praktisch Trainingsbilder für mich erstellen oder in der früheren Version der App, wo es noch ein eigenes Backend hatte, könnt ihr die dann auch hochladen. Ihr könnt praktisch helfen, den Algorithmus oder die Objekterkennung zu verbessern, indem ihr das selbst Trainingsbilder erstellt. Ihr könnt so ein bisschen filtern, noch Kameratyp, das Ganze positive eben auf dieser Objekterkennung. Das ist der neue Editor, den ich eingebaut habe. Ihr könnt da direkt die relevanten Eigenschaften dieser Notes einstellen, wie Direction, welcher Typ Kamera es ist, welche Zone es überwacht. Und später könnt ihr das Ganze in einer schönen CSV-Datei aus der App exportieren und dann in eurem großen OpenStreetMap Editor einfach importieren. Das Ganze, fast alle Teile dieses Projekts funktionieren eigentlich ohne irgendeine aktive Verbindung. Das heißt, ihr braucht kein Internet. Die Objekterkennung läuft auf dem Handy. Ihr könnt sogar die OpenStreetMap-Kartendaten runterladen und auf eurem Handy kurz speichern oder selbst renderen, das habe ich auch schon gemacht, sodass ihr praktisch das Ganze Mapping und Screening ohne Internetverbindung machen könnt. Wenn ihr keine funktuellen Daten hinterlassen wollt, könnt ihr das machen. Das ist vielleicht nicht für Deutschland aktuell, aber wenn ihr das mal in England machen, ist es vielleicht besser, keine digitalen Spuren zu hinterlassen, obwohl ja eigentlich nichts Böses tut. Dann habe ich noch so ein Art Support für Gruppenaktivitäten eingebaut. Das heißt, ihr könnt euch so ein Gitter über eine Karte zeichnen und dann sagen Person A macht die drei Quadrate, Person B die vier und so weiter, sodass man sich aufteilen kann und das in der Gruppe den Tag übermachen kann, sich abends wieder treffen kann, die Daten exportieren kann und hochladen kann. Das ist auch noch mal so eine Schutz, dass man gemeinsam am Abend hoch lädt und nicht jeder einzeln auf dem Weg, dann ist das halt von der IP vom Café nebenan hochgeladen und nicht irgendwie von eurer Heim IP. Und das habe ich schon erwähnt, ihr könnt die Daten, ihr könnt die Objektekennung auch verbessern, indem ihr einfach Kameras, die nicht erkannt wurden, nehmt ein Foto und labelt einfach die Kamera, welcher Typ es ist und könnt das dann auch exportieren. Okay, der andere Teil des Projekts ist die 360 Grad Kamera. Das ist alles so semi Profi Hardware. Das eine ist eine 360 Grad Kamera, die kostet ungefähr 300 Euro. Das Nächste ist, was interessant ist, das ist das Colorado Dev Board Mini. Das ist von Google so ein Maschinenlearning-Beschleuniger. Da ist ein TPU darauf. Das ist Google's Prozessor, um ihre ganzen Maschinenlearnings Sachen zu machen, Intencer Processing Unit. Die haben das verkleinert und auf so ein kleines Board gepackt. Man kann seine Objektekennung, seine TensorFlow-Objektekennung dafür kompilieren und dann macht er die ganze Erkennung auf dem kleinen Teil. Somit kann man das wiederum auch betreiben, ohne irgendwelche aktiven Verbindungen nach draußen, ohne Spuren zu hinterlassen. Man kann Bluetooth von der Kamera ausschalten. Man kann sich die Kamera auf den Helm schrauben und dann auf seinem E-Oler oder seinem gewünschten Gefährt durch die Stadt gehen, so der Plan. Auf dem Dev Board Mini läuft ein Linux von Google. Man kann über USB die 360-Kart-Kamera steuern und die zwei roten Teile darüber helfen, die Positionen währenddessen zu erfassen. Das macht die App auf Android natürlich mehr oder weniger automatisch. Ohne die Google Play-Services zu nutzen, um zu verhindern, dass irgendwer mitloggen kann, wo ihr wart. Aber hier brauchen wir extra Hardware dafür, um dieses Location-Logging zu machen. Deswegen ist dann noch so ein kleiner ASP32, der serial über die Pins mit dem Dev-Bord kommuniziert. Der ASP32 kommuniziert dann noch mit einem GPS-Bord und loggt jeweils, wenn ein Foto ausgelöst wird, die Position in eurem Rucksack. Nur das USB-Kabel guckt aus eurem Rucksack raus und geht dann in die Kamera. Die Idee dahinter ist, hier gibt es ein Beispielbild. Man kriegt diese 360-Kart-Aufnahme raus, die natürlich über diese zwei Fisch-Ei-Linsen kreiert wurden. Da sieht man hier schön im Dach, das Dach hat in Wirklichkeit nicht so eine krasse Rundung. Deswegen muss man noch ein bisschen Bildbearbeitung machen, bevor man die Objekterkennungen auf dem Dev-Bord rüberlaufen lassen kann. Man schneidet sich dann alle Paar, alle 45 Grad oder alle 60 Grad in verschiedenen Abständen, um wirklich viel das Bildes zu nutzen. Schneidet man sich dann so Bilder raus und worum die zurück in ihre ursprüngliche Form. Ich mache das mal ein bisschen schneller, dann könnt ihr euch vorstellen, ihr sitzt da und dreht euch auf der Stelle und dann seht ihr, dass das Dach wieder gerade wird. Da ist halt schön die Kamera drin und das Dach wird wieder gerade. Auf jeder dieser Bilder lässt man das Dev-Bord Mini seine Objekterkennung anwenden. Wer das Ding so einen schicken Co-Prozessor hat, von Google ist das auch relativ schnell. Das ist jetzt ein Mobile-Net V1 da oben und wenn das einmal das Modell in den Speicher geladen hat, dann braucht es eben für ein so ein Bild, sagen wir mal ungefähr 25, 26 Millisekunden. Das heißt, man kriegt ungefähr 40 Frames diese Kunde aus dieser 160 Grad Kamera hin, mit der Objekterkennung durchzuarbeiten. Was allerdings ein bisschen Zeit kostet, ist dieses Ganze auseinanderschneiden und zurückformen der Bilder. Das ist der Vorteil, glaube ich, zwei kleine CPU-Kurs mit nicht so viel Gigahertz. Das heißt, daran hat er ein bisschen zu arbeiten. Das müsste man noch ein bisschen verbessern. Das Projekt habe ich nur bis zu diesem Prototyp so ein bisschen dran gearbeitet und in letzter Zeit habe ich mich allerdings auf einen weiteren Teil des Projekts fokussiert. Wir haben jetzt die Möglichkeit, die Daten zu speichern in OpenStreetMap. Wir haben die Möglichkeit, die Daten zu erfassen mit entweder der Android App oder Manuell oder so sagen wir mal vollautomatisch. Und jetzt müssen wir noch was mit den Daten machen. Und da habe ich das entwickelt. Das ist ein kleiner PCB mit einem ESP32. Das ist diese und ein GPS-Gip, der die Position bestimmen kann. Der braucht ein paar Minuten, bis er diese Ataliten gefunden hat in eurer Hosentasche. Und dann macht er mit wenigen Metern Genauigkeit in der Stadt, gibt euch die Position heraus. Man kann Akku mit betreiben. Man hat einen Beschleunigungssensor, der das Gerät in Tiefschlaf versetzt. Wenn sich das nicht bewegt, wenn er den Rucksack irgendwo unter den Tisch stellt, dann kann er das Ding aus. Und der coolste Teil daran ist, meiner Meinung nach, der dynamische NFC-Tag. Da sind diese zwei goldenen Pins, die die Antenne verbinden, im Case dann. Das ist ein 3D-gedruckter Case. Alle Daten, auch der Case und der PCB-Design sind mit Kalkheit gemacht. Da könnt ihr euch alles angucken. Und wenn ihr wollt selbst nachlöten. Der NFC-Gip ist ziemlich interessant. Damit könnt ihr einfach dynamischen NFC-Tag erstellen. Ihr könnt einen String in die Funktion geben und sagen, bitte zeig mir den String auf dem NFC, dann könnt ihr mir eurem Handy dran. Und lest den NFC-Tag einfach aus. Die Kamerapositionen sind auf der SD-Karte gespeichert. Und er vergleicht einfach in periodischen Abständen eure Position mit der Position von Kameras in eurer Umgebung. Die müsst ihr vorher auf die SD-Karte laden, funktioniert das Gerät auch wieder ohne aktive Verbindung. Ihr müsst einfach nur diesen Nahpunkt, der nur ein paar Zentimeter geht, benutzen, um mit eurem Handy mit dem Gerät zu sprechen. Jetzt zeige ich euch nochmal ein Video. Das ist die Bewegungsaktivierung. Wenn das TPS-Modul schon mal Satelliten gefunden hat, braucht er nur 10 Sekunden, um die Satelliten wiederzufinden. Wenn nicht zu viel Zeit vergangen ist. Ihr seht ihr, wie der Tag aufgebaut ist. Da könnt ihr alles Mögliche drin. Kommunizieren, das war es, Jason. Und wenn ihr dann am Ende des Tages das Gerät mitgeführt habt, gibt ihr euch so ein Art Überwachungsreport aus. Das heißt, er zeigt eure Position an und er zeigt die Kameras in der Umgebung an. Ihr könnt schauen, welche Kameras euch da vielleicht gesehen haben. Ihr könnt wie in OpenStreet mit die Kameras anklicken. Das ist jetzt wieder auf Android, muss ich das zu sagen. Und ihr könnt euch anzeigen lassen, was wir einen ungefähren Blickwinkel die Kameras haben. Wenn die Daten richtig eingetragen sind in OpenStreetMap, ihr könnt euch alle Kameras in der Gegend unterladen, direkt von OpenStreetMap. Hier nochmal ein paar Screenshots. Da seht ihr, da habe ich auch ein Bus gewartet. Links am Hauptbahnhof in Mainz. Weiter rechts war ich im Bus sogar unterwegs. Das Signal hat sogar geklappt. Ist ja nicht so hilfreich fürs GPS in einem großen Metallcontainer zu sitzen. Okay, das war es schon fast. Das waren jetzt drei Teile des Projekts. Es gibt noch ein bisschen mehr. Ich habe noch eine InBrowser-Validierungssoftware geschrieben, womit ihr die Exporte, die ihr, wenn ihr kartieren wart, mit der Android App, exportiert ihr ein CSV. Man könnte das in dem Browser validieren, sozusagen, der schaut, was für Daten schon gegeben sind, wie praktisch eine Kamera kartiert, wie es schon gibt. Wenn nicht, könnt ihr das dann da bestätigen und dann wird das noch mal exportiert. Ihr könnt es in euren OpenStreetMap-Editor eintragen. Backend hatte ich mal, wo ihr auch die, wo ihr auch die Trainingsdaten uploaden konntet. Das habe ich im Moment nicht mehr in Betrieb, weil ich eher den Fokus auf dieses als Gruppe kartieren und dann abends treffen, exportieren und zusammen irgendwo hochladen von einem Account. Darauf habe ich mich fokussiert. Und jetzt noch ein paar Fragen erneut oder ein paar Bitten erneut, wie ihr vielleicht helfen könnt. Wenn ihr Zugriff auf 360-Grad-Screens habt, zum Beispiel gibt es viele Städte, da auftragen mittlerweile private Unternehmen mit dem Auto durch die Stadt zu fahren, um ihren Behörden zu helfen. Wenn die Baubehörde irgendein Gebiet abchecken will, dann kann die Baubehörde sich auf diese internen 360-Grad-Screens oftmals noch mit einem Laserabstandsmesser oben auf dem Auto verlassen und alle paar Jahre lässt man die Firma durch die Stadt fahren. Mit einem Auto, zum Beispiel Berlin, hat das jetzt Ende diesen Jahres machen lassen. Da gibt es eine Firma, CycloMedia, da könnt ihr mal über fragten Staat unter dem Stichwort nachgucken. Es gibt einige Anfragen über die Verträge. Leider sind diese Verträge meistens nur für interne Benutzung freigegeben, beziehungsweise die Daten. Das heißt, wenn ihr zufällig in der Datenschutzbehörde arbeitet, die vielleicht ein gegebenes Interesse hat, Überwachungskameras im öffentlichen Raum zu kartieren, könnt ihr mal vorschlagen, ob ihr nicht irgendwie Zugriff auf die Daten haben könnt. Die Datenschutzbehörde hätte, denke ich, darauf Zugriff, wenn sie wollen würde. Ihr könnt natürlich im Alltag auf Kameras achten und die auf OpenStreet mit eintragen. Das wäre cool, wenn mit den Daten kann ich arbeiten und alle anderen, die damit arbeiten wollen. Wenn ihr Lust habt, versuche ich mit anderen Organisationen, zum Beispiel Reclaim Your Face, diesen Sommer in einigen Städten so Art Mapping Parties zu veranstalten, wenn man einigermaßen draußen wieder Aktionen machen kann, ohne großartig sich selbst ein Risiko oder anderen auszusetzen. Wenn ihr Bock habt, könnt ihr mal danach Ausschau halten. Könnt ihr Reclaim Your Face auf Twitter folgen oder mir. Wenn ihr PCP Design macht, könnt ihr mal meinen PCP Design anschauen und mir sagen, was ich alles falsch gemacht habe. Das wäre super. Wenn ihr Zugriff, wenn ihr im Event Management seid oder irgendwo anders Zugriff auf eine professionelle 360-Gradkamera habt, wäre es natürlich interessant, so ein Ding mal selbst auf ein Auto zu schneiden und zu schauen, wie das funktioniert, wenn man damit einen Tag lernen durch die Stadt fährt und die Daten danach analysiert. Da kann man auch noch andere Sachen für Open-Street-Map mitmappen. Das wäre so, wie ihr mir helfen könnt. Wenn ihr Bock habt, könnt ihr natürlich all die Sachen auf Github angucken, die ich eben präsentiert habe, könnt ihr euch da anschauen. Es gibt noch auf Vimeo, könnt ihr euch die ganzen Demos anschauen. Es gibt noch mehr Demos von den aktuellen Updates für die Android App zum Beispiel. Ihr könnt mir auch Twitter folgen, wenn ihr Updates haben wollt zu einem Projekt oder wo es die nächste Mappingparty gibt. Wenn ihr das Projekt direkt supporten wollt, könnt ihr, wenn ihr sucht, findet ihr das als Crowdfunding. Wenn ihr da Bock drauf habt, könnt ihr das mal euch noch mal anschauen. Wenn ihr Fragen habt, bin ich jetzt noch hier. Vielen Dank. Alles klar. Vielen herzlichen Dank. Ich dachte auch mal wieder, einen sehr schönen technischen Talk. Freut mich immer wieder, auch bei denen mit dabei zu sein. Wir haben einige Fragen aus dem Publikum. Damit würde ich dann auch direkt starten. Und zwar, du hast ja jetzt gesagt, dass du aufgehört hast, dass Trainingsdaten hochgeladen werden können. Aber hattest du dir die Upload der Trainingsdaten auch angeschaut? Weil, wie stellst du sich jetzt, dass halt nicht anstelle der Kamerabilder irgendjemand halt Maschee Katzenbilder hoch? Ich habe mir dazu schon Gedanken gemacht. Und zwar habe ich mir gedacht, dass man auf dem Server, der den Upload macht, es gibt in den Objekterkennungen, gibt es Unterschiede, was die Performance angeht. Das heißt, die Objekterkennungen, die auf dem Handy laufen oder auf ... Diese Performance-Unterschiede machen sich halt in der Genauigkeit bemerkbar. Und ich hätte im Zweifel auf dem Server erst mal eine höher performantere Objekterkennung oder auch Klassifizierung über das Bild laufen lassen und hätte versucht, dadurch zu erkennen, ob wir eine Katze hochleden oder halt Videos. Und die Sachen, die diese Objekterkennung oder die Klassifizierung rausgeschmissen hätten, als Nicht-Kamera, hätte ich mir halt genauer angeguckt. Aber ja, natürlich, wenn wer Unsinn treiben will, dann hätte er mir Katzenbilder hochgeladen und dann hätte ich mir Katzenbilder angeguckt. Okay. Verzerrung. Ist dann direkt zunächst, ist die Ansatz-App auf Android und ist die App auch ohne Extra-Hardware nutzbar? Ohne Extra-Hardware, ja. Auf Android ist sie noch nicht. Auf Google Play ist sie auch noch nicht. Die war mehr so ein Prototyp, den ich gebaut habe. Aber ich würde mittlerweile auch, glaube ich, die App noch mal neu bauen, weil die Objekterkennung oder beziehungsweise Machine Learning-APEs in den letzten drei Jahren schon einiges einfacher geworden sind. Ich habe das ja damals mit dieser Beispiel-App gebaut und praktisch alles aus der Beispiel-App rausgeschmissen, was ich nicht brauchen kann und dieses eigene Modell da eingetragen mittlerweile, sind die TensorFlow-Apps von Google um einiges einfacher geworden. Deswegen würde ich das aus Komplexitätsgunden, glaube ich, noch mal bauen. Und dann wäre die App natürlich auf Android auch verfügbar, wenn ihr keinen Bock habt, auf reguläres Android, klar. Wie könnt ihr euch auch selbst bauen aufgehen? Das geht im Moment auch. Okay. Hast du mal versucht, auch öffentliches Bildmaterial automatisiert zu nutzen? Zum Beispiel die Fotos mit Positionsdaten, die zum Beispiel bei Google hochgeladen werden oder Street View, insbesondere, oder halt auch in anderen sozialen Netzwerken. Weil da gibt es ja schon auch viele von diesen Umbildern entsprechend. Und ja, es sind natürlich auch alle mit einer Location versehen. Google Street View habe ich mir auf jeden Fall angeschaut. Leider bieten die in der Server oder in den Google Server-Apps nur recht geringe Auflösungen der 360-Grad-Bilder an. Zudem darf man sie per Lizenz nicht für eigene Zwecke, also für das Projekt. Ich meine, die Lizenz so gelesen zu haben, dass man sie nicht ohne Zustimmung von Google einfach so nutzen darf. Google selbst hat natürlich die ganzen Daten von ihren Street View in hoher Qualität vorliegen. Aber ich glaube, sie limitieren den freien Zugang. Ich weiß gar nicht, wie es bei von Usern hochgeladenen 360-Grad-Daten auf Google Maps ist. Was für eine Lizenz die haben, ob die Lizenz von Google bestimmt ist oder von dem User. Ich habe aber die 360-Grad-Aufnahmen von Nutzern. Habe ich noch nicht angeschaut, aber ich glaube fast, die sind eher von schönen Gegenden als mitten in der Stadt irgendwo. Vielleicht vom Bahnhof noch, ja. Aber da wäre ich mir nicht so sicher, ob die relevanten Positionen für Überwachungskameras jetzt so oft hochgeladen werden. Aber lohnt sich sicherlich mal nachzugucken, was für eine Lizenz das ist und wo es da viele davon gibt. Das mache ich bestimmt. Ja, es gibt ja viele Bildquellen mittlerweile so da drauf. Ja, das wäre das ein guter Ansatz, auf jeden Fall, mal die durchzuscrepen und mal einfach die, die man darf zu analysieren. Klar, ist eine gute Idee. Das kommt jetzt aus einer anderen Richtung. Bringen die IFG-Anfragen Erkenntnis über Betreiber und die Speicherdauer und sind die Kameras, also du hast ja wahrscheinlich viele Kameras selber auch fotografiert jetzt, sind die Kameras dann auch gekennzeichnet, wie sie sein sollten? Die allermeisten finde ich tatsächlich im Bereich von Bahnhöfen und ich glaube, da sind sie auch gekennzeichnet, aber ich finde auch viele in privaten, sagen wir mal, Gaststättenumfeld, da überwacht er seine Tische und so weiter. Meistens so, die ganz offiziell betriebenen sind meistens auch gekennzeichnet, aber man findet auch einige, die privat, offensichtlich privat betrieben sind und die dann nicht gekennzeichnet sind. Und was war der zweite Zeichen? Ob Anfragen, Erkenntnisse über Beiber und Speicherdauer bringen? Man kriegt die Verträge raus, sie sind geschwärzt. Ich habe selbst noch keine Anfragen in die Richtung gestellt, aber ich habe sie dann verfolgt, da fragt den Staat. Ich meine, sowas mit Betreibungsdauer müsste dann, Speicherdauer müsste auf jeden Fall drin stehen. Sie sagen natürlich, dass sie Gesichter und Kennzeichen und sowas aus den Bildern streichen, bevor sie die verfügbar machen. Ob das jetzt hilft bei irgendwelchen, ich bin mir sicher, wenn es Wert auch anlegt, findet man denjenigen, den man sucht, trotzdem in den Aufnahmen als Behörde, aber so Grundsicherheitsmaßnahmen sind da, glaube ich, schon vorhanden. Speicherdauer und so ein bisschen Verträgen müsste man rausbekommen. Genau, also es kam jetzt schon ein paar Mal die Frage nach den Links beziehungsweise, wo kann man sich die USM Daten ziehen, um es in seiner Map mal anzuschauen, dann natürlich die Frage nach den Links und den Tools von der Kameraerkennung und der Fassung. Alles auf GitHub, also von meiner Seite. Okay, also alles unter dem Ansurf, github.com slash ansurf findet ihr alle Teile des Projekts. Das ist die Overpass-App, da müsst ihr immer in die Dokumentation von OpenStreetMap gucken, die ist da relativ gut dokumentiert und ihr könnt den Tag, den ihr sucht, manmade surveillance, du müsst ihr auf OpenStreetMap mal nachschauen. Man unterstrich made surveillance, da habe ich leider nicht in die Folien gepackt, aber so findet ihr diese Daten. Und ich glaube, das Projekt surveillance und surveillance hat das auch noch mal gut erklärt, wie die Daten rausholen. Sonst fragt ihr mich einfach nochmal privat oder wenn ihr irgendwelche Probleme habt, das ist kein Problem. Website is ansurf.org, richtig? Richtig, aber die ist nicht so schön, aber könnt ihr euch mal angucken. Mindest findet man da auf das github dann drüber. Ja, auch, ja. Das ist der wichtige Teil. Hier kommt noch eine Frage. Da hat ein Chat, ein Beteil. Ein Fragesteller hat die Erfahrung gemacht, dass Kameras nur zur Glatteiserkennung verwendet werden. Hast du so, hast du das auch schon mal, also es kam, da war eine, da hängt eine kleine Anfrage, fragt den Staat noch hinten dran. Ist dir so etwas dann auch schon mal untergekommen, dass so Kameras so einen ganz speziellen Anwendungsfall haben, die aber automatische Erkennen dahinter stehen haben? Es gibt es, glaube ich, im Verkehrsbereich sehr oft, dass man nur Autos zählen will und gar nicht besonders mehr zählen will. So als Glatteiserkennung habe ich das aber noch nicht gesehen. Aber das ist hier auch nicht der schlimmste Anwendungsfall. Man kann die Kamera ja dann schön senkrecht auf dem Boden tun. Dann findet es ja auch nichts anderes. Soll sowieso kein öffentlichen Raum filmen. Das ist ein ganz interessanter Anwendungsfall, also habe ich auch bisher noch nicht von gehört. Genau, super spannend. Kommt jetzt noch als Feedback. Was kann man mit den Daten am Ende denn eigentlich noch so tun? Man kann das Wasser wegschauen und dann entsprechend das Gesicht nicht liefern. Also gibt es dann auch andere Anwendungsfälle, was man damit tun könnte? Ich habe mir mal so ein Forschungsansatz überlegt, dass man eine Personengruppe, die repräsentativ für die Bevölkerung ist, weil sie nach allem aufteilen kann, nach Einkommen, nach Herkunft, wenn es einen Tracker hier in die Hosentasche gibt und mal schaut, wer von Überwachungsmaßnahmen überproportional betroffen ist. Man kann sich schon ausmalen, was da rauskommt, aber es ist natürlich immer noch schlauer, das als Datenbasis zu haben. Man könnte sich überlegen, falls das im Moment sieht es ja ganz gut aus, Polit. Ich habe da so ein leises Pflänzchen der Hoffnung, dass die biometrische Überwachung im Moment nicht zur Diskussion steht, sagen wir mal europaweit und auch in Deutschland. Das kann sich natürlich jederzeit wieder ändern. Aber wenn so etwas flächendeckend ausgerollt werden sollte, kann man sich natürlich überlegen, ob man nicht so ein Art Routing macht und dann einstellen kann an so einem Slider, wie viele Kameras möchte ich auf meinem Weg treffen, möchte ich viele treffen. Wenn das Ganze nach Hause geht, kann man ja machen, oder möchte ich möglichst wenig treffen und dann so ein Art Routing-Service zu bauen, um möglichst wenig Kameras zu treffen auf seinem Weg. Das ist natürlich was, was Framing angeht, ein bisschen kompliziert, aber das ist natürlich auch eine Möglichkeit, die man machen kann. Habe ich aber jetzt selbst noch nicht angefasst, aber ich bin immer wieder auf der Fragenleute nach. Gut. Dann nochmal aus dem Publikum tolles Projekt mit vielen interessanten Unterprojekten. Ich bin gespannt auf den Mapping-Sommer. Gerne, wenn ihr mitmachen wollt. Meistens läuft das dann lokal. Die Städte meinten noch ihre Open-Street-Map-Klein-Communities oder so, die dann zuständig sind, dass eure Hausnummer die richtige ist. Wahrscheinlich werde ich die alle mal kontaktieren, fragen ob die Lust haben. Dann natürlich die lokalen CCC-Airfas. Das ist natürlich auch eine gute Anlaufstelle. Wenn ihr da mal so verfolgt, was die so sagen, dann treffen wir uns vielleicht im Sommer. Das würde ich mich freuen. Diesen Hardware-Tracker kommt man auch über Ansurf und das Crowdfunding entsprechend finden. Das findet ihr auf der Website, auf Twitter oder wenn ihr Ansurf offline googelt. Vielen herzlichen Dank. Das waren bis soweit alle Fragen aus dem Publikum. Dementsprechend würde ich sagen, wir gehen noch mal rüber in den Extended Q&A-Raum. Danke noch mal. Vielen Dank. Vielen Dank. Danke noch mal. Gut.