 Ich habe mich entschlossen, einen Vortrag zu halten mit diesem wunderbaren Titel. Ich komme nochmal auf den Titel, warum der Titel überhaupt existiert. Ich möchte über Tor sprechen, wie man sich wahrscheinlich schon vorstellen konnte und finde es ganz schön, dass um die Uhrzeit schon so viele Leute da sind und sich scheinbar dafür auch interessieren. Was ich machen möchte ist erst mal erklären, warum ich dazu eine Meinung habe und warum ich denke, dass ich dazu auch eine Meinung haben darf. Und dann möchte ich so ein bisschen Abriss geben, das sozusagen in den Kontext zu setzen, der dabei hilft, wenn Leute kommen, die mal irgendwie so ein gesundes Halbwissen sich angeeignet haben und dann meinen, sie hätten eine sinnvolle Meinung zu diesem Projekt. Weil das nämlich in letzter Zeit immer mehr passiert, es gab ja sozusagen so 2013, hat es so angefangen mit so ein paar Events, die dazu geführt haben, dass sich doch mehr Leute irgendwie damit auseinandersetzen. Aber was mir jetzt in letzter Zeit gerade auf Chaos-Events öfters begegnet ist und das finde ich so ein bisschen unschön ist, wenn dieses ungesunde Halbwissen nicht nur außerhalb vom Chaos existiert, sondern auch sich irgendwie wie so ein Krebs in den Chaos-Events fortpflanzt und die Leute so hinter vorgehaltener Hand irgendwelche Sachen tuscheln oder irgendwas meinen zu wissen. Und deswegen habe ich mich entschlossen, diesen Vortrag zu machen. Das Zitat kommt aus dem Internet. Also ich habe mir einfach mal gesucht, was könnte man so mit Tor und irgendeinem Zitat dazu finden? Das passt ganz gut, weil es ist aus Wien und wir sind ja in Österreich. Ich habe es gar nicht so ganz genau gelesen, das ist auch irgendwie diese Frakturschrift, das kann man ja kein Mensch zumuten, aber Google Books hat es eingescannt und hat es dann auch OCR't und dann kann man es auch durchsuchen. Also tadeln können zwar die Toren, aber Klüger handeln nicht, um nochmal sozusagen meinen Titel hier. Ich fand, es war ganz passend zu dem, was ich so erzählen möchte. Genau zu mir. Ich bin 2004 nach Dresden gegangen. Da gibt es einen Lehrstuhl Datenschutz und Datensicherheit. Damals war das Professor Pfitzmann, der ist leider gestorben. Der hat seine gesamte universitäre Karriere der Anonymität gewidmet. Und dann 2010 habe ich Torster was nett gegründet, was vielleicht einigen von euch bekannt ist. Das war am Anfang ich, der Tor-Server-Betrieben hat. Also ich habe das auch davor schon gemacht, aber da dann im größeren Maßstab mit Hilfe von Spenden. Das heißt, wir haben Spenden zusammengelegt und dann dickere Server angemietet. Und inzwischen ist Tor-Servers Netzwerk von 18 gemeinnützigen Organisationen, die das Tor-Netzwerk stützen und die Bandbreite da zur Verfügung stellen. Und wir haben größtenteils Spenden und dann auch noch so ein paar Förderungen abgegriffen für die Serverkosten. Und so begreife ich mich sozusagen auch als Teil derjenigen, die dafür sorgen, dass man Tor überhaupt benutzen kann, weil bis zu dem Zeitpunkt war es. Und das ist auch noch mal so eine Sache, die immer mal wieder einem begegnet Leute, die das früher mal ausprobiert haben und es dann nie wieder ausprobiert haben und immer noch mit der Vorstellung rumlaufen, dass es unbenutzbar ist und so langsam sollten es vielleicht noch mal ausprobieren, weil seitdem hat sich viel getan. Wichtig, finde ich, wenn man darüber spricht, was ist jetzt so zu sagen, worum handelt es sich bei dem Projekt? Das kommt ja nicht so irgendwie, das fällt ja nicht so vom Himmel, sondern auch für, um die Möglichkeit zu haben, ein bisschen einzuschätzen, was macht dieses Projekt eigentlich, muss man sich so ein bisschen die Umwelt außen rum anschauen und schauen, was es so an Alternativen gab und gibt. Und ich habe so ein paar Punkte rausgenommen. 92, der Anon Pinnatfi ist sogenannte Typ Null Remailer. Die Idee war, dass jemand eine Kiste aufgestellt hat. Und wenn du dann ein Mail drüber verschickt hast, hat er die From-Header gestrippt und die aber in eine Datenbank hinterlegt, damit jemand, der dir auf diese anonyme E-Mail-Adresse geantwortet hat, die auch wieder antworten konnte. Also so ein ganz simples Prinzip, man schickt eine Mail an den Server, der schreibt den From-Header um und wenn Antworten kommen, dann kriegt man die wieder. Ich habe da so eine Zahl rausgenommen. Also hatte wohl mal 500.000 Nutzer, 8000 Nachrichten am Tag, die da drüber liefen. Sauberkosten von so 1000 Dollar im Monat, das Ganze in Finnland. Und 95 gab es einen Fall, das ist schon mal ganz interessant, weil da ging es auch um einen League, der das Ganze zu Fall gebracht hat, weil nämlich Dokumente von der Church of Scientology aufgetaucht sind. Die haben ja so strenge Dokumentenregeln, sage ich mal. Und seitdem weiß man ein bisschen mehr über die Interner von Scientology und deren komischer Hierarchie-Level und Kram. Und die haben dann die Herausgabe dieses Datensatzes gefordert und erfolgreich. Das heißt, das Ganze lief über das FBI nach Finnland und dann die Finnessisch-Polizei kam und hat sich diesen Datensatz besorgt. Und parallel gab es diese Cypher-Punks-Gruppe, diese kiffenden Spinner, die sich gedacht haben, wir brauchen eine Möglichkeit, das ein bisschen sicherer zu machen. Das sind die sogenannten Typ 1-Remailer. Man kann sich das auch noch mal anschauen. Da ist die Idee, dass man eben sagt, man hat nicht einen Punkt, man hat nicht einen Server, der dafür verantwortlich ist, den Herder umzuschreiben, sondern man bildet eine Kette an Servern. Die Servern sprechen in Protokoll, das auf SMTP basiert, also ganz normalen Mail-Server. Aber die Nachrichten werden in dem Buddy verschlüsselt. Und man trennt sozusagen den Server, an den ich mich connecte, an den ich die Nachricht schicke. Und der Server lernt nicht mehr, an wen ich eigentlich die Nachricht schicken will, weil der das einfach nur entschlüsselt, weiter reicht an den nächsten Server, den ich angegeben habe. Und so kann man beliebige Ketten bilden. Man kann auch irgendwie im Kreis in diesem Server-Netzwerk die Nachricht rumschicken. Und dann hat man so ein paar Schwachstellen identifiziert, die man dann 94 mit Mixmaster versucht hat, zu adressieren. Wie hier auf der Folie schon steht, also es war einfach das Remailen. Ein Server hat eine Mail bekommen und hat die dann weiter gereicht an den nächsten Server. Das heißt, wenn jemand den Traffic anschaut, der da rein und raus schließt, kann er sozusagen genau nachvollziehen, wie die Nachricht weitergeleitet wurde. Mixmaster hat dann Mixing eingeführt, Mixing heißt, ich warte, bis ich eine gewisse Anzahl Nachrichten habe oder ich takte das immer. Also was weiß ich, stündlich alle angefallenen Nachrichten mischt die einmal durch, damit sie nicht in der Reihenfolge rausgehen, wie ich sie gekriegt habe und schickt sie dann an den nächsten Knoten. Das heißt, jemand, der von außen drauf schaut, kann nicht mehr so einfach korrelieren, wer die Nachricht eigentlich abgeschickt hat. Und das andere ist Padding. Das ist auch so ein übliches Verfahren. Wenn ich jetzt da so ein 100 mb-Blob rein und dann kann der da sitzen, solange er möchte und kann auch durchgemischt werden mit anderen Nachrichten. Aber wenn ich danach dann sehe, ja, der 100 mb-Blob fließt weiter an den anderen Server. Kann ich anhand einfach der Paketgrößen natürlich immer noch schön nachvollziehen, wo das Ganze lang lief. Und bei Padding geht es eben darum, dass man sagt, OK, die Nachrichtenpakete haben eine gewisse Größe. Ich splitte die 100 mb auf und sagen wir mal willkürlich ein mb-Pakete und alle meine Nachrichten haben mindestens ein mb. Also man in der Praxis sind es halt irgendwie 64 Kilobytes oder was. Das muss man sich überlegen, was für Nachrichten wird man typischerweise sehen. Und dann zahackstückelt man die und das letzte Paket, das halt nicht ganz gepasst hat, füllt man auf. Das heißt auch da wieder geht es darum, wenn jemand drauf schaut, macht man es demjenigen schwieriger nachzuvollziehen, eine Nachricht durch dieses Netzwerk durchfließend zu sehen. Also vielleicht auch noch mal grundsätzlich, ich weiß nicht, wie sehr ihr bewandert seid mit diesem Thema, warum es eigentlich überhaupt geht. Überhaupt geht es darum, unüberwachbare Kommunikation herzustellen. Das heißt, die Frage ist, kann man ein Netzwerk so gestalten, dass niemand mehr sehen kann, wer mit wem kommuniziert und wann. Also es geht um die, um das, was heutzutage so in dieser Metadaten Diskussion stattfindet. Also meistens betrachtet man immer diese Verschüsselung und wie kriege ich Ende-zu-Ende-Verschlüsselung und wie schaffe ich das, dass ich auch sicher weiß, wem der Schlüssel gehört und dass das auch derjenige ist, mit dem ich schreiben möchte und so weiter. Das hier ist eine bisschen andere Problematik. Da geht es darum, ich nehme mal an, dass ich diese Ende-zu-Ende-Krupto habe, aber dann habe ich immer noch diese ganzen Verkehrsdaten. Und ich glaube, es ist auch jedem im Raum jetzt hier klar, dass die Verkehrsdaten eigentlich viel heißer sind und viel interessanter sind als im Detail, was in den Nachrichten drin steht. Also gerade, wenn es um das Nachvollziehen von Strukturen geht, wer organisiert sich, sind gerade die Metadaten das, was man haben will und auswerten will. Der Inhalt interessiert eigentlich gar nicht so sehr. 95 hat so der erste kommerzielle Anbieter angefangen. Anonymizer hieß der, war eine Zeit lang sehr bekannt. Die haben auch immer behauptet, sie würden nichts locken und so weiter. Also das ist eher wie der Typ Null, Vertrau uns, wir kümmern uns darum. Das war so der erste Web-Anonymizer. Also es ist einfach ein Webproxy gewesen, man gibt ihm eine URL, die holen die Website, schreiben die Links so um, dass wenn man durch die Links sich durchklickt, immer über die Anonymizer-Webproxy-Geschichte läuft. Dann gibt es noch die ganze Thematik NIMS Server. Das möchte ich jetzt nicht so sehr ansprechen, weil nämlich, wenn man so ein Netzwerk an Remailern hat und man entfernt die Absender-Adresse, dann verliert man natürlich die Möglichkeit zu antworten. Deswegen gab es da so verschiedene Designs, die sich damit auseinandergesetzt haben. Wie kann man eigentlich anonymisiert auch Antworten empfangen noch auf das Zeug, was man daraus pleist. 2002 Mix Minion ist dann nochmal eine Verbesserung, wo die ganzen Sachen eingeflossen sind, die sich sozusagen im Laufe dieser fünf, sechs Jahre gezeigt haben als Probleme. Ich gehe da jetzt nicht tiefer rein, aber wer sich dafür interessiert, da sind unten Links. Ich habe die auch in den Fahrplan inzwischen gegossen. Der muss noch mal geupdatet werden, dann gibt es die da auch. Ich habe noch ein paar sozusagen Standard Papers, die es zu dieser Thematik gibt, mal rausgepickt. 78 gab es so das erste Limitations of end-to-end encryption. Also man sieht schon, es geht sozusagen darum, okay, wenn wir end-to-end Crypto haben, was 78 auch noch eine andere Situation war, als es heutzutage Gott sei Dank ist. Also wir sind ja ein bisschen weiter, was die Crypto angeht. Aber da hat man eben auch schon identifiziert, ja, was bleibt denn dann eigentlich noch übrig, die ganzen Verkehrsdatengeschichten. David Chom ist so das Standard Paper, ist ein Mathematiker, der sich mit eben mit untraceable Electronic Mail auseinandergesetzt hat, schon diese Return-Address-Problematik. Also wie kann man dann noch Antworten empfangen? Der hat dann auch so die ersten elektronischen Währungsgeschichten gemacht, die auch immer noch sozusagen die mathematischen, er war Mathematiker. Also die ganzen Verfahren, die er da beschreibt, sind immer noch die Verfahren, die es halt so gibt mit natürlich offenen Fragestellungen damals. 85 war das erste Paper von Pfitzmann, also da, wo ich dann auch studiert habe, über Networks Without User Observability. Das ist schon mal so eine grundsätzliche Sache, dass Anonymität ganz anders verstanden wird, als sozusagen als technischer Begriff im Gebräuchlich ist. Also man sollte eigentlich irgendwie von diesen untraceable Sachen oder von Observability sprechen. Es geht nicht darum, dass ich mich notwendigerweise nicht offenbare vor dem Empfänger. Also das ist so eine grundsätzliche Thematik, weil viele Leute sagen, ja, ich möchte ja eh mit meinen Freunden irgendwie kommunizieren oder sonst was. Ich brauche ja gar keine anonyme Kommunikation. Aber darum geht es nicht bei anonyme Kommunikation, sondern es geht darum, dass man, wenn man jemanden hat, der von außen drauf schaut, der auf das Netzwerk schaut, dass der nicht feststellen kann, wer mit wem spricht. Nicht so sehr die Fortune Anonymitie, wo es darum geht, dass ich irgendwie keinen Nickname habe und nicht adressierbar bin. 1991 gab es den ersten Prototyp auf ISDN-Basis. Also da wurde von Pfitzmann gezeigt, dass man diese Verfahren durchaus auch in der Realität anwenden kann für was, was eigentlich ja ein Echtzeitprotokoll ist. Also es ging um Voice. Ich telefoniere mit meinem ISDN-Telefon und rufe jemanden an. Und statt dass jemand einfach nachschauen kann und nachvollziehen kann, was da drüber läuft, die Idee, was wir jetzt bei den Remailern gesehen haben. Also es gibt Server, die sammeln die ganzen Pakete ein, mischen die durch und schicken sie dann weiter, dass man das eben auch unter gewissen Bedingungen mit Paketen machen kann, die Sprache beinhalten, wo man eine gewisse niedrige Latents möchte. Also man möchte ja, dass das Zeug irgendwie auch innerhalb von einem erträglichen Delay auf der anderen Seite ankommt. Also Mixing immer als das, ich hab einen Server, der empfängt irgendwelche Nachrichten, mischt die durch und eventuell noch mit diesem Padding, dass die alle schön gleich groß sein müssen in der Spezifikation. Und dann werden die im Netzwerk weitergeschoben. 95 gab es dann ein Forschungsprojekt an der Unnaval Research Laboratory in den USA. Also in den USA, das ist auch noch mal so eine Thematik, weil es ja immer heißt, irgendwie Tor ist irgendwie vom US-Militär. Es ist de facto so, dass in den USA alles militärisch-industrieller komplex ist. Die Forschungsgelder, also die ganzen DARPA-Gelder und so weiter, das ist alles de facto, geht's um die Fans und denen geht's immer, die haben immer diese Brille auf. Und das Naval Research Laboratory kann man sich auch anschauen, was die so machen, die sind sehr breit aufgestellt, die machen halt Grundlagenforschung in alle möglichen Richtungen. Aber der Narrativ dort ist natürlich irgendwie, die US-Navy hat irgendwelche Problematiken und will die gelöst haben. Und dort gab es eine Gruppe, die kam auch aus dieser Cipherpunk-Ecke. Und die haben sozusagen sich irgendwelche Szenarien überlegt, wieso denn auch sozusagen für die US-Regierung ein Anonymisierungsverfahren notwendig wäre und haben dann ein bisschen Geld bekommen, dafür da ein bisschen rumzuforschen. Das war 95. Und dann noch so ein elementares Paper ist von 98, brauche ich jetzt nicht näher drauf eingehen. Es gibt die Anonymib, die hier verlinkt ist. Kann ich nur sehr empfehlen, ist ziemlich geil. Es sind so wirklich die wesentlichen Papers, die so aus der akademischen Welt kommen zu dem Thema Anonymität. Ich finde, bevor man irgendwas definitiv verurteilt für irgendwas, sollte man sich ein bisschen damit auseinandersetzen. Und die Anonymib ist gerade genauso was, wo einem das sehr einfach gemacht wird. Sich mal ein paar Sachen durchzuklicken. Mir ist es wichtig, das darzustellen, als den Kontext, wo sozusagen 70er-Jahre anfangen, sich die Problematiken zu überlegen. Fitzmann ist jetzt jemand, der das in Deutschland gemacht hat. Und der Naval Research Laboratory war in den USA. Es gab noch ein paar andere, die da eine Rolle spielen. Und grundsätzlich ging es immer darum, in der Theorie irgendwelche Systeme zu designen, die gewisse Eigenschaften haben können und sich zu überlegen, wie kann man die verbessern und so weiter. Also kann man sich ja vorstellen. Ich habe jetzt hier mal ein Screenshot genommen aus dem Folien-Satz von 2002. Jab Java Unknown Proxy hieß das Projekt damals an der TU Dresden. Ist sozusagen so ein bisschen Konkurrenz-Design zum Tor-Design. Die Idee bei Jab war, dass man zentrale Mix-Server hat. Also man sieht jetzt hier drei. In der Praxis war das dann so, dass eigentlich zwei genutzt wurden. Weil für die Art und Weise, wie das bei Java Unknown Proxy gemacht wurde, zwei eigentlich auch ausreichen, um eine Anonymität herzustellen. Die Idee ist, dass alle Nutzer diese Mix-Server benutzen. Bei Tor ist das ja so, da gibt es über 7000 Relays, die weltweit verteilt sind. Und die Kleinen suchen sich halt welche raus, komme ich nachher noch zu. Bei Jab ist es so, dass man gesagt hat, man zentralisiert die alle, man führt die alle über ein paar Knoten und kann dort aber dann dadurch, dass da viele Datenmengen eintreffen, in relativ kurzer Zeit durchmischen. Das heißt, da kommt das Mixing-Verfahren zum Tragen, was Herr Pfitzmann schon bei ISDN gezeigt hat, dass man es machen kann, wenn man doch gewisse Einschränkungen der Latents haben möchte, die aber nicht einem verhindern, dass man zum Beispiel im Web surfen kann. Wenn ich die Remailer anschaue, bei den Remailern ist das so, das kann durchaus ein paar Stunden dauern, bis je nach Strategie von den Remailer-Systemen bis die Mail von einem Knoten zum nächsten weitergereicht wird. Und wenn man Systeme baut, die eben für Web surfen oder irgendwelche Voice-Protokolle oder sowas noch nutzbar sein sollen, da muss man dann natürlich Einschränkungen machen. Und bei Jab wurde versucht, das sozusagen zusammenzupacken. Während bei Tor der Ansatz war, breit verstreut viele Relays. Hier der Ansatz, es gibt zentrale Mix-Relays, die alle Clients benutzen. Genau, also hier sieht man das bei Tor. Man kann sich jetzt davor stellen, dass da 7000 solche Knoten existieren im Netz und die nichts anderes tun, als Daten weiterzuleiten für Nutzer. Ich hoffe, dass da so ein Grundverständnis schon existiert, wie das Ganze funktioniert. Bei Tor findet kein Mixing-Start, einfach aus dem Grund, dass diese 7000 Knoten von freiwilligen und sonstwo irgendwo betrieben wurden. Die haben nicht unbedingt die Kapazitäten, die man sozusagen zentral planend schaffen kann und dann ist sozusagen das Traffic-Aufkommen an den einzelnen Relays auch nicht hoch genug, als dass das Mixing wirklich sinnvoll funktionieren würde. Weil beim Mixing brauche ich eben eine große Datenmenge, die ich durchmische. Sonst habe ich da keinen Vorteil. Ich habe mal Folien rausgesucht von 96. Also 95 gab es die ersten Gespräche beim NRL. 96, das ist so ein Briefing-Slides, worum es eigentlich geht, dabei bei Tor. Und hier wird das auch nochmal schön dargestellt. Es geht darum, Identification from Routing zu separaten. Das heißt, es geht nicht darum, irgendeine Anonymitäter zu stellen, wie es bei, wie man das sozusagen so als normal Mensch sich vorstellt, sondern einfach mal zu sagen, die Routing-Informationen sollten nicht eine Identifikation der Teilnehmer zulassen, sondern wenn ich mich identifizieren möchte, kann ich das on top immer noch machen. Dann das andere Objektiv, das relevant ist, wenn man sich damit auseinandersetzt, was jetzt eigentlich Tor ist und was es für Alternativen gibt, ist dieses reusable across many applications. Bei Tor hat man sozusagen von Anfang an gesagt, man möchte eigentlich alle TCP-Pakete anonymisieren können, also agnostisch gegenüber Applikationen sein. Und genau, goal is anonymous connections, not anonymous communication. Dann zum Thread-Model, also man muss sich ja mal überlegen, was kann ich leisten mit so einer Architektur, was kann ich nicht leisten? Und dadurch, dass es ja schon zurückliegendere Forschungen dazu gab und eigentlich die theoretischen Modelle relativ durchleuchtet waren, war klar, dass, wenn man so eine Architektur wählt, gewisse Einschränkungen hat. In dem Fall ist das Thread-Model, man hat einen Angreifer, der den Traffic sehen kann, der kann aktiv eingreifen in den Traffic, der Angreifer betreibt Teile der Infrastruktur und die Betreiber dieser Relays könnten miteinander zusammenarbeiten und die Problematik von Timing, da komme ich auch noch mal drauf. Das heißt, schon damals, als es so die ersten Prototyp-Geschichten gab, war eigentlich recht klar, was man erreichen möchte und was die dranhängenden Problematiken sein werden. Ich komme noch mal zurück zu YAP, also dem Java-Anonproxy, das Projekt hieß Anon, und dann begab es sich 2003. Also man kann sich vorstellen, es gab dieses Projekt, man hat sich das runtergeladen, konnte das als Proxy-Einrichten für Anwendungen, beispielsweise ein Webbrowser und lief über die zentralen Knoten und die Infrastruktur würde betrieben von diesem Landeszentrum für Datenschutz in Schleswig-Holstein. Und da gab es, das Bundeskriminalamt hat halt mal einen Fall gehabt, wo sie Daten haben wollten von jemanden, der das benutzt hat. Die erste Aussage war natürlich, ja, wir haben die Daten nicht, unser Netz erfasst solche Daten gar nicht, wir können die nicht haben. Und das Bundeskriminalamt hat dann aber so einen, hatten Gericht dazu bekommen, zu sagen, sie müssen für die Zukunft dafür sorgen, dass man solche Sachen nachvollziehen kann. Und darum geht es hier in dieser Pressemitteilung vom August 2003, dass das Projekt gezwungen wurde, wenn eine gewisse Zieladresse angesurft wird, zu speichern in der Kette, welcher Nutzer war das. Und dann hat man sozusagen parallel, hat man es implementiert und Widerspruch eingelegt. Man muss das natürlich erst mal umsetzen. Aber das wurde vor Gericht dann auch wieder wieder gekillt. Aber in dem Zeitraum, in dem das lief, gab es einen Datensatz. Das heißt, irgendjemand, der dieses Netz benutzt hat, hat auch wirklich diese Zieladresse aufgerufen. Und es gab einen Datensatz und die Frage war jetzt, also hier steht, er befindet sich derzeit in der Output des Anon-Projektes, also der Lag an der Uni. Und sie haben sich natürlich geweigert, diesen Datensatz rauszugeben. Dann haben wir hier den 2. September. Das ist recht interessant. Am Samstag suchten Beamte des BKA's die häusliche Wohnung des Direktors des Instituts für Systemarchitektur auf und verlangten von ihm die Herausgabe des Protokoll-Datensatzes. Also das Institut für Systemarchitektur war da eigentlich gar nicht so richtig involviert, aber das war halt der Direktor da. Und das ist eine zu weit. Dann wurde sozusagen, ich glaube, das war Samstagmorgen um 5 Uhr oder sowas. Standen die bei dem, haben geklingelt und haben dann auch wirklich diesen Datensatz bekommen. Und dann geht es hier halt darum, dass man das irgendwie rechtswidrig findet und dass man da gegen Einspruch einlegt und so weiter. Und dann gibt es hier die November, wo dann wirklich gerichtlich festgestellt wurde, dass das Ganze so nicht ablaufen hätte sollen. Das heißt, die Herausgabe war nicht rechts gültig. Jetzt ist es aber so, dass in Deutschland zumindest auch sozusagen Funde, die nicht auf Basis von irgendeiner Rechtsgültigkeit gefunden wurde, durchaus weiter ausgewertet werden dürfen. Also es ist nicht so, wie man das aus irgendwelchen Hollywood-Filmen kennt, dass dann auf einmal die Ermittler sagen müssen, oh, wir wissen das zwar, aber jetzt können wir es nicht mehr verwenden, weil wir haben Scheiße gebaut, sondern das ist ganz üblich, dass wenn die Daten da sind, dann werden die auch verwendet. Und so hat sich das hier auch verhalten. Also ich weiß nicht, was aus dem Datensatz geworden ist und was und so weiter. Aber interessant ist, dass eben in diesem Zuge, in diesen paar Monaten, August, September und dann bis November das Projekt eine Law Enforcement Backdoor eingebaut hatte. Und das, wenn man sich dann parallel überlegt, was alternativ Architekturen sind, die nicht so zentralisiert sind, dann sieht man sozusagen, dass die Leute, die Antwoa entwickelt haben, die haben das schon berücksichtigt, die haben sich schon gedacht, gut, wir werden da wahrscheinlich auf juristischen Wege oder es kommt jemand und will die Daten haben oder hackt sich in unsere Boxen. Wir wollen eigentlich gar nicht die Möglichkeit haben, solche Daten anzufertigen und der beste Weg, solche Daten gar nicht erst zu haben, ist überhaupt nichts mit dem Netzbetrieb zu tun zu haben. Also hier war ja auch die Problematik, dass die Leute, die die Software entwickelt haben, dieselben Leute waren, die auch die Server betrieben haben. Das heißt, wenn jemand dann kommt und verlangt, dass du irgendwas lockst, hast du die Möglichkeit, deinen Quellcode zu modifizieren. Wenn jemand jetzt zu mir kommt, als Tor Relay Betreiber, kann ich sagen, ja, ich betreibe diese Software da, ich habe die nicht geschrieben. Ich weiß nicht, ich kann nicht programmieren. Ich weiß nicht, was ich da tun soll. Das hat mit mir nichts zu tun. Und auf der anderen Seite, wenn man zur Softwarefirma kommt und sagt über euer Netzwerk wurde irgendwas gemacht, dann sagt das Projekt halt, ja, wir haben überhaupt kein Netzwerk. Wir schreiben nur eine Software und wer die benutzt und wer die runterlädt, hat jetzt nichts mit uns zu tun. Und ich wollte das deswegen hier noch mal aufzeigen, als was sind eigentlich so die historischen Beispiele an alternativen Architekturen, die man getestet hat und die man probiert hat. Das Projekt ist dann auch ausgelaufen, wie das bei so Uniprojekten so ist. Es gab immer noch so ein bisschen Forschung dran, aber was man versucht hat, ist es zu kommerzialisieren. Also es gibt inzwischen die John Doe's GmbH, die ist ziemlich am Absterben, weil kaum Leute bereits in Geld dafür zu zahlen, dass sie in Traffic anonymisiert kriegen. Und dann, also die haben sich sehr schöne Modelle ausgedacht. Auch diese Deanonymisierung läuft so, dass du Standorte hast in mehreren Ländern. Und nur, wenn alle zustimmen und wenn aus jedem Partnerland ein Gerichtsbeschluss vorliegt, dass diese Daten rausgegeben werden müssen, dann werden die Daten rausgegeben. Und ich glaube, es gab auch irgendwie überhaupt keinen Fall, wo das jemals zu tragen gekommen wäre. Aber natürlich, die Netzgemeinde war ab dem Zeitpunkt nicht mehr so richtig interessiert an diesem Projekt. Was schade ist, weil dieser Mixing Aspekt und dieses ich habe zentrale Infrastruktur, die ich skaliere, eigentlich technisch recht schön ist, weil da Angreifer berücksichtigt werden, die eben den Traffic überwachen von außen. Nur leider zeigt sich eben auf einer rechtlichen Seite, ist es dann schwierig, das Ganze aufrecht zu erhalten. Und wer weiß, wie das heutzutage wäre. Also damals war das halt recht neu auch so für das BKA. Und die haben natürlich versucht, da ziemlich massiv vorzugehen. Jetzt mit so einem Hintergrund würde ich mich sehr viel komfortabler fühlen, da auch wieder ungefilterte Java Anon Proxy Server zu betreiben. Ich wollte noch so ein bisschen, wir hatten hier irgendwie so ein I2P Vortrag. Ich war nicht da, weil der war ja irgendwie Mitternacht. Also da schlafe ich. So I2P beruht auf einem Papier, das Roger Dingeldein als einer der Hauptentwickler von Tor mal geschrieben hat, 2002 in seiner Masterarbeit. Und ich wollte es nur der Vorständigkeit haben, mal hier drin haben. Bei I2P hat man gesagt, OK, man kümmert sich nicht mehr darum. Es gibt verschiedene Problematiken, die dadurch entstehen, dass bei Tor dieses All Applications sollen drüber laufen. Man ist applikationsagnostisch und man möchte auch eine Möglichkeit haben, das reguläre Web abzurufen. Bei I2P gibt es interne Services. Das Erreichen von externen Legacy-Internet-Services ist da nur minimal vorhanden, sondern es geht darum, dass man sozusagen ein ganzes neues abgeschlossenes Projekt schafft und abgeschlossenes Overlay-Netzwerk. Und das ist ein bisschen das, was bei Tor an der Seite mitgelaufen ist, mit Hidden Services. Also Services, die ich innerhalb des Netzwerkes nativ anbiete, die haben gewisse Vorteile. I2P hat es ein bisschen verkackt, weil die haben nämlich 2003 ihr erstes Spiel dies gemacht. Und um den Quellcode anzuschauen, musste man I2P runterladen und installieren. Und dann konnte man über das I2P-Netzwerk den Quellcode holen, so dass die meisten Leute irgendwie so ein What-the-Fact-Moment hatten und die Website geschlossen haben. Weil wenn man sich irgendwie bei solch was mit dem Quellcode auseinandersetzen möchte und dazu muss ich erst mal irgendeinen Java-Binary-Blob runterladen und auf meiner Kiste ausführen, das hat ziemlich viele Leute abgeschreckt. Das heißt, die haben leider so ungefähr zehn Jahre verloren, bis sich langsam wieder Akademiker rangetraut haben und gesagt haben, OK, vielleicht ist es doch mal Zeit, sich das näher anzuschauen. Und dann gab es irgendwie zwei, drei Papers von Leuten an der Uni, die sich das mal angeschaut haben, unabhängig voneinander. Und die haben gleich mal so viele grundlegende Fehler gefunden, dass das Buch I2P eigentlich für die akademische Welt wieder zugemacht wurde. Das sind gute Jungs und die wollen auch gute Dinge machen. Und ich glaube auch, dass es inzwischen eigentlich recht nett ist, was die gebaut haben. Aber wenn man sich so verbrennt mit der akademischen Anonymity-Community, tut man sich halt keinen Gefallen und das ist ein bisschen schade, weil da ziemlich viele Brücken nicht mehr existieren, die man vielleicht haben hätte wollen. Jetzt komme ich gleich mal zu so einer Problematik, die einem oft sozusagen vorgeworfen wird oder von den Leuten, die dann zu mir kommen und sagen, Tor, ist doch scheiße, will man noch nicht haben. Dass das jetzt sozusagen die Kategorie, die ich jetzt aufmache, ist, was gibt es eigentlich so für anderes Wektoren? Meistens wird bei den Medienberichten das so dargestellt, als würde irgendwas Neues gefunden worden. Also, die Medien brauchen immer irgendwas Neues. Und ich habe deswegen hier mal einen Blog-Post, der auch entstanden ist im Rahmen von so einem Medienbericht, der irgendwie überall repliziert wurde, wo man dann mal einfach sagen musste, Leute, wir wissen das. Wir wissen das seit Anfang an. Es ist leider nicht so einfach. Und ich möchte das jetzt hier nicht komplett vorlesen. Also, erst mal das fettgedruckte Tor-Design doesn't try to protect against an attacker, who can see or measure both traffic going into the Tor-Network and also traffic coming out of the Tor-Network. That's because if you can see both flows, some simple statistics let you decide whether they match up. Ich habe die Problematik schon angesprochen bei den einfachen Remailern. Nachricht kommt rein, Nachricht geht irgendwo anders hin. Wenn ich von außen auf den Netzwerk-Traffic-Flow schaue, sehe ich genau, wo das hinfließt und kann es trivial de-anonymisieren. Und ähnlich hört sich das jetzt hier an, wäre das bei Tor die Problematik. Und sozusagen von der Kategorie her ist es dasselbe, wenn ich jemanden de-anonymisieren möchte und ich sehe den Traffic, der in das Tor-Network reingeht. Und das Netzwerk da drin muss ich gar nicht betrachten. Also es geht hier um den Traffic, der in das Tor-Network reinfließt und aus dem Tor-Network raus. Also in der Mitte gibt es irgendwie so eine Bubble. Man nenne sie Cloud, zum Beispiel. Das ist, glaube ich, so ein moderner Begriff für sowas. Was innerhalb dieses Netzwerkes abläuft, ist nicht so relevant für jemanden, der das de-anonymisieren möchte, weil er einfach statistische Methoden anwenden kann. Also einmal die Timing-Geschichte natürlich. Wenn ich das oft genug sehe, wie lang dauert es da drin eigentlich und dass es halbwegs irgendwie in einem Rahmen, der immer wieder reproduzierbar ist, kann ich da de-anonymisieren. Und das andere ist das Traffic-Volumen. Also ich weiß nicht, es gibt so verschiedene Fingerprinting-Attacken, auch Web-Fingerprinting-Attacken, wo man gezeigt hat, dass selbst wenn ich Ende-zu-Ende-Kruptur habe, ich habe HTTPS zur Website, und dann würde man eigentlich davon ausgehen, dass man jetzt als Angreifer nicht sehen kann, welche Ressourcen ich auf dieser Website genau abrufe. Aber die Problematik ist, dass halt jede dieser Ressourcen sehr eindeutig erkennbar ist von den Paketgrößen und so weiter. Also ich gehe auf YouTube und erhalte 124,328 MB großes Fall zurück, dann kann man halt ungefähr matchen, welches Fall das gewesen sein kann, was ich da requested habe. Also einmal eine statistische Analyse, Timing, und das andere sind Paketgrößen und so weiter, also grundsätzlich Traffic. Da gibt es auch immer mehr Arbeiten dazu, die echt krank sind, also die echt zeigen, wie einfach es ist. Und hier wird ein zitiert im letzten Absatz 2007, gab es ein Paper, das gezeigt hat, dass man so eine Korrelationsattacke machen kann. Also korrelieren, Traffic rein, hier hinten kommt irgendwie Traffic raus, schon bereits dann mit hoher Wahrscheinlichkeit durchführen kann, wenn man eins von 2000 Paketen hat. Und das Ganze wird jetzt ein bisschen verschärft mit Vorratsdatenspeicherung. In Dänemark ist es so, dass die Vorratsdatenspeicherung beinhaltet, ein Full Packet Capture. Die halten, ich glaube, ich wollte es eigentlich noch mal nachschauen, aber ich glaube irgendwie so jedes zweitausendste Paket muss dort von jedem ISP gespeichert werden. Also nicht jedes Paket, nicht voll irgendwie damp, das wäre auch absurd, aber gewisse Pakete werden in der Taktung dort vorgehalten. Und dann kann man sich das vorstellen, dass man da ein bisschen Bauchschmerzen bekommt, wenn man sowas im Hintergrund hat. Noch mal dazu, zeitlich zurückgehen, einfach um zu zeigen, dass es sozusagen ein bekanntes Problem ist. 2004, das Design Paper zu Tor, ist ein sehr schönes Dokument. Kann ich nur empfehlen, mal zu lesen. Da wird auch mit dem Java Anon Proxy verglichen. Java Anon Proxy, die haben dann so ein Padding eingebaut, also die Pakete schön paketiert und gleich groß, dass man so ein paar Attacken aushebeln kann. Und bei Tor war man immer sehr konservativ, was den Stand der Forschung anging. Also man wollte wirklich vorher erst mal, dass sich das, dass das durch mehrere Runden an Reviews gegangen ist, dass sich da wirklich irgendwie Kryptografen mit beschäftigt haben, Mathematiker und so weiter. Und dass man nicht einfach so mal, weil sich jemand irgendwie auf ein Bier ausgedacht hat, dass das vielleicht geil wäre, irgendwas einzubauen. Und das wird hier angesprochen, it is not demonstrated, whether the current implementations Padding policy improves anonymity. Also da gab es einfach noch nichts dazu. Und Tor hat immer den Standpunkt eingenommen, wir setzen das um, was sozusagen in der Theorie zumindest schon als bewiesen gilt. Tor does not claim to completely solve end-to-end timing or intersection attacks, not secure against end-to-end attacks. Dann zum Threat-Model. Global passive adversary is the most commonly assumed threat when analyzing theoretical anonymity systems' designs. But like all practical low latency systems, Tor does not protect against such a strong adversary. Das wird, viele Leute machen das trotzdem Vorwurf. Also viele Leute sozusagen tragen zu dem Mythos bei, dass dadurch, dass das Jahr irgendwie aus dem US-Militär kommt, dass die das sozusagen künstlich so gebaut haben, dass sie selber immer die Capability haben, als jemand, der das globalen Netzwerk in der Hand hält, die User zu deren anonymisieren. Also das ist so einer dieser Mythen, der herumschwirt. Man kann sowas natürlich nicht komplett widerlegen. Man kann sich aber eben irgendwie so versuchen, wo kommt diese Aussage her, warum steht die jetzt hier? Und wenn man sich dann überlegt, dass es viele Gruppen gibt, weltweit, die an diesen Anonymitätssachen forschen und dass das einfach der Stand der Technik ist sozusagen, dann wird dieser Vorwurf mindestens abgemildert. Also es ist einfach so, dass wenn man low latency System Systeme bauen möchte, also die anonymisieren aber gleichzeitig eben keine hohe Latents beinhalten, war es auch bereits damals ganz klar, dass das ein Problem ist. Das heißt aber nicht, dass man aufgehört hat, darüber nachzudenken und zu forschen. Dann gibt es noch die Protocol Specification, steht eigentlich auch nochmal dasselbe drin. Currently nodes are not required to do any sort of link padding or dummy traffic because strong attacks exist even with link padding and because link padding greatly increases the bandwidth requirements for running a node. Das ist die andere Sache, also da steht ja auch was von trade off. Gerade damals, wenn man irgendwie ein starkes Netz will, das schnell funktioniert, muss man sich überlegen, was mute ich diesem Netz zu? Was mute ich den Leuten zu, die da sonst selber betreiben? Historisch war es so, dass die Server an Unis standen, also es gab immer irgendwelche Departments, wo irgendwelche Leute gearbeitet haben, die sich für so eine Thematik interessieren und die haben das dann meistens geschafft, das irgendwie als Forschungsprojekt darzustellen, was es ja auch ist und dann sozusagen Universitätsressourcen nutzen konnten, um Relays zu betreiben, weil wer macht das sonst? Und da ist es auch da ist es trotzdem noch eine Frage, wie viel traffic ich wirklich pumpe. Also bei dem Java Online Proxy Modell, wo ich sage, ich habe halt wirklich nur im Wesentlichen zwei Server, die ich brauche, dann muss ich die hochskalieren und das muss halt irgendwer bezahlen. Und da sieht man, da macht man eine Firma draus und lässt die User bezahlen und es funktioniert halt nicht. Das ist eine eine der Folie aus den Snowden Leaks. Ich habe jetzt so ein paar Folien rausgeholt, einfach mal exemplarisch. Also das ist so ein nettes Zitat still the king of high secure low latency Internet anonymity, no contenders for the thrown in waiting, was so ein bisschen darauf hindeutet auf diese Alternativen, die ich am Schluss mal ansprechen möchte. Dann die Folie kennen wahrscheinlich auch viele Tor Stinks, so ein NSA Slidesatz von 2012. Da steht das hier drin. We will never be able to de anonymize all to users all the time. With manual analysis, we can de anonymize a very small fraction, no success de anonymizing a user in response to a topy request. Topy request ist, was war die Abkürzung nochmal? Das ist, wenn eine andere Behörde sagt, irgendwie könnt ihr das mal irgendwie für uns ermitteln, also dieses on demand im Nachhinein. Warum ist es so, wenn wir haben ja gerade gesagt, ist ja eigentlich relativ trivial. Da gibt es auch verschiedene Papers dazu, dieses sozusagen auf dem Reisbrett sich betrachten und sagen ja, hier haben wir diese Notes und da fließt Traffic zwischen diesen Notes. Und wenn ich da diesen Traffic sehe und da passiert nicht viel Mixing, dann mache ich meine statistische Koalitation und das kann ich auch auf Webseiten machen. Und dann weiß ich, welchen Porno du schaust und so weiter. Der Unterschied ist, dass in der Realität die Netze halt nicht so trivial gebaut sind. Also die verschiedenen Internet Exchanges und verschiedene ISPs haben verschiedene andere Abkommen, wo sie ihren Traffic jeweils hindampen. Das verändert sich ja auch ständig. Man hat irgendwelche Congestion irgendwo im Netzwerk, dann umgeht man irgendwelche Routen. Das heißt, es ist nicht so trivial für einen Angreifer, selbst für die NSA, wenn man sich die Formulierung und die Slides von denen so anschaut, die versuchen, ein relativ gutes Bild von dem zu kriegen, was was so im Internet abläuft. Aber alles, was jetzt zum Beispiel nicht über die ganz großen Carrier läuft, sind halt oft lokale Dinge, wo Traffic ausgetauscht wird. Das heißt, nicht zwingend habe ich diese Sicht auf die Daten, die man in den mathematischen Modellen annimmt, dass man hätte, wo ich halt irgendwie 100 Prozent des Traffics halt einfach sehe. Und das andere ist, dass man hat ja nicht eine direkte Verbindung von einem Relay zum anderen, sondern da ist eben irgendwie so eine Welt dazwischen, wo ja auch wieder zumindest vom Timing her und so weiter verschiedene Noise-Zustände hinzugefügt werden. Es gibt ein paar Papers, die das auch in real-welt Situationen betrachten und es ist immer noch scary genug. Also und man weiß ja auch nicht, ob das wirklich der Stand ist und das war 2012 und so weiter. Das ist nochmal was Schönes. Jetzt kürzlich im Februar kam ein Handbuch raus von der GCHQ mit einer Uni zusammen, Data Mining Research Problems. Das kann man wirklich sehr empfehlen. Also ich zitiere mal hier aus dem zweiten Absatz. One should wonder why we have been waiting for three years until such clear documents are finally being published from the Snowden revelations. If those had been the first published instead of the obscure, misleading and very non-informative slides, it would have saved a lot of time and may have even engaged the public a bit more than bad PowerPoint. Das ist George Danetsis, he is a researcher at the Uni. Ich glaube nicht, dass dieses mit dem Engagement der Public wirklich so funktioniert hätte, weil das ist halt, ich glaube, das sind irgendwie 120 Seiten Research Document. Also, aber kann ich nur sehr empfehlen, ist geil zu lesen, hat geile Grafen drin. Da erklären Sie auch noch mal ein bisschen was über zu deren Exploit-Strategie, also wann Sie Systeme wirklich angreifen und so weiter, wie Sie das technisch machen, dass Sie halt Hadoop einsetzen, um die Datenmengen zu analysieren und so weiter. Und jetzt gehe ich mal in den oberen Paragrafen hier. There is clear evidence that timing information is both recognized as being key to correlating events and streams and it is being recorded and stored in an increasing granularity. There is no smoking gun, as of 2011, von dem, wo das, wo der Report geschrieben wurde, to say they casually de-anonymized tour circuits. But the writing is on the wall for the onion routing system. GCHQ had all the ingredients needed to trace tour circuits. It would take an extraordinary incompetence to not have refined the traffic analysis techniques in the past five years. Das ist dieses Ding und ich habe mal eins rausgenommen, wo Sie auf Tor eingehen, interested in using information flows to find tour routes, identify back hall routes and map botlets. Hadoop prototype, hidden otter, simple temporal chaining. Also, das sah so aus, als hätten die da eben so ein paar Research-Sachen identifiziert, wo es halt vielleicht schon mal ein Prototypen gab, irgendwie so ein Test. Und das war halt so der Standwohl damals. Also nochmal so ein bisschen zurück, was ich jetzt so erzählt habe, einmal sozusagen die historische Einordnung, wo ist das Ökosystem, was ist Tor eigentlich, woher kommt es? Wichtig da noch zu wissen, ich gehe noch mal kurz zurück, ist diese Remailer. Man kann sich auch die Personen anschauen, die damals bei den Remailern aktiv waren. Es gibt da zwei, drei Leute, die haben einen Cypher-Punks Remailern mitgebaut, haben dann Mixmaster gebaut. Mixmaster und Mixminion ist im Wesentlichen die Arbeit von Nick Matthewson. Und Nick Matthewson ist der Core Tor-Developer. Das heißt, warum wandert man weg von Systemen, die eigentlich eine höhere Anonymität bieten, zu was, was weniger sicher ist? Also das war ja jetzt so ein bisschen die vereinfachtende Nachricht ist. Remailer highlighten Sie Anonymitie, kann man recht sicher machen. Und die Leute, die jetzt an Torarbeiten haben, das probiert. Es ist nur so, dass man da halt kaum User drauf kriegt. Also das wäre vielleicht heutzutage noch mal was anderes. Man muss sich aber überlegen, welches Message-Format supportet man, welche Anwendungen können realistisch mit so einer hohen Latenz klarkommen. Und die Anonymität eines Systems hängt auch davon ab, wie viel Nutzer ich habe. Also wenn halt nur drei Hanseln dieses System nutzen, dann kann ich sie halt gut auseinanderhalten. Wenn ich das System habe wie Tor, wo zwei Millionen Nutzer am Tag da sind. Und wenn ich dann in den Land reinzoome und sage, da gibt es immer noch ein paar tausend Leute, habe ich allein schon durch die Anzahl der Leuten, die das benutzen, eine höhere Anonymität. Das heißt, man kann es auch noch mal nachlesen so in diesem Switch von, von, hey, wir machen wirkliche Anonymität. Auch was halt passiert ist es natürlich Usenet ist irgendwie ausgestorben und diese ganzen E-Mail, wenn ich mit Leuten jetzt spreche, mit jugendlichen E-Mails, für die auch tot. Also man ist da halt weggekommen. Aber wichtig für mich ist, das sind immer noch dieselben Leute. Also es ist nicht so, dass irgendwie das US-Militär sich ausgedacht hat. Wir wollen das jetzt genauso machen, dass wir es noch knacken können und niemand anderes, sondern das sind wirklich Leute, die unabhängig davon an dem Zeug forschen und immer noch dran sind, die nichts mit dem US-Militär zu tun haben. Also genau, genau, genau. Die andere Problematik, das hatten wir auch, es war ganz nett vor drei Tagen oder so war ich hier im Radio und der Tor hat mich gelöchert, weil ja die Exits den Traffic sehen. Also es ist ja de facto so, wenn ich irgendwie eine Webseite abrufen möchte über das Tornetzwerk, ich pack das dreimal ein. Der erste Relay, mein Entry-Node, entfernt seine Schicht, gibt es an den zweiten. Der zweite entfernt seine Schicht, gibt es an den dritten. Der dritte entfernt die Schicht und sieht meinen Request. Weil den muss er sehen, weil er den ausführen will. Er will ja sozusagen die Webseite für mich holen und mir dann zurück schicken. Und Joe ist da ziemlich drauf rumgeritten auf diesem Fakt, dass man nicht weiß, wer dieser Relay ist betreibt. Beziehungsweise hat er es noch krasser formuliert, er hat gesagt, ja die meisten werden ja eh vom Geheimdienst betrieben. Das heißt, wie so oft sind da, es sind immer irgendwelche Wahrheiten dran, aber es geht so ein bisschen an dem vorbei, was eigentlich so der zentrale Punkt ist. Und jetzt sollte ich irgendwann mal schauen, wie viel Zeit ich überhaupt noch hab. Hat jemand Uhr? Minus ein Minuten. Ja, dann kann ich ja noch ein bisschen machen. Ihr schmeißt mich dann schon raus, oder? Also ich labe jetzt einfach weiter. Irgendjemand muss mich hier von my cold dead hands runter kratzen. Also wer betreibt die Relays? Die Frage ist so ein bisschen, was bringt einem das überhaupt, wenn man Relays betreibt? Wenn ich, ich habe jetzt davor immer nur davon gesprochen, dass ich die Relays überwache und den Traffic überwache. Und gerade so im Exitbereich ist es ja so, der Exit entfernt seine Verschlüsselung, hier diese blaue Verschlüsselung und schickt dann den plaintext oder was auch immer den ursprünglichen Request ins Netz raus. Das heißt, als jemand, der sich dafür interessiert und diese Koalitionsgeschichten machen möchte, habe ich eigentlich gar keinen Anlass, die Infrastruktur zu betreiben. Ich kann das Ganze viel schöner machen, indem ich mir den Trafficanschauer, der aus diesen Boxen raus und reinfließt. Und auch am Entry, wenn ich den Betreibe, habe ich eigentlich überhaupt keinen Vorteil. Also das Einzige, was ich da machen kann, ist so ein bisschen denial of service, indem ich sage, ich leite das jetzt nicht weiter. Aber ich gewinne keinen Vorteil, davon den Relay-Key von dem Entry-Note zu haben, weil der nur dafür da ist, einfach diese äußere Schicht wegzunehmen und das dann wieder weiter zu reichen, wie man ja hier auch so schön sieht. Das heißt, wenn ich den Traffic sehe dort, reicht mir das völlig für eigentlich die meisten Angriffe, die man sich so vorstellen kann. Die andere Thematik bei, wer betreibt die Exits? Also was kann man dort machen? Immer dann, wenn da plaintext drüber läuft, kann ich das natürlich sniffen. Ich kann da auch eingreifen. Joe hat gemeint so SSL stripmäßig. Also ich will eine Webseite erreichen. Die hat eigentlich HTTPS, aber auch unterwegs dorthin wird mir vorgespiegelt, der Ziel hätte kein HTTPS. Und dann in der Folge ist alles plaintext, so grob. De facto ist es natürlich so, dass inzwischen immer mehr Zertifikate gepinnt sind in Browser. Also Browser bringen eine Riesenliste mit an Webseiten, für die sie definitiv keine plaintext-Connection mehr aufbauen würden. Bei Mail auch, die Providers sind dankbar, aber weiß er eigentlich alle zu verschlüsselten Protokollen gegangen. Star-TLS ist noch immer so eine Problematik, weil das kann ich natürlich einfach rausschmeißen. Also den Request bitte in Zukunft verschlüsselt kommunizieren. Kann ich unterdrücken. Was wir bei Tor haben, ist, es laufen kontinuierlich Skripte, die die Exits testen. Also es gibt so eine Palette an 20, 30 Dingen, die da getestet werden. Also ob der Exit irgendwie mit dem Traffic irgendwas anstellt. Zum Beispiel auch so Honeypot-Geschichten. Also du kannst da ja im plaintext irgendwelche Pop-3-Requests durchschicken und dann schaust du halt, ob in Zukunft jemand sich mit den Lockins einlockt. Und dann weißt du, dass der Exit Lockins mitsnifft. Ich würde eigentlich gerne irgendwie noch weitermachen, aber weiß nicht, wie ihr das seht. Okay, die Frage, die mir jetzt eingefallen ist. Wie sieht es mit den Onions-Seiten aus? Also so Dinge, die das Tor-Netzwerk nie verlassen sozusagen. Kannst du dazu was sagen? Ja, also bei die Frage war, ich wiederhole nochmal Hidden Services, wie das da ausschaut. Die sind Ende zu Ende gekrübtet. Also da kann niemand was eingreifen. Der Vorteil von Onionsites noch durch diese URL, die du hast, die ja ein Hash von dem Public Key ist, der Seite. Umgehst du die Problematik mit Certificate Authorities. Also klassischerweise hat die TPS benutzt ja Certificate Authorities, um dir zu signalisieren, dass das das gültige Zertifikat für diese Seite ist. Das heißt aber auch jeder andere, der irgendwie eine Kontrolle hat über den Certificate Authorities, kann ein gültiges Zertifikat ausstellen, dass der Browser akzeptiert und das wird dir nicht als Warnung angezeigt werden. Bei Hidden Services ist das sozusagen Self-Authenticating. Wenn du die richtige URL hast, dann heißt es, dass sozusagen der Key auch passend ist. Sonst könntest du mit der Seite gar nicht kommunizieren und das Ganze ist Ende zu Ende verschlüsselt. Wenn du HTTPS über Tor benutzt, hast du die Problematik auch nicht. Also der Exit hat ja nur sehr begrenzte Fähigkeiten. Der müsste dir ein gültiges Zertifikat unterschieben. Und inzwischen ist es eben so, dass in den Standardbrowsern, eigentlich ist es so bei HTTPS, jede Certificate Authorities kann für jede Domain Zertifikate ausstellen. Inzwischen ist es aber so, dass man signalisieren kann, als Seitenbetreiber, welche Certificate Authorities man benutzt. Und dann können auch nur noch die gültige Zertifikate ausstellen. Also dankbarerweise gibt es da Verbesserungen. Also die Problematiken, die ich jetzt anspreche, gelten nur für den Standardnutzungsfall von Tor, wenn ich normale Ressourcen im Netz erreichen möchte. Also Bob hier und Bob 2 sind außerhalb des Tor-Netzwerkes, nicht innerhalb des Tor-Netzwerkes. Beantwortet das so ungefähr? Das ist das Niveausfall, dass du sozusagen mit der Größe der Seite, die du requested wird, zum Beispiel von einer HTTPS-Seite, arbeitest. Du weißt, wie groß das ist, dann weißt du, was dieserjenige hier ... Genau, das habe ich jetzt schon angesprochen. Diese Koalition über Traffic-Pattern, die ist problematisch sowohl für Hidden Services als auch für HTTPS oder sonstigen Traffic. Das ist auch schwer zu erledigen, außer du pumst die ganze Zeit konstant Traffic durch das gesamte Netzwerk. Das wäre das Einzige. Das ist bei Onionsseiten dasselbe. Dann ist meine Frage beantwortet. Ich habe hier noch ein paar schöne Slides, die geliegt wurden. Das trägt zu den Mythos bei, dass Geheimdienste Relays betreiben würden. Es ist aber de facto so, wenn man sich die genauer anschaut, das sind alles immer ein paar Research-Gruppen. Das sind ganz unterschiedliche Gruppen, die ja unterschiedlich rangehen. Wir haben mal testweise ein paar Exits betrieben und uns angeschaut, was wir damit so machen können. Auch hier auf dem Niveau gibt es nicht so ganz klar, weil eigentlich gibt es nicht wirklich Vorteile, wenn du die Server betreibst. Das habe ich ja schon angesprochen. Auch unten die Conclusion hat schon ein Potential External Space die Anonymisation Attack. Da geht es eben gar zu Client Packet Times. Das heißt, da geht es wieder um diese Koalationsattacke. Wie inwiefern das wirklich live gegangen ist, solches, was man in der Situation hat, wie gut die funktionieren, kann man nur gutmaßen. Das, was man immer sieht, sind Researcher, die da so ein bisschen rumtesten. Genau, das ist dieses Ding. Das kann man auch online sehen. Das wird man nicht lesen können. Man kann es aber ausführen. Der Vorteil bei Tor ist, oder der Nachteil ist, dass alle Relay-Informationen öffentlich sind. Der Torclient, den man benutzt, muss diese Liste an Relays haben, um die Bade aufbauen und connecten zu können. Man muss die ganzen Public Keys haben, der Relays. Das heißt, man kann da auch schöne Analysen drüber machen. Es gibt ein ganzes Portal, matrix.torproject.org, was so verschiedene Sachen auswertet. Ich habe jetzt selber mal was zusammengeskriptet, weil ich mich dafür interessiert habe, wer sind eigentlich die großen Betreiber? Man kann so eine Kontaktinfo hinterlegen bei einem Relay. Also, was man hier sieht, ich habe das gestern ausgeführt, die Relays im Netz. 1.000 davon sind Exit-Relays. Exit-Relay heißt nicht, dass die ausschließlich Exit-Traffic tragen. Sondern die können genauso gut für den mittleren Punkt benutzt werden und auch als Entry. Das heißt, die gesamte Bandbreite habe ich mir mal hier berechnet. Es sind so knapp 5.000 Megabyte pro Sekunde, die durchs Netz gepumpt werden. Und dann habe ich mir davon die 80, sozusagen 80% der Bandbreite genommen und geschaut, wie viele Relays das noch sind. Das heißt, 80% des Exit-Traffics machen 281 Relays, die im Netz sind. Und dann mal den schnellsten darunter, den langsamsten darunter, ich weiß nicht, ob ich das wirklich lesen kann. Und dann habe ich mal die Kontaktinfo angeschaut und die gemirrt, die dieselbe Kontaktinfo haben. Fahr sie deswegen, weil da manchmal ein bisschen unterschiedlich Riesen drin sind. Aber in dem Screenshot hier gab es da keine Unterschiede. Und dann sieht man, dass knapp die Hälfte hat keine Kontaktinfo angegeben. Das sind 54 Relays aus den 281. Und dann sieht man halt hier so ein paar Betreiber. Als jemand, der sich sehr viel damit auseinandersetzt, wer eigentlich so Relays betreibt und wie viele Relays zu betreiben, die meisten hier kenne ich. Also zumindest die, die Kontaktinfo angeben kann ich zuordnen. Entweder sind die im Tool-Servers nett verbunden oder ich kenne die anderweitig und habe keine Probleme, denen zu vertrauen, diese Server zu betreiben. Aber das ist natürlich was, wo man, ich wollte nur mal darauf hinweisen, dass es so ein relativ einfacher Skriptin gibt, um sich mit diesen Daten zu beschäftigen. Also nur mal die Einladung, wenn ihr da skeptisch seid, wenn ihr da irgendwie kritisch drauf schauen wollt. Es macht momentan keiner wirklich in die Tiefe und schaut sich das Detailier da an. Ich bin da gerne auch bereit, da gemeinsam dran zu arbeiten, wenn das jemand genauer aushärten möchte. Das ist einfach ein freiwillig angegebener String. Es ist sogar so, dass ich habe eine Zeit lang für die Contacts online gehabt und die Leute haben die Template übernommen, ohne die Contact-Info zu ändern. Es gibt eine Nummer an Relays, von denen habe ich keine Ahnung und die tragen meine Contact-Info. Die Frage war, dadurch, dass wir über die Zeit sind, weil Laptop-Problematiken und ich rede zu langsam oder zu viel, ich habe zu viel Stoff dabei, ob wir einen anderen Raum finden, weil hier der wohl gebraucht wird. Aber ich glaube, man kann das on the fly. Seid ihr da irgendwie, wartet ihr auf den nächsten? Aber ihr seid nicht die, die den Vortrag halten. Ach, die stehen schon draußen. Na ja, dann sollt ihr halt noch ein bisschen warten, oder? Solange noch niemand hier mich vom Tisch kratzt. Wir können auch fortsetzen. Ich glaube, da ist dieser Schatzmeisterreiter in Parallel, die ich auch mache. Wir können das jetzt nicht fortsetzen. Da gibt es irgendwie Leute, die mich hier weg haben wollen. Zensur. Ich weiß nicht, ob den Plan jetzt gerade nicht da. Ja, also ich werde mal schauen, dass ich irgendwie ein Slot auftreibe und dass man den irgendwie kommuniziert kriegt, dass der im Fahrplan landet. Im Zweifel morgen. Also, ja.