 So, alle miteinander. Der Tonschiff. Ich bin okay. Hallo zusammen. Ich bin der Codie++ oder CodiePP auf dem Github. Ich habe mir eine lange Zeit Gedanken gemacht zur Kryptografie und möchte euch das gerne heute vorstellen. Ich konnte das Projekt jetzt ein paar Jahre durchziehen und jetzt auch publizieren, in diesem Sinne auf dem Github. Das Thema ist Kryptografie, also mit Daten umzugehen und vor allem Aspekt Privacy oder Privatsphäre, die drin hochzuhalten. Wie auf diesem Beispiel über den junge Mann, den wir hier als Business machen, mit seinen Füttern aus dem Kriegsgebiet. Ich muss sich auch Gedanken machen, wie man das transportieren kann. Auch die Authentizäte von seinen Pfeils, dass sie ihn gehören. Und auch Integrität, also wenn er es überträgt. Und andere Herren haben uns hier gezeigt, was man so mit Daten auch machen kann und wer auch interessiert, ist auf Daten. Und das zum Beispiel so Sicherheitsdienst oder Nachrichtedienst, auch ihre internen Daten nicht verschlüsselt, sondern dass jeder Absauger Zugriff hat. In diesem Fall werden die Daten zu taten, also Whistleblowers, die uns mitteilen und einen wichtigen Beitrag leisten in der Gesellschaft. Die aktuelle Geschichte ist eigentlich zum Beispiel in der Türkei, die Schliessung der Zeitungen. Dort werden massiv Daten abtreiten und, wie man hier sieht, mit diesen Nachrichten, die ich auskoppiert habe, werden auch benutzt, um etwas zu unternehmen. In diesem Fall werden die Daten zu waffen. Was ist das Problem mit dieser Verschlüsselung? Da wird behauptet, dass die türkische Regierung die Nachrichten entschlüsseln können und dadurch können Tausende von Anhänger von diesem Güllen identifizieren und im zweiten Teil nachher unternehmen sie auch Aktionen gegen diese Leute, zum Beispiel Enteignungen, Verurteilungen, also immer, also an der Hand zu stoßen. Die Problematik ist, wir alle sind irgendwie mit einem Lock in die Bunde an Plattformen, wie wir vorgesehen, wie der Office 365 oder Amazon Wolken, irgendwelche Sachen. Vertrauen wir diesen Services? Können wir diesen Services überhaupt vertrauen? Das andere Problem, das ich nachher noch weiter ausführen möchte, ist eigentlich die Alterung der Verschlüsselung. Also, wenn wir heute verschlüsseln, können wir dann sicher sein, dass das für die nächsten 10 oder 20 Jahre verhebt. Der unterpunkt auch Datenübertragung. Wir haben Protokoll, die sicher sind. Es wird aber auch immer wieder aufgezeigt, wie man sieht, mit den Angriffen auf HTTPS und so, die ISL, die sind nicht sicher. Also, Speicherung. Wir müssen die Daten auf einem Medium ablegen, um wieder zu beschaffen. Da müssen wir uns Gedanken machen, der erwartete Lebenszeit der Medien ist irgendwie beschränkt. Wir müssen das natürlich unterhalten. Und wieder Herstellung und Entschlüsselung können wir in Zukunft, wenn wir das jetzt aufhalten möchten, um 20 Jahre noch Entschlüsselung zu haben. Und was kommt dann raus? Vielleicht kommt das PDF raus, in einem Format 1.4, wo man dann gar nicht mehr leisen kann. Aber das ist ja ein anderes Thema. Das Ganze ist mit Problemen behaftet. Und mein Interesse ist jetzt vor allem zu schauen, was mit der Alterung der Verschlüsselung eigentlich los ist. Was das Beispiel hier aufzeigt, in dieser Grafik, die blaue Linie ist einfach die konstante Annahme, dass die Verschlüsselung zu 100% verhebt. Also, blau ist die Verschlüsselung. Und rot ist die Linie vom Computing Power, die ansteigt. Also, mit Moore's Law haben wir eine Verdoppelung alle eineinhalb Jahre. Also, wird der Computing Power immer stärker. Und die philosophische Frage ist eigentlich, zu was wird der Computing Power gebraucht. Da wird wahrscheinlich dazu gebraucht, um Verschlüsselungen zu knacken. Zum Computing Power gehört auch dazu, dass man Fehler findet. Dass es also eine Verschlüsselung, die 128 Bit ist, im Key, dass die vielleicht nur noch effektiv 126 Bit ist, dann kann der gewisse Angriff starten. Und die gestrichelte Linie ist eigentlich die effektive Stärke der Verschlüsselung über die Zeit. Also, wenn wir das historische Beispiel ansehen, mit dem DS-Verschlüsselung vor 20 Jahren, dann muss man sagen, die haben zum Zeitpunkt T0 das verschlüsselt und angenommen ihre Stärke bleibt konstant, aber effektiv ist es eigentlich der Entwicklung dieser gelben Kurven gefolgt. Und DS ist heute knackbar, muss man sagen. Und das wird wahrscheinlich auch mit anderen Verschlüsselungen passieren. Mit anderen Algorithmen, die man heute benutzt, wird man das heute festlegen. Und dann ist es fixiert für die Zeit, in der man die Daten aufhalten will. Am Rand noch bemerk ich, dass man vor allem eine schlechte Pseudo-Random-Number-Generators benutzt. Also, das wäre vielleicht auch ein Thema, um das hier zu gehen. Jetzt mit einem Projekt, den ich gestartet habe, möchte ich genau dem entgegenwirken. Also, ich suche eine Verschlüsselung, die mathematisch aufzeigt, dass ihre Stärke über die Zeit eigentlich zunimmt. Das wäre eine Lösung von diesem Dilemma, dass sich dieser gelben Kurve, dieser effektiven Stärke, folgen müsste. Auch hier ist wieder die roten Kurve, der Computing-Power geht schon auf. Aber durch den Algorithmus, den man benutzt, werden wir eine stärkere Verschlüsselung haben, indem wir mehr verschlüsselt. Wir machen dann verschiedene Sachen. Wir nehmen den One-Time-Pads mit AES-Verschlüsselung. Das ist der Standort, wie andere auch machen. Was ich dann mache, ist, dass ich diese Daten aufsplitte in die gleiche Teile. Und ich mache nicht die lokale Date in diesen Teilen abspeichern. Also, dass ich das Junking mache vom verschlüsselten... vom verschlüsselten... ...Ereich. Und wenn man diese anonymisierten Daten dann poolen, dann kann man automatisch aufzeigen, dass es sehr schwierig wird, ohne den Zusatzwissen, ohne den Key, den Zusatzkey, diese Daten wieder richtig zu arrangieren, um zu entschlüsseln. Darum ist die Behauptung, dass die Blaukurve von uns eigentlich ansteigt, weil wir den Pool ausweiten und dadurch auch entgegenwirken können, der Ausweitung von Computingpower, die uns so stattfindet. Darum ist unsere gelbe Kurve eigentlich ansteigend und sie wird nicht geschnitten von Computingpower. Also, der Zustand im traditionellen, wo die Blaukurve, wo unsere Verschlüsselung geschnitten wird mit Computingpower, das ist eigentlich den, wo es nicht mehr effektiv ist und mit dem neuen Ansatz ist das eigentlich nicht mehr möglich. Wie komme ich da an? Genau, ich könnte auch noch kleine Animationen zeigen, wie diese Daten jetzt aufbereitet werden. Ich klick da mal drauf, wo passiert etwas? Ist da eine Nummer? Nein. Moment. Browser, ich muss sogar Internet heute. Gerade nicht mehr. Moment. Ich kann das hier noch laden. Es geht schwierig aus, moment. Ähm, ja. Moment, ich komme. Jetzt sollte man über den Bildschirm mehr hören. Wieso läuft jetzt meine Animation nicht ab? Okay, ich muss sie nachher anschauen. Machen wir mal ohne. Aber ich kann das Wort erklären. Ja, also, wir werden verschlüsselt in einem Block von, sagen wir, 64 Megabyte. Wir füllen mit unseren Daten. Immer wenn die 64 Megabyte gefüllt sind, den Paffel, dann werden wir verschlüsselt mit dem AS265 Kilobytes mit Algorithmus. Und wir füllen zielerweise in Row Orientation. Das nämlich wir dann nicht mehr lokale Daten in den Rows in den Callums haben, weil wir ja mit Zielen eingefüllt haben. Aufsteigende Adressen werden wir nachher kolonenweise auslesen. Dann haben wir im Ziel, in den Zieldatei die miteinander abgespeichert werden. Und aus dem Sommer Paffel von 64 Megabyte generieren wir 256 einzelne Pfeils, die anonymisiert sind. Die sind nicht mehr zuordentlich aus welchem Bereich die Paffel kommen. Und wenn wir das jetzt anschauen und ausrechnen, was Komplexität ist, wenn wir jetzt einen Pool von 4.096 Chancen haben, die haben wir schon gesammelt. Die kommen von anderen Leuten oder von uns, die sind verschlüsselt in Chancen. Wir haben jetzt einen kleineren Paffel von 4 Megabyte mit 16 Teilen, wie auf diesem Beispiel. Und in dieser Chancen ist es 56 Kilobytes. Dann gehen wir hier auf, bei 2 auf 12 die Komplexität von 150 Bit 250 Möglichkeiten gibt's um 16 Teile aus 4.096 in richtiger Einfall auszulesen. Und das ist jetzt nur Komplexität von dieser Anordnung, wenn wir diese Anordnung nicht kennen. Das ist noch gar nicht verschlüsselt mit dem AES. Und jetzt mal ausgeschrieben ist das eine schöne Zahl mit 45 Null hinterher. Das ist Komplexität, die wir nur schon erreichen, indem wir die Teile aufteilen und sozusagen ein Pooling für diesen Chancen machen. Wenn wir die Komplexität erhöhen, wir haben 2, 30 oder 64, dann sind wir die Paffers grösser, aber wir haben dann mehr Slices oder Chancen, damit die Komplexität immer höher, um die korrekt anzuordnen. Also, die Lösungsansätze, die ich hier jetzt mit dem mache, ist, es passiert auf AES, die Normalstandardsverschlüsselung, aber mit den Daten, dann Chancen, dann können sie nämlich transportieren, wir können sie redundant halten. Wir denken, dass diese Verschlüsselung jahrzehnt wird, es wird für den dritten wahrscheinlich nie möglich sein, wenn wir einen Teil von diesem mit Cloud aufzuspeichern oder einen Teil von diesem auf die CD brennen, dann ist es für den dritten nie möglich, die all die Daten zusammenzubringen und die Paffers wieder rekonstruieren können. Wir wollen das eben poolen, dass also verschiedene Source-Daten zusammenkommen. Die sind alle anonymisiert, die kann man nicht unterscheiden. Das erhöht in dieser Grafik hier unten, wenn man den Pool-Size unten anschaut. Wenn man hier eines aufgeht, dann gibt es so nicht so viel Komplexität mehr. Also 4.060 Chancen in diesem Beispiel, das war jetzt auch nur ein Gigabyte von Source-Daten. Bei der Therapeit haben wir dann schon 4 Mio. Chancen. Das kann ich gar nicht mehr rechnen. Wie verbiet es denn das? Wir wollen dann das Redundant abspeichern, die Chancen, die anonymisierten Daten, sichern Transport und was wichtig ist für die Langleibigkeit, wir machen dann also ein Speichermedium Hopping, also wir tun das jetzt auf einem Disk abspeichern, aber der Disk lebt vielleicht 3 Jahre und wir haben unsere Daten für 20 Jahre abspeichern. Sprechen wir mal ein paar Jahre und die Antikopie einfach wieder auf den neuen Träger spielen. Aber das ist einfacher, wenn wir eine Ansammlung von so kleinen Chancen haben, als wenn wir jetzt eine 4 Gigabyte oder 5 Gigabyte Video haben, die in einer Datei ist. Applikationen haben wir, die ich sehe im Moment, ist digitale Archive für Long-Term-Storage oder auch Backup mit Dedublikation, also dass wir noch die Daten wieder neu abspeichern. Dadurch auch wieder das End Designs von Pool ausdienen. Und das andere ist Laptop-Mode, wo man sagt, ok, ich habe eine Plane in Installation von einem OS auf meinem Laptop und meine Daten habe ich jetzt junkt verschlüsselt und irgendwie auf einer zweiten Partition abgeleitet. Die kann ich dann in meinem Zielland wieder rekonstruieren, auch mit anderen Teilen, die ich z.B. aus der Cloud abgeladen habe. Dass auf diesem Rechner eigentlich gar keine Allidaten darauf gewesen sind, dass ich das wieder entschlüsseln könnte. Das Projekt ist wie... Ah, jetzt kommt er. Das ist aber nicht sicher. Es ist noch Grafik zum Laptop-Mode. Wir sagen, wir haben ein Laptop und ein Teil dieser Chancen mit sich treibt. Und im Zielland, wenn wir das wieder herstellen, unsere Daten, das complementieren wir durch die Daten, die wir über das Internet abgeladen haben. Die Schlüssel, die Metadaten, die man immer braucht für das, die müssen wir auch auf einem sicheren Medium, außerhalb des Laptops aufbewahren und mittransportieren. Aber das wäre die Idee, dass man das auf dem... Das Projekt ist auf dem GitHub. Es gibt den Source-Bereich oder einen Doc-Bereich, den wir vorgesehen haben. Mit dem Laptop-Mode sind ein paar Sachen beschrieben. Es ist Open Source mit der GNU-License. Dort denken wir vor allem, das bildet Trust. Wenn man sagt, das kann man reviewen und es wäre auch spannend, wenn man neue Kollaboratoren findet für das Projekt, und kritisch hinterfragt. Das Ganze ist geschrieben in F-Sharp und läuft auf .NET oder auch Linux Mac mit dem Mono-Environment Framework. Es hat bis jetzt einfach Command-Line-Interfaces für Backup und Restore. Und in Zukunft möchte ich das noch ausweiten mit GUIS und Services, dass das auch ein Kommerzelle-Beneutzer interessant wäre. Wettetesting und Testinstallationen sind in Planung und schon durchgeführt zum Teil. Es gibt viele Organisationen, die viel Daten haben, die man stark absichern muss. Also NGOs und Kommerzelle-Budeln. Das ist ein Ziel. Wenn ihr Interessen hättet wäre es spannend, wenn ein Paar mitmachen würde. Kritisch das anzuschauen und mal benutzen. Und ja, wo man das sonst noch einsetzen könnte oder was man auch machen könnte. Eine Idee wäre zum Beispiel Content Delivery. Wir leben alle im Zeitalter von Okamai. Kommerzelle Dienst mit seinen Filters. Könnte man auch so Content Delivery machen? Ja. Haben wir Fragen dazu? Eindrücken? Kritik? Ist es klar gewesen, wie es funktioniert? Die Verschlüsselung? Könnte ich ein Beispiel machen, ich habe nicht das eidatei und ich möchte für immer aufbewahren, sodass nur ich auf den Inhalt zugreifen kann. Wie würde das funktionieren mit dem System? Was für Softwarekomponenten braucht es mehrere Computer? Könntest du das an diesem Beispiel durch einen Erklärer bitten? Genau, ja. Du brauchst noch ein Computer, also grundsätzlich um die Verschlüsselung zu machen und dann die Software self-contained ist. Das Beispiel läuft eigentlich wie auf dieser Grafik dargestellt. Wir arbeiten immer mit so einem Buffer, die bestimmte Grösse hat. Dann beschreiben wir die mit den Daten in die Ziele richtig. Das sind verschiedene Farben und verschiedene Dateien, die wir abspeichern. Dann tun wir ein Buffer, dann ist deine Datei noch nicht ganz abgespeichert. Aber ein Teil wenig. Dann tun wir den Buffer und dann sind dann die Zahlen, die darüber reinkommen. Wir machen den Schaffling von diesen Columns und aus praktischer Gründe rotieren wir das. In diesem Sinne, dass wir nachher wieder zielenweise lesen können. Aufsteigende Adresse. Das wird dann nachher trennt und schlussendlich in einzelne Files, also eine Ziele schwarz-weiß. Das ist dann ein Datei, sondern ein Junk. Und praktisch würde es ablaufen, dass du dann ein Disk-Bereich ist, wo die Junks nachher aufbewahrt werden. Und im anderen Bereich, was aus dem Algorithmus herauskommt, sind Keys, die One-Time Pads, die Random Keys. Die werden dann mit den Metadaten, was für Files und wie checksums sind im anderen Bereich abgespeichert. Wichtig ist auch, dass die Metadaten die Keys privat bleiben. Nur die Junks, die einem musiert sind und nur Daten sind, sind auch nicht lokale Dateien abgespeichert. Die kann man dann irgendwie abspeichern. Es bietet sich dann eben also Distributed File Systems zu nehmen. Hadoop, HDFS oder ExtremeFS dass man das mit Redundanz auf verschiedenen Rechnern abspeichern kann. Dann kann man dann auch relativ easy eine Bridge have auf Cloud Services und so. Ich lerne das ein bisschen, da ablaufen. Ja, ja. Jetzt ist es besser, Jan. Aber du sagst, es ist letztendlich für jeden Junk mit One-Time Pad verschlüsselt. Also das ist Teil von dem Prozess. Der Buffer, also sagt man die 64 MB. Also One-Time Pad heisst du hast entsprechenden 64 MB grossen Schlüssel dazu. Ja, nein, wir haben einfach ein One-Time Schlüssel, das wir nehmen. Also es ist nicht One-Time Pad. Nein, nein, genau. Ja, du hast recht. Also es ist AES und wenn du die verschlüsselten Daten redundant ableist, aber du hast den Schlüssel nur einmal und du verlierst die Kopie, dann hast du eine Kopie. Ja, also dann ist es letztendlich das ganze Konstrukt, hat in diesem Sinn keine Redundanz. Also das schützt vor dem Ausfall von einem Speichermedium, wenn es zufällig das ist, wo der Schlüssel drauf ist. Für den Schlüssel zu verspeichern oder ausdrucken, nicht Quirkot zu machen, dass man es irgendwann wieder einlassen kann auf den physischen Speichere. Also beide Teile brauchen eine Art Strategie. Aber wenn man den Schlüssel verliert, ist es natürlich fertig, dann kann man das nicht mehr wiederholen. Weil die Komplexität, wie ich aufgezeigt habe, da waren wir jetzt bei einem Gigabyte Taten, die 4.690 Chancen geben. Und wenn ich 16 aus diesen 4.690 auslesen muss und in die richtigen Reihenfolge sozusagen aneinander heften, dann brauche ich schon 10 oder 45 Möglichkeiten. Also jetzt kann man ohne zu, so zu wissen, nicht machen. Wie funktioniert der Restore? Also wenn ich eine Art Gleit habe, wie finde ich denn die richtigen Chancen in der richtigen Reihenfolge? Genau. Das sind Metadaten, die anfallen. Wo du neben dem privaten Bereich musst speichern. Und du musst den Restore wieder zur Verfügung stellen. Also sind die Keys und die Anordnungen. Und da drinnen suchst du auch deine Files mit Namen oder Jaxam oder so. Und er benutzt das wieder zum Puffer. Also er geht den Weg in die Retour und holt die Chancen, die er braucht. Er setzt die zusammen zu dem Puffer und dann hast du wieder 64 megabyte von deinen Daten. Und dann macht er den nächsten Puffer und so. Eine alternative Strategie wäre eigentlich oder wenn man sagt, wir machen einfach eines Files, die bestimmte Größe, das Video 5 GB, verschlüsselt man einmal, und dann sind aber all deine Daten sozusagen da draussen. Und der Angriff wäre dort eigentlich nur, den Key zu gessen. Und dann die Entschlüsselung damit zu starten. Dass du irgendwie wieder auf ein Wurstext kommst. Aber wenn du jetzt nur schon von deinem 5 GB die Files, oder wirst du einfach irgendwie die Hälfte abschneiden und dann das File noch zusammensetzen dann weisst du nur du wie du das gemacht hast, oder? Dann hättest du eigentlich einen ähnlichen Effekt wieder angetzten, oder mit diesem Algorithmus. Für einen anderen ist Not Obvious, wie du jetzt das wieder zusammengesetzt hast. Und er kann dann eigentlich die Verschlüsselung gar nicht angreifen. Es geht eigentlich um der Schutz dieser Verschlüsselung, die wir anwenden. OIS, früher das DS. Dass man die nicht angreifen kann, dann die verschlüsselten Daten schon so anordnen. Also werdet ihr die einzelnen Chancen, du hast gesagt irgendwo 256 Kilowatt ist eine. Also so eine wird als Stückchen OIS verschlüsselt. Oder wird das File als ganzes OIS verschlüsselt und dann in die Chance aufteilt. Genau, der Buffer wird verschlüsselt. Auch mit Chain Mode, oder? Und dann die anderen Orientierungen, die Kalms auszuschneiden und in Files legen, genau. Die Files sind alle gleich gross. Da kann man auch den Timestamp manipulieren und so. Und sonst beinhaltet die keine Methodaten. Also die kann man dann, es gibt kein Signal, den man dann wieder zurückverfolgen kann. Das ist aber ein wichtiger Punkt. Wie würdest du denn vorschlagen, würden wir das Schlüsselmaterial und die Methodaten aufbewahren? Also sagen wir, ich würde jetzt für einfach den Daten auf meinem Laptop ein Backup machen mit deinem Tool. Was mache ich dann mit dem Schlüsselmaterial? Also ich könnte zum Beispiel einfach auf ein USB-Stick tun, wo bei mir die Haie auf dem Schreibtisch liegt. Aber es gibt so relativ offensichtlich Probleme, oder? Dann wird er irgendwann gefunden. Genau, ja. ZD, man kann auch das Material bei der Grossmutterlage haben. Ja, okay, dann muss ich jedes Mal zuerst Siebesuchen, wenn ich das Backup oder ein Restore machen möchte. Die Idee wäre, dass man ein Web-Service machen würde, wo man dann sagt, mit einem normalen Login und eine Identifizierung kann man seine Haie dann auf den Web-Service legen. Dann kann man es dort wieder holen. Ja, also dann ist es höchstens so sicher wie PGP, oder? Genau, ja. Ja, plus wenn ich PGP traue, das kann ich auch direkt zu meinen Daten verschlüsseln. Ja, ja. Also wenn du sagst, PGP ist genug sicher zum Schlüsselmaterial für ein Tool X auch so, dass die mit PGP verschlüsseln den Daten auf einem Web-Service, der über andere Kontrolle hat. Also traue ich, dass PGP langen. Dann kann ich einfach nur das Tool nehmen, um ein File zu verschlüsseln. Ja, ja, ja. Also ich sehe nicht so ganz... Es wird aber einfacher, weil wenn du, wenn du jetzt, das habe ich mir ein Beispiel, von dem 5-Gigabyte Video, wo du einfach verschlüsseln möchtest und dort musst du dann auch das Video sichern können. Also das Lais auf dem Backup oder so. Und das Key musst du auch irgendwie sichern. Der ist immer. Und in diesem Fall ist es so, also es gibt dann sozusagen a compression, Daten werden ja jetzt in diesem System wie zum Key. Und durch das gibt es auch eine Compression von diesen Daten, die du musst absolut sicher verwahren. Einfach die Metadaten und den Keys. Und den verschlüsselten Teil kannst du rausgehen. Ja. Aber das ist ja bei PGP noch viel stärker, weil dort muss ich sozusagen genau die Passphrase für mein Key geheim halten. Also von mir aus halt wie wenn er keine Passphrase hat. Also irgendwie 4 Kilobytes oder so. Und das ist es. Egal wie viele Daten ich verschlüsseln. Wo leisten die ab zum Beispiel? Zum Beispiel können wir die auf ein Smartcard tun. Also spezielle Hardware wo nicht viel kann. Wo ich auch immer auf meinem Körper tragen könnte. Wenn ich noch paranoid bin. Wo es sehr sehr aufwendig ist und für Anwendung mit PGP kann ich das mit einer Smartcard machen. Wenn ich will. Jetzt für das System, das du vorschlagen wirst. Im Prinzip für jede Datei kommt ein bisschen Metadaten dazu. Also es gibt Smartcards und einfach das beste Fall ist, du kannst schon 4 Kilobyte Key drauf tun. Die meisten arbeiten nicht mal das. Also dann fällt die Diskussion für keine Aufbewahrenfalt weg bei deiner Lösung. Gut es gibt so Möglichkeiten. Es gibt auch so geschützten Flashspeicher wo man kann. Wo eigentlich auch fast nicht knackbar ist. Also mindestens normalen technischen Möglichkeiten. Also so was wie selbst verschlüsselnde USB-Festplatten oder USB-Festplatten. Aber auch Micro Prozessorspeicher oder wo du kannst nach einem Lock ablocken, dass es eigentlich nicht mehr auslässtbar ist von außen. Okay. Mit solchen Sachen baut es ja dann auch die Sticks, die dann eben sicher sein sollen. Also so Medien werden irgendwann aufkommen und man das abspeichern kann. Ja. Aber ich finde es noch einen guten Punkt. Die Keysten muss man auch sicher aufbewahren. Und die Frage ist ja, ob man das nochmal verschlüsselt und dann so wie ein Key hat wo man aufbewahren muss. Ja. Vielleicht haben wir uns dann noch gute Ideen und wie man das lösen könnte. Ja. Aber es ist ein super Einwand. Also ein Punkt, der mir noch aufgefallen ist, wenn ich mir die Zeit anschaue, weiß ich ja trotzdem in welcher Reihenfolge die Teile da reinkommen. Also wenn ich hier zum Beispiel ein Cloud Service oder diese Stückchen raufgeladen werde, dann muss ich mir einfach merken, wahnsinn welche Stückchen dazugekommen und dann weiß ich zwar immer noch nicht genau, weil ich jetzt viel zusammengehören und so, aber wenn die innerhalb von 15 Minuten zum Beispiel kann ich annehmen, dass in dem Fenster wohl einige zusammengehören werden. Also da müsste man wie irgendwie Verzögerungen einbauen von paar Tagen oder Wochen, was dann da unpraktisch wäre, damit das wieder unklarer wird, was dann mit zusammengehören könnte. Genau. Also dann kommt eben diese große Zahl dann auch wieder runter, wenn jemand da permanent beobachten kann. Auch wenn er nur einen Snapshot bekommt von dem Moment und das nicht alle Teile sind. Ja, also die Strategie da ist ganz wichtig, dass man einen Teil der Daten sozusagen nicht rausgibt, die wir auf CDD, WD Brennen und lokal behalten oder schustig nichts. Das andere ist, dass man die Daten vielleicht ein wenig aufpaltet über ein paar Tage, solange man noch Platz hat und dann erst aussen spielen. Ja. Genau das ist das Problem, einander könnte das verfolgen, wie die reinkommen und innen tröpfeln. Dann weiss er drei Folgen nicht, aber er weiss nicht, was der Range ist, wo die zusammengehören. Ja, ja. Aber dann wäre er immer noch am Punkt, dann müsste er noch all das können knacken. Ja, ist gut. Wie ist die Datenmenge? Wie wird die da multipliziert? Gibt ja viel mehr Daten, wenn ich da überall so viel noch... ist das eine Verzehnfachung oder was? Ich habe es nicht ganz verstanden. Wie viele Daten mehr habe ich dann von nicht ein Pfeil mit einem Megabyte? Wie viel Backup ist das noch? Wir haben nur eine Kopie ohne jetzt noch die Redundanten. Genau. Also wenn man das jetzt laufen lässt und ein Megabyte ist, dann wird trotzdem ein ganzer Paffer benutzt, weil das ist die kleinste Einheit. Die kleinste ist 4 Megabyte oder 16 Chancen und die größte 256, 64 Megabyte. Aber du sprichst wohl eher an, ob dann die verschlüsselten Daten mehr ausmachen als die ursprüngsten Daten. Und das ist eigentlich nicht der Fall. Nein. Und es hat auch Gzip-Compression darin noch. Also Daten, die kompressionierbar sind, könnten noch komprimiert werden. Ja, vor der Verschlüsselung, genau. Aber wenn ich viele kleine Dateien habe, also dann wird das gigantisch mehr ausmachen? Nein, wir fühlen dann einfach den Paffer, konsekutiv mit den Pfeils und wenn die Paffergröße erreicht ist, dann verschlüsseln wir das Ding. Aber daneben fangen wir neben den Metadaten an, das kann unterschiedlich sein, also ich übe. Wir zeichnen dann einfach mindestens mal was für ein Dateipfad gesichert wurde, oder? Und Chexums von den Pfeils und so. Es wird auch Blockweis dann in diese Paffers geschrieben, 64 Beite im Moment. Das wiederum hilft an der Detublikation später, nicht? Wenn ich dann wieder mit dem Pfeil kommen, da ist nur ein Beit geändert, dann speichere ich nur den 64 Beit Paffer Block Neu, der da ringsum ist, mit der Detublikation. Und die Metadaten, ja, es sind im Moment XML-Pfeils zur Weiterverarbeitung geeignet. Das sind dann irgendwie die Kilobytes nicht. Wie stellst du dich sicher von den Verschlüsseln der Daten, wenn ich zum Beispiel Cloud backup habe, dass die nicht manipuliert werden? Mhm, mhm. Ja, also vom Paffer wird mir ein Chexum berechnen und ablegen in den Metadaten. Ich spiele beim Zurückspielen von den Chancesteins, wenn man die wieder zurückspielt, dann kann man das eigentlich nachvollziehen und dann sehen wir es gerade. Aber das wäre jetzt so ein typischer Attack, den man überfahren könnte, um dieses Archiv zu kaputt machen. Dann werden es einfach ein paar Sachen verändert. Dann wirst du das nie mehr zurückspielen können. Darum müssen wir einen relativ höheren Redund anzufahren, dass wir doch immer irgendwie ein Capino haben, dass wir das Ganze wieder zurückrekonstruieren können. Speed ist ja manchmal auch noch ein Thema bei diesen Sachen. Befühlen ist relativ schnell, weil wir in aufsteigenden Adressen in den Buffer schreiben. Und zu aussen lesen, da Columnwise ist dann ein bisschen längsamer, in die Files, aber wir sind immer noch im Bereich, dass wir die Discs durchsatzlimitiert sind. Wenn ich das so höre, wie wenn du das, wie eine Festsplatte man jetzt ist, also diese Chancen sind wie die einzigen Blöcke auf der Festsplatte. Und dann kann man also Sachen machen, wie Raid, oder so steigen da etwas auch in diesen Files? Genau, das ist dann, wie man die Speicherung macht, von diesen Sachen, ja, genau. Vor allem, wenn man etwas länger fügt, und dann vielleicht ein Raid benutzt. Ja. Also die Chance, wo wir uns noch mal anschauen, als Wienart, es ist ein Adressen, oder? Die gehört dann irgendwo in so ein Buffer, eine gewisse Stelle. Und sie wird, ja, hat eigentlich eine Random ID, oder? Und wird über das angesprochen. Genau, und das ist schon mit Festsplatten das Gleiche, also ein Block hat auch ein Adressen. Und mit Raid tut man dann sagen, wie tut man diese Blöcke duplizieren und ausrechnen, dass man dann z.B. von diesen Chancen Perities erzeugen kann. Dass man sie dann auch zugrechnen kann und halt nicht das Archiv doppelt oder dreifach gehalten müsste. Ja, ich habe mal umgespielt mit Perities auch, genau. Jetzt ein wenig aufblähen von den Daten. Ich weiss nicht, ob das dann so sicher ist, weil das wäre schon fast ein Einfall zum Tor für ein Attack, nicht? Ähm, nicht, dass ich weiss. Du kannst ja auch einfach verschlüsselt die Daten auf ein Raid ablegen und dann nicht anhand von den Perididaten, weil du nicht auf verschlüsselte Daten hast, wo du einfach Peridie machst. Ja, ja, genau. Dann kannst du die verschlüsselten Daten wieder herstellen. Dann kannst du dann schon immer noch zuerst die Chancen wieder zusammensetzen. Und dann musst du dann wieder entschlüsseln. Das heißt, das ist nur zum Sicherstellen, dass niemand irgendwie in der verschlüsselten Daten etwas umspielen oder ein Bitrot oder so. Gut, wenn man das mit den Perities ein wenig weiterzieht, dann im Buffer rein. Er ist verschlüsselt. Jede zweite Column würde man als Perity ... Nein, ein Drittel. Wir nehmen immer zwei Columns und dann eine dritte Bilde als Exor, einfach gerade. Dann könnte man eigentlich nachher auch Spiele machen, beim Zurückspielen randommäßig wieder Columns zurückholen können. Wir können die eine Perity oder die andere zurückholen, um diese zwei Columns wieder zu rekonstruieren. Also für diese drei brauchen wir nur zwei, die wir abrufen können. Das wäre noch eine Strategie zum auch ein bisschen verschlägern, was da drin eigentlich gesucht wäre. Welche Teile das wieder würde rekonstruieren. Und sonst ... die Teile fliegen einfach um als Files. Man kann ein paar Perities auf Files machen. Ja, das geht gut. Können wir vielleicht noch nachher anschauen? Gut. Merci.