 So, wir haben jetzt 13.15 Uhr, ich würde einfach mal anfangen. Ja, freut mich, dass ein paar Leute sie zumindest erschienen sind zum ersten morgigen Vortrag hier. Ich will eine Einführung über Internet-Germanenz halten und für mich war es irgendwie sehr schwer, weil ich hatte dann zu dem Zeitpunkt, wo ich den Entschluss gefasst hatte, das zu tun, ein Haufen Bücher und alles Mögliche darüber gelesen. Und die erste Ausarbeitung eines Vortrags ging an die über 80 Folien. Ich musste das jetzt sehr stark reduzieren, damit das in der Stunde reinpasst. Und der erste Teil über die DNS-Wars habe ich rausgenommen und ein bisschen in die WESIS-Debatte reingesteckt, was vielleicht auch momentan ein bisschen mehr am Puls der Zeit ist. Okay, was ist Internet-Germanenz? Eigentlich weiß es, also es war lange Zeit irgendwie ein Problem, diesen Begriff zu definieren und deswegen, was macht man, wenn man sowas machen muss. Man gründet irgendwie eine Working Group und wir haben eine Definition bekommen. Das hat zwei Jahre gedauert von der Working Group on Internet-Germanenz. Die wurde damals von der UN gegründet, wo wir sagen können, dass wir ein Konzept brauchen wie Staaten und vor allem auch der private Sektor, also die Wirtschaft Einfluss und auch Verantwortung übernehmen kann in einem Internet, welches keine globale Hierarchie hat, also wo von oben nicht ganz klar gesagt werden kann, wie die Politik im Internet aussehen kann, sondern wo auf einer multilateralen Ebene. Das heißt also, dass wir zwischen Staaten Verträge eingehen, ähnlich dem Kyoto-Protokoll versuchen, das Internet zu formen und auch eine multinationale Rechtsprechung und auch Vorstellungen davon haben, welche Werte wir im Internet haben. Dieser Vortrag besteht jetzt eigentlich aus zwei Teilen. Der erste Teil beschäftigt sich mit dem World Summit of Information Society. Ich werde kurz die Entstehungen ein bisschen darüber erzählen über die zwei Phasen reden. Dann werde ich so ein bisschen abschweifen, wie es auch auf der WESIS passiert ist in die Richtung der Konflikt der ICAM mit der USA. Der große zweite Teil wird sich damit IPv6 beschäftigen. Wir werden uns dann anschauen, in welchem Rahmenframework IPv6 sterilisiert wurde. Dann, welches große, schwerwiegendes Problem es gab damals bei der Standardisierung. Wir werden uns dann anschauen, wie die Privacy, also es gibt ja in IPv6, viele wissen, dass es ja so ein paar Probleme, was Privacy angeht, wie das dann damals aufgekocht ist in der ITF und dann auch, wie sich die ITF in die verschiedenen Länder beeinflusst hat. Okay, fangen wir mit Part 1, also der World Summit of Information Society. Ein World Summit ist an sich einfach ein multimillion teurer Event von sehr teuren Leuten, die an sich nichts anderes machen, als viele, viele Jahre lang Policies zu diktieren. Und am Schluss dann hoffentlich mit einer Lösung rauskommen, die halt für alle Menschen auf der Erde zu irgendwelchen besseren Verhältnissen führt. Wie gesagt, das ist so vergleichbar mit dem Kyoto-Protokoller, so es treten unglaublich viele Leute zusammen auf einen unglaublich großen Kongress und es soll daran gearbeitet werden auf einer weltweiten Basis, die Probleme, die jetzt halt dieses Internet mit sich bringt zu lösen. Entstanden ist das alles relativ kurzfristig, und zwar 1998 am letzten Tag, als die Heads of der ITU zusammengekommen sind in Minneapolis wurde gesagt, wir brauchen eigentlich mal irgendwas, wo wir die Menschen in einen Rahmen bringen können, wie sie in Zukunft mit diesem neuen Internet leben können. Was daran beachtlich ist, dass die ITU eigentlich ja gar nichts mit Internet zu tun hat, sondern das ist ja eigentlich der Träger, der die Telekommunikation macht. Also wir kennen entweder die ITU ja nur von den OSI-Protokollen hier, also das, was in irgendwelchen Firmen damals lief, also vor allem Energiebehörden, bzw. halt von dem Telefon. Also eigentlich waren es nicht die, die sich jetzt gedacht haben, wir werden in ein neues Zeitalltag kommen, sondern wir versuchen irgendwie das Telefonsystem irgendwie auf einen gemeinsamen Stand zu bringen. Das Ganze wurde aber dann von der UNESCO insofern aufgegriffen und weiter ausgearbeitet, so dass es dann tatsächlich zu diesem World Summit Office Information Society kam. Die UNESCO ist der Teil der UN, die sich speziell mit Bildungsfragen, mit sozialen Fragen, mit kulturellen Fragen auseinandersetzt. Es war eigentlich alles nicht klar, also die Probleme, man hat erst mal überhaupt definieren wollen, was ist das Internet, was ist Internet Governance und das war überhaupt erst mal das anfängliche Problem, was wollen wir überhaupt machen? Wir müssen aber irgendwas finden, eine globale, um global einfach irgendeinen Rahmen framework zu haben, um überhaupt einmal Beschlüsse machen zu können. Die Probleme, die dann eingebracht werden von den verschiedenen Leuten, die dann zu diesen Kongressen kommen, die müssen dann aufgearbeitet werden. Also es war gar nicht klar, was für Probleme es treffen wird. Du meinst es, wieso die ITU jetzt gesagt hat, wir brauchen da einen Rahmen framework für? Das ist mir auch nicht bekannt so, das war unklar. Man hat auch damals nicht gesagt, wie dieses auszusehen hat. Man hat nun gesagt, man muss einfach mal alle Entscheidungsträger auf einen Tisch bringen. Das war so mehr oder weniger in ein paar Zeilen. Das Dokument ist zwölf Zeilen, er seitenlang war so der Konsens und man hat gesagt, das muss einfach passieren, damit wir in Zukunft einfach Handlungsfreiheit haben. Da gab es nicht viel an Sachen. Später kamen dann die interessanten Sachen dazu, wie IP vs. IP, also Intellectual Property vs. Internet Protokoll. Das sind dann die Sachen, die später dann dazugekommen sind, weil diese Institutionen gegründet wurden. Die WESIS hat dann angefangen 2002 und endete dann nach 2005. Die erste Phase war in die Genphase, die Konferenz lief vom 10. bis zum 13. Dezember 2003 und startete mit den PREPCOMs. Das sind kleine Konferenzen, die abgehalten wurden vor der Hauptkonferenz, sodass, wenn auf der Hauptkonferenz dann alle Minister und Staatsoberhörbter zusammenkommen, die Verträge nicht erst ausgearbeitet werden müssen, sondern etwas passiert. Es wurde also begonnen, auf diesen PREPCOMs damit zu diskutieren, welche Umstände müssen wir eigentlich jetzt klären und was gilt es jetzt zu lösen am Problem, also jetzt kommen wir auch so ein bisschen auf die Frage. Das hat sich dann erst in diesen Prozess quasi erst herausgestellt und die zweite Phase nur zur Vollständigkeit ist dann die Tunisphase gewesen, Tunesien, die vom 16. bis zum 18. November lief und auch da waren dann die PREPCOMs 2004 am Start und dort dann auch wesentlich mehr Länder und auch wieder die gleichen Leute fast, die dann sich da zum Geworfen haben. So was ist also passiert? In diesen PREPCOM-Phasen sind dann also Leute, die wurden ausgeschrieben von der UN, sind Leute zusammengekommen, die jetzt also in diesem Rahmen Framework Sachen diskutieren wollten. Das waren jetzt einmal während der Genphase, sind vor allem humanitäre Organisationen dazugekommen. Also wir hatten sehr viele Leute, die sich damit beschäftigt haben, wie können wir Gleichstellung im Internet machen? Also wie können wir zum einen dafür sorgen, dass alle Leute an die gleichen Informationen kommen, dass wir keine große Schere haben zwischen den westlichen und den afrikanischen Ländern zum Beispiel, dass die nicht am Internet sind? Also wie kriegen wir mehr Menschen an ins Internet? Was sind die Menschenrechte? Man hat sich dann damit beschäftigt, irgendwie, ist das was in China abläuft an Zensurmausnahmen eigentlich richtig und darf das überhaupt sein? Also dürfen Informationen zensiert werden auf Ländergrenzen hinweg? Also es sind einfach unglaublich viele politische motivierte Gruppen zusammengekommen, die sich dann in diesem Forum Workgroups gebildet haben und dann einfach erst mal ihre Sachen diskutiert haben, ausarbeitet haben und dann immer weiter hoch die Hierarchie hochgegeben haben, bis es dann halt zu Area Direktoren kamen, die dann da weiter drüber entschieden haben. Also das war der Konzept. Das war eigentlich für jeden offen, jeder konnte hinfahren und konnte sich da einfach einbringen und versuchen halt seine Ideen halt umzusetzen. Also das war so das Rahmen framework dafür. Was jetzt aber auf der ersten Phase relativ stark hochkochte, war dann der ICANN-Konflikt. Also man merkte irgendwie, die USA hat doch sehr, sehr stark die Kontrolle übers Internet nicht aus dem Grund, dass sie irgendwie diktieren können, was da Recht und Unrecht ist, sondern sie haben einfach die Macht darüber zu sagen, welche Protokollnummern man kann IP transportieren, welche TLDs werden in die Ruhtzone eingetragen und welche IP-Adressen werden an wen vergeben. Also das war damals im Rahmenvertrag in den, in der USA halt gelegen und die hatten da einfach die, die alleine gemacht drüber. So, es konnte kein anderes Land da irgendwie mitentscheiden. Und dieses schwappte halt so hoch, dass es eigentlich dann die kompetent Agenda der Genphase beeinflusste und war dann auch das Hauptthema. Genau, so was war angestrebt von der UN. Die UN hätte am liebsten eine multilaterale Ausübung der Geschäfte gehabt, multilaterale in dem Sinne, dass, dass also die ICANN auf eine Ebene gehoben wird, dass die UN drüber unterscheidet. Das heißt also die UN hat die Aufsicht über die ICANN und damit auch die Aufsicht über die, über die IP-Adressvergabe, über die TLD-Eintragungen für, für die verschiedene Ländern, zum Beispiel sogar bei den ZIT-Ziel-TLDs, ist das ja wichtig, etc., etc. Bei der Genphase kam nicht viel heraus. Also man hatte vor sich keine wirklich klaren Ziele gesetzt und gab es auch keine wirklich tollen Lösungsvorschläge oder irgendwas, was dabei herauskam. Also wir hatten am Schluss keine Verträge zwischen irgendwelchen Staaten, die sich auf irgendwas zugesagt hatten. Der ICANN-Konflikt, der am Hochbrudeln war, war weiterhin da. Es gab keine Lösung. Es wurde die Declaration of Principles herausgegeben. Das war, ist auch, glaube ich, in 14 oder 16 Seiten Dokument, wo drin steht, dass wir uns einfach nur dafür einsetzen, dass Gleichberechtigung für alle Menschen herrscht, dass wir genau, dass wir gut sind, dass wir gegen AIDS kämpfen, indem wir Informationen freigeben. Also allgemein das bla, bla, ohne jetzt irgendwie groß auf irgendwelche Sachen einzugehen. Im Plan of Action, der herausgegeben wurde, stand dann drin, dass wir 15, 50 Prozent der Erdbevölkerung Internetzugang haben sollen. Es wurde aber nichts abgeklärt, wie das passieren soll. Es wurde auch keine Finanzierung geplant, wie sowas passieren kann. Also es wurde einfach dieses Statement fallen gelassen und das war es damit. Dieses, das Zitat, was ich auf der zweiten Folie hatte, was jetzt eigentlich Internet-Garvernance ist, das entstand der Working Group der Wegig, Working Group on Internet-Garvernance, die jetzt hier auch gegründet wurde. Das heißt, man hat auch gemerkt, irgendwie, wir wissen gar nicht, was wir selber machen. Wir müssen uns jetzt erstmal selber finden und so wurde diese Gruppe gegründet und sie sollte jetzt bis zur zweiten Phase überhaupt erstmal definieren, was ist Internet-Garvernance und wer soll es überhaupt ausüben und was soll das Ganze, was wir hier eigentlich tun. Also an sich, weil die erste Phase relativ unspektakulär ist, kamen eigentlich zu keinen Ergebnissen. Zum Allkern-Konflikt zurück. Der Allkern-Konflikt ist eigentlich ein bisschen überraschend, weil wenn man sich denkt, wenn man auf der UN-Ebene ist und jetzt über Menschenrechte diskutiert und über Gleichberechtigung, spielt da eigentlich eine Institution eine so große Rolle, die eigentlich nur Adressen, Appiertressen und den S-Namenvergibtung, von der man ja jetzt eigentlich nicht denken würde, dass sie wirklich groß in Menschenrechte oder in Gleichbestellungsfragen irgendwie einbezogen werden würde. Da gibt es so zwei Lager in der Richtung. Die einen, die sagen, dass letztendlich, dass die Allkern ein technisches Gremium ist, was halt eine Ausübungsfunktion hat, welche jetzt nicht direkt, kann man sagen, also sie ist eigentlich im Schatten und führt eigentlich das aus, was man so allgemein erwarten würde von einer technischen Organisation. Also sie tut eigentlich nur die technische Dienstleistung, um diese einigen, wenigen Dienste, die das Internet zentral leisten muss. Also das kann Appiertressen doppelt vergeben werden, sicherstellen, das war es eigentlich. Aber zum Beispiel einerseits durch die, durch die Kontrolle über das DNS, kann ja die Allkern schon durchaus richtig Wirtschaftszweige beeinflussen. Also man denkt zum Beispiel jetzt an die Pornindustrie mit Punkt XXX. Da ist ja durchaus auch, auch beeinflussungsmaterial da und da spielt ja auch dann wieder viel Geld in einer Rolle. So, schauen wir uns dann, ob es dazu das Allkern-Modell immer ein bisschen genauer an. In der klienten Zeit wurde die Allkern zu einer privaten, non-profiten Firma und diese wurde mit einem Rahmenvertrag unterhalb des Department of Commerce der USA ausgestattet. Das damals definierte Handlungsrechte und Pflichten im Rahmen des Internets definierte, also wie gesagt, Appiertressvergabe, auch im Rahmen, dass das gleichberechtigt sein muss, auch international gleichberechtigt sein muss. Also die USA ist da nicht groß bevorzugt. Sie unterliegt damit auch Privatschriftlichen Verträgen. Das heißt also, dass sie jetzt nicht eine besondere Stellung innerhalb des Staates hat, sondern es ist tatsächlich, es können mit ihr Verträge eingegangen werden von Firma zu Firma, die halt auch entsprechend nach amerikanischen Recht dann ausgewettet werden. Und die Darstin-Institution ist auch selber, spielt natürlich auch Policy-Entwicklungen innerhalb der Allkern eine große Rolle und die wird auch privat finanziert. Also das heißt, da hat die Wirtschaft relativ großen Einfluss drauf, wie sich die Allkern selber formt. Wichtig war damals das Management Board, also das Board, was die Entscheidungen trifft, was letztendlich damit im Internet passiert, so im technischen Sinne, frei von Abgeordneten ist, die staatliche Interessen vertreten. Und das besondere damals halt an der Allkern war, dass die Allkern ein Bottom-up-Policy-Konzept hatte. Also Konzepte wurden halt in der Diskussion unten geformt und wurden dann weiter verfeinert und ausgearbeitet und dann immer die Hierarchie auch wieder hoch gebracht, um dann am Schluss dann vom Allkern-Bord dann eine finale Policy zu werden. Und das hat eigentlich schon relativ gut geklappt und hat eigentlich relativ vielen Leuten keine Probleme bereitet. Also es waren dann wirklich halt die Staaten, die halt da auf ihre Souveränität halt gepocht haben, dass sie halt in ihrem, das Internet ist in ihrem Land, sie können da halt auch selber mitbestimmen, genau was ist, halt keinen Einfluss haben. Und aber natürlich war es den Firmen dieser Länder natürlich kein Problem halt an der Allkern tatsächlich auch produktiv mitzuwirken, weil sie sich halt über dieses Multistakeholder-Modell, das heißt also sie konnten sich alle einbringen, sie konnten alle mitanteilen, also sie konnten sich einbringen, konnten daran halt auch ihre Interessen vertreten, hatten aber dadurch auch wieder selber Pflichten, die sie gegenüber der Allkern natürlich machen mussten. Also so Sachen wie zum Beispiel diese ganzen Huiz-Geschichten, wenn man dann zum Beispiel mit TLDs arbeitet, oder wenn man halt zum Beispiel ein Registrar ist, dass man halt relativ, relativ harte Pflichten hat, diese TLD zu betreiben. Und das war der UN eigentlich vorher so unbekannt. Also bei der UN ist das halt einfach von Top-Down-Policy-Mache, das heißt man ist irgendwie relativ weit oben und definiert dann runter, was am Policy passiert. Ja, die Allkern vorher müsste ich jetzt kurz, also die Allkern selber besteht jetzt heutzutage in den Jahren zum Beispiel, wie wir hier ja selber die Nummern registriert. Und das war ja vorher an sich schon postelt persönlich, also war zwar der Direktor der Jahren, also das ist aus verschiedenen Sachen zusammengelaufen. Dann gab es ja das ARPANET damals, wo ja dann das, die ARPANET Configuration Division zum Beispiel, dafür da war, dass die Protokollnummern ein eindeutig sind im Internet und Sachen. Das sind verschiedene Sachen zusammengelaufen, das wurde dann in der, in der, geformt. Also es gab jetzt nicht vorher eine Allkern, weil vorher hat man nicht ein Allkern gebraucht, weil es gab kein zentrales Internet. Also was vorher halt da war, war vor allem, dass die Leute, die das Internet betrieben hatten, die sich auch alle persönlich kannten, weil es nicht groß war, sich einfach eine E-Mail geschrieben haben, gesagt haben, ich brauche hier meine neue Nummer und die wurde dann in eine zentrale Texturteil eingeführt. Also der UN war dieses Modell vorher nicht so bekannt und es war mit den Scharten aber auch egal und sie wollten trotzdem versuchen halt selber von, von ihrer Seite aus da halt Druck drauf zu machen. Genauso die Allkern funktioniert nach amerikanischem Recht. Was jetzt aber die Probleme, genau das sind, das ist halt ein großes Problem. Das heißt also diese, diese privatrechtlichen Verträge unterliegen halt auch amerikanischem Recht. Das heißt also da, da spielt es kein deutsches Recht rein. Da, das muss halt alles einfach am amerikanischen Boden noch ausgestritten werden, wenn in der Richtung was passiert. Diese ganzen Rahmenverträge, die die Allkern hat, mit dem US Department of Commerce, alle beschränkte Laufzeit. Das heißt also da kann sich durchaus was, durchaus was verändern. Zu diesen Verträgen gehören momentan eigentlich drei große Verträge. Das eine ist der IANA-Vertrag, was der Allkern zu sich hat, das ist die Verwaltung, das ist die Verwaltung der IP Allokation, der Routzone und der Protokollnummern übernehmen darf. Wo auch drin steht, dass das US Department of Commerce absegnet muss, was alle Änderungen an zum Beispiel der Routzone angeht. Also selbst nicht nur Einfügungen, sondern wenn die Allkern sagt, dass sie irgendwas nicht approved oder es nicht okay ist, dann muss auch das US Department of Commerce darüber informiert werden. Genau, dann gibt es das German Project Agreement, das ist auch noch aus der Aparzeit mit rübergenommen. Also das gibt es schon länger. Wo aber ganz klar drin steht, dass die Interessen der USA eine durchaus wichtige Rolle spielen in der Weiterentwicklung von Policies in der ICANN. Ich habe da jetzt leider kein gutes Beispiel gefunden, ich habe da nur Interpretationen von Professoren, die sich in dem Bereich, ja, Forschen, sagen wir mal so, gefunden. Also dort wird wohl relativ stark dann doch die USA wieder die Interessen der USA vertreten. Dann haben wir natürlich ein bisschen noch die Verknüpfung nach various Signals, die eine Firma ist, die natürlich Profit, also Profit erwirtschaften möchte, was various Signals ist, die ja den S-Ruht-Zone einerseits pflegen. Und da besteht auch ein Vertrag mit dem Department of Commerce, und das ist natürlich jetzt eine Sache, wo natürlich Geld auch im Spiel ist, und zwar auch ganz schön große Unmengen, da diese halt einerseits die ICANN Policies pflegen müssen und die Route Infrastruktur fürs DNS zu pflegen, ist auch eine relativ große Aufgabe. Später wurde dann das GAC gegründet, das Governmental Advisory Committee, in welchem sich Länder dann einbringen können und dem ICANN Board Beratungsfunktionen, also mit beraten können und mir da weniger auch, wenn, ich weiß nicht genau, wie viele es braucht, aber es gibt ein Vetorecht dort, sodass zum Beispiel dann TLDs verhindert werden können, die in die ICANN eingebracht werden sollen. Genau, also um jetzt immer ein bisschen zurückzuschwenken Richtung WESIS, wir haben eigentlich ein relativ liberales Modell der ICANN in den USA, was man auch, wenn man es jetzt weltweit vergleicht, relativ liberal ist. Es hinterlegt jedoch den dortigen Gesetzen und in den Verträgen, die die ICANN mit der USA hat, ist durchaus eine Beformelung zu sehen. Wie gesagt, nur die Frage, also war das jetzt berechtigt, dass die WESIS sich so oft die ICANN gestürzt hat? In meiner Meinung nach ja, weil es natürlich schon eine, weil natürlich sich die Verhältnisse ändern können und die ICANN natürlich schon ein ganz großes und ordentliches Machtwerkzeug sein können. Also man kann natürlich, Sie vorstellen, wenn jetzt ein Land eine TLD beantragt und die ICANN oder die USA das hat nicht anerkannt und dann auch sagen kann, nein, wir werden diese TLD nicht in die Rutschzone eintragen, dann hat dieses Land quasi kein Platz im Internet da so. Ist das durchaus schon eine berechtigte Frage. Zum anderen muss man sich vorstellen, also es gibt verschiedene andere Probleme, wenn man das jetzt in den, also wenn man die ICANN jetzt zum Beispiel in die UN eingebracht hätte, die UN hat unglaublich lange bürokratische Wege und die ICANN ist momentan relativ handlungsfähig. Also sie kann doch, also wir hatten ein paar Negativbeispiele, aber die ICANN kann relativ zügig und schnell reagieren, wenn irgendwelche Sachen gefordert sind. Und das passiert auch nur, weil halt die USA dahinter ist und halt in dem Moment, wo dann was gefragt ist, halt auch die Leute in einer eindeutigen Hierarchie entscheiden können und nicht vorher irgendwelche Konferenzen eingehalten werden müssten. Und von daher ist das relativ, also kann man auch sagen, es ist gut, dass die ICANN noch im amerikanischer Hand ist und nicht unter UN Hand ist und dass wir vielleicht eine wesentlichere, langsamer Entwicklung in dem Bereich hätten, dass die ICANN sich unterhalb der UN wäre. Okay, wir hatten dann die Tunis-Phase, das war dann die zweite Phase von der WESIS, wo eigentlich nochmal alles beschlossen wurde, was in der ersten Phase gesagt wurde. Und das Lustige war dann eigentlich nur noch am Schluss, da auch eigentlich wieder nichts rausgekommen ist, war, dass am 20. Juni 2005 dann die Wegeg ihre Arbeit beendet hatte. Man wusste nicht, was in dem Arbeitsbericht drin stand. Die Veröffentlichung der Ergebnisse fand aber erst am 14. Juli statt und am 30. Juni hatte dann die National Telecommunications Information Administration, das ist ein Teil des US Department of Commerce, die Debatte über die ICANN wieder aufflandt und hat einfach ein kurzes Statement rausgegeben, dass sie jetzt definitiv die Hand über die ICANN behalten werden und dass es da auch nichts mehr zu ändern gibt dran und das ist ein Fünf-Jahres-Vertrag, der sich dann auch bis 2015 erstreckt und daraufhin wurde dann die Veröffentlichung doch mal aufgeschoben von der Tunis-Phase und am Schluss stand dann auch nichts mehr weiter zu dieser ICANN-Debatte in der letzten Arbeit drin. So hat sich das Thema erledigt und die WESIS ist eigentlich, ohne dass irgendwas passiert ist, zu Ende gegangen. Wir haben jetzt 2015 gelaufen, gerade wie der PrEP kommt an für den World Summit on the Information Society 2015. Passiert natürlich auch zu einem Zeitpunkt, wo natürlich die ICANN-Verträge wieder erneut werden. Von daher ist es eigentlich relativ spannend zu gucken, was passiert, ob tatsächlich die UN nochmal versuchen will, die ICANN unter UN Governance zu stellen und damit ihre Meinung nach das Internet zu liberalisieren. Ich bin gespannt momentan. Ich hatte gehofft, dass in der Phase im Mai schon irgendwas dazu, im Internet oder in welcher Agenda es dazu schon aufgearbeitet werden würden, da da ein großes Treffen in Genfa, aber leider gab es da auch noch keine Sachen zu. Um die Leute zu vertrösten, die dann doch nichts sagen konnten und nichts bewegen konnten, wurde das Internet Governance-Forum gegründet was ein Zusammenschluss ist von Leuten, die darüber diskutieren möchten, aber dieses Internet Governance-Forum hat letztendlich auch dann keine weitere Macht oder keine weitere Entschlussbefugnis. Also letztendlich ist die Phase eigentlich relativ traurig zu Ende gegangen. Es kamen eigentlich zu keinen Ergebnissen. Es wurde mal drüber gesprochen. Man weiß vielleicht jetzt auch ein bisschen mehr über, was man gesprochen hat, aber das war eigentlich der UN-Versuch, zum ersten Mal sich mit dem Internet anzufreunden. So, ich werde kurz meinen Pulli ausziehen und dann werden wir zum zweiten Teil kommen. Gibt es bisher irgendwelche Fragen? Gut. Also jetzt vielleicht der spannende Teil. Ja, also zum einen hat das GRC ja, welchen ja jetzt relativ viele Länder zustehen, damit ja doch eine relative Macht, sobald halt so... Es ist echt schwierig. Ich würde sagen, das ist so eine Sache, die sich dann passieren wird, wenn sie halt passiert. Also es gab so ein paar Eckpunkte zum Beispiel bei der Einführung von Punkt XXX. Wir hatten damals, dass die ICANN diese Domäne, der ICANN wurde diese Domäne vorgeschlagen, dass sie eingeführt wird und auch die Policy-Paste wunderbar, dass diese Domäne eigentlich in den normalen, jede andere TLD jetzt auch durch den ICANN-Prozess läuft und dann eine offizielle TLD wird. Was dann passiert ist, ist, dass das US Department of Commerce, was selber auch in diesem GRC-Bord sitzt, also welchen dem ICANN-Bord Advisories geben darf, hatte dann ein Brief an das ICANN-Management geschrieben, hatte gesagt, wir möchten diese Punkt XX Domäne nicht und hat parallel das gleiche Dokument nochmal über das GRC verteilt. Was letztendlich dann passiert ist, ist, dass Punkt XXX gedroppt wurde vom Management-Bord und die Frage ist halt wieso. Und ich meine, letztendlich im GRC kann es mein wegen demokratisch zugehen, letztendlich hat aber die Amrik das US Department of Commerce das letzte sagen und wenn die anderen was beschließen, dann, ja, die gibt es schon, aber wie gesagt, die USA kann sich halt drüber hinwegsetzen. Also es wird schon diskutiert und sagen wir so, also ich denke mal, die Diskussion wird erst dann auf Flammen, wenn es halt so weit dazu kommt, also wenn es passiert, damit wahrscheinlich, also momentan sind wir halt wahrscheinlich so, dass ich jetzt nicht wüsste, wie sowas behandelt werden würde, jetzt innerhalb der ICANN oder überhaupt. Ja, das ist genau die Frage, also oder zum Beispiel halt auch andersrum. Also was würde passieren, wenn ein Staat halt jetzt irgendwie in die Achse des Bösen verfällt und man möchte jetzt möglichst diesem Staat schaden, dann wäre es ja auch eine Möglichkeit, einfach diese TLD wieder zu entfernen. Das ist die gleiche Frage. Was bitte? Sie kann halt eigentlich nur mega-impact machen, also wo sie auch weiß, dass die internationalen Presse dann halt aufschreiben wird. Also das heißt, sie kann jetzt nicht feingramulare Filtermechanismen installieren, das geht nicht auf ihrem Niveau, sondern sie kann halt ein Land wegnehmen. Aber dann hast du halt auch die Presse und dann hast du halt auch dann sofort die Länder, die aufspringen werden und damit reden wollen und die Frage, ob das halt gewollt ist in dem Moment. Also es ist schwierig, mir wahrscheinlich dann erst dazu kommen, wenn es tatsächlich passiert. Also wir hatten jetzt, glaube ich, keinen Fall, wo es so richtig große Probleme, die mir jetzt aufgefallen, wer mit CCT-Ds gibt. Also mit diesen Country-Level, Top-Level-Domains. Okay, sonst noch irgendwelche Fragen? Genau, dann zu meinem Lieblingsthema eigentlich eher, das ist jetzt IPv6. Okay, ich versuche jetzt erst mal ein bisschen den Kontext zu setzen. Wir haben 1990, wir haben das Internet-Architekture-Bord, das ist damals noch daraus entstanden, dass das Swinzen-Serve und damals halt auch andere Leute noch vom APA-Net die Kontrolle über das Internet mehr oder weniger haben, weil sie einfach die DAPA-Net-Chefs waren und damit bestimmt haben, in welche Richtung das ganze Internet läuft. So, dieses Internet-Architekture-Bord war damals diese Instanz, der alles hochgegeben wurde und sie hat letztendlich gesagt, was Sache ist im Internet. Das heißt also, wenn von der IETF oder von der IETF, wo ich später noch darauf eingehen werde, Standardvorschläge kommen, dann werden die ins IRB hochgetragen und das IRB entscheidet dann darüber, ob das jetzt ein Internetstandard wird oder nicht. Sie überschaut auch die Arbeit der IETF und der IRTF und kümmert sich darum, dass der Standardisierungsprozess am Laufen bleibt und dass genau sie ihre Arbeiten erledigen können. Es wird versucht, eine strategische Planung zu machen, also Sachen wie zum Beispiel, dass das Internet mal von IPv4-Dressen ausgeht. So was überwacht das IRB halt auch und das ist auch dann der Grund hier, dass sie dann auch gesagt haben, wir brauchen ein neues Internet-Protokoll. Sie war eigentlich so die Repräsentation auch der Internet-Community, das heißt also, sie war einfach so Head of Internet, was jetzt Protokoll Standardisierung anging und hat sich auch immer um alle Sachen kümmern müssen, die innerhalb der bestehenden Policy Frameworks in der Protokoll Standardisierung nicht möglich und nicht lösbar waren. Unter dem IRB haben wir, also ganz unter, ganz drunter haben wir die IETF. Die IETF ist der Teil, wo eigentlich die meisten Leute drinsitzen und die sich eigentlich darum kümmern, dass Standardisierung passiert. Also sie wurde damals gegründet vom Internet Architecture Board vorher, was wir gerade hatten. Und da waren einfach die Leute drin, die das technische Wissen hatten, die sich jetzt dem angenommen hatten und dann Standards beschlossen haben. Also die, als Trafs zuerst eingereicht wurden, diese wurden dann über die Area Directors in den jeweiligen IETF Gruppen hochgereicht zur Internet Engineering Steering Group, die die dann nochmal überschaut haben und diese werden dann zur Ratizifizierung der IRB vorgelegt, welche die dann zu einem offiziellen Internetstandard machen kann. So, das ist also jetzt der Rahmen. Wir haben diese drei Gremien, welche sich jetzt also im Internet Standardisierung kümmern. So was passiert. 1990 zum ersten Mal auf dem Vancouver Meeting der IETF wird prophezeit, dass wir im März 1994 keine IPv4-Adressen mehr haben werden. Es ist jetzt relativ krass. Hat natürlich ein paar Gründe. Zum einen hat man damals ja wirklich IPv4-Adressen rausgeworfen, bis zum Geht nicht mehr. Lag auch daran, dass man dieses Konzept mit den Sublitzmasken noch nicht hatte. Also man hat damals ja immer nur in 8er, 169, 24er Blöcken, also Class A, Class B, Class C Adressen rausgeben können. Und man war auch wesentlich großziger mit IPv4-Adressen. Und es ist auch aufgefallen, dass ein anderes Problem halt dabei in der Verteilung der IPv4-Adressen ist und zwar, die meisten IPv4-Adressen waren in der Zeit in Amerika lokalisiert. Und es gab auch jetzt keine überregionale oder internationale Möglichkeit, das Adressen zu bekommen, sondern tatsächlich lagen auch wieder alle Adressen unter amerikanischer Kontrolle. Das war damals schon Postal an der University of Southern California, in der sie einen Eingang gemacht hat. Also viele Leute sagen, so irgendwie er war Präsident der IANA, aber letztendlich die IANA hat sich einfach um diese ganzen Sachen gekümmert. Und damals wurde dann von der IRB ans Federal Network Council, das war damals der Teil, der Policy Teil des DAPA, die Empfehlung herausgegeben, dass dieses System auf Zukunft nicht mehr so weiter funktionieren kann und definitiv eine Dezentralisierung braucht. Wir müssen dann jetzt in diese Richtung laufen, wo was wir heute so als Reib kennen, Afrinik und so Sachen, die diese IP-Adressen ausgeben. Genau, also das Problem war jetzt also bekannt, wir laufen aus mit IP-Adressen aus. 1991 kam es dann zum Job-Meeting von der IRB und dem IESG, wo klar wurde, wir müssten irgendwas ändern, wir müssten also das Internet weiterentwickeln und in welche Richtung soll es laufen. Es gab dann damals die Idee, man könnte tatsächlich das Internet zu einem Multi-Protokoll-Internet machen, also wir könnten neben dem Internet Protokoll, weitere Protokolle im Internet erlauben, die gleichrangig werden und gleichrangig auch dann von anderen implementiert werden würden. Wir hatten natürlich jetzt auch Fragen, irgendwie wenn das Internet größer wird, wir haben größere Probleme im Rooting-Bereich und das Adressieren wird ja auch schwieriger, wir müssten vielleicht hierarchische oder geografische adressieren. Wir müssen also geografisch auch gerade in die Richtung von einem Verlechtung, wenn das Internet immer größer wird, also Coordienste müssen mehr verfeinden werden und nicht irgendwelche zyklischen Abhängigkeiten haben und welche, also was soll auch das Internet in Zukunft überhaupt transportieren, also es sind lauter Fragen gestellt worden, für die keine Antworten da waren, in welche Richtung das Internet überblaufen soll. Damals waren relativ hochrangige Internet-Injuniers anwesend, das waren vor allem halt die Leute vom IRB, aber auch dann einige Leute vom MRT-Dave Clark zum Beispiel, der ja so eigentlich der einzige akademische Types in diesem ganzen Ding drin war, alle anderen waren ja immer meistens firmengestützt. Es kann dann zum Retreat 1991, wo dann diese ganzen Fragen nochmal aufgegriffen wurden und nach der Gedenkpause nochmal aufgearbeitet wurde. Das lief dann hinaus, dass dort eine RFC entstanden ist, die 1287, Tuva to Future auf Internetarchitektur und man hatte damals gesagt, okay, wir werden ein Multi-Protokoll-Internet, wir werden zwei Protokolle, das OSI-Protokoll und TCP-IP unterstützen. OSI ist das Protokoll gewesen, was damals von der ITUT standardisiert wurde und eher sagen wir mal im kommerziellen Bereich und in großen Firmen verwendet wurde, während das Internet eigentlich ja jetzt im universitären Einsatz war und noch nicht, sonderlich, ja, es gab es auch im kommerziellen Bereich, aber OSI hatte einfach durch die IT-Unterstützung mehr weltweiten Impact, würde ich ja, kann man so sagen. Also vier mit mehr Geld haben auf OSI gesetzt, weil OSI einfach eine, durch die Standardisierung und durch die auch Normen, die gesetzt haben, dass Geld da besser aufgehoben ist. Es soll ganz klar kein Vault-Garden-Internet werden, also es soll nicht angestrebt werden, dass Internet segmentiert ist und dass zum Beispiel die verschiedenen Kontinente Eigeninternets haben, die dann über Translation-Geldwest, die und hier und da mal funktionieren, verbunden werden, ein Internet bleiben und dann wurde noch festgesetzt, dass eine Skalierung bis hin noch neue Netzwerken nötig ist und das wurde dann auch so als das wichtigste, unser größtes Problem herausgestellt. Also wir müssen bis hin noch neue Netzwerke kommen, wie auch man das aussehen soll und dafür muss eine Adressierungs- und Routingplattform geschaffen werden. Aber was jetzt spannend war ist, man verschrigte sich jetzt genau, wie wir vor mehr der Wieses gesehen haben, erst mal wieder an solchen Sachen, wie das Internet ist. Also wir haben jetzt eine drastische Änderung, wir hatten vorher das Internet definitiv gehabt durch IP-Konnektivität, das heißt also wir haben gesagt, okay, wenn ich dich pingen kann oder ping kommt zurück, dann sind wir im Internet. Das war leicht testbar, das war der große Vorteil eigentlich, man konnte einfach ein Ping absetzen und man hat es gemerkt. Aber ich konnte natürlich auch in irgendeinem Vault-Garden-Ping und war nicht im Internet, von daher war die Definition auch wieder ein bisschen ungenau. Also man hat nicht so lange wie bei der Wieses, aber man hat auch durchaus sich Zeit reingesteckt und hat versucht dann irgendwelche Namensraum von Applikationen abzukloppen und zu sagen, wenn man im Internet ist, dann hat man halt über das Domain-Name-System die Möglichkeit halt an diese ganzen Applikationen, die innerhalb des Namensraums verzeichnet sind, ranzukommen und vor allem, dass man eine Protokollstack-Uniformität hat. Das heißt also, dass die Protokollstacks der Rechner, die im Internet sind, alle auf eine Art und Weise funktionieren, was jetzt wieder dem Multi-Protokoll-Internet ein bisschen entgegengespielt hat. Genau, also, wo soll das Internet hin? Soll es ein Multi-Protokoll-Internet werden oder soll es nur noch ein Protokoll im Internet laufen? Wir hatten dann damals, wie gesagt, schon OSI und TCP-IP, was diese beiden großen Netzprotokolle waren, die im Einsatz waren. OSI, was von der ISO-Standard geset wurde, was letztendlich dann die ITUT übernommen hat, hatte den Nachteil, dass langen Standardisierungszeiten dort herrschten. Es ging sehr langsam voran. Man musste diese ganzen Expertengruppen gebildet werden, die dann zu Tage lang, Wochen lang Sitzungen immer zu den entsprechenden Treffen geflogen wurden. Was lange Zeit gedauert hat, es gab aber sehr starken industriellen Support, also die Industrie des Geförders dahingeschickt und hat auch dafür das Geld gezahlt. Wenn diese Expertengruppen dann wieder fettig waren, wurde der Standard von oben nach unten deckt. Also es gab nicht die Möglichkeit, dass sich jetzt jemand, der einfach nur Lust hat, am Internet teilzunehmen, das Internet mitzuformieren, irgendwas sagen könnte. OSI hatte auch den Nachteil, dass wenn dieses Protokoll im Internet gefahren werden würde, dass die ITF ab dem Moment keine Kontrolle mehr hätte darüber, was, wie sich OSI weiterentwickelt. Also OSI wäre in der Hand gewesen von der ISO und die ITF könnte nichts machen, sondern wäre da auf die ISO angewiesen, die Weiterentwicklung vorzunehmen. Ein großer Vorteil von OSI war, im Gegensatz zu CPIP, das ist auch Entwicklungsaktivität außerhalb von den USA gab. In Europa hatte man zu der Zeit in den großen Netzwerken, also vor allem in Firmen, oder kommerziellen Netzwerken, hatte man eigentlich nur OSI im Einsatz, da gab es nichts anderes. Und vor allem halt auch an Entwicklungsaktivität war einfach nur, das lag auch daran, dass die ganzen ITF-Treffen nur in Amerika waren, gab es nur Leute aus Amerika. Da hat eigentlich kein anderer teilgenommen. CPIP im Gegensatz zu dazu hatte, weil durch die ITF standardisiert, es war ein total offener und transparenter Prozess, es gab da die entsprechenden Working Groups, wo sich jeder auf die Mailing Listen, Subscriben, Konter mitdiskutieren konnte. Am Schluss wurden dann Drafts gebildet. Die, die dann weitergegeben wurden, hat er ja schon vorhin beschrieben, dass dann die Working Group-Direktor dann diese Drafts bekommen haben, bis es dann hoch ging über die ISOG bis zum Internet Architecture Board und dann das in Standards geformt wurde. Das Ganze war also so ein Bottom-Up-Approach. CPIP wurde auch schon verwendet von vielen Firmen, war aber da eher so ein Protokoll von vielen. Also wir werden später sehen, Boeing hatte das ein bisschen im Einsatz, aber es war jetzt, sie hatten halt mehr OSI und sie hatten auch noch irgendwelche anderen Decknet und Apple Talk, was es auch noch alles gab im Einsatz. Genau, also OSI hatte auf jeden Fall die stärkste industrielle Unterstützung. Es kam dann auch dazu, dass die USA plötzlich das GOSIB-Programm starteten, was in der Klintenzeit gewollt wurde, dass jedes, jede Behörde, jedes Krankenhaus, jede Schule Zugang zu einem amerikerweiten OSI-Netzwerk hat. Was natürlich jetzt in dem Moment klar, die USA und die Regierung auch klar hinter OSI gestellt haben. Man hatte jetzt tatsächlich, was CPIP angeging, kein sonderlich guten kommerziellen Support. Das Gute aber war dabei noch, dass in der Industrie halt viele andere Protokolle im Einsatz waren. Das war damals das SNA, Decknet, wie gesagt. Und IPXSBX hatte ich vorhin so vergessen. Das heißt, man hatte schon eine Diskussionsbasis und konnte sagen, wir versuchen jetzt einfach, diese alle Protokolle wegzuwerfen und versuchen jetzt irgendwas Neues zu machen. Und im Gegensatz zu diesen anderen Protokollen war CPIP kein Insel, sondern war Netzwerktechnik ja schon das Internet und war auch schon über amerikerweite Strecken im Einsatz. Ja, also hat man sich dran gemacht, sich zu überlegen, wie könnten wir versuchen, jetzt erstmal die ersten Probleme anzugehen. Ich verlass jetzt die OSI-Route mal ein bisschen, kommen dann später noch mal darauf zurück und wir jetzt mal über die Möglichkeiten für die IPv4-Nachfolge diskutieren. Also jetzt im Zuge auch, dass es ein IP-Nachfolger wäre im Sinne von, es fällt sich ähnlich wie das Internetprotokoll. Man hatte sich angefangen, im Addressing-Bereich dann auf verschiedene Ideen zu kommen. Also man hat sich überlegt, wir machen IP-Dressen, die keine globale Gültigkeit mehr haben. Heute kommt das Konzept immer noch als Location, Identification, Separation-Protokoll von Cisco, zum Beispiel, wieder auf. Was so ein bisschen, ja, vielleicht so ein Konzept von VoltGarden hat, ist vielleicht ein bisschen schwierig, aber es läuft auch auf jeden Fall in die Richtung, was damals Paul mit den ersten Arbeiten zu natten, dann auch, also es läuft in die Richtung, dass wir letztendlich Adress-Translation haben und damit genau keine globale Gültigkeit mehr von IPv4-Adressen haben können. Die Arbeit war damals dann, also das hatte damals als Idee von Jakobsen eingebracht. Dann die, sagen wir mal, einfachste Idee war dann gewesen, dass eine Adress-Erweiterung auf 64-Bit gemacht würde. Man hat sich offen gelassen, ob man es vielleicht noch größer macht und diese Adressen sollten global gültig sein. Und die andere Idee war dann die 64-Bit Host-Kennung, das war die Idee, ich hoffe, jetzt hol ich ein bisschen was aus. Wenn man autonome Systeme hat, dann haben die ja auch nochmal einen Nummer. Und die Idee war, dass man jedes System nur noch die Host enumeriert und dann noch mitteilt, in welcher administrative Domäne man connected werden möchte und man würde dann darauf ein Adress-Format bauen, dass man Routern dazwischen keinen IP-Adressen mehr in dem Sinne geben muss, sondern dass man diese über autonome Systeme adressieren kann. Ich möchte auch nicht mehr darüber eingehen, das waren die Ideen, die damals im Umlauf waren. Wer da genaueres zuwesten möchte, kann dann nochmal vielleicht danach zu mir kommen. Genau. Das waren die Ideen, wurden vorgestellt und man war sich auch nicht sonderlich im Klaren, wie es jetzt weitergehen sollte und merkte aber, dass das tatsächlich knapp wird. Also wurde auf 1991 dann auf dem ITF-Meeting in Los Alamos die Road gegründet. Das ist die Routing and Addressing Workgroup, welche dann am Schluss, nachdem sie getagt hatte und auch dann die paar Monate vergingen, keine Erfolge erzielte bei irgendeiner langfristigen Vorschläge, welche das ERB durchsetzen konnte. Aber es wurden halt ein paar Sachen vorgeschlagen, die halt erstmal das IPv4-Problem lösen könnten. Das eine war durch Garbage Collection, was heute auch gemacht wird. Es gibt also Universitäten und versucht, dass großer IPv4-Adressbereich, der nicht benutzt wird, wieder zurückgegeben wird und wieder neu verteilt werden kann. Dann kann man auf die, dass man Klas B Allokationen, die eigentlich kein komplettes Klas B brauchen, also Klas B ist eine Slash 16 Allokation, durch mehrere Klas C Netzwerke ersetzen kann. Das würde dann noch weitergesponnen in die Richtung, dass man das Ganze ja so aggregieren könnte, wie diese verschiedenen Klas C Netze wie ein eigenes Netz verhalten, was dann später zu dem Klas List Interdomain Routing CIDR wurde, was wir jetzt halt als das normale kennen, also das, was wir mit IP-Adressen und Subnetzadressen Netzwerkmasken haben. Dann natürlich einmal die Einführung von NAT, das heißt also wir geben letztendlich Rechnern, die keine öffentliche IP mehr brauchen, Netzwerk Adress Translation oder wir machen größere Adressen. So, da kam dann die große Frage rein, die ITF hatte von vornherein ein Prinzip, das war für viele Leute in der ITF sehr wichtig, das End-to-End-Prinzip. Da ging es darum, dass Rechner eigentlich im Internet immer miteinander kommunizieren können sollen. Also es sollte nie ein Gateway dazwischen geben. Wir hatten dann diese Probleme jetzt, also heute haben wir es ja gerade, dass jetzt zum Beispiel NAT lange Zeit nicht standardisiert wurde, weswegen sich ein NAT auch überall anders verhält, ist ein Grund, weil NAT ja genau dieses Prinzip verletzt und deswegen nie von der ITF als ernst aufgenommen wurde. Aber so haben auch viele Übergangslösungen, die eine mögliche Abwendung der IPv4-Adress-Mangels haben, dieses Prinzip auch verletzt. Witten wie gesagt vorher schon Lisp zum Beispiel oder auch dieses, dass wir verschiedene Internet, dass wir die ganzen IP-Adressen immer pro Kontinent reuse diesen Kontinent in irgendwelche Art von Translation-Gapways aufbauen. Zeitlich, weil es nun gerade schon reinpasst, haben wir dann die Gründung der ISOC, wurde durch Vincent Serf gegründet, 1992. Vincent Serf hat sich selbst als Präsident etabliert und die ISOC hatte eigentlich als erstes Ziel, dass sie vor allem die ITF, dass sie der ITF den Rücken frei hält, wenn Leute juristische Probleme innerhalb der ITF bei der Protokolljournalisierung bekommen sollen würden. Sollte sich aber auch darum kümmern, dass vor allem die Standardisierung auch außerhalb der USA stattfinden soll. Also dass vor allem die ITF-Meetings mal außerhalb der USA stattfinden sollen, was bis dahin noch nicht so einfach passiert ist, so dass Leute auch aus anderen Kontinenten teilnehmen können. Es wurden dann in den ganzen Ländern die ISOC-Chapters gegründet und nur so, weil es viele nicht wissen, der ISOC gehört.org und über die PIR, die Public Internet Registry, wird die an Aphilias vermietet und so hat die ISOC eigentlich auch eine gute stabile Finanzlage und kann ihre Sachen machen. Genau, also wir hatten jetzt verschiedene Vorschläge, wir hatten die Rot gehört, die verschiedene Vorschläge gemacht hat. Es sah ja eigentlich so aus, als ob wir das Einfachste hätten, den wir ein neues IP-Protokoll machen, wo wir einfach nur größere Adressen verwenden, denkste, das IRB-Meeting unter 92 in Kube hat alles zum Schlechteren gewendet. Plötzlich hat, also es wurde dort, dort wurden die ganzen Empfehlungen der ISOC und der Road nochmal überprüft und drüber diskutiert und man war sich so klar irgendwie okay, der Adressmangel ist jetzt ein klares Problem, wir müssen jetzt da sofort ran gehen und man hat sich der Standardisierung von IPv7 jetzt verschrieben gehabt, hatte vom IRB aussagt, wir übergeben das Protokoll nicht der ITF und werden dieses Protokoll, werden dieses Protokoll Tuba machen, was der Nachfolger von TCP-IP ist. Tuba ist ein, heißt TCP UDP mit Big Adressers. Das läuft auf dem CLMP, was ein OSI-Protokoll ist, also das heißt, wir haben hier das Problem, dass IRB hier also eine Entscheidung getroffen hat, dass die ITF nicht mehr weiter an ihrem Internet weiter standardisieren darf, sondern quasi das Rooting-Protokoll, was verändert wird, um TCP und UDP zu routen, jetzt an die ISO übergeben würde. Das IPv7 ist kein Fehler, tatsächlich haben Sie sich in Japan vertan bei der Numerierung der IP Protokollnummern und man dachte, dass die 6 schon vergeben wäre. Genau, so TCP UDP ist ein Protokoll, wo man variable lange Adressen bis zu 20 bytes benutzt, das war die Idee von E165-Adressierung, das kennt ihr vielleicht von ISDN, wenn man einfach Nummern eintippt und man kann halt noch mal eine Nummer hinten ranhängen und man kommt dann woanders raus. Das war die Idee dieses im Internet einzuführen und das IRB hatte jetzt also die Weiche gestellt, gehabt und gesagt, wir fahren Tuba. Doch, also genau, vielleicht die Frage dazu, wie kam es dazu? Natürlich war das IRB von 11 Leuten, die alle schon, sagen wir mal, keine finanziellen Sorgen hatten, alle gestützt natürlich von IT Firmen, die jetzt in der Zwischenzeit auch, da es mit der Standardisierung so langsam voran ging, alle in OSI investiert hatten, weil da wusste man halt einfach, OSI ist das Protokoll, was halt einfach weltweit genormt ist und auch einfach das Protokoll ist, was die Leute einsetzen würden, wenn es ein Netzwerk geben würde und man würde sich nicht am Internet beteiligen. Es gab auch keine fettigen, es gab ja auch noch keine fettigen Vorschläge, seitens der ISG, also die ITF hat ja tatsächlich noch keine Vorschläge gemacht, außer jetzt zu sagen, wir könnten ja Adressen erhöhen, gab es noch nichts, was man jetzt wirklich sagen konnte, wir würden das zum Protokoll machen, weil die Frage also, hatte das IRB vielleicht ein bisschen vor schnell gehandelt? Weiß ich auch nicht. An die Leute hatten dann auch gefragt gehabt, ob es vielleicht möglich wäre, wenn man CLMP nehmen könnte und einfach forken könnte, dass man das Protokoll splitten könnte, einmal, dass es dann eine ISO Version geben würde und einmal eine ITF Version. Weiß ich leider auch nicht. Lustigerweise passiert das ja gerade bei MPLS, dass die, in diesem Fall, das ist ja von der ITF standardisiert, das wird jetzt gerade von der ITU geforgt. Ja, aber die Reaktion seitens der ITF war natürlich heftig, die fühlte sich betrogen und auf der ITF ging es relativ krass her, also ging wirklich bis dahin, dass das gesagt wurde, dass eigentlich das IRB abgesegt werden solle und die ITF an sich so weitermachen wird. Shocking disbelief war, glaube ich, so ein passender Ausdruck, den ich irgendwo gefunden hatte dafür. Zum 24. ITF Meeting, das am MIT-Statt fand, wo man dann genau diese Fragen gestellt ist, ging es relativ hoch her. Dave Clark hat dann, also war selber ja auch vom MIT einer derjenigen, die im Bereich akademischer Forschung sich am Internet beteiligten, der dann damals den Leitspruch aus der Aufstelle TV Reject Kings, Presidents and Voting, we believe in rough consensus and running code. Da die Reaktionen auf den Mailing-Listen und auch schon in den Vorbereitungstreffen zum Meeting waren, musste das IRB die Entscheidung für CLMP zurücknehmen und musste hier auch sagen, dass das neue Protokoll nun doch durch die ITF standardisiert werden solle. Gleichzeitig um, damit solche Probleme nicht nochmal passieren können, wurde die POR-Seit gegründet. Das ist eine Organisation innerhalb dieser IRB, innerhalb der ITF ist es, aber es soll vor allem die Standardisierung überwachen, übergreifend über das IRB, ISHG und das, und die ITF. Wurde damals Steve Crocker der Vorsitz gewährt und da wurden dann Prozesse definiert, was bei sonst die, bei Streitigkeiten, wenn sowas noch mal vorkommen sollte, passieren soll. Wäre gewesen, ja, das Problem ist halt einerseits, dass die ITF dann halt die Macht verloren hätte. Ich mein, ich weiß nicht, was passiert wäre. Zum anderen ist natürlich die Frage, dass die Routing-Algorithmen, um solche Adressen zu routen, also komplexer sind meiner, meiner, meines Business nach. Also es ist mit fest langen Adressen, kann man einfache Adressrauben delegieren und routen, als mit dynamisch langen. Aber man kann natürlich bei dynamisch langen andere Prinzipien einsetzen. Ich weiß es nicht, was passiert wäre. Also die ITF versucht sich, so krass es geht, offen zu halten, so transparent zu halten, wie es nur irgendwie geht. Also das würde ich nicht sagen, sie ist klar amerikanisch dominant, weil halt die meisten Leute, die halt dort mitarbeiten, dass sie aus Amerika kommen, aber es ist für keinen Problem, auch nur irgendwie an den Entscheidungen oder da als ein Protokoll-Design mitzuarbeiten. Und es ist auch, also die ITF-Beatings werden jetzt auch immer international gemacht. Also gleichberechtigt zwischen allen Ländern, so von daher würde ich das, ist halt einfach so. Ich mein, die meisten kommen daher, aber sie versucht sich, sie versucht, die Große raushängen zu lassen. Genau, also wir hatten jetzt so dieses, naja, eigentlich für mich so doch eine relativ krasse Sache, dass ich tatsächlich in dem Moment, dass IRB gegen die ITF und gegen ihre eigenen Gremien gestellt hat, gehabt, was sich halt zum Glück gelöst hat. Und jetzt war die ITF wieder am Zug und musste jetzt also versuchen, einen Protokoll zu finden, was das Internet jetzt aus diesem IPv4-Adressdilemma rausführt und vielleicht auch dann neuen Möglichkeiten gibt. Also, es wurde in der Zwischenzeit eine LFC, die 1380, editiert, wo es darum ging, was wir überhaupt an möglichen Protokollen, was wir für mögliche Protokoll überhaupt einführen können. Dazu gehört dann, wie gesagt, immer noch Tuba war nicht vom Tisch, sondern der Tuba war eigentlich behandelt mit den anderen Internet-Protokollen. Wir hatten das P-Internet-Protokoll mit unendlich langen Adressen. Also war ähnlich gestrickt, wie Tuba halt nur nicht die 20-byte-Begrenzung viel weg. Wir hatten das Simple-Internet-Protokoll mit 64-bit langen Adressen, was eigentlich so das Protokoll ist, was wir so, welches dem heutigen IPv6 am Ähnlichsten ist. Und wir hatten IP-Adress-Incapsulation, was wir gebaut, diese hatten schon die Vorahnung, dass Simple-IP das nächste Internet-Protokoll wird und hatten tatsächlich nur einen Transitionsmechanismus vom IPv4 auf das Simple-IP-Protokoll definiert. So, Zeit wurde knapp und man musste auch irgendwie versuchen, jetzt die Standardisierung voranzukriegen. Also wurde das IP-Design gegründet. Das war auf dem ITF-Meeting in Amsterdam. Und es sollte jetzt dem Markt zuvor entschieden werden, welches Protokoll das nächste Internet-Protokoll wird. Und so wurde, wobei auch schon einige Vorschläge da waren, einen White-Paper rausgegeben, das war die RFC 1550, wie man ein RFC baut, in welchem ein neues IP-Protokoll beschreibt. Die aktuellen Protokolle dazu wurden in der Zwischenzeit von Tim Dixon, das war ein Franzose, in den RA-Technical Reports beschrieben. Ich habe vom Leuten erfahren, dass Tim Dixon tatsächlich in einer Abelsgruppe war, die sich nur mit OSI beschäftigt hat, von daher relativ krass. Er hatte damals an die RFC 1550 herausgebracht, wo er die verschiedenen Protokoll-Vorschläge, wo er die verschiedenen Protokoll-Vorschläge vergleichen hat und hat da auch festgestellt, obwohl die jetzt alle dynamisch lange Alpierte-Rassen haben, die grundsätzlichen großen Unterschiede werden auf technischer Ebene nicht verhanden und von daher könnte man auf technischer Ebene keine leichte Auswahl eines Protokolls treffen. Noel Chippa, Chippa, seinerzeit eigentlich ein bisschen ein Außenseiter in dieser ganzen ITF-Welt, weil er tatsächlich in einer Firma jetzt oder zumindest habe ich nichts gefunden in der Richtung, also auch nicht Consulting in irgendeiner Art und Weise für eine größere Firma gemacht hat. Er hatte sehr stark beklagt gehabt, dass das eine formale Spezifikation überhaupt von Features, man wusste auch wieder überhaupt nicht, welche Features wollen wir eigentlich in ein nächstes IP-Protokoll haben. Er hatte deswegen einfach mal auch Spaß an Nimrod Design, was ein absolut minimales Internet-Protokoll war, welches funktioniert hätte, aber was halt den minimalen Satz von Features quasi genügt hätte. Auf das vorbestimmte White Paper 1550 sind dann verschiedene Antworten reingekorben, also auch vor allem von der Industrie. Man hatte jetzt zum ersten Mal so von den Leuten, die wirklich Netzwerke benutzen, antworten, wie sie sich das Netzwerk vorstellen würden. Das war eigentlich ganz spannend zu lesen. Es gab also 21 Einreichungen. Das waren jetzt keine wirklichen Protokoll-Vorschläge, sondern auch zum einfachen Vorschläge, oder wir wollen, was wir für Technologien bei uns haben möchten. Also, drei Stück waren eigentlich so doch einvernehm, das war damals Burgeng, EBM und BBN. BBN damals hat Netzwerktechnologie gebaut. Sie alle waren eigentlich so der Meinung, es braucht eigentlich kein neues Internet-Protokoll. Amerika ist ausgestattet mit IPv4-Adressen. Wir müssen nichts Neues machen und scheiß auf den Rest der Welt in der Richtung. Was vor allem Burgeng gesagt hat, was sie nicht machen würden, ist, dass sie auch selber ein Netzwerk hatten, wo sie eigentlich alles verwendet hatten, was es zu der Zeit gab. Es gab auch noch ein paar Protokoll-Vorschläge, die wir nicht mehr besetzen würden, sondern dass das Protokoll ohne Probleme einfach ein Update wäre zum IPv4. Das heißt, so IPv4 müsse mit IPv6 zu weit kompatibel sein, dass man alte Maschine nicht ändern müsse, um sie mit IPv6 kommunizieren zu lassen. Es wurde ganz klar gesagt, wenn keine Killer-Applikation da ist, wäre eine Umstellung eigentlich, weil das ist ein sehr guter Ort. Gerade Time Warner Cable hat gesagt, für uns schon sehr recht IPv6, man hat ja auch Multicast implementiert. Gerade für die neuen Video- und Demandservices, die aufpoppt in Amerika, war IPv6 relativ gut, weil vor allem da auch wieder Adressen gebraucht wurden. Wo man ja wusste, dass diese zu nahegegeben werden. Am positivsten sah, wurde aber die Umstellung eigentlich von Geräten auf den Markt werfen. Dafür waren die Adressen einfach wirklich nicht mehr genug. Sie hätten sich auch ganz klar nochmal für geografisches Routine ausgesprochen, es möglich zu machen, dass man möglichst geografisch die Netze macht und dann nach oben durchroutet. Ganz im Gegensatz dazu haben vor allem Energiebetreiber in den USA sich ausgesprochen, dass sie ein OSI-Stack haben möchte, weil sie wirklich große Diploments davon schon haben. So, die Suche nach einem neuen Protokoll geht weiter. Es wird speziell wieder was Neues gegründet, um die Spezifikationen für ein neues Protokoll voranzubringen. Das ist das IPNG Directorate. Diese selber bekommen durch die Vorschläge eingereicht durch Bradner Manken. Damals auch, glaube ich, Leute aus der IESEG, die dafür bereitgestanden sind. Das IPNG Directorate bestand damals auch aus Dave Clark und von einer anderen Hand voll von Leuten, die vor allem aber aus der Industrie kamen. Diese hatten sich nun von den ganzen Vorschlägen, die vorhanden waren drei Protokolle ausgesucht. Wichtig war, als sie sich diese Protokolle ausgesucht haben, die von diesen, die eingetroffen waren, dass also ein größerer Adressraum vorhanden war, dass sie universell einsetzbar waren. Und vor allem, also das merkt man jetzt dabei so ein bisschen auch, dass die Politik halt da in der Rolle spielt. Genau, also wir haben jetzt drei Protokolle. Diese drei haben sich ausgesucht. Das ist das Simple Internet Protokoll Plus. Das ist eine kleine Erweiterung vom Simple Internet Protokoll. Die das P-Internet-Protokoll mit den ordentlich langen Adressen, aber da wurden einige Sachen, ich glaube die Flora dies und so Sachen raus, übernommen in SIP IPAE. Dieser Transitionsmechanismus von Zahn wurde in das Protokoll mit aufgenommen und ist eigentlich für uns heute so, wenn wir uns uns anschauen, dass IPV6 nur mit vielen Sitziebit-Adressen. Neu dazukam nach auch dem White Paper CUTNIP, CUTNIP hat da ein 160-Bit-Adressraum und war eigentlich auch wieder ein OSI-Protokoll. War relativ krass, weil es sogar IPX-Features noch implementiert hatte. Also das war ein regelrechtes Monster. Wurde dann aber frühzeitig schon aus dem Rennen geworfen und wir hatten dann immer noch Tuba, was immer noch am Leben hielt und was von Seiten der Spezifizierung ja eigentlich doch ganz gut durchspezifiziert wurde, so dass man es halt mit in die technische Entscheidung zumindest mit übernehmen könnte. So wie gesagt CUTNIP ist dann frühzeitig rausgeflogen, weil ich bin mir nicht ganz sicher, aber es war bei der Menge an Features doch das weitesten unterspezifizierteste Protokoll, was es gab. Und genau, man hatte sich auch wieder zurück besonnen auf die RFC 1287, die wir am Anfang hatten, wo ja IP selber auch als ein wichtiges Bestandteil des Internets definiert wurde und hatte dann auch damit Tuba ausgeschlossen gehabt, sodass eigentlich nur noch SIP-P als einziger Nachfolger irgendwie übrig blieb. Genau, dieses SIP-P hatte noch nicht, es gab diese RFC 1752 wir auch vorhin hatten, hatte noch nicht die ausreichenden Features überhaupt um das nächste Internet Protokoll zu werden, aber es war jetzt mit Abstand das Aussichtsreiste und wurde jetzt erstmal in die nähere Betrachtung gezogen und wurde dann am 30. ITF-Mitting in Toronto tatsächlich zu IPv6 gekrönt, es wurden noch kleine Modifikationen gemacht, die Adresslänge wurde noch mal verdoppelt und es wurden die neuen Working Groups eingerichtet, die dann die entsprechenden Features nachimplementieren müssten, was dann Autoconfiguration war, IPv6 Mobility Support, IPsec und auch an den Transitionsmöglichkeiten gearbeitet wurde und somit wurde dann IPv6 ein Proposed-Standard. So, ich habe jetzt eine Stunde sechs schon gemacht, ich habe jetzt noch einen ganzen Haufen Folien, habe den noch Interesse, jetzt wird es gerade um die Privacy-Problematik gehen in IPv6, wollt ihr noch bleiben, ich habe eine Stunde noch Zeit, also hier ist jetzt nichts drin, wer gehen möchte, kann sonst gehen. Okay, fand ich relativ spannend, als ich es entdeckt habe, es gab einen Internet Draft 1999 von Cave Moor, Privacy Considerations for the use of hardware serial numbers in end-to-end network protocols, das wurde nie wirklich zu einem Standard, beschreibt aber das niemals, also sowas wie auch zum Beispiel Mac-Adressen selber ins Internet verschickt werden sollen. Und wer jetzt jeder von euch der IPv6 kennt, weiß ja, dass das ja eigentlich so ein Konzept von IPv6 ist bei der Stateless Autoconfiguration. War eigentlich auch allen bekannt, dass das vielleicht mal zum Problem werden könnte, es wurde auch dann an diesen Privacy-Extensions gearbeitet, die die Hinterinstellen bei der IPv6-Adresse randomisieren. Aber es kommt, wie es kommen muss, das Thema flammt auf. Und zwar, Bill Fretzer hat dann 1999 ein Artikel in der Internet-Week veröffentlicht, wo er fragt, wo sind eigentlich die ganzen Leute, die sich um IP Sicherheit kümmern, die sich um Privacy kümmern? Haben die das alle nicht mitbekommen, was IPv6 für eine große Gefahr für uns darstellt? Und Bill Mengele teilt, dass das halt auch die EFF vor allem überhaupt nichts gesagt hat zu dem Thema. Es ist natürlich schlecht für die ITF, weil, wie gesagt, Zeitpunkten nicht gut. Und versucht sich jetzt zu rechnen, versucht sich jetzt mit Stellungnahmen zu retten. Und das ist natürlich relativ hart, dass so etwas aufkommt. Die Stimmung in der ITF ist relativ schlecht, weil, wie gesagt, Zeitpunkten nicht gut. Und versucht sich jetzt zu rechnen, versucht sich jetzt mit Stellungnahmen zu retten. Und zu retten, dass das ja ungenau ist und vielleicht falsche Vermutungen zulässt, etc., etc. Doch es wird schlimmer. Das EPIC, das ist das Electronic Privacy Information Center, gibt eine Warnung bezüglich IPv6 raus und vergleicht den Fall damals mit den neuen Pensionen 3, in welchem die CPU ID implementiert wurde, um Software-Claw und Software-Piraterie zu unterdrücken. Auch danach springt die Presse noch ein bisschen mehr auf. Das Ganze kommt auch in die BBC. Und es treten wie auch immer bei solchen Sachen passiert, muss Grundsatzfragen innerhalb der ITF auf. Und man fragt sich, ob man eigentlich mit der, also, ob man vielleicht den falschen Weg beschritten hat oder ob man vielleicht, also, es kommen alle möglichen Fragen wieder hoch. Es werden wieder Pressemitteilungen rausgegeben, genau das ist ungenau, es ist missverständlich geschrieben. Wir haben Privacy Extension, etc., etc., aber die BBC hat doch einen größeren Kreis, wie sie Leute erreichen. Die Reaktion der EU ist auch nicht unbedingt gut. Nach den EU-Data-Protection-Directiven 95, 46 und 97, 66 gehören IP-Dressen zu persönlichen Daten und sind deswegen schützenswert. Und die EU sagt ganz klar in ihrer Privacy Working Group, dass die Probleme wohl noch nicht gelöst sind. Andererseits hat aber die EU Taskforce schon parallel dazu angefangen, selber IPv6-Deployments voranzutreiben, vor allem innerhalb der EU. Die European Commission IPv6 Taskforce gibt dann auch noch ein offizielles Statement dazuraus, dass mit Privacy Extension ja die Privacy Eigenschaften vom IPv6 besser werden als mit IPv4. Genau und nach eigentlich passiert weiter nichts. Die EU macht weiter und an der Stelle habe ich auch das dann nicht weiter verfolgt, was passiert ist. Aber ich glaube, die EU hat sich dann auch nicht weiter darum gekümmert. Das war dann auch noch mal ein Rückschlag für IPv6, was wieder doch zu einigen Problemen der ITF geführt hat. Nichtsdestotrotz, aber gibt es auch positive Seiten bei der IPv6-Standardsicherung. Und tatsächlich haben wir nach dem Jahr 1998, die Chorspezifikation beendet wurde, doch IPv6 als nationale Priorität gesehen. China hat IPv6 auf ihrer Agenda geschrieben, Japan, EU, Südkorea, Indien. Und es wurden tatsächlich auch von der Regierung Policies relativ früh erarbeitet, also dass IPv6 eingeführt wird. Außer die USA, die USA hat tatsächlich nichts übernommen. Hat dann aber 2003, wahrscheinlich auch aus den Gründen der 9-11-Angriffe, hat das DOD dann versucht, IPv6 zu puschen. Es ging ja tatsächlich so, man hat zu Sachen gehört, wie mehr Flexibilität auf dem Schlachtfeld. Ich weiß nicht, ob das stimmt. Tatsächlich hat der IPv6 da durchaus ein paar Features, die da angenehm sind. In der Asien verliegt das Ganze ein bisschen besser. Wir haben das Jahr 2000 die neue E-Japan-Initiative angestrebt, in welcher beschlossen wurde, dass bis 2005 jedes Gerät in allen Behörden auf IPv6 umgestellt werden soll, was natürlich überhaupt nicht geklappt hat. Japan kam in der Zeit gerade aus einer Rezession raus und hat versucht, also IPv6 als ein Werkzeugdutzend, um halt Arbeitslosigkeit zu minimieren und vor allem auch wieder wirtschaftlich gut dazustehen. Und hat versucht, also IPv6 so als Internetmotor dafür zu verwenden. Das sind auch einige von uns, also in G-Kreisen natürlich bekannte Sachen passiert, das wurde disweit gegründet. Im Rahmen des Weits wurde CAME gegründet und das SIX bauen gegründet, wo ja dann auch die ersten IPv6-Pakete tatsächlich für Leute, die nicht unbedingt damit spielen konnten, probiert werden konnten, also in dem man ein Tunnel aufbauen konnte. Es gab dann so Sachen wie Steuerreduzierung für IPv6-Habwehrhersteller und Entwickler und auch die ersten Kunden wurden doch relativ früh bei Entity dann mit IPv6 erschlossen, aber das Ganze hörte damit auch auf. Also bis aus Beta-Phasen ist eigentlich nichts übrig geblieben und ich glaube selbst, dass am Tokyo Internet Exchange IPv6 immer noch nicht so sonderlich, noch nicht mal so weit ist, wie hier bei desix. In Europa hat sich das alles in dem E-Europe-Action-Plan ausgespielt. Dort wollte man aber nicht wirklich den Ländern irgendwas runterdiktieren und sagen, ihr sollt jetzt IPv6 einführen. Man hat aber ganz klar gesehen, dass im Zug der 4G-Standardisierung IPv6 unumgänglich ist, da die Adresseknappheit gerade jetzt beim Immobilfunk-Adressraum reinhaut und hat dann auf IPv6 ganz klar gesagt, dass das das Protokoll sein wird, was die Immobilfunk mit dem 3G-Pisch-Konsortium verwendet werden soll. Die E-Korea und China-Initiative waren dann noch ganz lustig. Also in Südkorea hat man wirklich gesagt, auch wir schaffen neue Arbeitsplätze, wir werden ein Internet-Power-House und ein Kinderlief ist ungefähr ähnlich. Dort war es dann ganz lustig zu sehen, dass 2008 tatsächlich die olympischen Spiele die Webseite davor IPv6-Ready war und sie hatten sogar Ampel-Steuerungen bis hin dann auch zur Videoüberwachung über IPv6-implimited gehabt, waren also relativ krass dabei. Ah, genau, zu erwähnen ist auch noch, dass das tatsächlich in einer Rede vom damaligen Ministerpräsidenten aus Japan, er tatsächlich dann IPv6, das kann ich leider nicht viel größern, tatsächlich IPv6 daneben so Sachen wie Bildung und soziale Probleme, die im Land stehen, tatsächlich dann auch in der gleichen Rede besprochen wurde, dass das eine Weg ist zumindest auch global wirtschaftlich wieder besser dazustehen. Ja, das war es so weit von meiner Seite aus. Wenn ihr noch Fragen habt, könnt ihr jetzt schießen, wir haben noch Zeit bis, das kriege ich jetzt nicht mehr hin. Wir haben, glaube ich, noch Zeit, noch eine halbe Stunde Zeit hier. Also, wenn ihr noch irgendwelche Fragen habt, könnt ihr los schießen, genau. Danke so weit fürs Zuhören. Also ihr seht, Standardisierung und Internet-Gabernenz ist genauso durcheinander wie meine Folien wahrscheinlich. Das ist ein schwieriges Gebiet und ich hatte leider noch viel, viel mehr und ich musste 30 oder 40 Folien jetzt nochmal aus diesen Vortrag rauslöschen, um überhaupt jetzt in eineinhalb Stunden fertig zu werden. Anstrengend. Und welche Fragen noch? Ja, also bei der Privacy-Debatte bin ich eigentlich mir noch relativ skeptisch, dass das gut durch ist. Also wir haben das Problem mit, muss ich auch wirklich sagen, also wie die ITF es ja auch schon gesagt hat, ist das Problem mit den Privacy-Exensions gelöst. Also, ich hoffe, dass das, Windows hat es bereits gemacht. Ich hoffe, dass die Unix bald nachfolgen werden, dass Privacy-Exensions zumindest bei Desktop-Installation default werden. Bei Rattat wird das hoffentlich bald mit Networkmanager passieren, bei der anderen Weise ist leider gerade nicht. Dann ist das Problem gegessen. Das andere Problem ist halt, dass halt die Subnetze ja meistens Slash 64 groß sind. Das heißt also, vom Provider werden auch Slash 64er dann per DSL-Modem oder über Kabel dann in die Haushalte transportiert und diese Slash 64er werden wohl oder übel auch länger stabil bleiben. Wir werden statischer IP-Adressen sein. Und wenn man jetzt die IPv6-Adresse aufteilt und einfach jetzt noch die vorderen 64-Bit verwendet, hat man auch genug Potenzial, Leute langfristig im Internet tracking zu können. So Facebook kann dann mit den vorderen 64-Bit einfach halt hergehen und damit das noch als Erkennungsmerkmal eintragen. Ja, von hinten. Die Frage ist halt auch irgendwann, die RIP-Policyworkgroup, was IP-Adressvergabe angeht, versucht auch gerade mal wieder ein bisschen den Hebel zuzuziehen, dass Leute nicht mit zu großen Adressen für ihre Haushalts- Bitte, ist was? Ist das? Ja, ja, genau, aber man muss halt, ich finde es nicht, ich finde es übertrieben, aber das ist halt die Frage, ob man es halt braucht. Also klar, vielsätzlich ist das kleinste, was du machen kannst, so was du rausgeben kannst als IP-Adresse. Man muss halt auch fragen, also man hat halt vorher einfach nur eine IP für vier Adresse rausgegeben. Ich finde es schwierig, das Thema in der Rechnung. Also ich würde halt mich freuen, wenn meine Eltern zum Beispiel nicht unbedingt jahrelang eine strategische IP-Adresse hätten, sondern halt, dass sie dann auch vielleicht einmal oder zweimal wöchentlich rotiert. Es gibt Ideen, dass man damit IP-Prefix-Delegation und Valid Lifetimes, die IP-Adressen auf den, also das Konzept ist ein bisschen schwieriger, weil, weil tatsächlich es dann so kommen könnte, dass man immer abwechselnd zwei IP-Ad, vor sechs Ad-Prefixe zu Hause hat und die immer zwischenzeitlich rumfäden. Also man hat immer einen Präfix, der neu reinkommt, der in der Valid Lifetime von zwei Wochen hat. In der Zwischenzeit läuft dann der alte Präfix aus und alle Geräte wechselndauernd ihre IP-Adresse durch. Und das ist halt nicht wie, man hat vorne nackt und man merkt überhaupt nicht, welche external IP-Adresse man hat, sondern das ganze Netzwerken nummeriert sich die ganze Zeit. Das war auch mal im Gespräch. Ich weiß nicht, wie der gerade aktuell der Stand ist. Also ich finde, das Debatte ist eigentlich, ich weiß nicht, also man hört da relativ wenig und ich glaube, wir werden einfach dann vor die Wand gestellt, wenn halt so was ist und die Leute das Zeug rausgeben und tatsächlich IPv6 auf dem Gabel passiert. Ja, genau, das war die Idee von ein paar Leuten bei 1&1, die sie in dem Blog veröffentlicht hatten. Also da hatte ich es zumindest her, dass das genau so ein Dualkonzept gefahren werden sollte. Es gibt noch Ideen mit Proxys und ULA-Adressen, also Unic Local Addressers, wird sich glaube ich erst zeigen, weil da werden die Provider bestimmen und das muss auch erstmal alles funktionieren mit den Endgeräten, also mit den Home-Routern, die nach Hause dann gestellt werden, was für ein Konzept dann da letztendlich funktionieren wird. Und ich denke mal, dass das dann Schlag auf Schlagpassion wird. Also wenn halt Wodafone das dann einfach mal einknipst und dann halt die neue Router-Generation verteilt, dann wird sich das relativ schnell etablieren und genauso bei der Telekom auch. Also beide haben ja angesagt, dass dieses Jahr noch die Privataushalte IPv6 bekommen werden. Also wird dieses Jahr das noch relativ reinhauen, denke ich mal. Und nötig unbedingt, also die Fritzboxen haben also automatischen Filmwerp-Puschmechanismus und wenn dann halt dann mal jemand aus Knöpfchen drückt, dann rollen halt die Fritzbox mit IPv6 auf einen Schlag. Also finde ich, das kann man schon machen. Also ich weiß nicht, wie das dann ausgerollt wird. Weitere Fragen? Gut, okay. Also sonst könnt ihr ja noch zu mir kommen oder so und so Fragen. Ansonsten danke für die Aufmerksamkeit.