 Guten Tag, mein Name ist Jörg Schilling. Ich wollte heute mal ein bisschen was dazu erzählen, wie eines der erfolgreichsten Betriebssysteme entstanden ist und dabei allerdings auch im Wesentlichen als Kern BSD, UNIX und Solaris als Hauptentwicklungslinie nehmen, weil das der Teil von UNIX ist, wo eigentlich am meisten passiert ist. Ja, wie kam es zu UNIX? UNIX ist ja eigentlich eine Perseflage auf ein anderes Betriebssystem, und zwar hieß dieses Betriebssystem Multix, das mit Forschungsmitteln ab 1964 entwickelt werden sollte. Da hat das MIT mit ihr gemacht, General Electric. General Electric hat übrigens auch die Rechner geliefert, AT&T hat auch mitgemacht und die Abkürzung heißt Multiplex Information and Computing Services. Das Interessante ist, das habe ich mir jetzt auch erstmal nochmal zusammengesucht, was Multix eigentlich damals können sollte, wie sagt es im Jahr 1964, das finde ich schon sehr interessant, es sollte generell alles mit M-Map machen, vor allen Dingen auch das Lesen von Dateien, es gab Shared Libraries, es sollte multiprocessor Support geben, was damals noch völlig undenkbar war sonst, und IBM war auch damit beteiligt, dass sie die Programmiersprache PL1 dafür spendiert haben. Ab 1969 soll angeblich das erste System am MIT verfügbar gewesen sein auf so ein General Electric Computer, allerdings muss das sehr wenig von den eigentlich geplanten Features gehabt haben, weshalb AT&T damals aus der Entwicklung ausgestiegen ist. Interessant, die Vorteile von dem Multix sind, wie ihr sagt, das sehr viel mit M-Map gemacht werden sollte, interessant auch für heutige Verhältnisse, beliebiges ein- und auskonfigurieren von Speicherplatten und CPUs bei laufenden Betrieb, Shared Libraries und das Anwendungsprogramme Local Procedure Course in Demonprogramme machen konnten. Das ist ein Konzept, was dann Anfang der 90er Jahre in einem Forschungsbetriebssystem von Bill Joy, was Spring-Hees entwickelt worden ist und dann ab 95 in Solaris reingewandert ist. Der Nachteil allerdings war, dadurch, dass das halt mit den damaligen Ressourcen der verfügbaren Computer funktionieren musste, konnte man maximal 256 Kilo Worte mapen. Ein Wort hat 36 Bit gehabt, das ist ungefähr also ein Megabyte. Die größeren Dateien waren mit Multix nicht möglich, das ist natürlich ein bisschen wenig, allerdings, wenn man hier draußen sich mal anguckt, da steht ja eine PDP7, die noch, was eine PDP8, die läuft und da ist eine Festplatte drin mit 2,5 Megabyte Gesamtkapacität und das Ding ist halt aus den 70er Jahren, also noch ein bisschen neuer. Es könnte also durchaus sein, dass diese 1 Megabyte maximale Dateigröße nicht unbedingt eine echte Begrenzung für die damalige Zeit waren. Ja, interessant ist, wenn man das jetzt ganz mal mit dem vergleicht, was moderne Unix-Systeme 20 Jahre später können. Da sehen wir, dass 1988 Suner S40 M-Map für alles eingeführt hat. Das ist ja mehr als 20 Jahre später nach dem Plan, allerdings interessanterweise in Unix und das, obwohl die Idee war, wir machen mal Unix statt Multix, weil Multix kann so viel, wir specken es ab. 1988 Suner ist auch dynamisches Linken eingeführt. 1992, hatte ich ja gerade erzählt, gab es halt dieses Spring-Betriebssystem, was NC++ geschrieben war. Es war ein Forschungsprojekt von Bill Joy, was sich allerdings als unbrauchbar erwies. Es ist dann eingestampft worden, so um 1997 rum. Und das Einzige, was davon überlebt hat, war diese Dorsi-Idee. Das ist ein lokaler Procedure-Coil. Auf diese Art und Weise werden z.B. bei Solaris jetzt ein schneller Zugriff auf die NAMES-Systeme implementiert. Da gibt es halt ein Name-Service-Cache-Demon, der so ein Door-Objekt zur Verfügung stellt. Und darüber können dann die Anwenderprogramme, die z.B. Hostname oder Passport-Pfeils oder sowas in gecacheder Weise lesen wollen, ein Procedure-Coil direkt in den Code von dem Dämon reinmachen, ohne dass da ein Context-Wit stattfinden muss. Ja, auch interessant, ab etwa 1997 gab es ja Sanner-S auf der sogenannten Cray-SMP. Ich weiß nicht, wer sowas vielleicht mal gesehen hat. Das war so eine Telefonzellengroße Maschine, die oben so ein rotes Dach hatte. Und darum wollte die also auch gelegentlich als Rotkäppchen bezeichnet. Das war so eine Maschine, da waren, wenn ich es richtig in Erinnerung habe, 64 Spike-CPUs drin. Und das ganze lief mit Solaris als 64-Bit-Betriebssystem. Und das war das erste Unix, wo man bei laufendem Betrieb CPUs rein- und rauskonfigurieren konnte. Das heißt, wo man das konnte, was eigentlich auch für Multics mal geplant war. Ja, wie ist das bei den Bell-Labs gelaufen? Bell ist offiziell ausgestiegen. Und dann haben ein paar Leute, die Namen durften ja bekannt sein, Dennis Ritchie, Ken Thompson und ein paar andere noch, sich überlegt, dass sie etwas Einfacheres machen wollen. Da haben sie uns diesen rumgeguckt und haben eine PDP-7 rumstehen gefunden im Institut, wo sie bei den Bell-Labs, die zu dem Zeitpunkt nicht benutzt worden ist. Und die konnten sich dann irgendwie aneignen, zumindest in Sly-weise, dass so eine PDP-7 hat eine Wortbreite von 18-Bit. Deckrechner hatten damals generell typischerweise 18-Bit-Wortbreite. Die PDP-11 mit ihren 16-Bit-Wortbreiten ist eher eine Ausnahme bei Deck gewesen. Das heißt also, mit der Standardspeichermenge von 4 Kilo-Worten kommen dann halt nicht 8 K, sondern halt 9 Kilobyte Hauptspeicher raus. Maximaler Speicher sind 64 Kilo-Worte, also 144 Kilo-Byte. Ist nicht gerade viel, das erklärt übrigens auch, warum Unix-Programme, so wie sie in der früheren Zeit existiert haben, sehr, sehr wenig hilfreiche Fehlermeldungen geben und auch im Prinzip keinerlei Fehler-Situationen versuchen zu überprüfen. Die Idee war, wenn man mit dem wenigen Speicher, den das System zur Verfügung stellt, was man damals halt bekommen konnte in einem Kleinrechner, wenn man da die gewünschte Eigenschaft in das Programm reinbaut, verbraucht man schon den gesamten Hauptspeicher der Maschine, da kann man sich jetzt nicht auch noch Platz im Hauptspeicher dafür gönnen, um eine Fehlerbehandlung reinzumachen. Das heißt, Unix-Programme haben wegen dieser Ressourcenbegrenzung aus der damaligen Zeit, wenn man sinnvolle Eingangsdaten ihnen gegeben hat, etwas Sinnvolles getan und sie haben halt etwas Unsinniges gemacht, wenn man halt unsinnige Eingangsdaten reingegeben hat. Was also oft auch als garbage-in-gabbage-out Technologie bezeichnet worden ist. Ja, was hat man dann da gemacht? Die Idee war von ein paar Leuten, ein Spiel namens Space Travel zu implementieren und da brauchte man eine gewisse Realzeit-Eigenschaften, die mit den damaligen Betriebssystemen nicht zu erreichen waren und dann kamen sie auf die Idee, dass sie das als Testobjekt für ein neues Betriebssystem, was sie als Verballhornung Unix nannten. Und wenn man jetzt hier mal in den Aux hinguckt, ich habe es hier extra noch mal geschrieben, es wurde in der Anfangsphase tatsächlich mit C geschrieben, weil Multix ja auch mit C geschrieben worden ist. Der Name Unix, der ist erst sehr viel später gekommen, ab so etwa 1974, 1974 gab es nämlich T-Rof. Erstmals ist Fotosatzprogramm von Unix und da die Ausgabe von T-Rof auf ein Scheibenbelichter der japanischen Firma WANG ausgerichtet war. Ein Scheibenbelichter ist ein Belichter, da ist ein 9 x 12 cm großes Dier drin und in dem Dier befinden sich die Buchstaben an unterschiedlichen Stellen und es gibt dann ein paar kleine Linearmotoren, die das Dier an einer richtigen Stelle im strahlen Gang eines kleinen Dierprojekters positionieren, sodass dann einer von diesen Buchstaben, die sich auf diesem 9 x 12 cm großes Dier befindet, auf einen Film projiziert werden kann. Damit kann man dann Computer gesteuert den ganzen Film belichten, der wird dann entwickelt, dann kann man aufset-druck damit machen. Und der Name Unix ist deswegen gewählt worden, weil es schicker aussah und weil es bei den AT&T-Leuten jemand gab, der es schick fand, sogenannte Kapitelchen zu verwenden. Das ist ein Ausdruck aus Ersatztechnik, der beschreibt, dass man nimmt Großbuchstaben statt einer Großkleinschreibung, skaliert aber die Größe so runter, dass sie ein bisschen größer nur sind als die kleinen Buchstaben. Das gab jemand in der Unix-Truppe, der fand das schick. Das sah wohl mit dem X am Ende besser aus als mit der schreibweise ICS. Daraufhin haben sie in dem Moment, wo T-Rof verfügbar war, umgestellt auf diesen neuen Namen. Jetzt ist die Frage, was für eine Menü ist, meinst du es? Erst mal, N-Rof kann mehr als die meisten Leute glauben. N-Rof kann nämlich nicht nur einfach Text, sondern N-Rof ist eine leicht abgespeckte Version von T-Rof. N-Rof kann nämlich tagtäglich ist eigentlich gedacht, dafür einen Typenraddrucker anzusteuern und das kann nicht nur, wie es auf Terminals verwendet wird, sondern es kann variablen Abstände machen. Mit einem richtigen Typenraddrucker kann es etwas ausdrucken, was sehr buchenähnlich aussieht. Ich weiß nicht, ob es so etwas tatsächlich als Unix-Menus gab. Das älteste von dem, ich weiß, sind, die ältesten Unix-Menus, die es etwa gibt, die sind so um die Zeit von 73, die existieren übrigens auch nicht mehr als Textpfeils, die, da hat irgendjemand beim Ausmisten seines Schrankes nach Ausdrucke gefunden, sie ist zur Verfügung gestellt und das, was es sich jetzt gibt, sind eingescannte Versionen von diesen Ausdrucken. Wie die aber entstanden sind, das entzieht sich meiner Kenntnis und es kann ja auch schon sein, dass es schon 73 gemacht haben, aber davor gab es meiner Wissens nach auch gar keine Manuals. Insgesamt auch so war, dass die Manuals in der Anfangszeit sehr, sehr schlecht und spärlich waren. Da erkläre ich nachher auch mal, wieso es so gute Manuals bei Unix gibt. Ja, also um 1970 war die erste Unix-Version auf der PDP 7 fertig. Das System war damals noch komplett um 1970 in Assembler implementiert. Allerdings ist dann relativ bald auf Basis von BCPL, das ist eine Programmiersprache, die in den 70er-Jahren sehr beliebt war, die Programmiersprache B entstanden und aus der Programmiersprache B ist dann die Programmiersprache C entstanden. Und so ab 72, 73 gab es dann auch die Versionen von Unix, die B oder C-Implementierung enthalten hatten. Davor war das alles in Assembler geschrieben. Interessant ist halt etwas, was wir heute als unverzichtbaren Bestandteil von Unix sehen, die Pipes. Das ist also schon aus der 72 von Douglas McGillroy erfunden worden. Und ich fand das wirklich mal schön. Ich habe so 1990 meinen Vortrag von Stephen Bourne gehört, wo er ein bisschen erzählt hat, wie die Anfänge von Unix waren und als diese Pipes im Kern entwickelt waren, haben die Leute sich alle daran gemacht, am folgenden Tag ihre Programme so anzupassen, dass sie auch mit Pipes funktionierten. Und ein Tag später konnte sich bei AT&T niemand mehr vorstellen, wie das Leben ohne Pipes war. Das muss also wirklich ein gewaltiger Durchbruch gewesen sein. Richtig verbreitet hat sich Unix ab Version 6. Also das ist so um 1975 gewesen. Und um die Zeit herum passiert da auch was Lustiges. Davor waren die ganzen Anwenderprogramme von Unix alle in Slashbin. Und wer noch ein altes Unix hat, was tatsächlich noch ein separates Slashbin-Directory hat und sich die mal anguckt, der wird feststellen, dass da sehr wenige Programme drin sind, aber wenn er sich die Programme genau anguckt, wird er feststellen, dass es richtige Basisprogramme sind. Das sind nämlich die Programme, die es ausschließlich in Unix damals gab. Userbin wurde dann freigeschaltet zum Schreiben für jedermann, etwa so um Mitte der 70er Jahre. Und damals war es so, dass das Slash-User die Home-Directories der Benutzer waren. Das ist auch lustig, wenn man sich mal ältere Unix-Horsten anguckt. Dann weiß ich es leider nicht, wer was gemacht hat. Es gibt aber da User Ken, das ist Ken Thompson, und User DMR, das ist Dennis Ritchie. Und wenn man sich anguckt, was darunter ist, dann findet man in der einen Directory den Quellcode für die Anwenderprogramme und die anderen Directory den Quellcode des Unix Kerns. Weil nämlich der eine von den beiden hauptsächlich am Kern gearbeitet hat und der andere hauptsächlich an den Anwenderprogrammen. Und die anderen Nutzer haben halt auch in Slash-User ihr Home-Directory gehabt. Und Userbin wurde halt eingerichtet, damit, wenn jemand ein neues Programm geschrieben hat, von der immer der Meinung war, dass es andere Leute unter Umständen auch interessant finden könnten, für andere Leute verfügbar ist. Und das war der Plattenplatz extrem begrenzt. Platten waren somit das teuerste überhaupt. Und das Interessante ist, warum gibt es jetzt so gute Mannpages unter Unix? Das hat Steven Bourne damals in seinem Vortrag mal so erklärt, als er entdeckt hat, dass die Leute dann zwar die Möglichkeit, den Speicherplatz unter Userbin zu nutzen, angenommen haben, stellte sich heraus, dass sie leider sehr faul waren und dass sie das Programm haben. Das heißt, die ursprüngliche Idee, dass da Programme hinkommen, die jeder benutzen kann, die war dadurch verhindert worden, weil die anderen Leute, die das Programm nicht geschrieben haben, gar nicht wussten, was es tut. Und daraufhin hat Steven Bourne gesagt, okay, Jungs, wenn ihr das in Zukunft weitermachen wollt, dann halten wir uns doch einfach mal alle gemeinsam an die Regel. Wer eine neue Version von der Mannpage drauftun. Und es gab ein Conscript, was jede Nacht einmal gelaufen ist, geguckt hat, gibt es neue Programme unter Userbin oder Abgedatete. Und dann hat es nachheguckt, gibt es auch eine neue Mannpage und ist die auch nicht kleiner geworden, als die alte. Und dadurch wurden die Leute dazu angehalten, tatsächlich Mannpage zu schreiben. Er hat das nicht zugetroffen, wurde das Binary einfach automatisch gelöscht. Das heißt, wenn die Leute den Plattenplatz dann weiter genutzen wollten, mussten sie ihre Programme auch dokumentieren. Das ist der Grund, warum wir jetzt gute Dokumentationen haben. Wenn man sich halt anguckt, es gibt ja auch Systeme, wo Dokumentationen von speziellen Dokumentationsgruppen innerhalb einer Firma gemacht werden. Und solche Dokumentationen ist eigentlich immer schlechter als die Dokumentationen, die von den Programmierern selbst gemacht worden ist. Weil die wissen halt besser, was sie ihre Programme tun. So, jetzt ist die Frage sicherlich halt auch mal interessant. Warum ist eigentlich UNIX überhaupt so verbreitet? Der Hintergrund ist der. AT&T war damals ein staatlich lizenzierter Monopolbetrieb. Und zwar haben sie das Telefonmonopol in den USA gehabt. Und die Gesetzeslage in den USA war damals so, dass eine Firma, der man ein Monopol übertragen hatte, die durfte keine andere Geschäftstätigkeit haben, als das genehmigte Monopol. Und das Monopol war halt Telefonie. Ein Betriebssystem gehört ja nicht dazu. Das heißt, verkaufen hätten sie es nicht dürfen. Und darum war die einzige Möglichkeit, UNIX in den Umlauf zu bringen, es zu verschenken. Und das hat man also tatsächlich in den 70er-Jahren auch gemacht. Es ist also an diverse Unis gegangen. Also eine der Unis, die es relativ früh bekommen haben und das, obwohl es auf der anderen Küste von den USA ist, denn AT&T hat das Labor der Bell Labs, wo UNIX entwickelt worden ist, zwar in New Jersey, das ist eine Ostküste und die Uni Berkeley ist ja einer Westküste der USA. Aber die Uni Berkeley ist einer ersten Empfänger von dem UNIX-System. Interessant ist übrigens, dass es also nicht auf die USA beschränkt blieb damals. Das ist zum Beispiel die Uni Melbourne in Australien. Es ist auch eine Universität, die dafür bekannt ist, dass sie sehr, sehr frühzeitig UNIX eingesetzt hat. Und vor allen Dingen sind es die ersten, die UNIX auch auf eine andere Hardware-Plattform portiert haben. Was sie für ein Rechner haben, habe ich jetzt vergessen, aber die hatten tatsächlich einen völlig anderen Rechner und das Erste, was sie gemacht haben, UNIX nehmen und für ihr Rechnersystem zu portieren. Ich hatte gerade gesagt, es ist an die Unis gegangen. Ab Mitte der 70er-Jahre gab es das halt an der Universität von Berkeley. UCB heißt University California Berkeley. Das ist, wer es nicht weiß, es gibt ja diese Bucht von San Francisco. Da ist halt San Francisco an so einer Landzunge zwischen diesem Binnenmeer und dem Echtenmeer und auf der anderen Seeseite dieser Bucht von San Francisco liegt die Universität, liegt der Ort Berkeley und der größte Baukomplex da drinnen ist die Uni Berkeley in dem in der Universität gab es damals einen Studenten namens Bill Joy und der hatte damals dort studiert. Dort gab es eine UNIX-Installation und ein Sommerprogrammierprojekt war, schreibt eine Schellimplementierung und das Interessante ist Bill Joy hatte halt auch mitgemacht hat einen Schell geschrieben, den man aus heute noch finden kann unter dem Namen ASH allerdings nicht das was jetzt auf FreeBSD als ASH ASH und der BSD ist ein gewisses Schell dieser Schell von Bill Joy von 1976 hat einfach Schell und wenn man sich den Code dieses BSD-Softwareband besorgt und anguckt, dann findet man dann ein lustiges Rhythmie, wo der Bill Joy erklärt wie toll er das fand, dieses Programmierprojekt und das er überlegt, ob er eventuell Schell ist ja Muschel auf Englisch ob er demnächst mal so zum Spaß ein Programm was er dann gerne Seemuschel, C Shell nennen möchte entwickeln wird wie wir wissen ist der Name nachher etwas abgeändert worden, statt SEA hat er nur ein C verwendet aber dieses Band das kann man also jetzt bekommen, wer das Interesse daran hat der sollte sich mal darum kümmern es gibt etwas, das nennt sich CSRG da ist die BSD die Unix-Entwicklung drauf von 1976 bis 1995 das sind vier CDs und da ist halt auch dieses Softwareband, was unter dem Namen BSD1 bekannt ist drauf das lustige ist wie ist das damals gehandhabt worden, Bill Joy hat dieses Band selbst an Leute verteilt, das heißt er hat in Mailing-Listen geschrieben er wollte, meldet euch bei mir und hat er auf seine Kosten leere Bänder gekauft hat sich in seiner Freizeit hingesetzt hat die Software auf die Bänder drauf gespielt und sie dann zum Selbstkostenpreis verkauft ich hab Selbstkostenpreis, wie ihr vielleicht seht hier, in Anführungszeichen geschrieben denn er hat 1000$ dafür genommen und das Band war so erfolgreich dass Bill Joy nach nur 3 Monaten das Geld für seinen ersten Ferrari zusammen hatte leider habe ich das in letzter Zeit nicht mehr ihr Funden früher, also vor 20, 30 Jahren war es relativ einfach dieses Foto, wo er ganz stolz neben seinem gebrauchten Ferrari steht im Netz zu finden wer sucht nach einem Betriebssystem was BSD1, der wird es vergeblich versuchen weil halt es sich bei BSD1 nur um dieses Band handelt dann wurde aber BSD2.x entwickelt für eine PDP11 das Lustige ist das gibt es immer noch es gibt also immer noch ein Entwicklungsprojekt was noch aktiv ist BSD2.11 nennt sich das und da wird ein Unix für die PDP11 entwickelt das läuft natürlich heutzutage im Allgemeinen nicht auf echten PDP11, sondern auf PDP11 Immulatoren aber interessant ist dieses System ist netzwerkfähig es gab auch Ethernet-Adapter für die PDP11 und es gibt also auch für die Immulationen für die PDP11 die Ethernet-Adapter und es gibt dieses BSD2.11 was es aktuell gibt, das ist in der Tat auch mit dem Netzwerksteck ausgestattet allerdings, wie wir mal jetzt folgen gesehen diese Maschine hat einen maximalen Adressraum für ein Programm von 64 KB für Programm und 64 KB für Daten und das ist zu wenig um darin ein komplettes Unix mit Netzwerksteck zu implementieren darum läuft der Unix-Code von BSD2.11 auch als Overlay als Kerneloverlay es gibt ein File, das heißt slash Unix da ist der Basis Unix-Kern drin und das wird abwechselnd je nach Bedarf da reingeswoppt und es kann heißen wenn man halt auf diesem System Netzwerk I.O. macht dass es sehr langsam wird Wolltest du was? Ja, hab ich doch gesagt hab ich gesagt das sind auf diesen 4 CDs CSRG Unix Heritage also wer sich interessiert für ältere Unix-Versionen das gibt also 2 Sachen die er sich merken sollte Unix Heritage Society was haben wir 3 Anlaufstellen Stichwort Unix Heritage Society also das Erbe von Unix dann gibt es die Pups das ist die PDP11 Unix Preservation Society das sind auch die Leute die jetzt noch an diesem BSD2.11 arbeiten und dann gibt sich auch der Kirk McEusig ein bisschen Mühe da Sachen zu verteilen also Kirk McEusig ist derjenige der diese CSRG CDs zusammengestellt hat mit dem wo die gesamte Entwicklungsgeschichte mit der SCCS Versionsgeschichte von dem BSD-Entwicklungszweig von Unix zwischen 76 und 1995 drauf ist ja aber gegen die späten 70er Jahre kam dann halt auch die Wechs auf am Anfang war das die Wechs 11750 später die Wechs 11780 diese Portierung ist übrigens auch von AT&T großen worden und die Unix Version von AT&T die für diese Wechs portiert war nannte sich bei AT&T Unix 32V und das ist Nebenzweig von Unix Version 7 und davon hatte die BSD Universität Berkeley eine Lizenz erworben und wenn es also jetzt darum geht mal zu entscheiden was ist da alles drin von den AT&T Entwicklungen die nah Unix 32V haben ist da nichts mehr drin das ist übrigens auch der Grund warum es in Almquist-Schell gibt weil der Born-Schell von 1979 der in den Unix 32V drin war der ist zwar prinzipiell mit dem C-Compiler kompiliert worden, der ist aber Sprache geschrieben worden diese eher aussah wie Algol 68 und es hat der Steven Born damals gemacht, indem er C-Preprocessor-Marcos definiert hat die ihm erlaubt haben etwas zu schreiben was so ähnlich wie Algol 68-Code aussieht aber hinten dann C-Code rauswirft und das ist dieser Urborn-Schell der noch keine Funktionen kannte und eine ganze Menge Dinge auch nicht um 1990 nicht mehr zeitgemäß war und weil die Universität Berkeley auf legalem Wege die neueren Born-Schell-Versionen die so um 1983-84 rauskamen mit Funktionsarbeiterung und noch ein paar anderen interessanten Sachen halt nicht legal erworben hatte hat dann der Herr Almquist an sich die Mühe gemacht nochmal etwas was Born-Schell kompatibel ist von Scratch neu zu schreiben von Almquist-Schell bekannt ist dann gibt's auch noch was was das scheiß das ist der Debian Almquist-Schell das ist irgendwie eine Debian-Variante von dem Almquist-Schell ja aus diesem Unix 32V was also die Universität Berkeley als letztes lizenziert übernommen hat ist dann in der Folge das BSD-Unix 4.X entstanden so da muss man ja sagen wie ist das jetzt weitergegangen das war im Prinzip im Wesentlichen identisch mit diesem 32V denn gab es 4.1 das war etwa so um 179 da kam nämlich TCP-IP und da ist also auch eine lustige Sache passiert der Bill Joy hat diesen TCP-IP-Stack in den Kern reingeschrieben und das obwohl sollte man auch mal sehr aufpassen da weil es ja jetzt neuerdings genau gegenteilige Behauptungen aus akademischer Seite gibt aber damals haben Akademiker die These aufgestellt TCP-IP-Stack wie ja gerade damals standardisiert worden ist im Bereich der RFC als Request for Comments aus dem Appanet-Projekt würde halt diese Implementierung für TCP-IP nicht in den Kern reingehören sondern sein selbstverständliches Anwendeprogramm wenn man heute Akademiker fragt und wenn die alle sagen das Zeugs gehört auch selbstverständlich in den Kern rein warum hat der Bill Joy das damals in den Kern rein gemacht kann sich das einer von euch vorstellen das braucht Echtzeitfähigkeiten und weil es halt in es reden ja mehrere Rechner miteinander da gibt es Handshakes und da muss man in einer bestimmten Zeit reagieren und wenn man das nicht tut wird es langsam und man konnte damals mit Hilfe von User-Software Programmsoftware Reaktionszeiten nur innerhalb im Bereich von etwa einer Sekunde erreichen und wenn man halt im Millisekundenbereich reagieren wollte war die einzige Möglichkeit es in den Kern reinzuschreiben und darum hat Bill Joy eine Implementierung gebaut im Kern und diese Implementierung da gibt es eine lustige Geschichte Bill Joy hat mal selbst in einem Vortrag gesagt dass er als er das erste Mal den TCP-IP-Kram im Kern Funktionsfähig fertig hatte hat er die Nacht bis um 4 Uhr durchgemacht und hat dann diese ganzen R-Programm Programme die es gibt also RCP, RSH und FDP und was es sonst noch so gab in der Nacht bis morgens um 4 implementiert, das ist vielleicht auch der Grund warum die nicht sonderlich sicher waren und dann ja jetzt auch alle durch die SSH basierten Varianten ersetzt worden sind aber damals muss man halt auch sagen Netzwerk war halt was für eine Elite, es gab ganz wenig Leute die da Zugang hatten also in den 70 waren es noch deutlich unter 100 Rechner die am damaligen Apernet dran gehangen haben das heißt also das war nicht nichts wo man sich damals wirklich Gedanken gemacht hat dass es unsicher sein könnte wie gesagt also BSD41 ist halt mit Netzwerkunterschützung und da hatten sie was sie da auch von ihr gemacht hatten ist dass die Dateinamen nicht mehr auf 14 Buchstaben begrenzt waren pro Fahrtnamenkomponente sondern da hatten sie das Freisystem schon umgehackt auf einen Bereich der halt bis zu 255 Buchstaben lange Fahrtnamenkomponenten konnte und wenn man sich jetzt dieses BSD211 anguckt was es aktuell immer noch für die PDPF zu geben zu bekommen ist dann ist das genau so eine Freisystemvariante das ist ein Unix Version 7 Freisystem mit einem Aufsatz das halt variabelange Fahrtnamenkomponenten drin sind weil das UFS Freisystem so viel Code braucht dass man es halt nicht in dem Unix für die PDPF unterkriegt in den 64 KB Tech Segment interessant fand ich auch es gab halt von der Ende der 70er Jahre mal die Aussage Unix ist das weltweit verbreiteste Betriebssystem es gab damals über 600 Unix Installation und ich weiß nicht wer von euch das mal gelesen hat es gab ja mal in den 50er Jahren so Aussagen von diversen Firmen die Computer für andere auch IBM und die IBM hat damals den weltweiten Bedarf für Computer auf 2 vielleicht 3 oder 5 geschätzt ja damals hat man mit Lochkarten gearbeitet und die dachten halt die Leute stammen ihre Lochkarten tun die in Pakete schicken das Paket zu einem zentralen Ort wo ein Computer steht dann kommt der Operator in den Lochkarten-Leser rein drückt auf den Startknopf ein Augenblick später drückt es irgendwo auf dem Drucker und dann wird halt das Paket mit den Lochkarten und dem Ausdruck zurückgeschickt so was in der Form gab es übrigens in den bis in die tiefen 60er Jahre die Leute die damals programmieren gelernt haben die haben üblicherweise auch genau so programmiert die haben den Computer nie aus der Nähe gesehen ja jetzt sind wir ja schon bei BSD um 1980 gewesen was ich jetzt allerdings noch nicht so ganz erwähnt hatte ist die Zeilen wollte ich noch mal kurz sagen es gibt übrigens warum heißt das BSD UNIX 4 ganz einfach man wollte sich damals mit AT&T nicht in die Wolle kriegen um die Zeit um 1980 herum hieß das aktuelle AT&T basiertes System UNIX System 3 und zwar hatten die die zwei übersprungen bei AT&T weil es BSD 2.x für die PDP11 gab und die AT&T Leute den Berkeley-Leuten nicht ins Gehege kommen wollten und daraufhin haben die Berkeley-Leute dann ihre nächste Version 4 genannt weil AT&T eine Version 3 hatte also wenn dann schicken wir bitte belegt dafür ja also da habe ich nichts wirkliches gesehen also gut aber wenn also da sind auch auch in den CSRG-Quellen ist da nichts zu sehen also dann muss ich es übersehen haben aber dann, ich bin gerne bereit das mir immer zu singen also da es gab ja halt auch die Sache dass die Berkeley dass die AT&T Leute halt keine Version 2 gemacht haben so interessant ist dann halt letztendlich diese PDP-Rechner von DECK waren ja ein Durchbruch weil es halt so Mini-Rechner waren nur die Größe einer Telefonzelle etwa hatten und damals die Großrechner hatten Raum dieser Größe komplett belegt der nächste Schritt war dann der Motorola 68000 der übrigens sich in seiner Struktur doch ganz schön an der PDP-11 orientiert hat hat sie nicht nachgebaut, es ist schon an vielen Stellen etwas anders, er hatte ja auch eine ganze Menge 32-Bit Instruktionen schon und es ist nicht vollständig, 16-Bit wie die PDP-11 aber er hat sich relativ stark an der PDP-11 orientiert und hat versucht das in etwas besser hinzukriegen da ist aber dann leider dann Motorola doch ein kleiner Fehler beim Konzept entstanden erkläre ich gleich 82 war Andreas von Bechtelsheim, das ist ein Deutscher der damals mit einem der hatte ein paar Jahre vorher bei Jugendforscht einen Preis hier wonnen, hatte dann in Folge ein Stipendium bekommen und durfte einer Stanford University studieren Stanford ist ein klein Stück etwa so 10 km südlich von San Francisco also auf der anderen Seite von der Bucht von San Francisco wie Berkeley ist eine Privatuniversität die relativ viel Geld hat, diese aus Spendenmitteln erwerben und Andreas von Bechtelsheim hat da Elektrotechnik studiert und die waren so gut ausgestattet dass sie ein Hardware-Labor hatten wo es kistenweise Bauteile gab die jeder Student kostenlos verwenden durfte für seine Bastelaufgaben die er sich so vorgestellt hat und da lagen auch 68.000 und der hat dann angefangen aus den Sachen da ein Rechner aufzubauen und dann ist ihm irgendwann als es fertig war die Idee kommen oh Scheiße mit dem Rechner allein kann man nichts anfangen, da braucht man ja ein Betriebssystem zu und hat sich ein bisschen umgehört hat festgestellt also irgendwie 50 km entfernt die University Berkeley ist und das dort an Unix gearbeitet worden ist an Bill Joy gewendet allerdings muss man sagen die Firma Sun ist insgesamt von vier Leuten gegründet worden, also die Haupt Person ist der Andreas von Bechtelsheim der hat übrigens auch die Mitarbeiter Nummer 1 die Mitarbeiter Nummer 2 hat Bill Joy der ist halt der Mensch der das Betriebssystem verstanden hat und Scott McNeely ist jemand der die wirtschaftlichen Aspekte gemacht hat und der ja auch relativ lange Zeit der Chef der Verwaltung von Sanwa und dann gibt es noch einen Inder der Koschler heißt der aber ein jemand mit indelischem Stamm auch aus Kalifornien ist und dieser Mensch hat sich im Wesentlichen damals darum gekümmert Geldgeber für Neugründungen von Firmen zu organisieren und vielleicht sollte man das auch mal erwähnen also einer der Geldgeber ist übrigens auch ein Professor von der Universität Stanford der ein Jahr vorher auch ein Teil seines Vermögens ergeben hatte um die Firma SGI zu gründen und der hat also auch in die Firma Sunn investiert so, dieses Sunn 1 die da 1982 gebaut worden ist die konnte man das war eigentlich die Idee dass man die mit Berkeley Unix betreibt das ging aber nicht also man konnte zwar Berkeley Unix theoretisch auf den Motorola 8000 portieren aber der Motorola 8000 hat ein Vorbild der PDP 11 auch Assembler Instruktionen die diesem C Konstrukt Stern P++ entsprechen und wenn jetzt so eine Instruktion in der Mitte irgendwo unterbrochen wird weil irgendwas schief geht dann muss eine korrekt aufgebaute Maschine den Zustand Programmsteuerwerks innerhalb der CPU irgendwo speichern damit eine Ausnahmeverhandlung angeworfen werden kann das Problem löst und dann wieder zurückspringen kann das geht mit dem 8000 nicht und darum kann man kein Betriebssystem mit virtueller Speicherherwaltung auf einem Motorola 8000 installieren da gab es damals übrigens tatsächlich auch Ideen um 8000 hinzukriegen es gab ein System ich weiß nicht wer das gebaut hat die hatten tatsächlich 2 8000 eingebaut die haben dann nämlich Folgendes gemacht wenn eine Ausnahme entstanden ist dann haben sie nicht die Ausnahme durch den Hauptprozesse abarbeiten lassen sondern die haben mit einer Elektronik Schaltung Halt auf den Haupt 18000 geben dann den 2.8000 angeworfen der hat dann die Ausnahmeroutine abgearbeitet und wenn man dann den Haltdraht wieder deaktiviert hat dann ist der Rechner tatsächlich einfach weiter gelaufen aber der Rechner von Andreas von Bechtosheim war ja schon fertig und darum war die einzige Möglichkeit an Unix draufzukriegen Geld in die Hand zu nehmen die englische Firma Unisoft so beauftragen die damals die ersten waren die so ein Unix Version 7 auf Motorola 8000 portiert haben es kam dann 1983 spät Ende 1983, Anfang 1984 kam dann der Motorola 8000 1010 raus und das war eine Korrektur von dem 8000 da hatte man dann einen Konzeptfehler für die Ausnahmüberhandlung repariert und der konnte dann tatsächlich mit BSD42 betrieben werden übrigens ist das überall wenn man im Netz guckt mit ganz ganz wenigen Ausnahmen falsch dargestellt das Betriebssystem was damals auf den Rechnern war von San, hieß nicht Sanos sondern es hieß BSD4.2 mit den Klammern San-Unix und erst mit den ersten Motorola 8000 2020 System das waren also durchgeging die 32-Bit Rechner die ersten davon sind produziert worden am 24. Dezember 1985 das weiß ich deswegen so genau weil die Produktionsdaten nämlich in dem ID-Prom drin standen als Zeitstempel dass ich diese Systeme am 3. Weihnachtsfeiertag 1985 auch von San bekommen habe ich weiß bis heute nicht wie das es geschafft haben ist es immer halb über die Weihnachtsfeiertage nach Deutschland zu schaffen und auch noch durch den Zoll durchzubekommen aber das System was für diese 8000 20 basierten Systeme kam war das erste System was tatsächlich offiziell den Namen Sanos hieß und bis etwa 1986 Mitte 1987 war die Sanos S-Version auch tatsächlich mehr oder weniger direkt abgeleitet aus dem BSD-Unix und bis etwa 1986 hat auch San Entwicklungen an die Universität Berkeley zurückgegeben und darum weil nämlich in Sanos 3.0 ist nämlich als erstes der sogenannte VFS-Layer drin, das ist ein virtueller Pfeisystem-Layer der das ermöglicht, dass das Betriebssystem mehrere Pfeisysteme nebeneinander drin haben davor war es so, dass ein Betriebssystem genau ein Pfeisystem gleichzeitig konnte und das war also ein Pfeisystem gleichzeitig konnte und das war fest eingebunden direkt in den Kern und in Sanos 3.0 1985, da war das erste Mal das erste System mit NFS und um das halt einbinden zu können und um halt auch in der Lage zu sein ein Rout-Pfeisystem über NFS zu haben bei einem Diskless-Client brauchten sie einen virtuellen Pfeisystem-Layer zwischen dem Betriebssystem-Kern und dem eigentlichen Pfeisystem-Implementierung und weil halt bis 1986 tatsächlich so ein Quellcode zurückgeliefert worden ist an der Uni Berkeley ist der VFS-Layer, der jetzt in Berkeley-Implementierung drin ist übrigens immer noch sehr ähnlich dem Layer, der in Sanos ist drin ist mal gucken, wie weit wir in der Zeit sind kleiner Ausflug, was gab es so nebenbei Anfang der 80er Jahre hat auch die Firma HP plötzlich die Idee gehabt einen Unix auf den Markt zu bringen, damals gab es HP 9000-Systeme, da haben sie sich von der AT&T-System 3 gekauft es gab da auch mal eine Zeit lang 80.000-Systeme von der HP wobei ich mir jetzt nicht sicher bin was man da im Netz findet ob das tatsächlich HP selbst ist im Mitte der 80er Jahre hat die Firma Ulet Packard die Firma Apollo Domain gekauft und Apollo Domain hatte ein eigenes Unix-System und das lief auf 80.000 an ich vermute, also das was man im Netz jetzt findet, nicht über wirklich Eigenentwicklungen von HP redet sondern wenn da über die 80.000-Systeme redet geht es vermutlich um den Maschinenpark den es von dem dazugekauften Anbieter Apollo Domain gab weil Mitte der 80er Jahre hat halt Ulet Packard den ihren ersten RISC-Prozess herausgemacht denn es ist übrigens auch interessant zu sehen dass gleichzeitig mit 1986 auch die erste Spark-Prozesse von Sun rauskam und um die Zeit halt auch der erste vermarktete PowerPC von IBM kam das ist die RISC-CPU-Variante von IBM aktuelle Versionen von HP OX sind übrigens eh nicht systemfrei 4, die haben aber nie direkt wirklich den Code übernommen, das sieht man auch daran dass sie also bis etwa 2000 ein Berkeley-Unix basierten TCP IP-Stack hatten die haben dann erst um 2000 von der Firma Mentat Inc das kann man daran sehen weil Sun hatte nämlich ihren Netzwerk-Stack Anfang der 90er Jahre von Mentat gekauft, Streams basiert und ein Mentat-Implementierung erkennt man darin, dass es das Programm NDD gibt was es damals halt nur auf Suner es gab, also auf Solaris damit kann man die Netzwerk Parameter im Kern ändern also zum Beispiel Wartezeiten die der Kern hat, bevor du einen Port neu aufmachen kannst wenn du einen Server hattest, die einen Port bedient hat musst du normalerweise 3 Minuten warten wenn der gestorben ist bist du wieder ein Server starten kannst der Port mit der gleiche Nummer aufmachen kann das ist so ein Parameter den man zwar schon mit NDD verändern kann so ab 2001 hat HP ihre Systeme von dieser Power-Architektur auf Italium umgebaut was interessant ist ist übrigens, dass der Italium eine Opcode-System hat was sehr ähnlich dem Power-Risk-System ein alten HP Rechnern ist die haben es irgendwie geschafft dass man auch die älteren PRS2 Beinerries auf dem Italium laufen lassen kann aber inzwischen ist es so dass im Augenblick HP im Unix-Bereich eher dabei zu sein scheint nicht mehr allzu viel weiter zu machen also jedenfalls hört man immer weniger von denen also auch etwa 86 raus die haben sie damals also auch sehr bemüht ich weiß, dass wir Ende 86 bei der Firma Berthold wo ich damals gearbeitet habe das war übrigens der damals zweitgrößte Sun OEM also die Firma die Fotosatzfirma Berthold hat in den Jahren bis etwa 1990 ein Viertel aller Sun-Rechner die jemals gebaut worden sind verkauft und da kam dann plötzlich auch IBM und hat uns einen AIX-Rechner hingestellt in der Hoffnung, wir würden unser Satzsystem darauf portieren interessant ist aber, dass es nicht so ganz klar ist auf welche Art und Weise AIX entstanden ist es kann jedenfalls nicht wirklich aus einem echten Quellcode von AT&T entstanden sein, wenn man sich mich Uname anguckt, dann sind Uname-R und Uname-S vertauscht und das kann leicht passieren, wenn man die Man Page liest, die ist nämlich unsauber geschrieben und vielleicht ist es auch der Grund warum Leute sagen AIX seine Abkürzung für Alien UNIX und es ist dadurch entstanden dass ein außerirdischer, dem anderen außerirdischer am Telefon des Manual vorgelesen hat und der andere dann das Zeugsversucht hat zu implementieren AIX hat eine ganze Menge Abweichungen von AT&T basierten UNIX und daum laufen es ist auch nicht so einfach portable Programme zu schreiben, die auch auf AIX laufen wenn sie bestimmte Dinge benutzen wie zum Beispiel bestimmte Floating Point Dinge, die nicht genau nur POSIX sind, sondern einfach aus den 80er Jahren stammten und mal auf einem AT&T UNIX oder auf einem BSD-Unix entwickelt worden sind, die laufen nicht unbedingt dann auf AIX ja wie kommt man zu einem modernen System 1987 im Laufe des Jahres 1987 hat die Firma Sun auf Basis von ein paar Ideen von Bill Joy den BSD-Kern genommen, den sie damals hatten und hat das gesamte Memory Management rausgeworfen und etwas Neues ersetzt und alles was da drin ist erlaubt praktisch alles zu M-Mappen und da gab es halt im Frühjahr 1987 auf der USNIX-Tagung in San Francisco einen Vortrag zu und das muss die Firma AT&T damals so beeindruckt haben dass 1987 noch bevor San Jose 4.0 veröffentlicht worden ist das ist nämlich erst so Januar, Februar 1988 offiziell auf den Markt gekommen aber schon aus der 1987 im Dezember hatten AT&T und Sun einen Kooperationsvertrag unterschrieben für die Schaffung von System Free for Release 4 und System Free for Release 4 ist eine interessante Konstruktion man hat den Kern von San Jose 4.0 genommen und oh da ist ein Tippfehler drin das sind die sollen die User-Programme von System Free for Release 3 sein das war nämlich das damalige System von AT&T und warum die User-Programme von System Free for Release 3 ganz einfach Bill Joy hat darauf bestanden dass ich AT&T den Kooperationsvertrag haben wollte wegen des Kerns dass die Firma San auch an System Free for Release 4 den gesamten Kern beisteuert ein Missangebot machen an AT&T das ist auch etwas von denen sein konnte und dann hat man die User-Space-Programme genommen und das ist übrigens auch der Grund warum so um das seit 1993 dieser Begriff Slow Laris herauskam da gibt es nämlich eine lustige Sache es gab Leute die haben die Schwindigkeits-Messungen die machten einfach ein DD haben gestartet auf ihrer Hauptfestplatte und gewartet haben wie lange es braucht bis es die gesamte Platte liest und den Output wegwirft nach der Fnull schreibt das Problem ist da sie das DD von System Free for Release 3 genommen haben hat es einfach in Malog gemacht wenn man aber einfach in Malog macht in einem System was ja auf Basis von Saner S4 jetzt plötzlich eine virtuelle Speicherherwaltung hat und Page Größen kennt dann ist die Wahrscheinlichkeit dass halt so ein Puffer der mit Malog ziert ist dass der über eine Page-Grenze hinausgeht sehr sehr groß und dann muss jeder I.O. Auftrag in zwei I.O. auf Teile-I.O. Aufträge im Kern gesplittet werden weil halt etwas was über eine Seitengrenze hinweggeht nicht verarbeitet werden kann von einem System darum war die Berkeley-Variante von DD auch schon 1981 so umgeschrieben worden dass sich da Malog ein V-Alog macht das ist nämlich ein Alog was Ergebnisse liefert die auf einem mehrfachen der Seitengröße anfangen und als zum Beispiel San 1994 diese einfache Buchstabe-Änderung von Malog nach V-Alog in DD gemacht hat war plötzlich auch alles schnell und es gab noch ein paar andere so kleinigkeiten die dadurch halt die frühe Version von System 5.4 langsam gemacht haben weil halt man einfach nicht angeguckt hat was hat in welcher Form haben sich die Unix-User Spaceprogramme eigentlich in den 80er-Jahren von den AT&T-Systemen weiterentwickelt ja, also angefangen wurde das ganze so 88, 89, 90 das ist System 5.4 in der Form fertig dass es eine Musterimplementierung gab und AT&T hat gesagt wir haben das zwar gemeinsam gemacht aber wir haben ja Unix erfunden und darum gehört uns Unix was ich vielleicht noch sagen sollte zwischendurch eine ganz wichtige Sache um das Jahr 82, 83 rum ist dieses amerikanische Telefonmonopol da hat nämlich die amerikanische Regierung die Firma AT&T in viele, viele kleine Firmen zerschlagen Babybell genau, da kommt der Begriff her also es gab vorher halt AT&T die haben ganz Amerika bearbeitet und das wurde halt dann in ganz viele Bell-Töchter eingeteilt zum Beispiel Bell Central, Bell Atlantic und so weiter und in Folge dieser Zerschlagung der Firma AT&T ist das Monopol gefallen und darum durfte AT&T Unix ab 82, 83 auch tatsächlich verkaufen und um das zu tun haben sie dass den Firmenteil in New Jersey wo Unix entwickelt worden ist einfach ausgegliedert in eine alte Firma die dann USL hieß Unix System Laboratories und die waren dann der offizielle Anbieter von kommerziellen Unix-Versionen und AT&T wollte halt das System frei für das 4 auch Close Source ist dass die Eigentümer sind und dass obwohl die Hälfte mehr als die Hälfte des Kodes von San kam San trotzdem für jede verkaufte SanOS Version Geld an der AT&T zahlen musste natürlich nicht allzu glücklich so nochmal zurück jetzt einen kleinen Sprung wieder was ist in den 80er Jahren sonst noch so passiert Unix auf Intel CPUs die Firma Microsoft darum steht da MSCNICS Microsoft hat eine Unix-Variante für ein Intel Prozessor gebaut das hieß damals MSCNICS das ist dann an die frisch gegründete Firma SCO übergeben worden und dann ab 1984 da haben SCO-Xenics vertrieben worden dann gab's nochmal ein Bruch 1987 hat San einen eigenen X86-Rechner rausgebracht mit einem 3.6.80er mit 25 Megahertz wer von euch sich ein bisschen auskennt der sollte wissen, dass es 1987 von Intel als schnellste Geschwindigkeit von dem 3.6.80er das erste Kaufen gab wie so konnte San 25 Megahertz-Rechner verkaufen, ganz einfach San hat relativ wenig von den Dingern verkauft und San hat den Ausschuss bekommen, der zu schnell war ein wichtiger einschneidender Punkt war etwa 1990 da ist der GCC für Intel CPUs portiert worden und damit gab es erstmalig ein frei verfügbaren Compiler der auf Intel funktioniert hat Anfang der 90er-Jahre hat die Firma San eine Firma namens Interactive Unix gekauft es ist eine Kodak-Tochter und auf Basis von dieser Firma ist dann Solaris X86 entstanden 1991 gab es auch die erste Linnungsversion es gab auch eine erste 3.6.80er Portierung von BSD und ab 1992 kam dann NetBSD und FreeBSD raus und ab September 1992 gab es dann Solaris X86 aber das konnte damals erheblich mehr als ein damals aktuelles Linux vor allem Linux von September 1992 konnte gerade mal Text-Mode und das Solaris X86 von 1982 war ein komplettes Unix mit CDE GUI wie ist das mit den Linux im Einzelding gelaufen also 1990 ist der GCC entstanden Intel 1991 gab es dann die erste Linux-Version am Anfang mit dem Minix-Feisystem ohne GUI absolut minimalistisch und es lief halt auch nicht auf anderen CPUs sondern nur auf diesen damals verfügbaren Intel-CPUs interessant ist aber dass 1992 ein ehemaliger San-Mitarbeiter namens Larry McVoy einen offenen Brief an die Firma San geschrieben hat da drin steht Solaris muss Open Source werden kennt jemand von euch Larry McVoy oder kann den Namen irgendwie einordnen er sollte eigentlich vom Linux-Umfeld bekannt sein weil Larry McVoy hat sich nämlich in den 90er Jahren selbstständig gemacht und hat eine Versionsverwaltung implementiert und zwar hat er auf Basis der SCCS Ideen die Grundlage für alle modernen Versionsverwaltungssysteme in dem man nicht Bitkeeper SCCS geschrieben hat und da Linux in den ersten 10 Jahren völlig ohne Versionsverwaltung entstanden ist es gab halt immer nur TAR-Archive von den aktuellen Versionen war es also auch gar nicht so ohne weiteres möglich Linux nachträglich in einer Versionsverwaltung zu bringen, weil es gab keine Versionsverwaltung damals auf dem Markt mit der man in der Lage gewesen wäre einfach diese TAR-Archive nacheinander irgendwo einzuspielen und dann zu sagen mach das doch mal zur nächsten Version aber der Larry McVoy hat damals halt ein Skript gebaut, was das automatisiert hat und damit konnte das Bitkeeper SCCS für Linux verwendet werden und das war am Anfang auch so, dass mit einer Verzögerung von etwa drei Monaten das Bitkeeper SCCS auch als Quellcode verfügbar war und die Beinerries durften kostenlos von allen Open-Source-Projekten benutzt werden. Das Problem war Larry McVoy hat den Leuten untersagt Reverse-Engineering zu betreiben oder eigene Klienten dafür zu bauen, es war ein Netzwerkprotokoll dabei und es hat irgendeiner aus dem Linux-Körner Entwicklerumfeld gemacht und daraufhin hat Larry McVoy dann 2003 oder 2004 war das den die Benutzungs nicht mehr Nutzungserlaubnis entzogen und daraufhin sind dann nicht gleichzeitig sowohl Mercogile als auch Git entstanden. So wie ging es mit BSD weiter sind wir wieder zurück Anfang 90er Jahre ist es so, dass die Forschungsgelder für Betriebssystementwicklung plötzlich von den Staaten nicht mehr zur Verfügung gestellt worden ist, also auch die amerikanische Administration hat kein Geld mehr an die Universität Berkeley gezahlt, das heißt diese Betriebssystementwicklungsgruppe musste werden. Man hat den letzten Stand als BSD 4.4 veröffentlicht und als Folge gab es auch sofort Rechtsstreit mit AT&T, die gesagt haben da ist ja Kot von uns drin das dürfte ihr ja gar nicht veröffentlichen um da erstmal darauf herumzukommen hat man dann diese BSD 4.4 zurückgezogen und hat daraufhin eine Version gebaut, wo man den Quellkot entfernt hat der klar von AT&T irgendwie abgeleitet worden ist und hat das ganze BSD 4.4 leid genannt das war also unvollständig und also auch nicht laufig das ist auch der Grund warum 1994 zum Beispiel diese Firma BSDi relativ erfolgreich war weil die hatten halt eine offizielle AT&T Lizenz und konnten auf dem damals noch vollständigen BSD 4.4 Kot mit ihrem selbst portierten BSD Compiler auf Intel, die haben nicht den GCC genommen ein System verkaufen ja, Reaktion war halt dass Open Internet BSD und Free BSD entstanden sind wo man halt die AT&T Software durch eigenen Sachen ersetzt hat interessant ist dass AT&T halt versuchten wollte das ganze zu verhindern und im Augenblick hat sich das ja alles so in Luft aufgelöst weil was ist passiert es haben sich ein paar Leute hingesetzt und haben mal nachgezählt und festgestellt als das System 5.4 mehr Kot drin ist der von Berkeley stammt als Kot der ursprünglich von AT&T stammt wohin gegen in dem BSD 4.4 weniger AT&T Kot also weniger als die Hälfte des Kotes von AT&T ist und das Interessante ist AT&T hat sich nicht an die BSD Lizenz gehalten in der BSD Lizenz original von der 190 standen nämlich drin ihr müsst allen Leuten in all euren Werbeschriften und Dokumentationen darauf hinweisen in diesem Produkt befindet sich Software die eine Uni verentwickelt worden ist und das haben sie nicht gemacht und der Rektor hat einfach gesagt vor Gericht ich möchte dass AT&T die hatten damals den Kot schon nicht mehr in 1994 ist das passiert da war da schon ein Novell verkauft aber der hat gefordert dass AT&T sämtliche Dokumentationen und Werbeschriften die es auf der Welt gibt suchen und austauschen sollte gegen Korrekte und das hätte Milliarden gekostet da gegen den Berkeley Kot zurückgezogen und wir haben jetzt leider den Nachteil dass einige Dinge in den BSDs nicht so schön sind wie sie sein könnten weil man teilweise unsinnige Änderungen gemacht hat nur um dokumentieren zu können ja der Kot ist anders der ist von uns die 90er Jahre waren aber auch die dunkle Zeit von Zahn in den 80er Jahren im wissenschaftlichen Bereich also wirklich führend September 1991 das war also kurz nach dem Erwerb von Interactive Unix hatte Zahn Solaris X86 angekündigt ein Monat, ein Jahr später ist die erste Solaris X86 Version entstanden übrigens ist das Chili Makefile System im Februar 1993 entstanden als ich dann Zugang zu der ersten Solaris X86 Version hatte dass ich plötzlich sehen musste dass ich halt unterschiedliche CPUs für den Kot unterstützen musste und dann sehen musste wie man es automatisch in einem Baum verarbeiten kann 1994 gab es Solaris 2.4 also dieses Solaris X86 war auf Basis von Solaris 2.1 es war also noch eine relativ wackeliege Version von System 5.4 Solaris 2.4 ist die erste die ich auch stabil nennen konnte und die war auch schneller als Solaris 4 da war also definitiv mit Solaris vorbei interessant ist 1994 hat es auch mehr Rechte von Zahn gekauft, da sage ich noch mehr was später aber was dann halt auch kam, ist dass 1995 der Pentium 90 rauskam und der war etwa gleich schnell wie damals Spikesysteme da hatten wir zwar immer noch das Problem dass die Firma SGI und die Firma Zahn erheblich bessere Grafikadapter in ihren Rechner hatten als was es damals für PC basierte Systeme gab aber was gleichzeitig damals passiert ist ist das eine kleine Gruppe von Grafikkartenentwicklern die bei SGI gekündigt haben und die Firma Nvidia gegründet haben und mit ihrem Know-how dann plötzlich Grafikkarten für PC's entwickelt haben und das ist halt also ab da wurden dann tatsächlich PC's auch benutzbar in Folge 96 glaube ich kam der Pentium 130 raus und in dem Bereich wurde auch irgendwann Linux populär und das ist leider auch der Zeitpunkt wo es handeln angefangen hat die Studenten an die Universitäten zu vernachlässigen und wo es halb also das Interesse an Solaris zurückgegangen ist 1997 gab es die erste 64-Bit-Variante von Solaris übrigens was Linux jetzt inzwischen auch kann dass die Bibotheken in zwei verschiedenen Subdirektries sind und man gleichzeitig auf einem Kern nebeneinander 32 und 64-Bit-Programme laufen lassen kann das gab es 97 schon bei Solaris 64-Bit-Kernen ja und das richtig schlimme war im Januar 2001 hat San Solaris 686 abgekündigt weil es angeblich nicht rentabel war was natürlich völliger Unsinn ist weil es gab damals etwa 14.000 Rechner an der Oberfinanzdirektion Hannover und es gab etwa 40.000 Solaris 686 Rechner im amerikanischen Militär und beide Institutionen haben so viel Geld an Zahn gezahlt, an Lizenzgebühren dass über die Einnahmen sogar die normale Solaris-Entwicklung querfinanziert worden ist das heißt sie haben über ihr X86 Produkt eigentlich mehr Geld eingenommen sodass sie damit die Hauptentwicklung finanzieren können trotzdem ist irgendein Idiot auf die Idee kommen Solaris 686 abzukündigen, das war hat einen ziemlichen Schlag auf Solaris bewirkt nochmal kurz zurück was mit dem San Novell Deal gewesen wegen der Royalties die San also immer zahlen musste, das war eine ganze Menge ich habe das leider vergessen das wurde, aber wer das mal interessiert der sollte mal versuchen in den Newslet News aus dem Jahr 1993-1994 bis zum Suchen da sind Zahlen auch genannt worden was da abgelaufen ist ein bisschen sehr merkwürdig gelaufen San hat also mit AT&T verhandelt über den Erwerb eigenständiger Rechte an Unix und während das hier laufen ist hat AT&T San hintergangen und hat einfach alles an Novell verkauft das heißt, San stand dann plötzlich da mit angebrochenen Vertragsverhandlungen und ihr Partner war nicht mehr zuständig das heißt, sie mussten dann mit Novell weiterverhandeln und haben im Laufe des Jahres 1994 dann das Recht an Solaris erworben Solaris ohne Royalties an Novell zu bezahlen zu vertreiben und sie hatten auch das Recht eigenständig unter Lizenzen zu verkaufen, gemeinsam sage ich deswegen, es bezieht sich auf all den Quellcode wo als Copyright Information nur San oder nur AT&T oder San und AT&T aber keine andere Firma drennt steht ja, schon 95 also 2 Jahre später hat Novell ihr merkt, dass er mit Unix nicht so richtig klar kommen und haben Unix mit Haut und Haaren an SCO verkauft und ich sage deswegen mit Haut und Haaren hier 1993 als Novell Unix erworben hat, haben sie nicht nur die Rechte an Unix erworben sondern sie haben halt auch das Gebäude und die Arbeitsverträge der USL Angestellten an der Ostgüste mit übernommen und genau das Paket ist komplett so auch an SCO verkauft worden genau das war getrennt es gab immer so ich habe noch eine Viertelstunde und ich habe noch ein bisschen was ich war zu langsam wenn nachher noch irgendwo Zeit ist können wir uns irgendwie auf den Gang stellen was war hat Sanfier Rechte erworben sie hatte das Recht unter Lizenzen es war aber unklar ob das Recht enthielt den Code Open Source zu machen darüber waren sie die Sananwälte anfangs nicht einig, aber um das Jahr 2000 darum war man sich sicher dass dieses Recht auch enthält und zwar für alle Quellen in denen nur San und AT&T oder als Urheberrechteigentümer drin waren und es führte dann auch dazu dass San im Jahr 2000 nach Zorsten veröffentlicht hat da konnte man eine Mail hinschreiben schicken und dann hat man irgendwie das zugemailt bekommen soweit ich mich erinnere auf jeden Fall, man musste nicht unterschreiben das war nur zur Ansicht und es waren also auch nur 95% der Zorsten, weil man hat nämlich alles das einfach gelöscht wo andere Eigentümer noch mit drin stand ich mache mal ein Beispiel es war also einerseits, der Mentat Netzwerkcode ist zwar so, dass San 1993 die Hauptentwickler von Mentat übernommen hat und die sind seitdem bei San beschäftigt worden, aber sie haben die Firma nicht gekauft und damit hatten sie also nur die Nutzungsrechte, aber nicht die Urheberrechte an der Netzwerksdeck, nur war es aber zum Glück so dass man sowieso einen neuen Netzwerksdeck entwickeln musste, damit man halt Gigabit und 10 Gigabit in ausreichender Geschwindigkeit schaffen konnte was auch gefehlt hat, also der Netzwerksdeck komplett und so lustige Sachen wie ls.c fehlten, warum in ls.c waren 3 Zeilen von Microsoft drin nämlich es gab 3 sondere Pfeiltypen auf Xenix und 1987 als San und AT&T diesen Vertrag zur Schaffung des Systems weil Friedrichs 4 unterschrieben haben da waren also einige Firmen beunruhigt, unter anderem Microsoft und die haben gesagt also passt mal auf wenn ihr die Xenix-Spezialitäten auch übernehmt in systempfeilvolles 4, dann schmeißen wir unsere gesamte Betriebssystementwicklung weg und stellen auf systempfeilvolles 4 um ist irgendwie nicht passiert glaube ich ne ja als Ergebnis von dieser Solaris X86 Einstellung gab es übrigens eine Gruppe gegründet die Secret Six hieß die waren dann im März 2001 bei San hat damit ein Laptop mit Solaris X86 und Staroffice drauf und haben dann eine Präsentation bei den Managern gemacht und das Schluss ist die Manager von San haben nicht mal gemerkt dass auf dem Laptop kein Microsoft drauf war trotzdem haben sie es geschafft ab Herbst 2001 Solaris X86 weitergeführt wird und das System hat dieses halbe Jahr wo es das System nicht gab einen schweren Schlag San versetzt interessant ist dass es dann im Dezember 2003 eine riesige Solaris Entwicklerkonferenz in Berlin im ICC gab mit über 3000 Teilnehmern und das ICC weiß nicht wie es jetzt aussieht war damals das einzige Kongresszentrum der Welt wo 3000 Leute auf einen Schlag in einen Hörsaal reinpassen und im Frühjahr 2004 hat Jonathan Spartz der war damals ein Aufsteiger innerhalb von San hat öffentlich in der Presse verkündigt es wird Open Solaris geben interessant ist dann im Sommer haben die sich bei mir gemeldet sagen wir machen im Herbst so ein Open Solaris Summit in Santa Clara wir laden dich ein und ich dachte die wollten jetzt schon sagen wir sind fertig wir haben eine Pressekonferenz dann hieß es mach mal ein Vortrag und zwei Tage vor bevor ich denn dahin geflogen bin hieß es plötzlich hast du das nicht mitgekriegt das ist eine San interne Veranstaltung wir wollen den Leuten erklären wie Open Source geht und wir haben ein paar Leute eingeladen wir haben dich eingeladen wir haben den wie heißt der Mensch der Chef von der Apache Foundation und den Menschen der bei Apple Mac OS X als U-Boot Projekt bestartet hat, hatten sie eingeladen als Open Source Leute und da wurden also 400 Teilnehmer von San dann erklärt worauf man achten muss damit so ein Open Source Projekt in der Größe auch funktionieren kann das war eine interne Veranstaltung aber was tatsächlich passiert ist das halt während dieses Summit am 14. September erklärt worden ist ein Pilotprogramm gibt für Solaris 6 und 8 da war ich also auch einer der ersten die da ein NDA unterschrieben hat ab dem Moment den aktuellen Zustand von Open Solaris sehen konnte und auch mitgeholfen hat das dann zum Juni 2005 fertigzustellen dann gab es eine Diskussion was für eine Lizenz zu nehmen ist da war es halt so dass von irgendwelchen Leuten die Idee kam wir nehmen die BSD-Lizenz und dann haben eine signifikante Menge von Leuten bei San also von Entwicklern gesagt, wenn ihr BSD als Lizenz nehmt, dann kündigen wir dann kam jemand auf die Idee können wir nicht die GPL nehmen und es wurde also schnell klar nach juristischer Prüfung das geht gar nicht weil es gab halt so viele Close Source Anteile und du kannst halt GPL nicht mit Close Source mischen eine Lizenz nehmen die also so offen ist dass sie einerseits diese Mischung erlaubt andererseits aber ein bisschen mehr Sicherheit gibt als die BSD-Lizenz und das ist eine modifizierte Mozilla-Lizenz die ist im Wesentlichen sind die Änderungen dahingehend, dass sie auch mit europäischem Recht vereinbar ist weil die Mozilla-Lizenz übrigens auch Mozilla 2.0 die jetzt entstanden ist viel später, ist immer noch nicht mit europäischem Recht kompatibel 2005 im Februar hat meine erste Open Solar basierte Version von Betriebssystem schon gebotet natürlich noch auf dem Close Source Anteil der nur für die Pilotteilnehmer verfügbar war aber dann fing also auch San an, im Februar auch schon den DITRES-Quellcode unter CDDL zu veröffentlichen, damit Leute mal sehen können, ja wir meinen das ernst weil sie halt eigentlich dachten, dass sie im Frühjahr 2005 schon fertig sind und sie haben ja viel länger hingezogen weil sie noch rechte nachkaufen mussten und auch ihre Netzwerksteckimplementierung noch nicht ganz fertig war und sie hatten so noch ein Problem, dass sie den Boot setzen mussten, der war nämlich auf Basis einer Intel-Implementierung von Open Boot eine Emulation von Open Boot als 16-Bit-Programm und da haben sie ja oft grob umgestellt Ja, am 14. Juni ist Open Solares freigegeben und später gab es die erste Open Solares-Distribution die auf dem Code basiert ist, Schillix die nächste Open Solares-Distro war Bellinix und dann ab 2005 Nick Center, das ist so eine Firma die, da weiß keiner werden sie gehört in Amerika kann man Firmen gründen und die Eigentümer anonym halten und die machen ihr Geld im Augenblick damit dass sie File Server verkaufen mit CDFS so, jetzt müssten wir gerade noch so schaffen November 2004 habe ich dann so eine Diskussion angestoßen dass man, wenn man Open Solares macht, dass man halt auch so eine Art Verfassung braucht, nach welchen Regeln Quellcode verwaltet wird da gab es am Anfang eine extreme Versuch von Zahnmitarbeitern im Januar 2005 kam plötzlich von Zahn genau der Vorschlag und es wurde so ein Open Solares Governance Board gewählt und OpenSolares.org war bis zum 14. Juni so dass man halt ein Passort braucht um draufzukommen und das ist dann halt ab dem 14. Juni freigeschaltet worden es gab ein öffentliches Back-Tacking-System viele öffentliche Mailing-Listen 99% der Open Solares-Basis ist Open Source leider sind halt einige Sachen nicht Open Source geworden wie zum Beispiel so ein Programm wie Pax das ist von der Open Group da haben Firmen wie IBM und HP die behaupten sie seien so große Förderer von Open Source bei den Verhandlungen gesagt, ne wir wollen nicht dass das Open Source wird weil das ist nämlich ein Pax und ein paar andere Programme sind nämlich gepflegter Code von Zahn, HP und IBM und natürlich sind auch einige Close Source Anteile von Hardwareherstellern ok im Prinzip sollte alles Open Source werden sogar der Zahn Pro Compiler sollte Open Source werden und das Lustige ist bis im Jahr 2008 hatten die tatsächlich den gesamten Code juristisch prüfen lassen und haben also auch schon beiseite gelegt den Teil der von Intel war und geheime Eigenschaften der CPUs für bessere Optimierung genutzt hat abgespalten, sodass man eine vereinfachte Version von dem Compiler hätte bauen können aber der Schwarz hat verlangt dass bevor der Code in die Öffentlichkeit geht die Versionsverwaltung von SCCS auf Mercurial umgestellt werden muss und dazu hatten die Leute gerade zu dem Zeit keine Zeit und dadurch ist es jetzt ausgefallen weil es gelbe C lang wahrscheinlich nicht wenn das damals Open Source gemacht worden wäre ja, dann kam der Absturz interessant ist 2009 haben viele Studenten obwohl Zahn auch weiterhin sich nicht um die Studenten gekümmert hat plötzlich aus eigen Interesse Open Solar ausprobiert aber Jonathan Schwarz hat durch das Verkaufsmodell der Hardware Zahn in Arge Bedrängnis gebracht sie hätten irgendwie so 10% mehr Einkünfte gebraucht kein Problem, also das Lustige ist halt, als Oracle das nachher gekauft hat haben sie die Preise einfach so weit erhöht dass plötzlich die Haupt-Einnahme-Quelle von Oracle insgesamt der Zahn-Hardware-Verkauf war also die hätten auch selber nur ein bisschen an der Schraube drehen müssen und hätten auch ohne Oracle geschafft aber das Problem ist halt Scott McNeely hatte die gesamte Verwaltung der Firma Zahn abgegeben und der hatte um die Zeit herum an der TU Berlin einen Vortrag gehalten und da kam er mir sehr krank vor also ich kannte ihn von früher persönlich und der war also jemand der immer wirklich vor Ideen und vor Angriffslos gespritzt hat und der wirkte als ob er hinter einem Vorhang stand also ich denke mal der wusste, dass er irgendwie psychische Probleme hat oder vielleicht auch andere Probleme dass er es nicht schafft mehr die Firma so wie früher weiter zu bewirtschaften hatten Nachfolger ernannt und der war halt ein Griff ins Klo Schwarz wollte dann 2009 Zahn an IBM verkaufen hätte das in die Tat umgesetzt wäre das in die Tat umgesetzt worden dann würde es jetzt wahrscheinlich gar nichts mehr geben weil IBM natürlich als erstes ein Spark-Processor-Entwicklung eingestampft hätte und da hat er mir nie noch mal interveniert und hat eigenständig mit Orgel verhandelt und hat dafür gesorgt dass das Hand stattdessen an Orgel verkauft worden ist, allerdings endet es dann damit dass am 18. August 2010 der letzte veröffentlichte Update an der Versionsverwaltung rauskam ja jetzt haben wir noch zwei Minuten, ich weiß nicht, gibt es noch irgendwelche Fragen jetzt ist aber hier direkt danach ein anderer Vortrag das heißt so es sollten wenn dann kurze Fragen sein oder wir stellen uns nachher mal draußen hin und ihr könnt nach da fragen wenn da noch Interesse ist ok war das denn in etwa das was