 Wir hatten gerade schon das spannende Thema mit Power oder Rechenleistung und deswegen freue ich mich ganz besonders auf den nächsten Talk, der sich eben auch um Power oder Rohrechenleistung dreht und wir nahtlos anknüpfen können. Zu Hause rechnet ihr vielleicht mit CT at Home noch ein bisschen nach außerirdischen, was man alles mit Rohrechenpower noch machen kann. Erzähl uns Dieter Grenzenmühler vom SupermuckNG. Willkommen auf der Bühne Dieter. Ja, erstmal danke für die nette Einführung und schönen guten Abend. Sie haben es gleich gemerkt, er hat bei einer Dinge etwas Falsches gesagt. Das ist kein Talk in Deutsch, das ist ein Talk in Österreichisch, aber ich werde mich bemühen. Thema des Vortrags SupermuckNG, das NG steht wie bei Star Trek für Next Generation und der Untertitel ist irgendwann verloren gegangen, aber das war mir auch ganz wichtig. Wo geht es im Rennen? Wie steht es im Rennen um die schnellsten Computer der Welt? Und was hat SupermuckNG damit zu tun? Und bevor ich dazu komme, möchte ich mit einer kleinen Motivation anfangen und es geht um das hier, der Münchner Tatort wurde bei uns gedreht. Ich verstehe, das Tatortpublikum sitzt gerade nicht im Raum, aber vom Prinzip her war das eine ganz spannende Geschichte. Das ganze Haus steht im Kopf, weil heute gefilmt wird, drei Wochen ist nichts gegangen. Und was man schön sieht im Hintergrund, steht hier schon der Supermuck und war eine Geschichte, wie ich gar nicht ininhörtlich darauf eingehen kann, künstliche Intelligenz, was sonst, die spannende Geschichte dabei war für mich eigentlich, was dann auch passiert ist. Kam, wurde der ausgestrahlt irgendwann im September, sondern am nächsten Tag die ersten Anrufe kommen, beim ersten habe ich mir gedacht, hm, auf jeden Fall war der erste Anruf irgendeiner Zeitung, die gefragt habe, um Himmels Willen, was macht sie da in Garchinge eigentlich? Dann sind so Fragen gekommen, wie gefährlich ist das eigentlich? Was treibt sie da? Was kann man denn mit dem Gerät noch alles machen? Und das sind so Dinge, wo ich mir dann überlegt habe. Und es geht vielen von euch im Raum auch genau so. Das, was wir wachen, versteht kaum jemand. Und das ist vielleicht beim Supermuck auch so ein Beispiel, jetzt satzieren noch die Experten, da ist die Zukunft die digitalisierte, sozusagen, es hat es näher dran, aber trotzdem denke ich, es ist vielleicht einmal Zeit, dass man sich das ein bisschen näher anschaut, was ist eigentlich so ein Supercomputer, was ist dieser Supermuck? Und tatsächlich hat der eine oder andere, wenn er den Tatort nicht geschaut hat, den Supermuck schon gesehen. Es gibt den Film vom Oliver Stone über an Edward Snowden. Und in diesem Film ist der Supermuck dabei, aus dem ganz einfachem Grund, weil bei der NSE durften sie nicht reden. Also er hat uns der Oliver Stone gefragt, ob er zu uns kommen kann und wir haben gesagt, kann er gern machen. Und es sind einige Szenen drinnen, wo Supermuck praktisch im Hintergrund mitspielt. Es sind auch Szenen dabei, wo unsere Systemadministratoren, also die Leute, die das System praktisch verwalten, durch das Bild laufen, also das gibt dem Film noch ein Spur mehr Authentizität natürlich. Und eins der Bilder, das man im Snowden Film gesehen hat, war dieses hier. Wobei jetzt muss ich sagen, als Copyright Gründen habe ich das selbst gemacht, das ist nicht das aus dem Film, aber man sieht das Gleiche im Film, ist so, dass die Lichter oben ausgeschwitzt sind und es schaut ein bisschen futuristisch aus. Was wir auf dem Bild sehen, ist Supermuck Phase 1 und Phase 2. Und da stehen auch die Jahreszahlen dahinter. Supermuck Phase 1, das ist das, was im Hintergrund steht. Supermuck Phase 2 sind die zwei Schrankreihen im Vordergrund. Und der Raum, damit man ein bisschen Vorstellung hat, hat 1200 Quadratmeter. Also das ist relativ gut gefüllt. Diese leere Fläche im Vordergrund ist das, wo man für den Tatort diese Zelle aufbaut, die wir gerade im Bild vorher gesehen haben. Und das Interessante bei dem ist natürlich, was die Leistung ist. Und die Leistung von diesem System, also Phase 1, hinten 6 Quadratmeter, sind etwa 3,2 Peterflop und Phase 2, die zwei Schrankreihen vorne, sind etwa 3,6 Peterflop. Jetzt ganz kurz, natürlich ist jeden bewusst, was Peterflops sind. Peterflops und das passt auch. Deswegen habe ich heute sogar vom T-Shirt her richtig. Das ist mein Peterflopt-T-Shirt. Das sind zehn hoch 15 Gleitkommar-Operationen pro Sekunde. Das heißt, eine 1 mit 15 Nullen. Und das ist das, was ein Peterflop an Rechenleistung ist. Das heißt, dieser Rechner kann praktisch Phase 1, 3,2 mit 15 Nullen hinten dran und Phase 2 mit 3,6 mit 15 Nullen hinten dran. Und das kann der rechnen. Jetzt das übliche Beispiel, wenn die Medien anrufen, was bedeutet das? Jetzt habe ich mir gerechnet, wenn jetzt bei 35 C3, 17.000 Leute sind, dann muss jeder von den Leuten hier in der Sekunde 85 Milliarden Rechenoperationen pro Sekunde machen. Und diese Gleitkommar-Operationen sind halt 3,2 mal 5,4 zum Beispiel. Also, das ist diese Rechenleistung, was die Geräte hinkriegen. Der Ende dabei ist natürlich, dass man, wenn man jetzt sieht, 2012, der halbe Raum im Hintergrund, 3,2 Peterflop, 2015, der Rest, diese zwei Schrankreien fahren, 3,6 Peterflop. Das heißt, innerhalb von drei Jahren braucht man nur mehr ein Viertel der Fläche, ein Drittel des Stroms und kriegen aber immerhin die gleiche Leistung raus. Und das ist diese Leistungsteigerung, die wir drinnen haben. Und das begründet auch irgendwie den Grund, warum wir immer neue Geräte praktisch beschaffen müssen. Weil irgendwo an der Punkt kommt, wo das neue Gerät zu beschaffen günstiger ist, als das alte Gerät weiter zu betreiben. Und wir sehen hier auch in dem Beispiel, die Rechenleistung ist wodurch begründet. Wir haben hier in der zweiten Reihe die Rechenkerne. Und das sind irgendwo um die 230.000, die hier verwendet werden. Das heißt, wir haben in Summe 230.000 Rechenkerne in dem Raum. Und die Intention ist, dass diese Rechenkerne gemeinsam rechnen. Das heißt, dass man Anwendungen schreibt, die alles nutzen, was dort ist, um damit möglichst große Rechnungen durchführen zu können. Speicher dementsprechend und Strom, da kommen wir dann noch separat dazu. Das ist auch etwas, was relativ hoch ist. Also in dem Fall größtenordnungsmäßiger Kleinstadt mit 30.000 Haushalten, dass man es so im Gefühl etwa hat. Der freie Raum vorhin, wie gesagt, ist für ein Tatort benutzt worden. Der ist schon letztes Jahr gedreht worden, weil dann musste er raus. Weil wir dann das hier reingestellt haben. Und das ist jetzt der Supermuck NG, derzeit Deutschlands schnellster Rechner, mit 26,7-Petaflop-Rechenleistung und 311.000 Rechenkerne. Also da ist wieder die Idee, dass diese ganzen Rechenkerne zusammenarbeiten und dass diese entsprechend für die Anwendung genutzt werden können. Hauptspeicher 720 Terabyte, auch wieder hier im Raum, natürlich kein Problem, dass man sich das vorstellt. Wir haben auch die ganzen digitale Seite der Bayerischen Staatsbibliothek bei uns und die würden da alle noch gemütlich in Hauptspeicherein gehen, damit man so ein Gefühl haben kann. Gut, bevor wir ein bisschen mehr in die Details einsteigen, ganz kurz im Hintergrund, warum braucht man solche Systeme überhaupt bzw. warum hat man sich entschlossen, dass man in Deutschland so was beschafft und da gibt es das Gauss Center für Supercomputing, das ist ein Verein und der ist eben dadurch dafür geschaffen worden, dass man praktisch für das nationale Höchstleistungsrechenzentrum zusammenarbeitet und das sind die drei Rechenzentrum des HLIS in Stuttgart, das jüliche Supercomputing Center und im Unserrechenzentrum. Und die Idee ist, dass man für die wissenschaftliche Gemeinschaft in Deutschland die höchste Rechenleistung zur Verfügung stellt. Dafür hat man eigenen Bund-Länderabkommen geschlossen zwischen dem Bund und den drei Sitzländern und unser Rechner ist heute vom Bundesministerium für Bildung und Forschung und von Bayern je zur Hälfte finanziert. Und wenn man da ein bisschen genauer reinschaut, dann sieht man auch, dass das alles eine Projektförderung ist. Das heißt, wir schreiben ganz normal einen Antrag. Der Antrag ist in dem Fall eben bewilligt worden, für einen Zeitraum 2017 bis 2025, mit einem gewissen Budget in Summe 460 Millionen Euro und mit diesem Budget machen wir das, was hier steht. Das heißt, wir schauen, dass wir diese Höchstleistungsrechner aufstehen, das Geld ist hauptsächlich dafür da, die zu beschaffen, dass man gleichzeitig dann auch diese Leistungsklasse unterstützt für die Wissenschaft und Forschung in Deutschland und dass man in einen rein webbewerblichen Verfahren noch wissenschaftlichen Kriterien die Anwendungen auswählt, die dann auf diesen Systemen rechnen sollen. Das heißt, im Prinzip kann sich jeder Wissenschaftler in Deutschland darum bewerben, um auf diesen Rechner rechnen zu dürfen. Und die Evaluation wird von einem wissenschaftlichen Kremium von Experten durchgeführt, die einen einfach sagen, wie gut ist diese Wissenschaft und zweitens, wie gut passt die zu dem entsprechenden System. Wenn man jetzt da ein bisschen reinschaut, was wir machen müssen, dann sieht man, für das LHZ gibt es konkret auch Anforderungen an das System. Man hat sich entschlossen, dass die drei Standorte unterschiedliche Systeme aufstellen und unser System sollte eben ein hochparalleles System für ein möglichst breites Anwendungsspektrum sein. Das heißt, wir haben die Aufgabe möglichst viele Anwender zu unterstützen in der Breite aus den Anwendungsgebieten Astrophysik, Geophysik, Lebenswissenschaften und Umweltwissenschaften sowie eben Strömungsmechanik und Chemie. Und das sieht man schon von der Breite her, das gibt natürlich gewisse Charakteristiker, die wir hier bei den entsprechenden Codes unterstützen müssen. Jetzt wollen wir da ein bisschen näher reinschauen, wenn wir diesen Rechner beschaffen, dann wollen die ganz kurz einfach nur bei Aspekte hergehen, wie das ausschaut. Früher im Studentenheim haben wir das schon gemacht, wir sind hergegangen und haben dann halt einfach Rechner zusammen gesteckt und haben gemeinsam mit irgendeiner Software, PWM, MPI, was das damals war, über die Rechner hinweg im ganzen Heim gearbeitet. Hier ist natürlich etwas mehr, man braucht auch einen entsprechenden Ablauf, einen Prozess dazu. Konkret haben wir am 8.12.2016 begonnen, beim Aufruf zur Teilnahme in einem wettbewerblichen Dialog. Das heißt, dieser wettbewerbliche Dialog ist praktisch ein Wettbewerb, bei dem man schaut, dass man das beste System auslöst. Jetzt 2016, wenn man darauf noch denkt, das System ist jetzt installiert worden, das heißt, wir sind schon mal zwei Jahre zurück und wenn man jetzt noch einmal darüber nachdenkt, dass wir 2015 erst in Supermug Phase 2 installiert haben, dann ist es tatsächlich immer so, dass wir praktisch sofort, wenn das System installiert ist, damit beginnen, diese Unterlagen vorzubereiten. Man sieht dann auch hier, was man braucht, also grundsätzlich mal, wie läuft dieser Algorithmus für den wettbewerblichen Dialog, wie sind diese ganzen juristischen Bewerbungsvertragsbedienungen und so weiter. Dann die Description of goods and services, das ist sozusagen die Wunschliste, wo drin steht, was man gerne hätte. Dann muss man auch vorher festlegen, nach welchen Kriterien wählt man das aus. Das heißt, wie viele Punkte bringt es jetzt, wenn man dies und dies angeboten kriegt. Natürlich braucht man für die ganzen Erklärungen auch non-disclosure agreements, Geheimhaltungserklärungen, damit das alles entsprechend zusammenpasst und es muss zu dem System passen, was vorhanden ist. Das heißt, am 8.12.2016 ist gestartet worden und am 23.01.2017 haben die Bewerber mal einen ersten Aufschlag machen können. Da mussten sie mir einreichen, dass sie überhaupt finanziell in der Lage sind, ein so ein System zu bauen, dass sie Referenzinstallationen haben, das heißt, schon Systeme in dieser größten Orden gebaut haben und dass es auch Konzepte gibt, wie man eben die Energie und die Kühlungseffizienz entsprechend erhöhen kann. Wir haben auch gleich noch dazu kommen, warum das wichtig ist. Der Punkt an dieser Geschichte ist ganz einfach der, dass man praktisch auswählen möchte, dass wer kann so ein System überhaupt bauen. Und jetzt einmal geschätzt, wenn man schaut, wie viel auf der Welt, wie viele Firmen gibt es, die sowas bauen können, dann kann man sagen, es gibt wahrscheinlich weniger als 10, die so Systeme in dieser Größenordnung bauen können. Wir haben dann im ersten Gang, in der ersten Runde, 5 Firmen ausgewählt und mit diesen 5 Firmen hat man dann diskutiert. Das bedeutet, man hat sich mit jeder diese 5 Firmen 3-mal getroffen, hat es durchdiskutiert, die sind mit einem Proposal gekommen, man hat das angeschaut und so weiter. Das ist ein wahnsinnig spannender Prozess, der natürlich auch sehr viel Rechen, nicht human capital, sehr viel Personal entsprechend bindet. Also zwischenzeitlich sind da sicher 25 Personen beschäftigt, die einfach nur versuchen zu verstehen und zu lesen, was da drin entsteckt. In der zweiten Runde, wenn man dann mit diesen 5 Firmen diese 3 Runden durchexorziert hat, dann wählt man aus diesen 5 2 Firmen aus und mit diesen 2 Firmen macht man weiter. Und es geht dann wieder weiter, dafür, dass die praktisch die Möglichkeit haben, hier entsprechend das beste Angebot zu liefern. Was man jetzt dann noch kurz anschauen will, ist dieses Description of goods and services, damit man mal gefühlt hat. Ich habe einfach 3 rausgewählt aus dem System. Die sind schon unterschiedlich farblich markiert. Rot sind die, die mandatory sind, die müssen erfüllt werden. Gelb sind die, die important sind, also da wäre es gut, wenn man die entsprechend erfüllen würde. Und grün sind die, die möglichst zielgrößen sind, wo man möglichst hinkommen möchte. Und man sieht dann, wenn man das alles durcharbeitet, praktisch, dass man so ein Fragenkatalog hat, wo jeder das entsprechend ausfüllen muss. Und es gibt dann auch noch mehr Dinge, also wo man zum Beispiel dann auch wirklich insert text hier, das bedeutet, dass man wirklich da konkrete Beschreibungen rein tun muss, wie in dem Fall zum Beispiel Azoroptionskühlgeräte integriert werden können. Das heißt, man baut da wirklich was zusammen und es kommt jetzt mal so ein Ordner zurück, wo dann die ganzen Fragen entsprechend ausgearbeitet sind. Wenn das dann entsprechend gemacht wird, dann läuft es immer noch vielen Paragrafen und da springen wir mal kurz drüber. Das ist Punkt, Punkt, Punkt, steht für eine Reihe von anderen Paragrafen, die entsprechend drin sind. Appropunkte sind noch wichtig. Was für Größenordnung reden wir? Wir haben gesagt, 460 Millionen war das Budget für OLED-Reichenzentren. Wir haben hier in dem Fall einen Rechner gebaut um 94 Millionen Euro. 94 Millionen Euro klingt viel, ist aber in dem Fall etwas, was für Total Cost of Ownership genommen wird. Das heißt, das System, die Hardware und die Betriebskosten. Das heißt, wir haben Investitions, Betriebskosten, Wartungskosten und so weiter, müssen da drin sein und dürfen nicht überschritten werden. Das heißt, nicht so was wie beim BER, wo man dann halt nachher noch ein bisschen mehr braucht, sondern das heißt wirklich, da ist ein Geld und damit müsst ihr auskommen. Wenn ihr nur der Gefühl dafür habt, das heißt, die Firma muss die anbietet, muss abschätzen, wie viel Leistung gebe ich denen, damit die mit dem Rest des Geldes für die Betriebskosten auskommen. Wenn wir zum Beispiel mehr Strom brauchen würden bei der Erlösung, dann müsste die Firma die differenz selbst übernehmen. Das heißt, das ist ein ganz spannender Prozess, der da eigentlich durchgeführt werden muss und jeder, der selbst mal ein Laptop gekauft hat, kennt es in dem Fall ähnlicher Form. Man hat ein gewisses Budget und man möchte die maximale Leistung rausholen. Es gibt auch nicht mehr nur einen Bieter und keine Nebenangebote. Das heißt, die Firmen werden gezwungen zusammenzuarbeiten. Wir werden dann noch bei uns sehen, was die Lösung ist und es gibt ein Installationszeitraum, der ist interessanterweise relativ groß. Wir haben vorgegeben, wir werden zwischen dem dritten Quartal 2018 und dem vierten Quartal 2019 entsprechend installieren. Das heißt, die haben eine Möglichkeit, sich da reinzufinden. Jetzt war einer von uns in Wünschen, dass man gesagt hat, wir wollen einen der zehn schnellsten Rechen auf der Welt haben. Dann ist es natürlich günstig, wenn man möglichst am Anfang drin ist. Weil je später, dass man drinnen ist, umso mehr bauen die anderen auch wieder. Da sind wir schon ein bisschen bei diesem Wettbewerb, zu dem wir gleich kommen werden. Wir machen dann nachher praktisch eine Leistungsprüfung, indem wir Leistungsmessungen durchführen. Das machen wir derzeit unter Funktionsprüfung, wo man dann sieht, im Betrieb, was die Benutzer davon halten. Und ganz spannend auch ist diese Frage, wenn ein Bieter jetzt eine Frage stellt. Zum Beispiel irgendwer hat was gelesen und das versteht jetzt nicht, was bedeutet diese Anforderung überhaupt. Dann stellt jetzt die Firma XY die Frage. Ich verstehe das nicht. Dann müssen wir das so behandeln, dass wir diese Frage nehmen und dann mal alle anderen schreiben. Der hat diese Frage gestellt. Und dann schreiben wir eine Antwort zu dieser Frage, die wieder alle anderen zurückkriegen. Das ist ein wahnsinniger Aufwand, auch wieder, dass man das hinkriegt. Das ist mir noch recht froh, wenn es möglichst wenig Fragen gibt in dem Sinn. Und irgendwann sind alle glücklich und der Vertrag ist unterschrieben. Und man sieht es da in meiner Hand, denn das Vertragsdokument ist so ein 500-Zeiten Schmücker, wo dann wirklich jedes Detail eben entsprechend drinnen steht. Und man sieht da drunter auch beim UAL, das ist am 14.12.2017 erfolgt. Das heißt, in Summe haben wir etwa ein Jahr gebraucht, um überhaupt so ein Gerät zu beschaffen. Und wenn dann alles funktioniert hat, dann steht heute plötzlich in dem Raum, da noch mit den Grünen, der neue Supermuck NG, und man sieht im Hintergrund die anderen zwei Rechner entsprechend stehen. Und wir können uns dann auch freuen über die gewissen anderen technischen Daten, die das System hat. Jetzt nehmen wir das einfach mal so hin, der Rechner kommt, und jetzt wollen wir natürlich wissen, wie schaut er im Vergleich zu den schnellsten Rechnern der Welt aus? Wie schaut das jetzt aus, wie kriege die Information raus? Da gibt es eine Liste, die nennt sich die Top500 Supercomputerliste der Welt, www.top500.org. Wir müssen das einfach mal anschauen. Das sind die ersten zehn Plätze. Natürlich geht es dann noch mit 490 weiter. Die Liste wird zweimal im Jahr abgedätet, einmal im Juni, einmal im November. Und auf dieser Tagung in November interessanterweise ist die mittlerweile kleiner als die 35C3. Da sind heuer 13.000 Teilnehmer gewesen. Und dort wurde die letzte Liste veröffentlicht, so wie sie hier steht. Und wenn man dann einen Blick drauf wirft, dann sieht man, das ist der Platz 1. Der Rechner heißt Summit, steht im Oak Ridge National Laboratory und hat in dem Fall IBM Power 9 Prozessoren drin und Nvidia Grafikkörten entsprechend. In Summe hat er über 2 Millionen Rechenkerne, die da mitarbeiten. Und er kriegt dann gewisse Leistungsmaße raus. Wir haben einmal R-Peak, das ist die theoretische maximale Höchstleistung. Das ist, wenn der Rechner nur rechnen würde. Das ist nicht realistisch, weil er muss sich noch andere Dinge auch erledigen. Das heißt, diese Peak-Leistung ist nur ein theoretisches Maß, das wir ausgerechnet haben, wenn alle diese 2,3 Millionen Rechenkerne gemeinsam arbeiten würden. Dann haben wir noch einen zweiten Wert, das ist dieser R-Max. Das ist ein geringerer Wert, der ist ein wenig weiter drunter. Und der gibt dann die Rechenleistung für einen bestimmten Benchmark, und zwar den Linkpack-Benchmark. Das schauen wir uns noch entsprechend ein bisschen im Detail an. Die National Laboratory ist natürlich eines der amerikanischen DOE-Zentren. Das heißt, wir wissen, die haben nur ein Handvoll von Coats, und wir wissen auch, was das für Coats sind, im Prinzip. Auch wenn die von uns nie einer sehen wird in dem Sinne. Interessant hier auch noch, das System braucht 10 MW an Strom. Jetzt muss man dazu sagen, in Tennessee kostet der Strom etwa ein Sechsl von dem, was er bei uns kostet. Das ist nicht ganz so tragisch, wenn man es bei uns bezahlen müsste, was man da entsprechend im Griff haben möchte. Gut, jetzt schauen wir uns einmal die ersten fünf Rechner an. Da sind wir bei diesem Rennen, was ich schon gesagt habe. Man sieht jetzt in der aktuellen Liste Platz 1, USA, Platz 2, USA, Platz 3, China, Platz 4, noch einmal China und Platz 5 dann der Schweizer Rechner. Das ist natürlich ein gewisses Prestigeprojekt. Und so Präsidenten, wie der aktuelle amerikanische Präsident, sind natürlich da geneigt, mitzumachen. Das heißt, die DOL Labs haben für ihre Rechner kein Problem gehabt, da Geld zu bekommen in dem Sinne. Wenn die jetzt Umweltrechnen machen würden, dann wäre es vielleicht nicht ganz so günstig gewesen. Natürlich geben sie da immer einen schönen Wettbewerb und wenn man jetzt anschaut, dieser Rechner auf Platz 3, dieser Sunway Thio Light hat einen interessanten Prozessor, der ist nämlich ein Sunway Prozessor. Und da sieht man auch, wie das mit der Politik zusammenrennt. Wer vielleicht Netzpolitik, wenn man in der Politik gehört hat, die China-Version, das ist so eine der Ausprägungen. Da war es tatsächlich so, dass die Chinesen diesen Sunway Thio Light gern mit Intel-Prozessoren gebaut hätten. Irgendein amerikanischer Präsident hat gesagt, nein, Exportstop geben wir euch nicht mehr. Was hat China getan? Die haben uns eigenen Prozess so entwickelt. Hat damals niemand geglaubt, dass es geht. Die haben das innerhalb von vier Jahren gemacht und haben dieses System hingestellt, auch mit einer entsprechenden Rechenleistung. Also da sieht man auch, wie dieses Wettbewerb wieder wichtig ist. Thema Wichtigkeit, wenn man das kurz noch Platz 5 anschaut, die Kollegen in der Schweiz, das ist jetzt Verschwörungstheorie, ganz kurz, ich sag's mal zu, die Kollegen in der Schweiz haben wenige Wochen vor der Supercomputing in USA schnell noch zwei Rechsen mit zusätzlichen Grafikkarten installiert, um auf 21,23 Peterflops zu kommen. Vorher hatten es 19,3 und wenn man jetzt schaut auf der nächsten Liste, die ich zeigen wollte, da ist dann der Supermuck drauf, der Supermuck hat 19,5. Natürlich ist diese zerbösartige Vermutung, aber die haben einfach nur zwei Rechs hingestellt, damit es nicht hinter dem Supermuck sind entsprechend. Dieses Bild hier zeigt von der Supercomputing entsprechend die Preisverleihung. Das heißt, da sind natürlich dann auch so wie hier der Rahmen etwa, dann wird das vorgestellt und ganz interessant, man sieht halt mit Grün markiert, das sind die Änderungen in der Liste und was mir besonders gefallen hat ist, dass durchgesagt worden ist, dass unser System das dritte chinesische System ist in den Top 10, weil unser System von der Firma Lenovo zur Verfügung gestellt werden ist. Und da sieht man schon, da kommen wir schon zurück, in Wahrheit ist es so, dass wir einen Vertrag mit der Firma Intel unterschrieben haben und in dem Vertrag steht eben drin, dass Lenovo gelistet wird in dieser Liste. Also das sind lauter so Sachen, wo man sagt, wenn dieses ganze Vertragswert zum Tragen kommt. Ich meine, ich kann auch damit leben, dass man chinesischen Rechner entsprechend bei uns installiert haben. Jetzt, wenn man unser System ein bisschen näher anschaut, dann sehen wir auf Platz 8, haben wir schon gesagt. Wir sehen dann auch das, was wir gesagt haben, mit Lenovo habe ich gerade erwähnt, die Anze der Kerne. Wir sehen hier, dass wir für den Link beglaufen, nicht alle Kerne verwendet haben, sondern wir haben von den 311.000 nur 305.000 entsprechend verwendet, haben eine britische Höchstleistung von knapp die 27 Petaflop, die ich erwähnt habe und haben dann halt mit dem Linkpack die 19,5 entsprechend erreicht. Also sieht man, wie das zusammenhängt. Man sieht auch, dass man hier noch keine Strommesswerte haben. Da sind wir noch dabei, die haben wir noch nicht gemessen. Da gibt es noch einige Verbesserungen. Das ist auch noch nicht der letzte Linkpackwert, sondern das ist der, den wir mal gesagt haben, jetzt hören wir mal auf. Jetzt muss noch ein paar zusätzliche Änderungen geben. Wir haben das Linkpack gesprochen, ganz kurz, wie das ausschaut. Linkpack ist ein Löser für ein lineares Gleichungssystem, erfunden von Jack Tungara oder implementiert. Wir sehen da oben so ein lineares Gleichungssystem. Der hat diesen Benchmark geschrieben mit 64-Bit-Gleitkomma-Operationen und in dem Paper ist es entsprechend beschrieben. Natürlich müssen wir jetzt noch überlegen, wie passt es jetzt zu so einem Rechner, wenn man das Ganze skaliert. Das heißt, sehr viele Prozessoren haben, das heißt, wir haben natürlich einen Geschwindigkeitszuwachs, der aber irgendwie durch den sequenziellen Teil beeinflusst wird. Und Gustav ist uns gesetzt, wo man sagt, wir müssen das auch entsprechend in der Datenmenge mit skalieren. Das heißt, das funktioniert nur dann, wenn wirklich auch die Menge der Daten mitwokst mit dem Rechnersystem. Das heißt, wir sind wirklich so in der Situation, dass man sagt, es bringt nichts, einen größeren Rechner mit mehr Prozessoren hinzustellen, wenn man nicht entsprechend mehr Daten zur Verfügung hat. Man kann jetzt diese Liste, diese Top 500, ganz interessant von der Webseite auch runterladen, als Exeltabelle. Und dann sieht man das in der Liste, das tatsächlich drin ist und da ist die Problemgröße und dieses N-Max sagt dann an, wie viele Variablen zu lösen sind in dem konkreten Beispiel. So, jetzt schauen wir entsprechend weiter. Das ist jetzt die kleine Do-it-yourself, macht mitrunde. Sie können sich das am eigenen Smartphone entsprechend anschauen. Da sind die Links oder man googelt diese Linkpack-App, man kann das installieren. Und man sieht hier, das ist ein iPhone 6 von meiner Freundin in dem Fall, wo man sieht, die hat in dem Fall 7 Gigaflops entsprechend an Leistung gekriegt. Bei genau demselben Algorithmus. Das heißt, wir haben jetzt eine Möglichkeit, das, was der Supermove macht, mit dem zu vergleichen, was jeder von uns in der Hosentasche hat und können praktisch sagen, okay, so und so viel Rechenleistung hat das System. Konkret das Maß hat, weil man wirklich Vergleichbarkeit schafft. Jetzt interessant dabei ist, die Vergleichbarkeit funktioniert nicht nur mit aktuellen Systemen, sondern wir können auch in die Vergangenheit schauen. Und wenn man jetzt den schnellsten Rechner der Welt von 1988 nimmt, dann sehen wir, der hat 2,6 Gigaflops. Das heißt, dieses iPhone 6, das wir hier sehen, oder iPhone 7, was wir hier sehen, ist dreimal so schnell wie der schnellste Rechner 1988. Also vor 1988 geboren, dann sehen wir auch wieder, wie spannend wie diese Entwicklung entsprechend ist. Das sehen wir auch hier in der Leistungssteigerung, dass diese Kurven, die praktisch darstellen, wie die Systeme schneller werden und auf der Y-Achse ist eben aufgetragen, wie viele Gleitkommar-Operationen Bruce Gündo das schafft und wir sehen, dass das exponentielle Kurve ist. Das heißt, wir haben wirklich dieses exponentielle Wachstum hier und in diesen 25 Jahren seit Beginn der Liste hat es eine Steigerung von 2 Millionen Faktor 2 Millionen gegeben. Das heißt, wir sind aber Faktor 2 Millionen mal schneller als wir vorher sind. Das bringt uns jetzt wieder zurück zum vorigen Vortrag. Wir werden immer schneller von dem her, einfach was von der Hardware drin ist. Wissen wir auch, muss das Gesetz überspringe ich jetzt einfach einmal vom Interesse her, aber wir haben einfach dieses exponentielle Wachstum, das hier mithilft. Bei den Parallel-Rechnern und auch das ist wieder etwas von der Top500-Liste ganz interessant zu sehen. Das ist einer der Gründe, warum die schneller werden ist, weil die Rechenkerne entsprechend wachsen. Wenn wir die Liste von 1993 nehmen, dann haben wir Systeme, die zwischen 10 und 100 Prozessoren der Rechenkerne drin gehabt haben. Wenn wir die Liste von jetzt nimmt, dann haben Ole-Systeme irgendwo um die 100.000 Rechenkerne, die gemeinsam arbeiten und die größeren entsprechend mehr. Und dann kann man natürlich auch schauen, wie schaut es aus mit Akzeleratoren. Auch das gibt die Liste sofort her und wir sehen, dass sehr viel mit GPUs arbeiten. Das heißt, sehr viele von diesen Systemen, die drin sind, setzen Akzeleratoren ein und wir sehen, dass die auch entsprechend verteilt sind. Das meiste, das beliebt ist, ist derzeit die Tesla P100, die verwendet wird und die hier bei diesen Coats zum Tragen kommt. Interessant dabei ist, dass der Supermuck keine Akzeleratoren drin hat, sondern das sind reine Xeon-Prozessoren. Ganz so einfach ist es nicht, das ist ein Intel Xeon Platinum, das sind 84 Prozessoren, also die haben ein paar Eigenschaften. Man sieht, dass man mit der Maximal-Chlockfrequenz ein bisschen raufgehen können, das hat wieder damit zu tun, dass wir Wasserkühlung haben und dadurch bessere Kühleffekte haben entsprechend, aber andere Eigenschaften, die drin sind, also es sind schon Top-of-the-Line-Prozessoren, aber sie sind im Prinzip nichts anderes, es wird da in mein Laptop auch entsprechend drinsteckt. Hat natürlich den Vorte, dass ich die Coats rauf entsprechend skalieren kann. Das heißt, dass wir die Coats rauf laufen lassen. Das passt dann nicht mehr zu der Performance, wo wir gesprochen haben, aber vom Prinzip her. Gut, spannend wird, wenn wir uns diese Wasserkühlung anschauen. Wir sehen jetzt hier eins der Boards, wir sehen, dass diese Boards so doppel Boards sind, wo praktisch zwei Boards drin sind, mit jeweils zwei Prozessoren und wir sehen, dass diese roten und blauen Leitungen im Prinzips dessen, was das Wasser durchleitet. Wenn man das von der Rückseite anschaut, dann sieht man auch die Wasserkonnektoren, wenn man das ganze direkt anschaut, dann sieht man, wie das alles schön gefüllt ist. Und was wir hier machen, ist, wir stecken nicht normales Wasser rein, normales Wasser bedeutet üblicherweise kühlt man solche Systeme mit Wasser, das hat Temperaturen zwischen 8°C und 12°C. Wir kühlen Supermuck mit dem Wasser, das irgendwo zwischen 40°C und 50°C hat. Das klingt jetzt etwas seltsam, warum möchte ich mit 40°C bis 50°C kühlen? Nun, Wasser hat immer noch Kühleigenschaften, die sehr gut sind und der Prozessor ist immer noch heißer als wir diese 40°C bis 50°C. Das heißt, solange wir eine Differenz zwischen der Prozessorhütze und der Wassertemperatur haben, die wir reinschicken, haben wir einen Kühleffekt. Die Frage ist, wenn das Wasser auf der anderen Seite rauskommt mit 60°C, 70°C, wie viel Energie brauchen wir, um wieder auf die 40°C runterzukommen? Und das ist jetzt relativ einfach, wenn man darüber nachdenkt, oder wenn man einfach denkt, wie es draußen gerade ist, wir brauchen null Energie, weil alles, was wir tun, wir schicken praktisch das Wasser aufs Dach, warten lange genug und dann ist es wieder kühler, so dass wir es wieder zur Kühlung verwenden können. Das heißt, der Energieaufwand, den wir haben, um das System zu kühlen, ist null in dem Sinn. Das sind Dinge, was wir brauchen, dass das entsprechend transportiert wird. Wir sehen da auch einen, der Kühlmanager und ganz oben steht, wir brauchen pro Rek pro Stunde 3000 Liter Wasser, die durchfließen. Das ist doch eine ganz schöne Menge, aber das ist natürlich auch klar. Das heißt, was wir hier haben, dieser Kühlmanager, der hier steht, einfach, damit man diese ganze Infrastruktur unterbringt. Und der Doppelboden hat eine Höhe von 1,80 Meter, weil unten eben entsprechend die ganzen Wasserkonnekturen sind. Das heißt, wir müssen das alles zusammenbringen, damit wir das zusammenbauen können. Wir machen dann nur ein paar andere Tricks, die hier dabei sind. Wir brauchen zum Beispiel keine Ventilaturen, keine Fans mehr pro Note. Da sparen wir uns einiges an Strom. Wir können die entsprechenden Jobs runterskalieren. Das machen wir auch noch. Wir machen Jobfrequenciescaling. Das heißt, wir stellen den Prozessor von der Clockfrequenz so ein, wie er optimal ist für den entsprechenden Code. Da haben wir Heuristiken, die uns das sorgen. Und wir brauchen eben, wie gesagt, 15 % Gewinn, allein durch das, dass wir praktisch draußen Temperaturen haben, die unter der Eingangstemperatur für das Kühlwasser sind. Wenn wir uns das konkret anschauen, wir sehen hier im Vordergrund das Leibniz Rechenzentrum mit den fünf Gebäuden. Interessant ist eben der Doppelwürfel da drüben. Der hat an Fläche etwa 10.000 Quadratmeter auf fünf Stockwerken. Wir sehen oben am Doch die Boxen. Jede dieser Boxen kühlt 2 MW in etwa. Und was bei uns dann wichtig ist, ist, dass praktisch das ganze Gebäude, das ist ein Blick, ein Querschnitt, praktisch durch vom Keller, wo eben die ganzen Trafos und so weiter stehen, bis rauf oder Höchstleistungsrechner steht im obersten Stock, dass das alles zusammenspielen muss. Und das ist ja der Ansatz sein. Und deswegen haben wir auch etwas entwickelt, wo, wenn wir optimieren, auf den Stromverbrauch nicht nur die Systemsoftware nehmen, sondern auch die Anwendungen. Das heißt, eine Anwendung bestimmt praktisch wie viel Strom das sie braucht, aber auch, dass das ganze Gebäudeinfrastruktur dazu passt. Das heißt, wenn das entsprechend Bedarf liefert, dann muss das darauf reagieren. Jetzt kommen wir mal zurück zum Linkpack, damit wir mal eine Vorstellung haben, wir sehen jetzt hier eine Stromverbrauchskurve für einen Lauf von Linkpack, also wir sehen, er wird gestartet so in etwa gegen 20 Uhr, läuft dann bis 9 Uhr früh und er fangt an, wenn nur Betriebssystem läuft, irgendwo bei 800 auf der Y-Achsen, ganz links, bei 800 Kilowatt. Und in dem Moment, wo der Job gestartet wird, geht der von 800 Kilowatt drauf auf die 3 Megawatt. Beziehungsweise, was dann noch zusätzlich läuft, also ja auch die ganze Kühlung herum, das heißt, wir brauchen dann über 3,5 Megawatt. Und das muss die Infrastruktur aber verkroften. Das heißt, wir haben da relativ schnelle Kurven, die raufgehen, wenn der Job gestartet wird, dann läuft das entsprechend und geht wieder runter. Und in dem Sinn ist Linkpack was Interessantes für uns, weil das halt die Maximalbelostung ist. Das heißt, wir lernen da einiges draus und man sieht, dass diese Kurve für den Stromverbrauch, das ist das auch wieder mal einfach so ein Bild rausgezogen, relativ ungeraden Strom, der drinnen ist. Das heißt, das wird halt dementsprechend was die Anwendung braucht dahin und da gibt es noch einiges, ein Optimierungspotenzial, das wir machen können. Andererseits ist Linkpack auch dafür da, die Zuverlässigkeit zu testen. Und da sehen wir jetzt einen Abgangskasten, der ist unter dem System, wo halt das entsprechend mit den Sicherungen drinnen ist. Man sieht da relativ schön auch die beiden Stromanschlüsse, links und rechts, davon an den Dosen links, drinnen und rechts die Geöffnete. Und was dann passiert ist, war, dass bei einem dieser Linkpackläufe ganz unten das System so ausgeschaut hat. Das heißt, da ist tatsächlich der Deckel, der obendrauf angeschmolzen durch die Hitze, die unten entstanden ist. Jetzt, warum passiert so was? Sollte nicht. Gut, passiert daheim auch schnell, wenn man mal in der Krausche was basteln. Aber hier ist es doch schon problematisch, wir reden dort schon relativ. Was hier gewesen ist, ist, dass der Mensch, der das eingebaut hat, die Schrauben nicht voll gezogen hat. Das heißt, wir haben Spannungsbögen drinnen geguckt. Und der Spannungsbogen hat das Ganze aufgeheizt und hat das System dazu gebracht. Das heißt, der Linkpack, auch wenn die Top 500-Liste unwichtig ist, ist für uns die Möglichkeit festzustellen, wo genau diese Probleme sind. Und das zeigen jetzt niemanden, das ist geheim, das haben wir sonst noch nie gesagt. Auch andere Sachen hier, das sind die Trafos. Das ist der Trafo 11. Also es gibt mindestens 11. Es gibt 12 tatsächlich. Und dieser Trafo 11 war am Tag der offenen Tür. Spannende Sache. Tag der offenen Tür im Oktober. Ich bin um 20.30 Uhr rausgegangen. Das Haus ist schon ganz ruhig. Es sind offensichtlich schon alle nach Hause gegangen. Nein. Die meisten waren drüben. Wir haben nicht mehr ein massiven Stromausfall gehabt. Das sieht man, wenn man das Schild lesen kann, ganz hinten, der hat 1.600 kva, wo er entsprechend zur Verfügung stellen kann. Und wenn man jetzt die Messwerte, die Protokolle anschaut, dann haben wir auf dem Trafo über einen Zeitraum von zwei Stunden etwa 1.400 kv. Und das ist die Frage, warum fällt der aus bei 1.400? Und aber auch wieder was gelernt. Was wir nämlich hier gelernt haben, ist, dass durch den Staub, durch den Schmutz der Trafa, obwohl wir uns an die Wartungsintervalle gehört haben, durch den Schmutz ist das System so heiß geworden, dass der abgeschaltet hat. Jetzt hat der abgeschaltet, die anderen Trafos haben versucht, das aufzufangen, haben in Summe das nicht zusammengebracht, was der hergegeben hat, und dann ist das ganze Haus entsprechend gestanden. Das ist alles runtergefahren, was wir gehabt haben. Das war noch acht Stunden Tag da oben in der Tür. Etwas, was dann die Mannschaft noch bis zwei Uhr in der Früh beschäftigt hat. Es gibt natürlich dann auch ein Diesel und so weiter, der hier mitgetestet wird. Es geht unterbrechungsfrei und so weiter und so fort. Das ist ganz spannend, wenn man das ganze System immer gesamt betrachtet. Das heißt, wenn man das jetzt so sehen, Linpeck kann sich, who cares if this is positionate. Also im Prinzip ist es egal, wo man ist. Das ist schön zu sagen, wir sind vorhin dabei, haben ein System, aber Linpeck hat noch ganz andere Aussagen. Das heißt, wir wissen, wo denn so die Technologieentwicklung ist und wir verstehen praktisch besser, wie unser System sich verhält, ist es so, dass wenn wir wollen, können wir einen anderen Benchmark hernehmen. Und bei diesem SSSP-Benchmark sind wir Platz eins der Welt. Beziehungsweise auf dem BFS sind wir Platz fünf der Welt. Das ist es aber nicht. Und was man eigentlich wollen ist, wir wollen ein System zur Verfügung stellen, mit dem die Wissenschaft arbeiten kann. Das heißt, was immer wir jetzt gesehen haben mit dem Linpeck ist, ein schönes Ergebnis. Aber was man eigentlich wollen ist, dass die Wissenschaftler was tun können, woher nicht tun konnten. Jetzt nehmen wir da mal ein Beispiel. Da geht es um phylogenetische Bäume. Und zwar hat es da Alexander Stamatakis vom Heidelberg-Institut for Theoretical Studies gemacht. Und da geht es um Gensegmenten von Insekten. Das klingt jetzt einmal formlos. Das interessante Fragestellung, die er gehabt hat, wie sind denn die Insekten miteinander verwandt? Können wir praktische Verwandtschaft zwischen dem einen Viech, der dort krabbelt herstellt? Also die Idee, dann nehmen wir diese Gensequenzen, schauen uns die an und schauen mal, wo denn die ganzen Verwandtschaftsverhältnisse entsprechend sind. Wir machen also die Sequenzierung, wir machen dann dieses Alignment und stellen dann noch diesen phylogenetischen Baum auf. Das klingt jetzt trivial. Wenn wir das jetzt machen für 150 Orten, brauchen wir dann Supercomputer. Gut, wenn wir uns das jetzt anschauen auf dieser Slide hier, die Anze der möglichen Bäume und diese 150 Arten ist diese eine Zahl. Ihr habt es leider nicht in eine Zeile gebraucht, aber es ist eine Zahl mit 301 Stellen. Das ist die Anze der Möglichkeiten, die es gibt, wenn man nur 150 von diesen Insekten Arten miteinander vergleichen möchte. Und damit er das machen kann, hat er auf den Supermug entsprechend gewartet. Das war tatsächlich so, dass er das wusste, also den Code hatte, als es keinen Rechner gab, mit dem er rechnen konnte. Das heißt, er musste auf Supermug warten, um dieses Problem, um diese wissenschaftliche Fragestellung zu lösen. Und da geht es jetzt gar nicht so um die Rechenleistung, sondern da geht es ihm auch um die Speicherleistung, da geht es auch um die ganze Kommunikationsleistung in dem Internet-Netzwerk. Das muss alles zusammenpassen. Das heißt, man braucht den richtigen Mix, um diese Dinge zusammenzubringen, um so ein wissenschaftliches Problem zu lösen. Gut, was haben wir davon gehabt? In Wahrheit nichts, und wir haben den Job da entsprechend zu unterstützen. Was er geschafft hat, ist, dass er auf das Titelblatt von Science gekommen ist. Und das ist eigentlich der Rekord. Also haben wir unsere Aufgabe erfüllt, weil wir ihm dabei geholfen haben, dass er reinkommen ist. Er hat tatsächlich in der Fußnote eingeschrieben, auf Supermug gerechnet. Das Gleiche ist, er ist natürlich ein schlauer Fuchs und gesagt, na gut, wenn das jetzt für die Insekten funktioniert, funktioniert es vielleicht bei den Vögel auch. Und Tatara, er hat noch einmal das Titelblatt geschafft. Und das ist natürlich das, was der Wissenschaftler will. Also da geht es jetzt nicht um irgendwelche finanziellen Geschichten, die man raushäumen will. Sondern da wird es nicht darum zu zeigen, jetzt können wir Dinge machen, die wir vorher nicht konnten. Und wer es jetzt gerade verfolgt hat, es ist gerade eine neue Briefmarke raufgekommen, mit einem Beispiel aus der Astrophysik, wo auch wieder eine Simulation auf der Briefmarke, eine Sonderbriefmarke drauf ist. Und auch hier wieder gerechnet auf Supermug. Weil das die größte Astrophysik-Simulation ist. Das heißt, wir haben da so Beispiele, die drinstecken, wo die Wissenschaftler neue Dinge machen können. Das heißt, wir haben da so Beispiele, wo die Wissenschaftler neue Dinge machen können. Das wollen wir möglich machen. Das heißt, dass man einen Schritt weitergeht, als man im vorherigen System gehen konnte. Jetzt haben wir hier noch ein schönes Beispiel. Das hat einige Preise eingeheimst. Das war auch im Wettbewerb um den höchsten Hochleistungsrechnerpreis. Das ist der Gordon Bell Award. Da war es einer von den Finalisten. Das haben zwei Institute zusammengearbeitet, die Geophysik von der LMU und die Informatik von der TU München. Und was die hier gemacht hat, was man hier im Hintergrund sieht, ist ein Vulkan und die Simulation in diesem Vulkan. Und die haben diesen Vulkan, einfach die Schockquelle des Erdbebens durch den Vulkan simuliert. Und das war die erste Simulation in dieser Größenordnung. Was die geschafft haben, ist, dass die von der theoretischen Höchstleistung, die in dem Fall drei Petaflopps sind, mit 1,42 Petaflop tatsächliche Produktivleistung haben. Das heißt, die haben im Produktivlauf 44,5 Prozent von der maximalen theoretischen Höchstleistung erreichen können, um das zu rechnen. Und da sind wir wieder bei einem Punkt, wo ich sage, warum macht man so was in Deutschland? Die Tatsache ist, dass die Jungs, und das ist das Schöne an der Wissenschaft, wir können irgendwo hinfahren und mit denen zusammenarbeiten. Und dann kann ich auch einmal irgendwo in Oak Ridge rechnen oder so. Aber was ich dort nicht kriege, ist die ganze Maschine. Weil die natürlich das Aufheben für ihre eigene Klientel. Das heißt, was hier dahinter steckt, ist, dass wir die Systeme zur Gänze denen zur Verfügung stellen. Das heißt, wenn der kommt und sagt, der hat eine neue Simulation, weil er so ein neues Erbeben rechnen will, dann kann er den ganzen Supermug für sich haben. Dann kann er eine Simulation auf den jetzt 311.000 Rechenkernen rechnen und kann das in dieser Größenordnung sonst nirgends durchführen. Und das ist natürlich wieder etwas, wo man den entsprechenden Fortschritt machen kann. Jetzt wäre natürlich das Schönste, weil dann könnte ich nur weitere solche Beispiele zeigen. Und das ist wirklich spannend, weil ganz einfach die Unterschiedlichkeit der Beispiele, die wir haben, man sieht es sehr schön auf dieser Slide auch. Wir haben hier diese Geschichten auch die unterschiedlichen Bereiche, wo wir arbeiten. In der Strömungsmechanik, Fusionstheorie, Astrophysik, habe ich schon gesagt, wir haben eine relativ große Astrophysik-Community auch in Deutschland entsprechend. Festkörperphysik, Geophysik, Materialwissenschaften und so weiter und so fort. Und man kann das auch anschauen, wie viel das die eigentlich rechnen. Also man sieht, dass die Strömungsmechanik immer bei uns irgendwo ein Drittel des Systems benötigt. Das sind Anwendungen vom Vorzeugbau bis zum Turbinenbau und so weiter und so fort. Dass man dann auch sieht, die Physik braucht in etwa das weitere Drittel und der Rest teilt sich auf. Man sieht jetzt dabei, dass die Informatik mittlerweile auch schon fast bei 2% ist. Das sind natürlich dann diese ganzen Geschichten, die man da und künstliche Intelligenz und so weiter durch die Geschichten rechnet. Das ist derzeit im Wachstum begriffen. Aber das Spannende ist eigentlich und dafür bin ich relativ glücklich über mein Job. Nicht nur, dass ich mit lauter tollen Experten zusammenarbeiten kann, sondern dass ich auch sehr viele von diesen Nutzer, von diesen Anwendungen mitkriege, was da rechnet wird und was da für spannende Dinge entsprechend rauskommen. Und das Tatsächliche ist, weil man das natürlich auch wieder analysiert, wie viele diese Systeme eingesetzt werden. Die haben einen Kosten, die müssen sich entsprechend rentieren. Und wir sehen, dass wir aus 7,6 Milliarden Stunden gerechnet haben, dass wir 5,6 Millionen Jobs verarbeitet haben für 750 Projekte und für 2000 Wissenschaftler. Und auch diese 750 Projekte ist weltweit einzigartig. Ich würde behaupten, dass es sonst keine Rechenzentren gibt, dass diese Breite an Anwendungen unterstützt. Und jetzt habe ich noch ein Buch mitgebracht. Das ist nämlich genau das, das praktisch Bildchen hier ist von dem Buch. Aber das ist unser Berichtsband. Also wer will, kann es ihn gern holen. Ich will noch nicht mit nach Hause nehmen. Dieses Buch zeigt auf jeweils zwei Seiten die unterschiedlichsten Anwendungen drin sind. Und das ist schon eine spannende Geschichte, wenn man sieht, was einfach für unterschiedliche Anwendungen hier gemacht werden auf dem System. Also das kann man sich auch runterladen, wie gesagt, wenn sowas interessiert in dem Bereich. Ganz spannend ist, wir haben vor Kurzem auch so ein Science-Symposium, in dem wir diskutiert haben, wo sind denn die Anforderungen für die Zukunft, wo geht es hin? Auch da gibt es ein paar spannende Projekte, also für die wissenschaftlich Interessierten, vielleicht etwas, wo man gerne mal nachschauen möchte. Das heißt, wenn wir dort zurückkommen zu dem Top 500, das Rennen der schnellsten Rechner der Welt, ist schön, dass wir dort sind, wo wir sind. Wir kriegen auch etwas raus, was nutzbar ist, nämlich die Technologieentwicklung und auch die Zuverlässigkeit unseres Systems. Das ist so wie Formel 1 fahren. Die schnellsten Rechner der Welt, die sind so relevant, wie wer hat am Sonntag das Formel 1 Rennen gewonnen, in dem Sinn. Was man wirklich will, ist ja das, dass die Wissenschaft davon profitiert und etwas machen kann. Und jetzt habe ich mir gedacht, wie vergleiche ich das jetzt mit, damit man so ein bisschen das wieder in Relation bringt. Jetzt stellt man sich vor, wäre vielleicht ganz lustig, weil man mal so mit einem Formel 1 Auto fahren muss. Weiß es nicht, hab kein Auto mehr von dem her. Aber was mir eingefahren ist, ist der Coach Jimin City. Und der hat mir von gestern dieses Foto geschickt. Das ist die, er hat mir sehr dazu geschrieben, das ist die Kong-Holstraße. Und wenn ich ihn besuche, dann machen wir die Ausflüge immer mit Moped. Weil man sieht das da ganz klar, mit dem Auto bist du langsamer. Das ist gar keine Chance. Wenn du wirklich Tourist bist und du schauen wirst, dann musst du runterfahren. Und was du dann auch noch hast, du kannst dann auch solche Sachen machen. Das ist ganz normal. Man muss immer in Relation zu dem stellen, was man gerne haben würde, was man gerne machen würde. Damit komme ich auch zu den letzten Worten. Ich hätte gerne noch ein bisschen mehr über die Wissenschaft erzählt. Ich hoffe, es war trotzdem spannend, worüber ich nicht sprechen konnte, weil die Zeit nicht gereicht hat. Das habe ich vorher gewusst. Logischerweise, dass ich da bin. Also, wo geht es hin? Nächste Schritt. Wir stehen jetzt alle vor dem 10-15. Das heißt, das nächste T-Shirt wird das 10-18 T-Shirt. Wo geht es hin mit dem Rechen, der dann ein Exaflop erfüllt? Natürlich, in dem Moment, wo wir bei Exaflop sind, werden wir über das Z-Flop noch denken. Wer kommt zuerst du dann China, USA oder auch immer spannender Anwärter Japan, die haben im Erstsimulator schon einmal gezeigt, haben das auch die Entwicklung einfach ausbringt. Was halten die Europäer davon? Das war genug in den Medien, Euro, HPC. Was baut man hier? Wie kommt die EU-Kommission in die Top 3 vorstoßen? Warum will die das überhaupt? Muss man dann natürlich irgendwann hinterfragen. Auch ist die Entwicklung eines europäischen Prozessers wieder zum Vortrag zuerst, ist die Frage, ob der europäische Prozessor mit diesen ganzen Sicherheitsproblemen etwas zu tun hätte. In dem Fall ist entweder auf Armour oder Risk 5 passiert, also wahrscheinlich ja. Warum Europa einen eigenen Prozessor bauen möchte und wie würde das zusammenhängen mit dem, was wir machen? Aber die wirklich wichtige Frage ist ja eigentlich und da gibt es noch Punkt, Punkt, Punkt, also mehr Fragen. Also was ich gern noch erzählt hätte, was sich aber nicht rausgegangen ist, wie nutzen wir denn die Rechnerabwärme? Einerseits heizen wir unser eigenes Gebäude, das heißt das ganze LAZ profitiert, dass der Rechner rechnet. Problemen, wir brauchen etwa 0,5% der Abwärme des Rechners und das ist das ganze überworben. Das heißt, wir haben nur überreicht. Da gibt es einmal die Idee, dass wir auch zu Optionskältemaschinen betreiben, machen wir auch. Das heißt, wir erzeugen Kälte aus Wärme. Was aber natürlich noch auf viel spannenderer Frage ist, wie brauchen wir den Bier mit dem heißen Wasser? Das ist natürlich ein überaus spannendes Projekt. Wir haben uns nämlich die Labels schon überlegt, die dann draufstecken auf den Dosen. So weit sind wir schon, jetzt fällt nur mehr der Rest. Gut, und damit bin ich am Ende angekommen, die ein paar Links, die Folien habe ich schon hochgeladen. Herzlichen Dank für die Aufmerksamkeit. Falls es Fragen gibt, stehe ich gerne zur Verfügung. Danke vielmals für diesen spannenden Talk. Dieter Ganz und Müller. Wenn ihr Fragen habt, benutzt die Mikrofone 1, 2, 3, 4, 5. Und das Internet natürlich. Verdammt. Ich dachte, ich könnte eine Frage zuerst stellen. Nummer 1 bitte. Hallo, danke für den Vortrag. Ich wollte fragen, ob wir uns gegen zusichtliche Grafikkarten-Zeug entschieden haben zum Prozessor? Das ist ja rein X6-Namen-Zeug. Das ist eine gute Frage. Wir haben uns nicht dagegen entschieden, sondern wir haben vorgegeben, was auf dem System gerechnet werden soll. Das sind eine Reihe von Coats, die bei uns schon laufen. Die kriegen die Hersteller. Die haben ausprobiert, was man damit machen kann. Von den fünf Herstellern, die dabei waren, waren auch vier, die mit beschleuniger Namen geboten haben. Aber die beste Leistung haben wir ohne die Grafikkarten rausgekriegt. Das ist wirklich aus dem Wettbewerb rausgekommen. Ich muss sagen, ich bin genauso überrascht, wie Sie, warum das so ist. Danke. Nummer 2 bitte. Vielen Dank für den spannenden Tag. Meine Frage wäre, dürfen wirklich nur Personen aus Zivilerforschung und Lehre auf dem Rechner rechnen oder auch militärische Rechenarbeiten oder dürfen auch Firmen dort rechnen? Die Vorgaben bei uns sind das Wissenschaft, das Forschung und Lehre ist. Das liegt unter Bundesministerium, Bildung und Forschung. Das heißt eigentlich aus dem Bereich. Jetzt muss ich die Frage eigentlich zurückgeben, gibt es im militärischen Forschungsbereich irgendwas, was wissenschaftlich relevant ist? Nummer 1 bitte. Also ich habe gleich zwei Fragen. Die erste ist, der Herr mit den Krabbeltierischen, warum hat er quasi gewartet, bis der Muck fertig ist und hat nicht einen von den anderen bereits bestehenden Rechnern genommen für seine Arbeit? Also der Super-Muck war der erste Rechner, mit dem er das rechnen könnte von allen Eigenschaften, die er gehabt hat. Es geht ja immer um das Zusammenspiel zwischen Rechenleistung, Speicherkapazität und Verbindungsnetzwerk, der wusste halt, dass der kommt und diese Kapazitäten haben will. Man kann das natürlich auf anderen Systemen eventuell rechnen, die größer sind, aber man kennt ja wieder Frage, ob das sinnvoll ist. Also das war für ihn schon das beste System, um das durchzuführen. Das Internet hat eine Frage. Wie sehr müssen die Nutzer sich mit der Architektur auskennen und ihre Programme anpassen, wenn sie die meiste Rechenleistung rausholen möchten und habt ihr Metriken die vergleichen, welche Nutzer das besser oder schlechter schaffen? Also zur zweiten Frage, die besten Nutzer sind natürlich die Physiker. Ich war jetzt nicht ernst gemeint, aber im Prinzip, da gibt es keine Metriken. Sondern das kommt auch, ich glaube, es sind genug Programmierer im Raum, die wissen mit mehr Talent und mehr Hirnschmerz, kriegt man mehr raus in dem Sinn. Also da gibt es kein Metrik in dem Sinn, wer das besser macht oder nicht. Zur ersten Frage, man muss sehr viel wissen. Es wird ja nicht nur, ich habe das kurz angedeutet in meinen Statement, es wird nicht nur evaluiert, wie das zu Wissenschaftlichkeit passt. Das ist ein Faktor, ein großer Faktor, ein wissenschaftliches Problem. Es muss auch zu Hardware-Architektur passen. Das heißt, wenn man an den Code einreicht, dann muss er da auch schon beweisen, dass es überhaupt skaliert, weil sonst wäre das ja wieder Geldverschwendung. Das heißt, da müssen schon die Faktoren alle zusammenpassen, damit es auf dem System entsprechend läuft. Und ja, es kostet viel Aufwand. Wir versuchen das damit abzudecken, dass wir relativ große Mannschaft haben, die sich dann eher intensiv mit den Nutzern zusammensitzt und das dann auch in den Knochen kippt. Mikrofon Nummer 2 bitte. Noch einmal Danke für den Vortrag. Ich wollte fragen, Sie haben gesagt, dass alles mit Wasserkühlung gekühlt wird und Sie sich deswegen den kompletten Lüfter sparen können. Wie schaut es mit den Spannungswandeln und einem anderen Zeug aus? Das ist richtig, beim Supermug-NG ist es so, dass wir da noch tatsächlich Lüfter haben. Das heißt, man hat das auch gesehen auf dem einem Bild, wenn jetzt irgendein Supermug-Bild hernimmt. Das ist ein Kühler, die Sie darum kümmern. Netzkomponenten, Hard-Discs und so weiter. Schau, wo ich das drauf hab. Also da in der Zwischen, da steckt immer, das sind die Lüfter für diese Geschichte. Also in einem Rek. Und das ist tatsächlich noch ein Nachteil. Das haben aber den Herstellern schon angekündigt für das nächste System, müssen wir das auch machen. Und wir haben einen kleineren Cluster, der nennt sich Coolmug 3. Bei dem Coolmug 3 wird 97% schon über das warme Wasser abgeführt und da haben wir zum Beispiel alle mit warmem Wasser gekühlt. Indem die Netzteile in einem Käfig drinnen sind und dieser Käfig ist mit Bohrungen, wo das warme Wasser durchfließt. Das heißt, wir kühlen wirklich dort alle Komponenten schon. Das wollen wir für das nächste System entsprechend machen. Sehr gute Frage. Das Mikrofon Nr. 1 bitte. Sie haben uns sehr offen erzählt, was auf Ihrem Computer gerechnet wird. Aber haben Sie auch eine Ahnung, was auf den anderen Supercomputern aus den Top 10 gerechnet wird? Also wenn man die ersten vier Systeme anfährt, dann weiß man, dass die entweder Department of Energy sind oder dass die irgendwie mit dem chinesischen Militär zusammenhängen. Das sind die militärischen Hochschulen und so weiter. Da wissen wir es natürlich nicht. Wir haben natürlich Ahnung in etwa, was dort für Coats gerechnet werden. Beim Schweizer System passend zu dem, was Sie gerade gesagt haben, wissen wir natürlich, dass Klimarechnungen im System verwendet werden. Weil ihr dort auch einen speziellen Code habt, sehr ein Lugano dort läuft. Es ist wieder ganz verschieden. Die Systeme sind wirklich für unterschiedliche Zielarchitekturen ausgerichtet. Das Schöne an unserem System ist einfach die Breite, weil es wirklich ganz verschiedene Anwendungen sind. Und das hat keines von den anderen Systemen. Ich danke auch. Ping-Pong zurück zu Nr. 2. Ja, kurz, ergänzen noch. Da, was interessant ist natürlich auch noch... Ergänzungen oder Frage? Was an den Rechnern gerechnet wird. Die nicht in der Top 10 landen, aber trotzdem leistungsfähig sind. Die Frage meinerseits wäre, ganz am Anfang von dem Talk ging es ja auch um dieses wettbewerbliche Verfahren. Und Sie haben da ganz kurz dieses Non-Disclosure Agreement mit genannt, oder mehrere, die dort verfasst werden. Wozu gibt es die? Und welche Informationen sind da im Prinzip drin oder sollen da nicht rausgehen? Nehmen wir mal ein Beispiel. Wir haben in dem Moment, wo wir den Kaufvertrag unterschrieben begonnen, vorzubereiten in den nächsten System. Wir arbeiten konzeptionell jetzt an dem System, das 2024 installiert werden soll. Und um das tun zu können, müssen wir abschätzen können, was es 2024 gibt. Das heißt, wir haben mit der Firma Intel zum Beispiel ein Non-Disclosure Agreement, wo wir die Roadmaps kennen über das hinaus, was am Markt bekannt ist. Das ist insofern wichtig, weil wir abschätzen müssen, wie müssen wir so was konzipieren. Das heißt, wir haben Ideen, was für Prozessoren kommen usw. Macht wieder den Job recht spannend, macht aber das Problem, dass ich heute nicht über alles reden kann, was wir haben entsprechend. Aber dafür ist es notwendig. Wir stecken das sehr weit drinnen, wir müssen wissen, wie man das Beste konzipieren. Wir müssen wissen, wo es hingeht, die ganze Geschichte. Die Informationen von der Firma und nicht die Information der Rechenbetreiber. Im Gegenteil, die Rechenbetreiber, das sind selbstgeschriebene Codes, die sind sehr offen. Das ist wirklich eine tolle Community, mit denen arbeiten wir sehr zusammen. Einfach, dass man in die Codes tief reingeht, da optimiert, wie man es erst bei der einen Frage kommt. Das Internet hat eine neue Frage. Wie ist der Anteil an wirklich wissenschaftlicher Arbeit in Ihrem Beruf? Wie groß ist der Politikteil und die Metaaufgaben? Das ist eine sehr gute Frage. Offiziell ist es so, dass ich nur 25 Prozent meiner Zeit im Rechenzentrum verbringen darf. Das Rest bin ich Hochschullehrer und der Richte mache Vorlesungen wie Rechnernetze und verteilte Systeme. 25 Prozent meiner Arbeitszeit sind etwa vier Tage die Woche. Das ist so, dass man sich das vorstellen kann. Ich würde es nicht abschätzen. Ich beklage mich nicht. Ich habe einen Traumjob über verständnisvolle Familie, die mir erlaubt, auch hier zu sein, während die Familie zu Hause entsprechend ist. Ich bin auch hier aus wissenschaftlichen Interessen, weil ich zum Beispiel auch das Thema Datenschutz und Ethik sehr spannend finde. Es sind Ladderpunkte, die einfach zusammenkommen, die sehr viel mit dem Job zu tun haben. Natürlich muss ich ein bisschen Wissenschaftsmanager auch sein. Es steckt einfach an den ganzen Paragrafen drinnen. Ich finde nichts einschläfern, dass es mit Paragrafen, ich weiß nicht, ob es da jemand anderes geht im Raum. Dann haben wir ja noch Mikrofon Nummer eins. Hallo. Ich würde interessieren, Sie meinten ja, dass auch die Betriebskosten in dem Projekt Geldern mit drin sind. Wie lange wird denn dieser Rechner jetzt noch betrieben? Und was passiert mit dem Rechner, beziehungsweise mit den seinen Komponenten? Das lasst sich ganz einfach sagen, wenn wir das aus der Historie kennen, es zahlt sich meistens nicht aus, einen Rechner länger als 6 Jahre zu betreiben. Wir haben den Supermuck Phase 1 2012 installiert und er wird übermorgen abgeschüttet. Und ab dem Zeitpunkt übernimmt der Supermucke in G die ganzen Rechenaufgaben. Der Vorteil ist jetzt, dass die nächste Prozess zur Entwicklung ist. Wir machen das weiter und so fort. Aber die Schwierigkeit ist natürlich schon, dass man sagt, jetzt hat man dann das System dort. Das kostet zu vieles weiter zu betreiben, was passiert. Wir haben in diesen ganzen Verträgen auch Rücknahmeoptionen drin. Das heißt, die Firma ist für die Entzogen zuständig. Und wenn ich es jetzt vergleichen mit dem System vor dem Supermuck, dann war das tatsächlich so, dass der an Ordnungsstelle verschrottet worden ist und dann diese ganzen wertvollen Materialien entsprechend der Wiederverwertung zugeführt wurden. Und das ist etwas, was für die Schwierigkeit ist, dass wir jetzt das weiter zu betreiben. Einfach, weil wir da jetzt wesentlich mehr Leistung stehen haben. Vorhin hatte jemand ein Power-PC zu Hause. Vielleicht wäre das die, die alle gelegen hat. Lassen wir das. Nr. 2 bitte. Hallo. Wie häufig muss denn immer jemand raus zum Rack und ihren Wartung betreiben? Wie hoch ist der Ausfall? Grundsätzlich haben wir gesehen, der Doppelwürfel, den wir haben, Bakt, keine Fenster, keine Büros, da sitzt eigentlich niemand drinnen. Das hängt natürlich jetzt davon ab, beim Supermuck NG ist es natürlich so, dass sehr viel zu tun ist in der Installationsphase. Im normalen Betrieb würde ich sagen, dass das runtergeht. Jetzt muss man natürlich von der Anzahl der Komponenten, die drin sagen, die meantime between failure beim Supermuck beim Vorgängersystem Meist sind natürlich trotzdem vom Tisch erledigen, aber es gibt, ja, unabhängig davon, wahrscheinlich schon jeden Tag einmal den Grund, dass einer rübergeht und jetzt was raus und rein steckt wieder oder sowas. Dankeschön. Wie laut ist es da drin eigentlich, wenn da jemand rein muss, jetzt gerade mit Wasserkühlung? Gute Frage. Das ist eigentlich das leiseste System, der leiseste Supercomputer. Durch das, dass keine Lüfter drinnen sind, sind wir wirklich da bei einem Punkt. Wir haben in den gängen, in den eingehausten Kaltgängen schon Interviews gemacht und der normale Kamera durch das Hintergrönengeräusch weg, das heißt, das kriegst den keiner anderen Zentrumentsprechen drinnen, ja. Der nächste Tatort kommt bestimmt. Nummer zwei, bitte. Verleistung, da zu haben, wenn sie nicht richtig ausgenutzt wird. Also richtig ausgenutzt wird, das sind in dem Fall die falsche Aussage, ja, sondern wir, wir nutzen das alles richtig aus, auch wenn er nur 10 Prozent der maximalen Leistung erreicht, weil er damit Dinge machen kann, die er vorher nicht machen konnte. Was die Wissenschaftler tatsächlich machen ist, dass sie die Systeme so groß, die Software, die Daten, die sie verwenden, so groß bauen, dass sie grob nur gerechnet werden können auf dem System, ja. Und bei den Vulkanen ist es tatsächlich so, dass die gewisse Effekte und der Heiner Igel, das verweist jetzt auf den einen Tog, der den ganzen Schluss gehabt hat beim Science Symposium, der zeigt es dort auch in seinen Folien drinnen, dass er gewisse Effekte nicht zieht, ja, weil er zum Beispiel in der Auflösung gar nicht rechnen kann, weil das mit der Auflösung gar nicht reingeht auf das System, ja. Das heißt, diese, diese theoretische Maximalleistung ist wieder fiktive Zahl, die was aussagt, was im Prinzip nichts bringt, ja, woin gegen das, was er kriegt, hat mit die 44 Prozent relativ hoch ist von dem her, was er wirklich auf dem System macht im Vergleich, wo es sonst darauf läuft, ja. Aber es geht nicht darum, also das ist genauso wie wir füllen das System nicht bewusst auf, ja. Also es ist nicht so, wenn jetzt da, sagen wir mal, einer braucht von den 311.000 Prozessuren nur 300 Rechenkerne, ja. Dann füllen wir die 11.000 nicht mit was anderes auf, sondern die Idee ist, dass wenn der nächste kommt, der wieder ein System kriegt, wo er auf alle Größen skalieren kann, ja. Das heißt, wir nehmen nicht bewusst in Kauf, dass wir ein paar Prozessuren nicht auffügen, wir nehmen Löcher in Kauf und nicht so wie ein Amazon auf der Cloud, das jetzt machen würde, dass die sagen, sie füllen so viel wie möglich auf, weil die entsprechend Geld getrieben sind, ja. Da geht es wirklich Wissenschaft möglich machen. Danke. Und mit dieser Frage schließen wir den Talk. Ein Riesen Applaus nochmal für Dieter Kanzler.