 Guten Morgen. Herzlich willkommen zur Übersetzung zum zweiten Vortrag über Physik. Er heißt How Physist Analyze Massive Data, LHC plus Brian plus Drude is Equal Higgs von Axel. Axel arbeitet für CERN am Beschleuniger in der Schweiz und er wird heute darüber reden, wie Physik und Computing zusammenarbeiten. Er arbeitet sehr viel mit Drude und lasst uns dem Speaker begrüßen. Besten Dank. Herzlichen Dank. Ihr wisst, als ich diesen Abstract zum ersten Mal diskutiert haben, dachte mir so 300 Leute, hier sind so viele Leute. Wow, das sind so viel mehr wie 300. Ich bin so froh, dass ich mich eingeladen habe. Das ist echt eine Ehre für mich. Vielen Dank. Normalerweise, wenn ich zu 300 Leuten reden, so ich nehme irgendwas ein bisschen näher beieinander. Und dann habe ich festgestellt, ich bin in Saal 1, so habe ich gedacht, ich mache das ganze Thema ein bisschen breiter. Und das ist, was ich am Schluss habe. Ich werde ein bisschen über das CERN reden und wir sehen, was das heißt. Was werde ich heute diskutieren? Natürlich klar, das CERN, dann wie funktioniert die Physik, was heißt Computing, was ist mit Daten. Wir machen die Datenerlöse, in der ich auch Energie versichere. Und weil wir das jetzt so, ich habe es jetzt schon mehr als 10 Jahre gemacht und einer der Typen, der die Software macht hier, weil wir wissen, was wir tun und wir haben gewisse Erfahrungen, dachte ich ja, ja, vielleicht möchte ich Sie auch etwas darüber hören, was meine Voraussage ist über diese Datenanalyse in der Zukunft. Also, lass uns erst mal über das CERN reden. Wenn ihr euch fragt, was ist das CERN, ihr habt alle schon mal was über das CERN gehört und die schönen Schriftarten, die wir so lieben, dann habt ihr bestimmt auch schon mal darüber gehört, wir machen Wissenschaft. Wir wurden ziemlich direkt nach dem zweiten Weltkrieg gegründet. Und zwar eine Art, um diese verrückten Wissenschaftler ein bisschen zu bespaßen. Und es funktioniert richtig, richtig gut. Und es ist nicht nur Europa, das inzwischen innoviert ist. Wir sind in der Nähe von Genf in der Schweiz. Wir machen nur Grundlagenforschung. Also wir machen nicht irgendwelche Waffenforschung oder was aber. Das Internet wurde am CERN erfunden, aber das war nur so ein Seiteneffekt. Das passiert manchmal, aber normalerweise machen wir wirklich Wissenschaft. Was wir normalerweise machen, ist, wir nehmen ganz viel Geld und den ganz vielen Schlauchköpfe, die Dinge diskutieren und gute Ideen haben. Und das machen wir zusammen in Wissen. Die Dinge, die wir gerne beantworten, was ist Masse? Das ist eigentlich eine echt lustige Masse. Was ist Masse? Wir sollten es wissen, aber wir wissen nicht. Wir wissen, was Masse ist im Universum. Wir wissen, die ziehen sich gegenseitig an. Gravitation, was unglaublich schön ist. Aber in der kleinen Skala, wir wissen, Energie, Masse, das ist das Gleiche, wir können das kommentieren. Aber wir wissen nicht, wie das zusammenarbeitet. Da gibt es keine Brücke, da gibt es Gegensätze. Außer Teil von dieser Masse-Diskussion ist, was gibt es da draußen im Universum? Wir verstehen nur, ein kleiner Percent hat. 90 und mehr Prozent sind komplett unbekannt zu uns und das ist echt erschreckend. Gravation, wir wissen echt, wir können mit Sachen wie Schwarzenlöschern, können echt umgehen. Aber immer noch wissen wir nicht, was ist da draußen eigentlich los? Damit wir alles das machen können, wir gucken uns die Natur an auf der richtig, richtig kleinen Skala, also die Teichen. Wir gucken uns zum Beispiel das Higgs-Teichen an oder Supersymmetrien. Wir haben 12.000 Physikerinnen und Physiker, die haben physische Arbeit. Wir sind sozusagen der Tisch, den die Physikerinnen und Physiker benutzen. Die kommen ans Zerren immer mal wieder. Meistens arbeiten die von zu Hause, von ohne 20 Nationen. Es ist nicht nur europäisch, das ist richtig ein globales Ding geworden. Das Zerren selber hat doch einmal 2500 Angestellte, also den Tisch sozusagen vorbereiten und das Tisch ist genau hier. Hier hinten sieht man die Alpen in der Schweiz. Die Alpen sind immer nah bei uns. Wir sind zum Beispiel in Mont Blanc oder im Genfersee. Wir haben das Jura hier an den anderen Enden. Es ist einfach wunderschön. Aber wir mussten irgendein 30 Kilometer hinbringen und Leute hätten das sich wahrscheinlich nicht gefreut, wenn wir das so gemacht hätten. Aber Leute, die waren schlau genau und haben Tunnel gebraut. Das war natürlich eine viel bessere Rede. Wir haben jetzt diesen riesigen Tunnel und wir schicken Teichen dadurch in beide Richtungen. Ungefähr das undar der Lichtgeschwindigkeit. Der Tunnel ist geführt mit Magneten. Wenn man keinen Magnet benutzen würde, würden diese Teichen einfach nur gerade ausfliegen, aber wir müssen ja gucken, was die um die Kurve gehen. Hier sieht man, wie das ungefähr aussieht. Man kann auch aus diesen großen Löcher sehen mit diesen Accesspunkten. Da sind die Experimente lokalisiert. Das war das Skizzeverein des Experimente. Das LAC ist der größte Teichenbesteiniger im Moment. Das ist ein Ring mit 27 Kilometer Umfang und es ist 100 Meter unterscheidet in Frankreich. Es hat vier große Experimente und ein paar kleinere. Und wir warten, dass wir das so weitermachen müssen 2030. Wir sehen, das ist eine große Skala und wir möchten wirklich einen guten Nutzen ziehen aus diesem Geld, das wir haben. Hier sieht man alle diese Erhöhlen, die benutzt werden für ein Experiment, als es noch leer war. Das Experiment wurde dann durch dieses Loch, dass man oben sieht, wo das Stück für Stück runter gelassen ist. Und diese Dinge sind unglaublich groß. Und damit ihr seht, wie groß es ist. Ich habe auf diese Bilder gemacht, die Eieraufgabe ist, ihn zu finden. Das sollte eigentlich ziemlich einfach ihn zu sehen. Dann haben wir einen Detektor reingemacht. Hier sieht man ihn, wir müssen ihn auseinander gezogen, damit ihn besser sieht. Zum Beispiel ist die Beampipes, wo die Teichen sich drauf bewegen. Der kommt von beiden Seiten und kollidieren in den Zentrum dieses Detektors. So wenn da etwas passiert, wir versuchen zu verstehen, was da passiert. Das ist ein anderes Bild von der Vorderseite auf diesem Detektor. Ihr müsst verstehen, man kann nicht einfach auf Amazon gehen und einen Hal-C-Experiment kaufen. Wir bauen diese Dinger selber, also PHG-Sions und Erginöre. Das ist alles Handarbeit. Genau wie dieses Mikroskop, das vorhin gezeigt wurde, man bestellt sich diese Teile, aber das ganze Design, das Konstrukt und das Zeug zusammenschrauben. Wirklich gucken, was alles passt, das ist alles Handarbeit. Und ich finde, das ist einfach nur wunderschön. Das ist fast ein Wunder. Leute von verschiedenen Ländern auf der ganzen Welt, die Arbeit zusammen, um so ein großes Ding zusammenzubauen, stellen es an und es funktioniert. Meistens, es funktioniert. Das ist nicht mein Applaus. Das ist euer Applaus. Dann ihr macht es überhaupt erst möglich. Das ist großartig. Das ist das, was ich immer meisten über das Zerren liebe. Dieses internationale Ding, das einfach funktioniert. Die Detektoren sind wie eine riesige Kamera. Es gibt unglaublich viele Pixel und wir nehmen unglaublich viele Bilder, die Sekunde auf. Wir tun das, um Teilchen zu identifizieren und zu verstehen, was während einer Kollektion passiert. Das Leben im Zerren ist ein wichtiges Zutat für die Wissenschaftler, die hier am Zerren arbeiten. Wir sind so zusammen in den Kontrollzentren und machen anstelle sicher, dass die Experimente alle funktionieren und wir untersuchen die Kräfte. Wir haben wissenschaftliche Unterhaltung und Diskussion mit gutem Kaffee. Und wir haben Vorlesungen und wir mögen es belehrt zu werden. Und genau wie ihr, haben wir auch mehr Laptops als Leute. Und dann machen wir Sachen. Und diese Vortrag soll einführen in die Sachen, die wir hier tun. Weil ich so viel zu erzählen habe, habe ich entschieden, dass ihr euch einfach den Talk selber baut. Ihr könnt also wehlen zwischen A-Physik und B-Modell, Simulation und Data. Ihr erinnert euch an die Bücher von Hans ja noch Jungwart. Ihr erinnert euch, wo ihr selber entscheiden könnt, wie es weitergeht. Also durch Applaus, möchte ihr über Physik hören. Okay. Oder Modell, Simulation und Data dapen. Okay, there we go. So this is what we skip. Das überspringen jetzt also. Modelle, Simulation und Data. Es ist ein merkwürdig. Das erste Publikum ist nicht über Physik hören. Also unser Theorie ist eigentlich unglaublich genau. Das ist so genau, dass unsere eigentliche Arbeit sehr langweilig ist, weil wir eigentlich schon alles verstehen. Wann immer eine Kollision passiert, wissen wir, was passiert. Also für diese sehr, sehr seltenen Dinge. Und diese versuchen wir aus diesen Haufen zu finden. Was sind zum Beispiel Monopole, Supersymmetrie oder Schwarze Löcher? Also die Theoretiker sagen uns, was wir sehen sollen. Voraus mithilfe von einer ziemlich ausgefeierten Physik. Dann benutzen wir Simulation und voraus zu sagen, wie unser Detektor reagieren wird. Die Frage ist jetzt, wir zählen eigentlich nur, wenn wir die Experimente machen. Und die Frage ist, wie oft müssen wir etwas sehen, damit wir sagen können, dass es nicht einfach nur was Gewöhnliches ist. Dass es etwas Neues, das könnte von einer komischen Theorie erklären. Wir benutzen die Detektor Simulation, um voraus zu sagen, was wir erwarten zu sehen, um die viele wir erwarten zu sehen. Wir benutzen die Konstruktion Software, um zu sagen, was vielleicht passiert sein könnte. Und dann benutzen wir Statistik, um Messung und Experiment voraus zu sagen, zu vergleichen. Das ist sehr abstrakt, aber auch das normale Ansatz. Wenn man zum Beispiel Klima mit dem Wetter vergleicht, wir haben immer Temperaturflugtration wegen dem Wetter. Und die Frage ist, ist der Anstieg der Temperatur, ist das einfach nur das Wetter, oder ist das Klima? Ist das ein großes oder kleines Skala? Und die haben ein sehr ähnliches Problem. Und was wir tun ist, wir messen Temperaturen und möchten die Abweichung messen. Und das kann man verbessern, wenn man über längere Zeit machen misst. Das gibt eine bessere Aussage, was wir erwarten in der Zukunft erwarten können. Und natürlich auch größere Abweichung. Wenn man nachher schaut, dass es einfach nur 0,1 Grad sind, dann sieht man das nicht so gut. Aber wenn es 5 Grad Unterschiede sind, dann findet man das mit hoher Sicherheit. Und für uns ist es ähnlich. Hier ist ein Plotz, das erste zur Higgs-Entdeckung. Und hier sieht man, wir haben sehr viele Zutaten, die die schwarzen Punkte sind, was wir messen. Und die haben eine gewisse Unsicherheit, weil wenn wir messen, dann sehen wir, und es kann sein, dass wir etwas nicht gesehen haben, aber es kann sein, dass wir mehr gemessen haben, als das passiert ist. Es gibt immer eine gewisse Unsicherheit. Und wir haben die Theorie, die uns sagt, okay, wir hätten so viel gesehen sollen. Und dass der rote Teil ist, was wir wissen, was es ist, was nicht spektakulär ist. Und man kann sehen, dass die Daten den roten Verlauf ziemlich gut folgen. Aber das ist ein anderer Ausschlag hier im Zentrum, und das macht keinen Sinn. Es sei denn, man nimmt das Higgs-Teilchen mit, zieht das mit in den Betracht. Hier kann man sehen, wie das Zusammenspiel zwischen verschiedenen Quellen von Physik und Statistik miteinander zusammenspielt. Genauso wie für das Klima, je mehr Daten, desto besser. Es gibt zwei Versionen von davon, also entweder mehr Kollision oder einfach mehr Daten, indem man verschiedene Analysen zusammenentzieht. Und hier sieht man die verschiedenen Analysen und zusammenbekommt dann eine viel bessere Vorhersage für die Higgs-Masse, als wenn man nur eine einzelne Messung davon nimmt. Also ihr seht, wie ähnlich das ist, was wir machen mit allen anderen Big Data Analysen. Also das war der Teil, jetzt kommt der Computerteil. Wenn wir das LHC designt wurden, nicht ich, aber wenn Leute das designt haben, da mussten sie vorher sagen, wie gewisse Computergeschwindigkeiten von 1990 bis 2010 funktionieren. Also brauchen wir sehr, sehr viele Computer, wie ihr da gesehen habt. Das ist etwas, was durch die großen Firmen normalerweise nicht zeigen. Da ist eine Rampe, wo die ganzen LKWs anfahren, und dann wird alles abgeladen und aufgebaut, und dann schaut es schön aus. Also wir haben ungefähr 60.000 CPUs, die die ganze Zeit für uns laufen. Das Zern ist zum Beispiel das rote unten. Wir messen auch die Effizienz für die CPU, und weil 100% für Anfänger ist, sind wir sogar 700% effizient, fragt nicht nach wie so. Irgendjemand hat entschieden, wenn du Multi-Thread ist, dann multiplizierst du Effizienz mit der Nummer von Threads, was keinen Sinn macht. Wir haben auch Speicherplatz. Wir benutzen im Moment 0,1 Exabytes. Wir haben 0,7 Exabytes zur Verfügung, und wir benutzen das auch wirklich. Also das ist gut. Auf der rechten Seite seht ihr, wie der Speicher benutzt wurde, und habt ihr diesen kleinen Bump gesehen, wo der LHT nicht in Betrieb war. Also jetzt kommt der nächste Entscheidungspunkt. Wolltet ihr über verteilte Computing hören, oder wolltet ihr über Messfehler hören? Bitte applaudieren. Also ich entscheide, also ich würde sagen, wir machen, wir messen die Effekte von Fehlern, von Bugs. Weil es kürzer ist. Also das ist eine Ansicht, die ihr sehen könnt von einem Detektor, und ihr seht, wie man die Partikel durch den Detektor fliegen sieht, und das ist Teil von der Software, die wir geschrieben haben, und ihr könnt es nicht glauben, aber wir haben in dieser Software natürlich Fehler drin. Und diese Fehler sind manchmal falsche Koordinatentransformationen, also es sollte eigentlich in die Richtung gehen, aber es geht in die andere Richtung. Und das Ergebnis ist, dass die Partikel nicht durch den Weg gehen, durch den sie eigentlich gehen wollten. Sie gehen einen falschen Weg. Das Nette daran ist, dass wir das schon millionenmal gemacht haben. Also all das ist komisch, wir machen das nicht systematisch falsch, wir machen das nur ein bisschen falsch. Und das Gesamtergebnis ist danach her, dass wenn wir unsere Partikel messen, dann messen wir nicht genau das Richtige, sondern ein bisschen links, ein bisschen rechts. Also es gibt dann einfach eine Ungeneuigkeit am Ende. Also für uns, genauso wie Zählen eine Ungeneuigkeit hat, machen Software-Bugs für uns auch eine Ungeneuigkeit. Und hier seht ihr, wie wir Ungeneuigkeiten durch unsere ganze genauer Analyse durchverfolgen, so dass wir die nachher verstehen können. Also Fehler im Kurz sind eine der Probleme, eine unserer Ungeneuigkeitsquellen hier. Und wenn wir dann einen Fehler nachher fixen, dann sehen wir nachher, wie die Ungeneuigkeiten weniger werden. Also das heißt, wir lieben es Fehler zu finden, denn nachher ist die Physik dann genauer, wenn wir einen gefunden haben. Also ich dachte, das interessiert euch vielleicht, wenn man die Effekte von Fehler wirklich messen kann. Also dann reden wir jetzt über Daten. Ich habe euch gesagt, dass wir Partikel-Fade finden wollen. Und wir machen das, indem wir Rekonstruktionsprogramme benutzen. Und wir haben dafür ganz, ganz viele Programme, die wir geschrieben haben. Also unsere Library ist riesig. Und wir haben einige davon geschrieben, die sind alle Open Source. Wir wollen, dass sie korrekt und effizient sind. Die Daten, die wir dafür benutzen, sind nicht kommerzeparierte Werte. Es ist alles in Binary. Und aus irgendeinem komischen Grund ist es unser eigenes Binary-Format. Und das liegt daran, dass es wirklich daraus aufgerichtet ist, auf die Daten, die wir haben. Also die Kollisionen sind unabhängig. Also wir brauchen immer nur einen Datensatz im Memory gleichzeitig. Wir generieren sie von C++-Objekten. Also wir generieren sie von Classen-Definition. Wir können sie zurück ins C++ lesen, aber auch in JavaScript oder Java. Also Datenbacken haben nicht für uns funktioniert. Sie haben das falsche Modell von Datenzugriff. Sie skalieren für uns nicht. Das ist nicht das System, was für uns funktioniert. Ein File-System funktioniert auch nicht als Backup für uns. Es klingt vielleicht, ah nein, es funktioniert für uns. Also File-System klingt vielleicht langweilig und alt, aber sie funktionieren für uns. Es gibt viele andere strukturierte Datenformaten. Viele davon haben noch nicht existiert, bevor wir Route angefangen haben. Aber diese Formate haben auch viele Sachen nicht, die wir brauchen. Also zum Beispiel wollen wir das C++-Klassen-Layout ändern können und dann soll das Format immer funktionieren. Und außerdem vertrauen wir Leuten auch nicht komplett. Wenn Leute ihren eigenen Streaming-Algorithmen schreiben müssen, dann werden wir Fehler haben und wir werden Daten verlieren und wir wollen das wirklich nicht. Also wir versuchen es nach der Klassen-Definition auszurichten. Also letzter Punkt für die Entscheidung. Wollt ihr über Klingen oder uns ein C++ Interpretiere hören oder wollt ihr über offene Daten und angewandte Wissenschaften etwas hören? Also eins für eins klatschen, C++ Interpretiere. Und jetzt für zwei offene Daten und angewandte Wissenschaften. Ihr könnt euch die Slides später anschauen. Also offene Daten und angewandte Wissenschaften. Also ihr wolltet unbedingt etwas über unser Budget hören. Ich verstehe das. Also wir bekommen von euch ungefähr ein Milliarden im Jahr und die Währung ist eigentlich in diesem Punkt egal. Und das ist eine jede Menge Geld. Und wir versuchen damit, wundervolle Sachen zu machen. Wir lieben unseren Job, wir lieben es. Es ist toll, in unserer Umgebung zu arbeiten und danke dafür, dass ihr das für uns möglich macht. Und ich meine das mal. Aber das heißt auch, dass ihr als Gesellschaft entschieden habt, etwas wie C++ zu ermöglichen. Und das denke ich auch, dass es einen Applaus verdient. Das ist eine großartige Entscheidung, so etwas zu machen. Okay, also wir realisieren das. Wir realisieren das. Wir verstehen, dass wir das machen können, weil ihr uns das ermöglicht. Und wir versuchen euch etwas zurückzugeben. Software, Forschungsergebnisse, Hardware und Daten. Also wie wir unsere Forschungsergebnisse publizieren ist Open Access. Und das hat eine jede Menge gedauert. Wir haben lange mit Publizierern gekämpft, aber jetzt haben wir es endlich geschafft und jetzt dürfen wir es endlich veröffentlichen. Wir haben auch viel Arbeit investiert, darin unsere Ergebnisse zu kommunizieren. Also unser Website ist definitiv, sollte definitiv auf unsere Website kommen. Also der Website steht da unten. Und ihr sollt unbedingt bis April da unten, da mal draufgehen und auch so. Wir machen auch noch angewandte Wissenschaft. Zum Beispiel dieses sehr coole Experiment. Wir möchten hier wissen, wie sich Wolken formen und zwar basierend auf kosmischer Hintergrundstahl, also der Einfluss von dieser kosmischen Strahlung in die Wolken-Formation. Und das ist ziemlich wichtig für die Beschreibung von Klimamodellen. Also wir möchten halt wissen, wie kann man irgendwie Energie gewinnen aus nuklearen Abfällen? Wie kann man da Energie draus ziehen? Und wir möchten halt irgendwie schauen, wie kann man diese Sektoren wiederverwerten? Wir haben auch so etwas, das nennt sich Offener Hardware, also Wide-Rabbit, Deterministisches Ethernet. Wir haben offener, Open Data, offener Daten. Wir haben das LHC Atom-Projekt. Da kann man zum Beispiel Rechenleistung dazu geben oder auch seine eigene Rechenleistung im Kopf um ein besseres Ergebnis zu kriegen. Wir möchten explizit so viele offener Daten benutzen, wie es geht und Open Source Projekte unterstützen. Und wir können auch Open Source Projekte zum Beispiel Chiant, das ist ein Programm, das die Teilchen simuliert, wie sie durch diesen Teilchen wird. Wir haben Indico, das ist zum Beispiel für Meetings zu planen oder Slides aufladen. Also wie kann man Leute zusammenringen, Access-Schutz und so weiter. Wir haben Davix und wir werden das Internet erfunden. Das ist die Maschine von Tim. Das war ein Schild, das er geschrieben hat, weil er möchte, dass die Leute das Ding nicht putzen. Wir benutzen Davix, um unsere Daten zu transformieren. Wir haben CERN-VMFS. Das erlaubt uns, unsere Binary zu verteilen und um sicherzustellen, es hat wirklich funktioniert, dass wir uns daran hören. Das ist ein unglaublich gutes Tool. Aber keiner kennt es. Und wir haben Route. Und das kommt später. Und jetzt der letzte Punkt. Wie machen wir diese Datenanalyse? Nicht so. Wir benutzen C++. Und Physikerinnen müssen hier eigene Routinen schreiben. Wir haben nur sehr wenige Leute, die wirklich ausgebildet sind, das Software entwickeln. Wie gesagt, wir müssen auch etwas in Erinnerung haben. Wir möchten so viele Kollisionen analysieren, wie es geht, große Kunde. Was wir machen können, wir können unser Data-Format spezialisieren, damit es funktioniert, dass wir nichts verschwenden. Also wenn man den CPU wirklich aufs Leben kann, route erlaubt uns das zu tun. Das gibt es jetzt 20 Jahren. Und das ist wirklich unser Arbeitspferd in der Hochenergie-Physik. Und das ist auch ein Interface zu komplexerer Software. Es gibt zum Beispiel ein Statistik-Tool. Und wir haben natürlich auch Grafen. Nachdem man das gefunden hat, muss man das ja auch irgendwie kommunizieren. Man möchte das publizieren. Und das ist auch ein wichtiger Punkt des Spiels. Und das ist alles Open Source. Und klar, es ist nicht nur in der Hochenergie-Physik benutzt worden. Und das zusammenzufassen. Wir sind hier, weil ihr das möglich gemacht habt. Vielen herzlichen Dank. Es ist nur wegen euch möglich. Wir möchten mit euch teilen, wir haben niemand, der Software rausziehen will. Also es ist wirklich interessant zu gucken, was das Tier in Software mäßig macht. Wissenschaftliches Rechnen, das ist nichts Neues. Das gibt es schon seit vielen Jahren. Aber wir haben ziemlich früh angefangen müssen für die Großskala. Wir haben versucht, Teile zu nehmen, die es schon gibt. Und haben nicht viel gefunden. Das haben wir C++ genommen und benutzen effizientes Rechner für Nicht-Computer-Wissenschaftlerin. Und den Teil, wo wir geskippt haben, weil wir was anderes ausgewählt haben. Es gibt auch Python-Applikationen. Und das Wichtigste ist für uns zu skalieren. Wir sehen nicht die einzigen, die das machen. Wir sehen nicht die einzigen Naturwissenschaften, die in so großen Daten arbeiten. Ich habe euch noch versprochen, dass ihr noch eine Voraussage machen werde, was wir sehen hier. Wir bilden die Leute aus, die machen nicht nur in Wissenschaft bessere Daten. Was wir hier sehen ist, in der Vergangenheit, das Datenvolumen war das Wichtigste. Also wie mehr Daten man hatte, war mehr Macht. Aber das ist nicht die Wahrheit endlich mehr. Der Punkt ist, um das Korrelation zu finden. Auch wenn man nicht mehr Daten findet, also es wächst nicht mehr. Wir nehmen schon das Maximum außen. Und da wird es dann richtig. Und CPU-Limitationen sind jetzt zum Beispiel wichtig, weil das ist ein kritischer Punkt. Multivariantechniken sind immer am Reisen, aber das ist immer noch wichtig für die statistischen Tool, außer für den Generationenteil. Das wird die Art verändern, wie wir modellieren. Wir basieren auf das, was ich gerade gesehen habe. Das ist jetzt keine große Überraschung mehr. Wir brauchen eine Sprache für diesen Kern. Zum Beispiel C++. Auf der anderen Hand, diese Analysen zu schreiben, da brauchen wir ein höherer Level. Leute können das Beispiel Python benutzen. Also das ist eine langere Sprache, das ist jetzt wichtig. Und wir müssen IO anpassen. Das heißt, Durchsatz ist der wichtigste Punkt. In Zukunft werden wir sehr viel mehr dran reinstecken müssen, um den Durchsatz zu verbessern. Das war es. Falls ihr etwas mit mir diskutieren möchtet, also das ist falsch, das ist natürlich fein. Ich habe wahrscheinlich so viele Bars hier drin. Ich bin noch bis morgen hier. Ich weiß nicht, wo, aber ich werde herumwandern. Man kann mich gerne über Twitter oder E-Mail erreichen. Vielen Dank für Ihre Aufmerksamkeit.