 So, mit mir hier auf der Bühne ist eine wunderbare Person, die mit uns jetzt sprechen wird über CPU-Entwicklung, Power, Open Source und wie das alles zusammenpasst und wie das hoffentlich unsere künftige CPU-Architekturen und Entwicklung beeinflussend wird. Deswegen einen herzlichen Applaus für Matteo Michel. Okay, thanks for having me here today and I apologize in the beginning for my strong German Saxon mixture. Willkommen hier von mir, ich entschuldige mich im Vorhinein schon mal für meine stark deutsch-sächsische Dialektmischung. Ich komme aus Chemnitz oder Karl-Marx-Stadt, wurden da geboren und aufgewachsen. Deswegen ist der Akzent immer noch eine Mischung aus sächsisch und deutsch, aber ich möchte gerne zeigen, dass es auch in Sachsen vernünftige Leute gibt und nicht nur irgendwelche seltsam Leute, die in Dresden komische Flaggen schwingen. Ich möchte eine kurze Einführung heute geben über Open Power. Ich wurde vor drei Jahren von David Kaplan beeinfluss. Der hat über CPU-Entwicklung gesprochen insgesamt, von der Entwurf bis zum fertigen Produkt. Das möchte ich auch heute kurz ansprechen, aber ich würde gerne mehr mich auf Open Power beziehen, euch ein bisschen was davon erzählen, weil ich nicht weiß, ob alle davon wissen von der Stiftung. Das könnte hier auf der Konferenz auch ein bisschen außerhalb des Systembereichs bleiben, aber ich hoffe, das interessiert euch trotzdem. Das ist meine Agenda für heute. Als erstes möchte ich darüber sprechen, wer ich bin. Dann, wie gesprochen, möchte ich sagen, wie man CPUs entwickelt und zum Schluss dann, warum man Open Power machen sollte. Über mich, ich wohne immer noch in Chemnitz, aber mein Schreibtisch steht hier, das ist das Böblinger-Labor von der IWM. Ich bin da bei der CPU-Entwicklung, die ist nicht nur in Böbling, sondern das ist ein virtuelles Team, das weltweit verteilt ist. Da arbeite ich mit Leuten in Bangalore zusammen, in den Vereinigten Staaten, in Frankreich. Alle Kontinente sind dabei. Mein Hauptfokus ist die Verifikation. Ich bin jetzt kein Experte in Open Power, aber ich habe mit einigen der Themen zu tun. Deswegen glaube ich, dass ich über manche Sachen hier sprechen kann. Das war es jetzt über mich. Okay, jetzt geht es um die technische Agenda. Das ist die CPU-Development, CPU-Entwicklung, wie wir das heute machen bei IBM. Und wir haben im Wesentlichen hier ganz einfach, man fängt links an bei Coding oder Erzeugung oder Spezifikation oder Hardware-Beschreibung und vielleicht auch noch VADL oder Verilog oder was auch immer funktioniert. Und dieser große Pfeil zeigt auf das, was ich mache, nämlich die Verifikation. Da gibt es auch viele verschiedene Versionen von VADL. Aber wir nehmen einfach an, dass es einfach ein Ding, die Spezifikation der Hardware, wie sie funktionieren sollte. Und es gibt eine Toolkette, die es konvertiert bis zum endgültigen Produkt auf der rechten Seite. Aus dem VADL bekommt man eine Liste mit allen Logekomponenten, die wird daraus erzeugt und einige andere spezifische Verifikation Teams arbeiten daran. Dann kann man die Pläne daraus erzeugen und im Wesentlichen baut man dann die Transistoren in das Layout ein und definiert dann ein Produktbeschreibung daraus. Und ich werde auch einige Zahlen für euch haben später. Aber wir können annehmen, dass dieser Prozess, dass man täglich durch diesen Prozess geht, aber von der ersten Zeile, die ich schreibe, VADL bis zum endgültigen Produkt, das sind vielleicht zwei oder drei Jahre, bis man ein wirkliches Produkt hat, was funktioniert. Und es gibt einige hässliche Floatscharts von meinen Kollegen, aber es soll einfach nur zeigen, wie der Gesamtfluss ist hier durch. Ihr habt eben einfach nur die Versionen gesehen von der Hardware-Beschreibungssprache bis zum Produkt, aber dies ist tatsächlich der Arbeitsablauf in der Firma. Das heißt, man hat eine Art Produkt, was das Ziel sein soll oder die vorherige Version. Man hat einen Kunden, der vielleicht ein dringend was braucht, was läuft und von dem kriegt man eine Spezifikation, dann hat man Teams, die das High Level Design machen und das ist die Quelle und manchmal ist das sehr spezifisch und manchmal eher gar Wage und dann hat man mehrere Teams, die parallel arbeiten und das Produkt zusammenbauen. Also haben wir hier die System-Komponenten-Teams, die Boards angucken und die elektrischen Komponenten darauf. Man hat ein Team, die diese schwarze Box angucken, wo es hin kommt nachher. Man hat Firmenwehr-Teams und Design-Teams, die den VADL-Code schreiben oder Verilog-Code und am Ende hatten man Verification-Teams, die sicherstellen, dass alles am Schluss wirklich funktioniert, bevor man es in die Herstellung gibt. Dann gibt es noch andere Teams, die Timing sich angucken, Schaltungs-Design, Integration eher Physik und was beim Prozessodesign sehr wichtig ist, weil man die maximale Performance haben will von dem Produkt. Wenn man fertig ist, dann drückt man auf den Kopf, dann wird es hergestellt und da gibt es einige Tests, die durchgeführt werden und wenn das gut funktioniert, dann hat man eine gute Maschine. Manchmal findet man Fehler, deswegen ist dieses kleine Dollar-Zeichen steht da, wenn man Fehler findet, dann will man sie natürlich so früh wie möglich finden, damit man es in der Logik schon ändern kann, bevor man es wirklich herstellt und wenn man das verpasst, dann muss man viel mehr Dollar reinstecken und dann muss man noch mehrmals in die Runde gehen und man will nicht der sein, der verantwortlich ist, dafür, dass das noch mal alles gemacht werden muss. Denn zur Fabrikation zu gehen ist 1,5 Monate und man will nicht der sein, der das bezahlen muss oder dafür verantwortlich ist für die Verzögerung bei der Auslieferung an den Kunden und wenn man richtig schlecht ist, dann wird alles schon beim Kunden aufgebaut für den Kunden und man drückt auf den Knopf und das funktioniert nicht, aber dafür reden wir lieber nicht. Ich habe das bisher auch noch nicht erlebt. Dies ist noch ein Bild. Irgendwie soll das dasselbe nochmal zeigen, aber jetzt versuche ich weiter auf der linken Seite, mich zu konzentrieren, dass es Verifikation und die rechte Seite ist eher physische Sachen, die gemacht werden, Physik und Wissenschaft und Sachen, die gemacht werden müssen. Da habe ich aber nichts mit zu tun. Das ist nicht mein Bereich und da ist man immer am Ende des Prozesses. Alle warten darauf, dass man den Knopf drückt und ich habe deswegen die linke Seite gewählt, die Verifikation und auch enge Zusammenarbeit mit den Design-Teams und es gibt zwei Kreise hier, die immer in die Runde gehen und man arbeitet immer eigentlich an derselben Source und zu unterschiedlichen Zeiten, aber das ist das, was man immer das gleiche macht und eine kontinuierliche Integration macht. Hier sind die Zahlen, die ich euch versprochen habe. Jemand hat mal einen Vergleich gemacht zwischen dem Bauen eines großen Schiffs, vergleichen mit einem Prozessor und das ist ganz interessant. Denn irgendwo am Ende, wenn man das vergleicht, dann braucht man am Ende für das gesamte System ungefähr 50.000 Leute und die Zeit ist ähnlich auch, etwa vier Jahre für ein Schiff und vier bis fünf Jahre für einen Prozessor. Vier bis fünf ist nicht nur für einen Versuch, sondern mehrere Zyplen, bis der Chip fertig ist, um an den Kunden auszuliefern und man sieht auch, die Kosten am Ende sind mehr als eine Milliarde Dollar für eine Generation ausgegeben werden müssen für so ein System. Ich wollte noch kurz erwähnen, es gibt zwei Architekturen, an denen bei IBM noch gearbeitet wird, ist die Power-Architektur und die C-Architektur und man kann die vergleichen, die sind von Kosten her, sind die ganz ähnlich. Das war, also jetzt, was ich über CPU-Entwicklungen erzählen wollte, springen wir jetzt also in die, das Thema OpenPower. Wenn man sich das anschaut, warum ich es White OpenPower genannt habe, deswegen ist es natürlich seltsam, warum sollte sich irgendwas in der Hardware verändern? Man sieht, ja, wie alles immer kleiner wird, in den Telefonen immer mehr Funktion, weil irgendwo im Keller Leute das entwickeln und das eigentlich einfach funktionieren sollte. Das hat über Jahre hinweg sehr gut funktioniert bei der IBM und auch bei anderen, aber über die Zeit hat sich der Markt drastisch geändert. Erstmal das Murschegesetz, das über die Jahre hinweg für immer weitere Performancesprünge gesorgt hat, sodass man gar nicht viel machen musste, ohne dass man viel verändern musste, wurde es immer schneller oder man hat einfach neue Features hinzugefügt, aber das ist heute nicht mehr richtig. Auf der anderen Seite hat man andere Trends, neue Workloads kommen, wie zum Beispiel das Mine von Bitcoins, das ist ja gerade in dieser Tage und auch Verbrauchsmodelle dieser Serverfarben, die verändern sich. In früheren Jahren war es so irgendjemand hat angerufen gesagt, wir brauchen neue Maschinen, die Kunden haben dann etwas bekommen, das blieb dann da ein paar Jahre, aber jetzt mit der Cloud ändert es sich die Operation, die Betriebsmodelle, auch bei der IBM und das haben wir auch gespürt, denn am Ende wurden weniger und weniger Produkte verkauft, die Cloud-Infrastruktur war aus unserer Sicht nicht am Laufen, denn wir haben da eben nicht mitgemacht, andere Firmen wie Amazon waren da Steuer dabei und wenn man sich eben anschaut, der Großteil der Cloud-Infrastruktur heutzutage ist auf x86 Basis, man findet da also nicht viel Power-Architektur in öffentlichen Cloud-Systemen und auch das Ökosystem hat sich verändert, es geht mehr zu ausgereiften Open-Source-Lösungen. Auf der anderen Seite hat man eben auch Änderungen in der Strategie, die man jetzt machen muss. Darüber rede ich später. Zurück zum Muschengesetz. Auf diesem Chart seht ihr die Performance pro Dollar, das ist das, was sich die Kunden anschauen. Also wie viel Geld brauchen Sie für wie viel Performance? Und nur wenn man die anderen Firmen in dem Bereich mithalten kann, kann man da Geschäfte machen, aber das sah die letzten Jahre gut aus, aber inzwischen funktioniert das Muschengesetz nicht mehr so gut. Man muss also die Performance auf andere Arten noch verbessern. Man könnte in das System einfach zusätzliche Komponenten beifügen, sodass man nicht mehr alles in die CPU tun muss. Man kann da Beschleunigungsfunktionen einbauen. Man kann am Storage arbeiten, um das schneller zu machen oder an schnelleren IO-Verbindungen arbeiten oder auch den Speicher verbessern. Am Ende ist es aber so, dass es um Daten geht. Davon können wir fest ausgehen wegen verschiedenen Trends, die viele oder manchmal auch zu viele Daten produzieren, dass die in irgendeiner Form bearbeitet werden müssen. Alle Geräte erzeugen Daten und am Ende braucht man eben irgendwo das Rückgrat, also dicke Computerserver-Schränke, die all diese Daten vorhalten, die aus den verschiedensten Bereichen kommen. Um jetzt mehr zu Open Power zu kommen. Über das Muschengesetz habe ich ja schon gesprochen, aber es gibt noch zwei weitere Dinge, die zur Gründung dieser Open Power Community geführt haben. Das zweite war Google. Google ist ein großer Anbieter von Dingen, also zum Beispiel Suchen und anderen Sachen. Und die waren nicht sehr glücklich mit ihrer x86 Infrastruktur in anderen Firmen oder auch bei der IWM. Haben sie eben dann auch verschiedene Sachen auf den damals aktuellen Super-8-Architektur laufen lassen und waren überrascht, wie gut das funktioniert hat. Und sie wollten eben auch nicht von einem Monopol von Intel abhängen. Dafür hatte Google Angst und sie wollten eben nicht, dass sie abhängig sind von einem Monopolisten und nicht die Möglichkeit haben irgendwo anders sich hin zu bewegen. Und am Ende wollen sie letztlich ihre eigenen Computer bauen und deswegen haben sie sich Partner gesuchen und da sind sie zur IWM gekommen und haben uns gefragt, ob man da was zusammenentwickeln kann. Und der dritte Punkt ist die Reichweite der Power-Architektur zu verbessern. Es gab mal früher mehr Power-Pizzis. Die Power-Architektur hat die letzten Jahre zwar Marktenteil gewonnen, aber insgesamt hat sich der Marktenteil von UNIX soweit verringert, dass das noch nicht dazu führt, dass das gut funktioniert. Deswegen müssen wir die Power-Architektur in andere Bereiche kriegen und mit anderen Partnern zusammenarbeiten, um eben auch andere Märkte zu erreichen. Und das war im Wesentlichen der Hauptgrund, um Open Power Initiative zu gründen in 2013. Und wenn man den anderen Teil dieser Karte anguckt, dann sieht es aus, als ob alle diese Firmen Marktanteil verloren haben und die sind dann zusammengekommen und haben was gegründet. Aber wenn man diesen Tagen guckt, dann sei es doch aus, als wäre das eine gute Entscheidung gewesen. Und ich zeig mal, wie es sich entwickelt hat. Die ersten Schritte, die wir gemacht haben, waren im Wesentlichen IBM. Zuerst haben sie sehr viel Geld in Linux investiert, dass Linux auf der Power-Architektur läuft. Da gab es eine Beschwerde von intern auch über die letzten Jahrzehnte, dass selbst unsere eigenen Programme nicht so gut auf unsere eigenen Maschinen liefen, weil unsere eigenen Computer waren meistens auch x86, weil wir sie natürlich vorher auch verkauft haben. Und das war eine Beschwerde, aber es hat nicht wirklich geholfen, sich nur intern zu beschweren. Aber die Kunden haben uns auch gezeigt, dass die Power-Maschinen waren nicht konkurrenzfähig. Und es gab eine Schrift wirklich in den Einstellungen. Und dann haben sie sehr viel Geld investiert in den Code-Restrukturierung in Linux und Groß- und Little-Indien- und Big-Indien-Probleme gelöst. Und das Zweite ist das Open Source-Model für Hardware. Darüber spreche ich in einer Minute gleich noch. Und der nächste Schritt war noch viel Firmware-Code, einfach freizugeben, zur Verfügung zu stellen. Ich war überrascht. Ich habe nach einem Namen ge-googelt und dann gab es und überraschender Weise war einer der ersten Hits, war ein C-Programm-Code-Stück, was ich geschrieben hatte. Und wenn du einfach danach suchst, dann werdet ihr das einfach ganz schnell finden selbst. Und das ist das Mission Statement. Und ich will das jetzt nicht hier ganz erklären, aber die Idee dahinter ist, es ist nicht eine neue Firma, die gegründet wurde, sondern eine Partnerschaft oder eine offene Community, die eingerichtet wird, um Leute zusammenzubringen, um die Power-Architektur zu verbessern und an dem ganzen Stack zu arbeiten, die Hardware-Entwicklung und Software-Entwicklung, die die gleichen Werkzeuge benutzen, die sie über Infrastruktur benutzen können. Und das ist nur ein kleines Bild, um das zu veranschaulichen. Auf der linken Seite hat man die Hardware-Komponenten, das besteht im Wesentlichen aus dem Prozessor selbst und der Prozessor alleine nützt aber noch nichts. Man muss natürlich auch Verbindungspunkte haben, das sind die Interfaces zu Beschleunigern und nicht nur Interfaces, sondern auch offene Interfaces zu machen, dass auch andere Firmen, die benutzen können, Roadmaps und Pläne, das habe ich sehr schnell gelernt auch in meiner Arbeit, dass Kunden wirklich schon Pläne für die nächsten Jahre sehen wollen, wo die Reise hingeht, dass sie wissen, wo rein sie investieren, wo die Technologie hingeht in den nächsten Zyklen, dann gibt es den Software-Stack darüber und um sicherzustellen, dass es überall gleich ist und bei vielen verschiedenen Parteien genutzt werden kann. Und das führt uns zu dem Ökosystem, wie es heute aussieht. Ich habe das vorher gezeigt, da waren fünf, die das gegründet haben und jetzt haben wir einen ganzen Stapel davon. Das fängt an mit den Basics am Boden. Infineon und IBM sind zum Beispiel dabei, die bauen die Chips, dann gibt es Bordhersteller, Platinersteller, Integrationsfirmen, Softwarefirmen und außerdem aber auch viele Forschungsteams sind auch dabei und das ist etwas, das ganz wichtig ist von dieser Gruppe, nicht einfach nur irgendwas zu machen mit Firmen und Sachen zu verkaufen, sondern auch Leute mit einzubinden in der Forschung und zu versuchen, die ganze Methode auch zu verbessern, um das mal zusammenzufassen, etwa 320 Mitglieder in 32 Ländern. Und ich glaube, zurzeit sind überwiegend in den USA, weil da natürlich IBM Headquarters sind und die Labore sind und viele der Universitäten sind auch beigetreten der Foundation, aber vor allem wollen wir natürlich von überall gerne Mitglieder kriegen und auch viele der Partner haben auch schon Produkte rausgebracht und ich glaube, ich habe ein Bild noch davon später. Und das ist im Wesentlichen, um mal zu zeigen, wie OpenPower zu den anderen Initiativen steht. Es gibt die OpenComputed Group, das konzentriert sich eher auf mechanische und elektrische Synchronisationen und Spezifikationen. Dann gibt es die Open Power Group, die versucht eher diese Lücke zu füllen zwischen dem, was von oben kommt, von der Software, von Linux OpenStack und OpenComputed ist unten. Dann OpenCopy ist ein Teil der OpenPower-Initiative, aber es ist vor allem nur ein kleiner Faktor davon. Und wie man sehen kann, es gibt diese grüne Box und das sind nur Protokolle und IO-Verbindungen, interne Verbindungen. Und das ist so, wo das hinpassen sollte oder wie es sein sollte. Was ist jetzt so besonders bei OpenPower? Ich zeige euch mal hier die aktuelle Roadmap. Ich weiß nicht, ob das jetzt noch genau ist, aber es gibt euch zumindest mal einen Überblick, woran wir die letzten Jahre da gearbeitet haben. Als Prozessor-Hersteller versucht man ja immer einen guten Überblick zu haben, wie man die Produkte auf den Markt bringt. Wenn ihr euch anschaut, bei Power ist es ein bisschen anders. Das ist ein anderer Markt, den man da angreift. Im Vergleich zum Beispiel auch bei der C-Architektur. Es gibt die C-Protestoren sehr regelmäßig. Bei Power brauchen wir viel mehr Flexibilität, weil sich der Markt verändert und weil die Kunden auch unterschiedlich der Ansprüche haben. Aber wenn man hier schaut, in den nächsten Jahren müssen eben zehn bis sieben Nanometer Produkte kommen müssen, das müssen wir dann eben mit den Partnern entsprechend zertifizieren. Aber das wirklich Interessante bei der OpenPower-Initiative ist, dass man irgendwie versucht, wie ich vorhin schon gesagt habe, externe Beschleuniger in das System zu integrieren. Da geht es nicht nur darum, die einfach irgendwie reinzustecken, sondern das wirklich zu integrieren, dass man das zum Teil auch der Speicherbereich der CPU macht, so dass die dann eben sehr schnell angeschlossen sind im Vergleich zu anderen Systemen. Auch ist es so bei dem Power 8 enhanced, dass die IO innerhalb der CPU viel schneller funktioniert und die Bandbreite in diese externen Beschleuniger gehört, dass in Laboren in den Vereinigten Staaten, die über einen Regierungsvertrag ausgestattet worden sind mit diesem neuen System, die eben Power Prozessoren haben, die an GPUs hängen, einen ganzen Raum gebaut, um diese schnelleren Verbindung auch zu ermöglicht haben und mit der allerneuesten Generation von NVLink. Das erzeugt eben dann Bandbreiten, die mit anderen CPUs gar nicht möglich sind. Das ist jetzt hier das nächste. Es gibt nicht nur die NVLink-Schnittstellen, sondern eben auch PCI. Und hier sieht man auch, dass man Xilinx-Produkte anschließen kann, auch über OpenCafe, was dieses neue Protokoll ist und die neue Hardware, die in die Prozessoren eingebunden ist. Jetzt hier noch mal für die Zahlen. Nicht jetzt kein Marketing. XonMobile hat es geschafft, 22.000 Server in 32 Power Servers zu integrieren. Und hier sieht man eben, wie die Community aussieht. Es geht darum, alle involviert zu bekommen. Leute, die Software schreiben, Leute, die Software benutzen oder Leute, die die kompletten Systeme benutzen und die versuchen, diese unterschiedlichen Industriegruppen zusammenzubringen, sodass alle einen Platz haben entsprechend in der Community. Und deswegen wurden auch unterschiedliche Arbeitsgruppen gegründet, um da in die technischen Diskussionen zu kommen. Und das ist eben, was wir heute haben. 13 verschiedene Arbeitsgruppen. Es gibt da, welche da sind, meine Kollegen und ich, auch beteiligt. Und wir reden da über tatsächliche Probleme und Lösungen an verschiedenen Stellen im Stack. Und das sollte der letzte Slide sein. Es ist immer noch etwas, was Geld kostet. Wir müssen also Geld ausgeben, um bei Open Power mitzumachen. Aber wenn man aus der Akademie kommt, kann man auch gar nichts ausgeben und trotzdem Teil der Community sein. Und es gibt da noch eine ganze Menge dazwischen. Es muss da leider ein bisschen bürokratisch sein. Aber man kann da mitmachen. Speziell, wenn man aus der Forschung kommt. Ich habe heute mal geschaut. Die Universität in Paderborn ist zum Beispiel dabei. Es gibt also auch schon deutsche Universitäten, die da Mitglied der Community sind. Aber die meisten kommen tatsächlich aus den Vereinigten Staaten. Das war alles. Es war ein kleiner Überblick. Der war jetzt auch nicht vollständig. Wenn ihr noch Fragen habt, kommt gerne zu mir. Ich kann euch dann auch an Leute verweisen, mit denen ihr in die Tiefe einsteigen könnt oder mit Leuten aus verschiedenen Workgroups sprechen. Ihr könnt auf openpower.org schauen. Das ist die Webseite. Da gibt es noch weitere Infos. Ich hoffe, das waren jetzt ein paar interessante Informationen, was gerade so passiert in der Hardware Community. Thank you very much, Matteo. Vielen Dank, Matteo. Wir haben auch noch Zeit für ein paar Fragen. Da ist schon jemand am Mikrofon eins, bitte. Hallo. Vielen Dank für den Vortrag. Als Hacker, wie kann ich ein Open Power Development Board bekommen, wenn ich nicht in einer großen Firma bin? Also ich glaube, wenn du Kontakte zu Universitäten hast, dann solltest du da mal fragen können. Ja, das wäre jetzt mein Tipp. Ich bin nicht an der Universität. Aber ich bin sicher, wenn du Hacker-Aktivismus, solltest du ja irgendwelche Kontakte in diese Gruppe haben. Vielleicht kriegst du aber auch etwas ältere Sachen. Also Power 8, Power 8, die ältere Version, jetzt wo Power 9 draußen ist, vielleicht findet man auch etwas ältere Maschinen auf dem Gebrauchmarkt. So, eine Frage aus dem Internet. Ja, du hast darüber gesprochen, dass Firmen und akademische Einrichtungen dazu kommen und gibt es eine Möglichkeit von IBM, dass Verbraucher günstige Systeme bekommen können. Ich glaube, am Ende ist das zumindest eine Idee für Firmen, um einfach günstige Systeme auch für echte Endbenutzer herzubekommen. Das ist eigentlich nicht wirklich das, was wir oder was die IBM momentan plant. Mikrofon 4. Hallo. Eine Frage über die Firmenwehr. Du hast gesagt, es sind 400.000 Zeilen und warum ist das so riesig und warum kann man nicht Sachen neu benutzen, die das schon Power-Architektur verwenden? Das ist eine spezifische Frage. Ich glaube, das ist einfach nur der Stack, der mit den Maschinen schon rauskommt. Von der IBM-Seite. Google hat was Eigenes, ist auch in der gleichen Größe, was sie für ihre Sachen geschrieben haben und sie haben auch eben veröffentlicht, was sie haben. Also jetzt viele Daten, die man dann so weiter benutzen kann, wie man das selber für richtig hält. Eine Frage zu Moors Law. Es geht nicht über die Performance, sondern über die Anzahl der Transistorien. Hast du da auch Zahlen für uns? Ich habe hier keine Zahlen. Ich müsste die mal nachschauen. Aber am Ende geht es ja wirklich darum, wie die Performance ist. Die Kunden wollen ja auf die Performance schauen und mit Performance kann man Sachen verkaufen und das Ziel ist es ja immer, die Performance zu erhöhen. Und das ist eben nicht mehr so einfach. Leider haben wir jetzt keine Zeit mehr für weitere Fragen, auch noch, wenn noch einige da sind. Aber Matteo ist noch da und ihr könnt ihn direkt fragen nach dem Vortrag und bitte noch einen großen Applaus für Matteo.