 Herzlich willkommen zu meinem Vortrag rund um das Thema Analogrechnen. Ich muss versuchen, nicht ganz so zu schreien. Ich bin es gewohnt, also ohne Mikro zu machen vor Vorlesungen. Und entsprechend fällt mir das gerade schwer, nicht zu brüllen wie ein Blöder. Analogrechner, allein mein Hintergrundbild, zeigt eigentlich schon, worum es geht. Manche mögen denken, ach, du liebe Güte, was für eine altmodische Kram. Worauf ich hinaus will, ist, dass das Analogrechnen eine wirkliche Chance für High-Performance-Computing bietet und auch aus Security-Sicht ein durchaus interessantes Konzept für die Zukunft darstellen kann. Das, was wir hier sehen, auf meinem Bildschirm Hintergrund ist eine wundervunderschöne Aufnahme einer Analogrechner-Installation von 1960 bei der Firma Bölko. Und was auf diesen Rechnern, man sieht links drei große Telefunken-RA 800 und rechts noch fünf Tischrechner und ein bisschen Kleinkram. Was auf diesen Maschinen gesteckt ist, da sieht man gleich, Analogrechner werden irgendwie ganz anders programmiert als das, was man mein hin kennt. Wenn wir an Computer heutzutage denken, denkt man meistens an Speicherprogrammierte Digitalrechner. Und genau das ist mein ewiger Kritikpunkt an der Geschichte. Ich finde diese Speicherprogrammierung so dämlich. Also natürlich sind Algorithmen schön und gut und interessant. Aber der Haken ist, ich muss halt immer auf einen Speicher zu greifen. Das macht die Sache nicht schneller. Und wenn man versucht hat, aus einem massiv parallelen Rechner wirklich hohe Rechenleistung raus zu kitzeln, weiß, dass Amdals Law einem wirklich den Tag versauen kann. Und das ist überhaupt nicht einfach, ist aus einer Maschine, die Speicher programmiert ist, wirklich einen hohen Grad an Parallelismus raus zu kitzeln. Und das ist etwas, das hat ein Analogrechner selbst so ein klassischer unseren modernen System voraus. Programmiert wird er nämlich, wie man sieht, durch Kabel. Jetzt kommt meistens der übliche Scherz mit Ha Ha. Daher kommt der Begriff Spaghetti Code. Nein, tut er nicht. Aber die Idee liegt nahe. Die Strippen, die man hier sieht, die sind wirklich das Programm der Maschine. Zusammen mit den Potentiometern, die man unten auf diesen Vorbauten der Analogrechner sieht, wo man Parameter einstellt. Und woran man sich erst mal gewöhnen muss, heutzutage ist der Gedanke, dass so eine Installation hinsichtlich der Rechenleistung selbst modernen Maschinen durchaus Paroli bieten kann. Dafür ist es auch kein General Purpose Rechner. Das muss man auch gleich sagen. Auch da ist man gewohnt heutzutage Computer, Speicherprogrammierter, Digitalrechner. Das Ding ist Touring vollständig und ich kann alles damit machen, was ich überhaupt berechnen kann. Das geht zumindest in der Praxis mit einem Analogrechner nicht. Es ist eine Spezialmaschine. Gebe ich offen zu, aber eine Spezialmaschine, die in dem Bereich, für den sie gedacht ist, nämlich dem Lösen von Differenzialgleichungen und Systemen aus Differenzialgleichungen wirklich ungeschlagen ist. Selbst mit modernen Maschinen hat man durchaus Schwierigkeiten in einem alten Analogrechner hinsichtlich Rechenleistung und vor allem Energieeffizienz das Wasser zu reichen. Und worauf ich seit fünf Minuten hinaus wollte, ist, was man hier eigentlich sieht auf dieser Maschine, was hier gesteckt ist, eine Flugsimulation. So sahen früher Flugsimulatoren aus. Und zwar ist das die Simulation des nieem Produktionen gegangenen Senkrechtstarters VJ101. Und das Charmante an so einer Simulation bis heute ist, der unglaublich hohe Grad an Interaktivität. Das Schöne an einem Analogrechner, ich habe hier wie Sie sehen einen mitgebracht, das ist ein ganz moderner Analogrechner. Das ist der Einzige, den man im Moment auf dem Markt überhaupt kaufen kann. Das Schöne an so einem Analogrechner ist, Sie können direkt während der Rechnung an einem Potentiometer drehen und Sie sehen sofort die Auswirkungen. Das heißt, Sie sehen sofort, wie verhält sich mein dynamisches System, wenn ich irgendein Parameter ändere oder sowas. Und genau darüber möchte ich jetzt in dem folgenden Vortrag mit Ihnen sprechen. So. Lass uns erst mal ganz kurz über quasi conventional Computing sprechen. Das ist so ein typischer Supercomputer, wie man ihn heutzutage hat. Wer die Top 500-Liste sich regelmäßig zu Gemüte führt, als ich noch deutlich jünger war, so in den frühen 90ern und die Top 500-Liste, das war für uns zweimal im Jahr so eine Art Playboy für Informatiker und Mathematiker, weil man sich immer vorstellen konnte, mein Gott, was würde ich machen, wenn ich Rechenzeit auf einem der Systeme ganz oben in der Liste bekommen würde. Das Interessante an der Geschichte ist, wenn man dann mal Rechenzeit auf so einer Maschine gekriegt hat, hat man festgestellt, die bringt bei Weitem ihre PS nicht auf die Straße. Als ich erinnere mich noch, wie ich am Landesvektor Rechenzentrum, damals war das Sagen umwoben. Die Maschinen VP100 von Fujitsu hatte 235 Megaflops. Ist ein Witz viel langsamer als mein Notebook, aber ich hatte damals ein Strömungssimulation auf der Maschine gemacht. Und ich habe wahrscheinlich mehr Zeit damit verbracht, das Programm zu tunen, damit es dann schnell lief, als ich in Summe gebraucht hätte, wenn ich es einfach auf einem langsameren Rechner gemacht hätte. Und irgendwie habe ich da gelernt, High Performance Computing sieht immer cool auf Bildern aus, kann aber echt die Pest sein, wenn man es mal zu Fuß programmieren muss. Das ist bei Weitem nicht so leicht, wie man denkt. Und solche Maschinen haben durchaus auch echte Nachteile. Das, was hier aussieht nach irgendwie Wettbewerb der Klemmten und Installateure, das ist die Vorbereitung für das Kühlsystem einer solchen Maschine. Weil klar, ich meine, wenn Sie 10, 20 oder 100.000 CPUs haben, die Abwärme muss raus. Und die kriegen Sie mit Luft dabei weit und nicht mehr raus. Heutzutage nimmt man Wasser. Früher war es deutlich sportlicher, werden sich noch an seelige Zeiten von Cray-Maschinen erinnert. Damals hat man ein flüssiges Freon genommen. Das war cool. Oder gar die Firma Control Data mit der Etat 10G mit Flüssigluftkühlung. Das war dann schon langsam geistesgestört, hat sich auch nicht so verkauft, weil ich glaube, kein Rechenzentrum der Welt hatte Lust, sich in den Garten noch ein Luftverflüssiger zu stellen. Nur um die Maschine halbwegs zu kühlen. Aber wenn man ganz ehrlich ist, das ist ein Riesenproblem. Wer mich kennt, weiß, ich bin kein Öko. Ich bin da meilenweit weg davon. Aber man kann natürlich trotzdem drüber nachdenken, wie effizient kann ich rechnen? Wie viel Gigaflop kann ich aus einem Watt elektrische Energie rausholen? Da kann man zwei Perspektiven drauf haben. Die eine ist, ich tue was für die Umwelt. Das ist nicht meine. Meine ist, boah, wenn ich das effizienter mache, kann ich einfach noch schneller rechnen mit demselben Energieeinsatz. Und wenn ich mir das hier angucke, das sieht nicht nach guter Ausnutzung des Energieeinsatzes aus. Das meiste verwandle ich in warmes Wasser. Hier erinnere mich noch, ich war 1993, er hat längere Zeiten, ein paar Monate in den USA gewesen und habe da auch Rechenzeit geschnort. Das kann man sich heute gar nicht vorstellen. Jeder hat ein Laptop mit einer Rechenleistung, die Faktor 10 oder 100 über dem ist, was wir damals hatten. Das klingt so obererzählt vom Krieg damals in den Ardennen. Also damals in den USA. Da habe ich wirklich Rechenzeit geschnort. Ich bin von einem Rechenzentrum zum anderen gefahren und habe einfach dreist gefragt, ob ich Rechenzeit haben könnte. Und manchmal hat man die auch gekriegt. Und an einem Rechenzentrum erinnere ich mich noch, die hatten so eine Art Joint Venture mit dem Sportinstitut. Die haben nämlich dem Swimming Pool von den Sportlern geheizt. Und immer, wenn der Mainframe ausgefallen ist, das Wasser war so eisekalt, dass selbst die abgebrütesten Sportler da drinnen nicht mehr trainieren konnten. Das war eine wirklich Symbiose. Der Sportbereich kam nicht ohne die IT-L aus und umgekehrt. Wenn man sich mal kurz überlegt, warum zum Teufel brauchen unsere Rechner eigentlich so viel Leistung, wenn man sich mal eine Ausgangsstufe in einem typischen Gatter anschaut, hat man hier so zwei komplementäre Ausgangstransistoren. Und da liegt schon ein Teil des Problems drin. Und man hat noch ein Problem. Irgendwie braucht man ja Leiterbahnen auf so einem Chip. Und wenn ich sehr hohe Taktfrequenzen habe, heißt das, ich muss sehr oft parasitäre Kapazitäten umladen. Ich meine, laden Sie meinen Kondensator zwei Milliarden Wein per Sekunde um. Das Ding sieht aus wie ein Kurzschluss, wenn man es omsch quasi betrachtet. Wenn man ehrlich ist, ist das Quatsch. Das heißt, meine Abwärme steigt mindestens mal ein bisschen superliniar mit der Taktfrequenz. Das heißt, mir lieb ich viel höher, geht nicht. Ich finde das auch immer ganz interessant. Vor, du liebe Güte, 15 Jahren oder so, da waren meine Frauen die ich noch nicht mal verheiratet. Da hatte ich ganz stolz ein riesen Notebook zu Hause angeschleppt, das eine CPU mit 3 GHz Taktfrequenz hatte. Das war wirklich ein Vermögenwert, das Teil. Und es war erstaunlich schnell. Das Interessante ist, heutzutage schlepp ich ein bisschen weniger stolz mein aktuelles Notebook mit mir rum. Das hat 2 GHz, also so richtig voran geht es da auch nicht. Warum ist klar? Das Ding ist einfach nicht zu betreiben, wenn die Taktfrequenz noch beliebig höher wird. Das heißt, an der Schraube können wir nicht mehr viel drehen. Die nächste Schraube ist auch langsam ausgereizt. Wir kriegen die Strukturgrößen nicht beliebig kleiner. Also ein Isolator aus einer Atomlage ist alles nur kein Isolator. Da tun es selbst das langweiligste Elektronen einfach ungehindert durch. Das heißt, das Einzige, wo wir eigentlich was drehen können, wenn wir mehr Rechenleistung haben wollen, und ich will immer mehr Rechenleistung, zu viel Rechenleistung gibt es gar nicht, ist Architektur, Analogrechner und Programmierung. Und auch da Analogrechner. Mit dem, wo wir jetzt sind, algorithmisch kommen wir langsam ernsthaft an Grenzen. Und die würde ich gerne mit Analogrechnern springen. Wobei ich trage da quasi sehr, sehr alte Eulen nach Athen, dass Analogrechner überhaupt nichts neu ist. Das ist nur ein Vergessenheit geraten und das ist schade. Wenn man sich hier mal ganz kurz anguckt, Leistungstichte abgetragen auf Jahre, also irre finde ich, so heiß von der Leistungstichte einer Herdplatte-Equivalent, kann man sich noch gut vorstellen, aber Leistungstichte wie im Kern eines Kernreaktors ist schon irgendwie hart. Und Leistungstichte wie in einem Raketentriebwerk, da ist klar, das ist nicht mehr abzuführen, diese Wärme, no way. Das verwandelt sich instantan in Rauch, so eine Maschine. Wenn man sich dann noch anguckt, wie sieht eigentlich so ein aktueller Chip aus, stellt man fest, das meiste von dem, was da drin ist, hat mit dem Rechnen gar nichts zu tun, was meiner Meinung nach auch absurd ist. Schauen Sie mal, da haben wir einen First-Level-Cache, einen Second-Level-Cache und ganz viele Third-Level-Caches und DRAM-Controller und bla, bla, bla. Und in jedem dieser acht kleinen Cours, die da drin sind, ist ein ganz kleiner Teil wirklich mal mit Rechnen beschäftigt. Das ist auch wirklich völlig absurd. Wäre es nicht cool, wenn man diesen ganzen Quatsch mit der Speicherprogrammierung einfach mal sein ließe und alles auf diesem Chip zum Rechnen nehme, das wäre ein Hammer. Ich meine, überlege Sie mal, was man mit fünf Milliarden Transistoren auf einem Chip alles rechnen könnte. Das einzige, was man im Moment draus macht, sind irgendwie dofe Caches, von denen man nicht sehr viel hat, weil was auch jeder weiß, Schleifen passen aus pure Boßheiten nie ganz in den Cash und dann ziehe ich mir immer die aktuelle Cash-Line und dann füßen weg uns alles doof. Das sieht man auch hier ganz hübsch. Das meiste ist echt Verwaltung. Da kommt dann noch so ein Kram wie Registry-Naming und sonst irgendwas dazu. Ich möchte ja nicht sagen, das hätte gar keine Vorteile. Es hat sich ja nicht ganz umsonst durchgesetzt. Wobei ich auch auf gar keinen Fall sagen möchte, dass Dinge, die sich durchsetzen, gut sind. Wer mich kennt, weiß, jetzt kommt der unvermeidbare Seitenhieb auf Microsoft. Es setzen sich auch Dinge, durch die echt schlecht sind. Das tut so gut. Vielen Dank. Normalerweise gucken mich immer nur ganz betretende Gesichter bei so einem Spruch an. Aber das algorithmische Rechnen hat natürlich schon zugegebenermaßen inherente Vorteile. Ich kann wirklich alles im Prinzip damit machen. Ich kann einen interessanten Tausch machen. Ich kann Komplexität gegen Zeit tauschen. Das heißt, wenn ein Problem schlimmer wird, kann ich in der Regel sagen, dann warte ich halt länger. Das ist etwas, das geht mit dem Analog-Rechner gemeinerweise nicht, muss aber auch nicht ein Nachteil. Zumindest keine allzu großer sein. Sie erinnern sich alle an Hitchhikers Guide to the Galaxy, Deep Thought, der dann 2 Millionen Jahre nachdachte, um auf 42 zu kommen. Wenn das Problem halt sehr schwer ist, brauchen Sie sehr viel Rechenleistung und viel Zeit. Wir haben eine riesen, eine unüberschaubare Vielzahl von Bibliotheken. Das heißt einfach Know-how auf das wir zurückgreifen können. Und wenn Sie Informatik studieren oder Mathematik, was Ihnen beigebracht wird, ist der algorithmische Ansatz. To this, to that, springe, wenn irgendwas null ist. Und das ist schade, weil man übersieht, dass man eigentlich auch ganz anders rechnen kann. Die Nachteile von solchen speicherprogrammierten Digitalrechnen werden gerne ein bisschen unter den Teppich gekehrt. Das Wichtigste hatten wir schon. Der Energiebedarf hängt direkt von der Taktrate ab. Ich brauche natürlich Speicherzugriffe für die Ablaufsteuerung. Wenn das eine klassische von Neumann-Maschine ist, habe ich noch dazu von Neumann-Flaschenhals, weil irgendwie Steuereinheit und Alu sich in die Quere geraten beim Zugriff aufs Memory. Wenn ich das nicht will, ertrink ich in Caches, was die Sache auch nicht simpler macht, weil die muss sich irgendwie koherent halten. Das ist irgendwie auch unglaublich kompliziert. Parallelisierung, naja gut, mit zwei Korsen auf dem Chip geht noch. Mit vier oder acht geht auch noch. Aber spätestens, wenn die auf zwei Chips sind, fängt es an, doof zu werden. Wenn die auf verschiedenen Boards sind, wird es richtig doof. Wenn die in verschiedenen Racks sind, fängt es an, wirklich weh zu tun. Weil von einem Rack zum anderen habe ich mindestens mal 2 Meter Strippe und licht es ja auch nicht gerade so berauschen schnell. Na ja, ich meine ganz im Ernst, in einer Nanosekunde kommen sie durch ein reales Kabel so 20 cm. Das ist nicht wirklich flott. Die Ausnutzung von Chipflächen ist eigentlich auch eine Katastrophe, hatten wir eben auch das Wenigste, davon wird eigentlich zum Rechnen genutzt. Deswegen denke ich, lohnt es sich witzig, kurz und mittelfristig mal den Blick auf unconventional Computing zu lenken. Das ist ein typischer Paradigmenwechsel, der der Stadt gefunden hat. Das, was wir heute als unconventional bezeichnen, war früher ganz normal. Damals fand man speicherprogrammierte Digitalrechner komisch, heute ist es gerade umgekehrt, was eigentlich schade ist. Das ist ein unconventional Computing. Erst mal alles, was kein speicherprogrammierter Digitalrechner ist. Dazu gehören erstmal mechanische Rechner, hydraulische Rechner. Wenn sie mal in London sind, besuchen sie das Science Museum. Da steht ein Wasseranalog-Rechner, der Finanzephalograph Muniak von einem Herrn Philips, der die Philips-Kurve in der Volkswirtschaft mithilfe eines hydraulischen Computers gefunden hat. Dann kann man mit direkten, komme ich gleich noch drauf in indirekten Analogien arbeiten. Es gibt optische Rechner, es gibt Quantencomputer, die auch wieder Spezialrechner für einen ganz bestimmten Einsatz zweck sind, nämlich Dinge, wo ein Komplexität klingt. Dann gibt es Molecular Computing. Das finde ich persönlich auch ausgesprochen spannend. Synthetisieren sie Moleküle und sieben sie die aus, die eine Struktur haben, die ihr Problem löst. Und die Idee ist, wenn sie ein Moal von irgendwas zusammen synthetisieren, sind halt 6,02 mal 10 noch 23 Stück drin, müsste mit einem Teufel zugehen, wenn nicht eins davon passen würde. Das ist irgendwie eine abgefahrene Idee. Dann gibt es zellulare Automaten. Wer an Wolfram in New Kind of Science denkt genau richtig, neuronale Netze, stochastisches Rechnen. Aber was wir uns erst mal angucken müssen, sind direkte Analogien. Das hier macht unglaublich Spaß Seifenblasen. Kennt jeder faszinierend seit Kindertagen. Meine Frau hat es diesen Winter geschafft, Seifenblasen zu frieren zu bringen, als es so schön kalt draußen war. Allein das ist ein schönes Experiment. Aber was man hier sieht, ich kann mit Seifenblasen ein Problem lösen, das mathematisch wirklich eklig ist, nämlich Minimalflächen. Ich baue mir ein Gerüsttunkel, das in Seifenlauge, ziehe es vorsichtig raus und die Seifenblase nimmt automatisch eine minimale Oberfläche an. Das hat den Charme, es ist quasi ein Ohr von 1, als Komplexität zu erledigen. Egal wie gruselig diese Fläche aussieht, die Seifenblase löst für mich das Problem. Das hat man auch genutzt, zum Beispiel in der Architektur. Hier ist ein praktisches Beispiel aus der Zeit, als das Dach des München Olympia-Stadions designt wurde. Das kennen Sie alle, das sieht ja extrem cool und sehr organisch aus. Und dieses Dach ist mathematisch, heutzutage würde man es durch finiete Elemente beschreiben. Das ging damals rechenleistungsmäßig nicht. Meine simulieren Sie mal ein paar Millionen von diesen Elementen auf dem Rechner der 60er, no way. Aber was man machen kann ist, simulieren Sie es mit etwas, was zur Hand ist, nämlich kein Witz jetzt mit einem Darmenstrumpf zum Beispiel. Spannen Sie einen Darmenstrumpf auf, dann haben Sie von oben das Dach es quasi auf den Kopf gedreht, die Pylone, die das Ding spannen Sie zur Not noch Sandsäckchen dranhängen. Das hat zum Beispiel Gaudi gemacht für seine Bauwerke, um Flächentraklasten und Ähnliches zu simulieren. Und das Schöne ist, ich meine finiete Elemente, das sind die Maschen in dem Strumpf. Die erledigen für uns die eigentliche Rechenarbeit und der Energieaufwand ist nahe null. Das kann man auch elektronisch machen. Das liegt mir persönlich näher. Außerdem finde ich, der Darmenstrumpf gehört an ein hübsches Bein, vorzugsweise das meiner Frau. Außerdem ist das Auslesen kompliziert, da haben Sie irgendwie Mikrometerschrauben, mit denen Sie abtasten, wo der jeweilige Punkt des Strumpfes angeordnet ist. Elektrisch ist das deutlich angenehmer. Sie könnten zum Beispiel Netzwerk aus Kondensatoren, Spulen und Widerständen machen. Und das Netzwerk, das hier dargestellt ist, kein Witz, das löst die Schrödinger-Gleichung. Damit hat man früher theoretische Chemiebetrieben. Der Herr Gabriel Kron, von dem findet man auch einiges mittlerweile endlich im Internet, der hat ganz viele solcher direkten Analogien ausgenutzt, um Lösungen für Wellengleichungen zu finden, die halt mit damaligen Mitteln speicherprogrammiert einfach nicht zu haben waren. Das ist auch was für unconventional Computing. Es ist ganz erstaunlich, was für eine Rechenleistung das Ding auf die Straße bringt, vor allem mit wie wenig Leistungseinsatz. Also ich komme mit Frühstück- und Abendessen in der Regel durch den Tag. Ich brauche keine Wasserkühe. Naja, nicht viel jedenfalls, ein bisschen schwitzen. Aber ansonsten, irgendwie kommt das mit eine Handvoll Watt aus. Und wie macht es das? Das heißt, dass man, wenn man in der Regel sehr viel unglaublich komplexes Räderwerk, mit dem man astronomische Berechnungen durchführen konnte. Und das war überhaupt nicht trivial, lohnt sich das mal zu ergoogeln. Das hat zum Beispiel für die Mondbahnen bis zu, ich weiß nicht, vier oder sechs Störungsterme berücksichtigt. Erstaunlich, dass die das damals schon kannten, noch viel erstaunlicher, dass sie es mechanisieren konnten. Und die Idee hat sich so durch die Jahrhunderte so ein bisschen hin und her geschleppt. Kann ich nicht was mit quasi Analogien, mit Modellen machen. Und in der ersten Hälfte des 20. Jahrhunderts, konkret in den 40er-Jahren, man ahnt es, der Krieg ist wie so oft der Vater vieler Dinge, kamen die Leute auf die Idee, kann ich das nicht elektronisch machen. Und das hier ist ein typischer elektronischer Analog-Rechner. Das heißt, das ist eine Maschine, die besteht aus Recheneinheiten, und zwar nur aus Recheneinheiten. Das ganze Ding ist einfach nur Recheneinheit, Recheneinheit, Recheneinheit. Und das, was Sie rechnen wollen, das bestimmen Sie dadurch, wie Sie diese Recheneinheiten verschalten. Das sieht jetzt auf dem ersten Blick arg verwirrend aus. Wenn ich ganz ehrlich bin, auf dem zweiten ist es das auch. Aber das hier ist quasi die klassische Form. Heutzutage, wenn man das on a chip entwickeln würde, hätte man natürlich keine wirkliche Verkabelung zum Stöpseln mehr, sondern schlaue Kreuzschienenverteiler. Und damit könnte man relativ elegant die Brücke hin zu speicherprogrammierten Rechnern schlagen. Ich könnte zum Beispiel einen Hybrid-Rechner bauen, ein klassischer PC oder sowas, der mit einem Analog-Rechner gekoppelt ist und der Analog-Rechner übernimmt Aufgaben für dir perfekt geeignet ist. Löse dynamische Systeme, die durch Differenzialgleichung beschrieben werden. Und je nachdem, was ich lösen möchte, würde ich auf dem Digital-Rechner mir eine Rechenschaltung synthetisieren, ein bisschen so wie das bei FPGAs funktioniert heutzutage. Würde die als Einstellung in diese Kreuzschienenmatrix einfließen lassen, oder hätte Voila, einen fertig konfigurierten Spezial-Rechner für genau dieses eine Problem. Und die Idee ist wirklich bestechend. Der Haken an der Geschichte ist, das passt nicht zu dem, was heute in den Universitäten gelehrt wird. So denkt niemand, so kann heute niemand mehr denken. Wenn Sie alte Veröffentlichungen aus den Sechstigern oder so lesen, als Digital-Rechner noch eher selten und Analog-Rechner weitverbreitet waren, dann liest man da immer wieder drin, der große Vorteil des Analog-Rechners ist erst so herrlich einfach und intuitiv. Wenn Sie das heute jemanden zeigen, guckt ja da drauf und sagt, hä? Genau. Wir haben wirklich so einen kunischen Paradigmenwechsel erlebt. Und das Wichtigste ist, dass man versucht, im Geist darüber hinweg zu kommen. Der Analog-Rechner ist eigentlich wirklich einfacher, weil ich mich aufs Problem konzentrieren kann. Wenn man versucht hat, numerisch irgendein Differenzialgleichungssystem zu lösen, weiß wie extrem der Teufel da im Detail stecken kann. Eine meiner Lieblingsübungsaufgaben ist immer, und die ist extrem simpel. Stellen Sie sich vor, ich hätte, habe es natürlich nicht, weil vergessen, ich hätte eine Stahlkugel in der Hand und ich würde die auf dem Boden fallen lassen. Betonboden wäre besser, weil nicht so plastisch. Was würde passieren, wenn ich die fallen lasse, ist eben klar, sie springt zurück, sie trifft wieder auf, springt zurück und so weiter, aber die Sprunghöhe nimmt immer ab. Irgendwo ist das ein dissipativer Prozester, geht Energie verloren. Wenn Sie das jetzt als Differenzialgleichung hinschreiben, das ist noch ganz simpel. Dann haben Sie eine mathematische Beschreibung dieses Systems und jetzt kommt der Schritt, machen Sie es auf dem Digital-Rechner. Wenn Sie das ganz naiv machen und so die billigste Integrationsmethode überhaupt nehmen, neben Euler-Integrationen und Sie simulieren das, stellen Sie was Verblüffendes fest. In Ihrem Modell springt der Ball mit jedem Mal höher, statt weniger hoch. Und dann fängt es an interessant zu werden, wie integriere ich denn richtig? Gibt es das Patentrezept zum integrieren und die Antwort ist, nee. Dann fangen Sie an mit Ruhige Kutter oder mit Heuen oder wenigstens ein Euler rückwärts oder sonst irgendetwas mehr der Minder absurden und stellen fest, Sie kriegen jedes Mal subtil andere Ergebnisse raus. Und das Charmante an einem Analog-Rechner, und das muss man eigentlich der Genauigkeit halber dazu sagen, an einem analog-elektronischen Analog-Rechner, weil die Dinger gehen auch digital, das Charmante an der Geschichte ist, wenn ich ein Integralausrechne, dann lade ich einen Kondensator auf. Das ist ein rein quasi natürlicher Prozess und vor allem ist der nicht diskretisiert. Ich zahke nicht meine Gleichungen in irgendwelche diskreten Stützstellen, sondern ich akkumuliere eine Ladungsverschiebung in meinem Kondensator. Und das Interessante ist, dass es immer gutmütig. Ich habe schon oft erlebt, dass Lösungen auf dem Analog-Rechner nicht ganz richtig waren, aber ich habe noch nie erlebt, dass eine Lösung kompletter Mumm-Pits gewesen ist. Digital habe ich schon sehr oft erlebt, dass eine Lösung wirklich kompletter quatsch war, aber dafür hoch genau, bis in die sechzehnte Nachkommastelle Unsinn. Und was man hier sieht, dass es eine ganz erstaunliche Entwicklung, die leider ein Dead-End war, das ist ein Analog-Rechner-Orne-Chip, ein rekonfigurierbarer analog-elektronischer Analog-Rechner auf einem Chip von einem Herrn Cohen entwickelt. 2005, muss man dazu sagen, ist also auch schon wieder zwölf Jahre hier. Warum wurde daraus nix? Naja, das übliche Problem mit dem universitären Umfeld. Sie schreiben ihre Doktorarbeit, entwickeln diesen Chip. Irgendwann kriegen sie einen Ruf auf eine Professorin, stellen fest, shit, meine Professor hat eigentlich gar nichts mehr mit meinem alten Forschungsgebiet zu tun und dann, ja, war das ein Dead-End, was ausgesprochen schade ist, weil dieser Chip hat ein paar faszinierende Eigenschaften. Da kommen wir aber später noch mal drauf, wenn es um Energieeffizienz geht. Na ganz kurz was zum Wort. Oft hört man, und das ist falsch, ein Analog-Rechner hieße Analog-Rechner-Walle mit kontinuierlichen, das heißt, analogen Signalen arbeitet. Das ist nicht richtig. Ein Analog-Rechner heißt Analog-Rechner-Walle ein Modell darstellt, ein Analogon. Wenn man ganz ehrlich ist, selbst Strom durch eine Kabel ist nicht sehr kontinuierlich. Da fließen mindestens mal einzelne Elektronen durch und wenn sie sich Mühe geben, können sie die zu Not zählen. Das ist zwar sehr, sehr feindiskritisiert, aber nicht wirklich kontinuierlich. Der Trick steckt darin, ich brauche ein Modell. Und das Tolle ist, es ist fast egal, wie ich das Modell abbilde. Ich kann es mit Analog-Elektronik machen, ich kann es mechanisch machen. Das war in der Luft- und Raumfahrt, vor allem in der Luftfahrttechnik, im militärischen Bereich sehr lange im Einsatz. Ich habe zu Hause auch das, habe ich vergessen, mitzubringen in der Eile heute früh, ein Luftwerte-Rechner aus einem Starfighter und das ist einfach ein Wunderwerk aus Zahnrädern und irrsinnig geformten Kurvenscheiben. Und warum hat man das gemacht? Das ist so gut wie unkaputtbar. Da kann auch in ihrer unmittelbaren Nählen EMP von der Kernwaffenexplosion stattfinden. Den Zahnrädern ist das vollkommen egal. Sie wissen immer noch, wo oben und unten ist und wie schnell sie gerade unterwegs sind, Gesundheit. Man kann in Analog-Rechner aber auch rein digital bauen. Das klingt erst mal nach einem Widerspruch, es ist aber wirklich nicht. Das schreit danach, warum macht man das eigentlich nicht auf dem FPGA? Und ich glaube, das machen zunehmend mehr Entwicklungsgruppen, sich Gedanken machen, wie ich einen Analog-Rechner auf den FPGA bekomme. In dem Fall spricht man allerdings von einem sogenannten DDA, einem Digital Differential Analyzer. So, der Hauptunterschied ist jetzt erst mal unser klassischer Speicherprogrammierter Digital-Rechner, hat eine feste Hardware-Struktur, aber ein variables Programm. Beim Analog-Rechner ist es gerade umgekehrt. Der hat gar kein Programm, aber dafür eine variable Struktur. Das ist der Hauptunterschied zwischen den beiden. Das heißt aber, ich kann einen Trick nicht machen, den ich vorhin schon erwähnt hatte. Ich kann diesen Trade-off zwischen Komplexität und Rechenzeit nicht machen. Ich kann nicht sagen, mein Problem ist doppelt so schwer, ich warte doppelt so lange. Vorausgesetzt, mein Algorithmus hat O von N als Laufzeitkomplexität. Das geht beim Analog-Rechner nicht. Wenn das Problem zu schwer ist, passt es nicht. Dann brauche ich einen größeren Rechner. Das Scharmante ist aber im Unterschied zu einem speicherprogrammierten Digital-Rechner, größeren Rechner. Vollkommen trivial, stellen Sie einfach noch so einen Rek obendrauf und verbinden Sie die zwei und woher Sie haben den größeren Rechner. Wir haben ja keinen Takt, kein Memory, kein sonstwas. Machen Sie einen ganzen Schrank voll mit diesen Elementen und Sie haben einen noch größeren Rechner. Und das wirklich Scharmante an einem Analog-Rechner ist, es so 100 Prozent parallel. Wir haben keinen Speicher, der irgendwie eine Zwangserialisierung voraussetzt, sondern wir haben nur Rechenelemente, die direkt miteinander verschaltet sind. Das heißt, das rechnet wirklich alles parallel zueinander. Das sehr historische Bildchen aus den 50ern zeigt sehr schön, wie ein Speicherprogrammierter Digital-Rechner geht. Sie haben eine ziemlich gehätzte arithmetisch logische Einheit, die hin und her flitzt zwischen dem Rechnen und einem Speicher und gesagt bekommt, was soll sie eigentlich machen. Und auf der anderen Seite ein Analog-Rechner. Sie haben viele, viele Rechneinheiten, die spezialisiert sind. Summation, Multiplikation und ganz wichtig, Integration. Es ist eine Standard-Operation für einen Analog-Rechner und die verschalten sie geeignet miteinander. Zwei Begriffe müssen wir noch schnell klären. Direkte und indirekte Analogien. Direkte Analogien hat man dann, wenn ich ein Problem mit etwas simuliere, was dem Problem entspricht. Also Dachstruktur mit Damenstrumpf. So ein Großen und Ganzen ist das fast dasselbe, nur maßstabsmäßig und materialmäßig was anderes oder Minimalfläche mit Seifenblase. Eine indirekte Analogie liegt vorwändig einfach ein ganz anderes physikalisches Prinzipnutze, wie zum Beispiel hier, irgendwas mit elektrischen Strömen um irgendwelche Probleme zu lösen. Und das ist das, worauf wir uns jetzt konzentrieren werden, nämlich indirekte Analogien. Wie kann ich Rechenelemente machen für einen Analog-Rechner? Ganz im Ernst, die können wirklich, wie schon gesagt, alles nehmen. Mechanisch, gar nicht mal so doof, den simplesten mechanischen Analog-Rechner kennen Sie alle. Rechenschieber, das Ding kann nur eine Sache. Es kann Strecken addieren oder subtrahieren. Aber durch eine schlaue Skalenteilung, die logaritmisch ist, kann ich auch multiplizieren, dividieren, höhere Wurzeln und Potenzen berechnen. Das ist ein ganz, ganz, ganz, ganz simpler mechanischer Analog-Rechner. Ich könnte es hydraulisch machen, hat man manchmal noch in der Industrie. Also wenn Sie im pädrochemischen Bereich bis vor einiger Zeit unterwegs waren, in exgeschützten Bereichen, also explosionsgeschützt, da haben Sie wirklich noch häufig Dinge gehabt, die nannten sich dann Telepneue und so was. Das waren pneumatische Regelgeräte mit der Überlegung auf gar keinen Fall irgendeine Zündquelle dahin bringen. Oder ich kann es eben analog elektronisch machen. Und das gucken wir uns einfach mal an. Der Charme an einem analog-elektronischen Analog-Rechner ist, er hat so gut wie keine Leistungsaufnahme. Das Ding lebt von Luft und Liebe im Großen und Ganzen allein. Dieser Analogprozessor von Coburn, ich nehme es mal kurz vorweg, der hat eine Rechenleistung pro Watt. Sie kennen vielleicht die Green 500-Liste auch. In der Top 500-Liste sind die 500 schnellsten. In der Green 500 die 500 energieeffizientesten Rechner drin. Und ganz oben in der Green 500-Liste, wenn ich mich nicht irre, ein japanisches System, das 7 Gigaflops aus einem Watt herausholt, was sehr, sehr beachtlich ist. Dieser Analog-Rechner Arnold Chip von Herrn Cohen, der zwölf Jahre alt ist, muss man dazu sagen, bekommt 21 Gigaflops per Watt raus. Das heißt, eine Technologie von vor zwölf Jahren ist dreimal energieeffizienter, ist das, was momentan ganz oben in der Green 500-Liste ist. Und dann fragt man sich natürlich schon, warum um Hygneswillen interessiert das eigentlich keinem. Schamante ist auch numerische Stabilität. Das, was ich vorhin mit diesem kleinen Gedankenexperiment mit dem Bällchen gebracht hatte, ist in der Regel wirklich kein Problem. Dazu kommt noch was. Unsere Welt ist analog. Ist es nicht irgendwie pervers? Wir haben einen Messwert aus einer analogen Welt, und den müssen wir erst mal relativ komplex sind, was Digitales umformen, bevor wir damit rechnen und am Ende wieder ein analoges Steuersignal machen. Irgendwie auch krank. Dann kommt noch dazu, hacken Sie das mal. Keine Chance. Es hat ja keinen Speicher. Viren und Ähnliches, wo wollen Sie die denn unterbringen? Und was noch charmant ist, das Ding ist stateless. Das kennen Sie alle. Natürlich ist ein Computerspeicher programmierter Digitarechner rein deterministisch. Schon klar, auf dem Papier. Aber wir sind alle IT-ler und wir kennen das alle, haben Sie schon mal versucht, aus und wieder einzuschalten. Und meistens geht's ja auch. Warum? Seiteneffekte, globale Variablen, irgendeine DLL-Hölle, in die man reingeraten ist oder sonst was. All die Probleme haben Sie nicht. Von so einem Rechner können Sie mathematisch beweisen, relativ simpel sogar, dass er genau das tut, was er tun soll. Versuchen Sie mal ein Korrektheitsbeweis für eine CPU mit fünf Milliarden Transistoren zu machen. No way. Da muss man sich nur mal die Fehler im Anhang von modernen Prozessorhandbüchern anschauen. Das Ganze ist natürlich, hat nicht nur Schokoladenseiten, sondern auch Nachteile, die Genauigkeit ist sehr beschränkt. Also mehr als drei bis vier signifikante Stellen kriegen Sie nicht hin. Andererseits braucht das irgendjemand. Also fällt Ihnen irgendein technisch- naturwissenschaftliches oder ingenieurwissenschaftliches Problem ein, wo man wirklich mehr als drei bis vier Stellen Genauigkeit braucht. Versuchen Sie allein mal die Länge von dem Faden auszumessen, so genau, dass Sie da mehr als ein paar Stellen Genauigkeit hinterm Koma brauchen. Ich habe das vor eine Weile für meine Physikvorlesung gemacht, für ein Fadenpendel. Ganz blödes Experiment messen Sie Ad-Beschleunigung mit dem Fadenpendel. Wie lang ist mein Faden? Ich nehme zwei Maßstäbe, einen von meiner Frau, einen von mir, leg die nebeneinander. Die Dinger sind zwei Millimeter unterschiedlich lang. Großartig. Was will ich denn damit? Eine doppelt genauen Gleitkoma-Zahl, wenn ich noch nicht mal meine Input-Werte auf mehr als zwei, drei Stellen hinterm Koma bestimmen kann. Rauschen und drifft? Ja, doof. Da kann man zwar viel machen, aber ganz los wird man sie nicht. Der dritte Punkt ist ein Problem. Sie erinnern sich alle an Integration. Und sie heißt auch nur aus der Schule. Aber beim Integrieren ist immer die Frage, was ist Ihre Integrationsvariable? Das heißt, nach welcher Variable integrieren Sie? Und so ein Analogrechner ist leider wirklich sehr beschränkt. Er kann nur nach der Zeit integrieren. Das heißt, Dinge wie partielle Differenzialgleichung gehen nur mit einem riesen technischen Aufwand. Aber das ist heutzutage, wenn Sie das on a chip haben, auch kein Problem mehr. Funktionserzeugung ist nicht trivial. Sinus kriegen Sie noch hin, aber wenn Sie irgendeine komische, gemessene Funktion haben, wird es schwierig. Und die Sachen mit den Kabeln muss man loswerden. Das ist hübsch zum spielen und zum lernen, aber für eine praktische Anwendung heutzutage natürlich doof. Was hat man für Rechenelemente? Eigentlich relativ ungewöhnlich. Man braucht erst mal sogenannte Koeffizientenglieder. Ich muss irgendwie mal Konstanten in meine Rechnung reinbringen können. Dann kann ich summieren. Sehr cool, ich kann integrieren. Ich kann multiplizieren, was erstaunlich schwierig ist, wer sich mit Analog-Elektronik beschäftigt, weiß, integrieren ist viel einfacher als multiplizieren. Was daran liegt, dass es eigentlich keinen Prozess in der Natur gibt, der Ihnen freihausende Multiplikation liefert, aber ganz viele Prozesse die integrieren. Die einfachste Variante stellen Sie in einmal auf eine Badezimmer-Wage und lassen Sie Wasser reinfließen. Damit können Sie das zeitintegral über den Wasserfluss ausrechnen. Und das Interessante ist, mit einer guten Waage kommen Sie kein Witz. Ich sage nur finanziefalograf im Science Museum auf vier Nachkommersstellen mit Wasser. Also wirklich gar nicht übel. Dann gibt es Funktionsgeber und man hat sogar noch die Möglichkeit, ein bisschen digital in so einen Rechenablauf einzugreifen. Nur damit Sie mal die Symbole gesehen haben, wenn Sie so einen Kreis mit zwei Strichen sehen, dann ist das ein Koeffizientenglied. In Wirklichkeit ist das so ein Potentiometer, wie man es hier sieht, an dem man drehen kann, um irgendeine Variable einzustellen. Das ist nichts anderes als ein Spannungsteiler, wenn man ehrlich ist. Das Symbol kennen Sie auch, da hüpfe ich trotzdem drüber, das ist ein klassischer Operationsverstärker. Das Interessante ist hier das untere Symbol. Wenn Sie so ein Dreieck sehen, dann heißt das, das ist ein Summierer. Nimm einfach alle Werte an den Eingängen. Die Eingänge können noch dazu einen Gewichtungsfaktor haben. Adir, den Krempel zusammen und gib's aus. Mit umgekehrten Vorzeichen, das ist technisch bedingt. Da muss man sich erst mal dran gewöhnen, dass jedes Rechenelement einmal ein Vorzeichenwechsel macht. Am Anfang schießt man sich ständig selber ins Knie. Nach einer Weile hat man sich dran gewöhnt und findet das komisch, wenn der Taschenrechner plötzlich nicht das Vorzeichen umdreht. Wenn man sowas sieht, dieses Symbol, da steckt der eigentliche Trick drin, die Sache mit dem dynamische Systeme. Das ist ein Integrierer, der rechnet das Zeitintegral über die Summe seiner Eingänge aus. Und das werden wir im Anschluss hier ran. Gibt's ja zwei Hands-on-Sessions, zu denen Sie eingeladen sind. Ich hoffe, da würde mich natürlich über zahlreiches Erscheinen freuen. Dafür habe ich den auch mitgebracht, damit man damit mal wirklich spielen kann. Den wir dann mal zum Beispiel schauen können, wie man einfache dynamische Systeme, also so ein Massefeder, Dämpferschwinger oder vielleicht ein Lorenzattrakter oder sowas stöpseln kann und wirklich auf dem Oszilloskop in unglaublich hoher Geschwindigkeit Lösungskurven anzeigen kann. Und direkt sieht, wenn ich an einem Poti drehe, wie verändert sich eigentlich das Verhalten meines Systems? Dann gibt's noch Funktionsgeber, Multiplizierer und Komparatoren. Das Ganze könnte ich auch digital machen. Das liegt wahrscheinlich der Jugend von heute näher. Ich persönlich finde es irgendwie eine leichte Perversion, weil ich verliere wieder den Hauptvorteil mit der Energieeffizienz. Weil, um das schlau zu machen, muss ich natürlich wieder hohe Taktfrequenzen haben und dann habe ich zumindest sehr, sehr hohen Energiebedarf. Aber nichtsdestotrotz, es würde sehr schön zu unseren bisherigen Rechnern passen. Vorteile ist, ich kann es so genau machen, wie ich will, sprich gar nichts dagegen. All diese Rechenelemente, Sumierer, Trivial, integrierer, nicht ganz Trivial, Multiplizierer, wieder Trivial, mit doppelt genauen Gleitkommazahlen oder Ähnlichem ausführen zu lassen. Dann habe ich wieder die üblichen 14 bis 16 Nachkommastellen. Mit der üblichen Zwischenfrage braucht man das wirklich. Es würde super auf FPGAs passen. Im FPGA kriegt man den Kreuzschienenverteilter, das heißt, das Patch fällt quasi geschenkt. Und selbst, wenn ich komische Funktionen habe, das ist auch simpel, ich kann einfach eine Look-up-Tabelle machen. Der Nachteil ist halt Leistungsaufnahme. Ich muss mir wieder die üblichen Gedanken machen, wie um Himmelswillen integriere ich es denn eigentlich. Wenn ich das Ganze zum Beispiel in der Steuerung haben will, brauche ich trotzdem AD und DA-Wandler für Input und Output. Und irgendwo ist es natürlich auch wieder angreifbar, das Ganze. Und es ist nicht stateless, weil ich irgendwie Register drin habe. Über DDR spring ich mal ein bisschen drüber hinweg. Interessant wird eigentlich, schauen wir uns mal Zukunftsaussichten an. Die Folien kann ich gerne zum Download zur Verfügung stellen, wer Interesse dran hat. Der wirkliche Charme an der Geschichte ist wirklich die unglaubliche Rechenleistung, die ich pro Watt daraus holen kann. Das liegt daran, dass ich einen wahnsinnig hohen Grad an Parallelismus habe. Der Rechner, wie er hier vor mir steht, hat acht Koeffizientenglieder, vier Komparatoren, acht Multipliziere, acht Sumierer und vier Integrierer. Und all diese Dinge arbeiten einfach vollkommen parallel. Ich muss einfach nur Kabel stürfen und alles rechnet parallel. Ohne, dass ich mir mit Message-Passing plötzlich Gedanken machen muss, oh Gott, welcher Kern hatte nochmal die Teilaufgabe und blau und oh Gott, ist das im selben Enclosure oder nicht? Interessiert mich alles gar nicht bei so einer Maschine. Die Statelessness und die Nichtangreifbarkeit gehen Hand in Hand. Und cool ist es natürlich, wenn man so was mit dem Digitalrechner koppelt. Auch die Idee ist uralt. Das hatte man schon in den 50er Jahren. Die Firma Confair, einer der größeren Rüstungskonzernen in den USA, die hatten genau das für Flugsimulatoren entwickelt. Weil wenn sie sich Flugsimulatoren anschauen, sie haben oft das Problem, erzeugen sie eine Funktion von zwei Variablen, so einen F von x, y. Und das ist was, was einem Analogrechner zugegebenermaßen schwerfällt. Und die Damen und Herren von Confair hatten damals die tolle Idee, machen wir das doch mit einem Digitalrechner. Der guckt einfach ins Memory, wie soll der Funktionswert sein und gibt einen analogen Wert aus. Und das ist unglaublich leistungsfähig gewesen, weil ich habe plötzlich zwei Rechner in einem Verbund, von denen jeder für eine bestimmte Klasse von Aufgaben perfekt ist. Und in Summe kann ich eigentlich damit wirklich alles erschlagen, was einem Problem auf mich zukommt. Und wofür ist es ideal anwendbar für die Simulation dynamischer Systeme? Das heißt, egal, ob sie einen Flugsimulator bauen wollen oder die Schwingungen irgendeiner mechanischen Struktur simulieren wollen, so ein Analogrechner ist wirklich ideal dafür geeignet. Warum gibt es das nicht? Eine ganze Reihe von Problemen, die wir da haben. Das erste Problem hatten wir schon Ausbildung. Niemand denkt mehr so. Die Leute, die das konnten, sind zu einem großen Teil so böse. Das klingt schlicht ausgestorben, sprich verstorben, meist in hohem Alter. Was weiter ein Problem ist, die Sache mit den Patch-Kabeln ist noch nicht perfekt gelöst. So ein Kreuzschienenverteiler sagt sich ja sehr leicht, aber es ist sau schwer, wenn man im Detail hinguckt. Sie ertrinken in Schaltern. Es gab mal einen Ansatz in den 70er-Jahren gesponsort von der NASA, die das, nämlich sie ahnen, das Apollo-Projekt und danach Space Shuttle für Flugsimulationen gebraucht hatte. Und die hatten ein Forschungsprojekt finanziert. Da ging es um einen rekonfigurierbaren Analogrechner. Davon ist einer sogar an die TU Wien verkauft worden. Der Analogrechner war relativ handlich. Kein Witz dieser Kreuzschienenverteiler. Das waren vier oder fünf 19-Zoll-Schränke mit 40.000 Ried-Relays für die Kreuzschienenmatrix. Das ist natürlich quatsch. Man braucht irgendwie eine schlauere Idee, um das zu machen. Die fehlt noch so ein bisschen. Und was auch noch fehlt ist, wenn ich wirklich für irgendeine komische Anwendung mal eine sehr viel höhere Genauigkeit als das hier brauche, kann ich vielleicht ein mathematisches Verfahren finden, dem ich als Startwert eine Lösung gebe, die so einen Analogrechner generiert hat. Und danach iteriere ich noch so zwei, drei Mal drüber und kriege eine deutlich präzisere Lösung. Auch das ist was, wo man mal drüber forschen müsste. Und was man sich auch anschauen müsste, viele Probleme sehen immer gleich aus. Zum Beispiel Wärmeleitungen in irgendwelchen Objekten. Sie haben irgendwelche komplex geformten mechanischen Objekte. Und die Frage ist, wie verformt sich das Teil oder wie erwärmt es sich, wenn ich es hier warm mache und da kalt mache, zum Beispiel? Fängt schon ein Getriebebau an, schrumpfen Sie mal einen Zahnrad auf eine Welle drauf. Das ist gar nicht so simpel, das wirklich richtig gut zu machen. Und dann könnte man sich glatt überlegen für solche Probleme, die immer wieder vorkommen. Warum baue ich nicht dafür einen wirklichen Spezialrechner, der einfach gar nicht mehr rekonfigurierbar ist, sondern wirklich nur diese Problemklasse löst? Lassen Sie uns ein paar ganz, ganz einfache Beispiele angucken. Den Rest heb ich mir nicht zuletzt aus Zeitgründen für die Hands-on-Geschichte auf. Wie fange ich an, wenn ich ein Problem habe und ich will es mit einem Analogrechner lösen? Die ersten Schritte sind natürlich genau dieselben wie für jedes andere Problem. Ich brauche erst mal ein mathematisches Modell. Und das ist die wirkliche Kunst an der Sache. Wenn Sie irgendein schwingendes System angucken oder irgendwas Komplexes sich bewegen, das in der Mechanik, dann brauchen Sie erst mal eine mechanische und mathematische Beschreibung dieses Systems. Wenn Sie die haben, können Sie entweder einen Matlab eintippen und das Ganze mit hohem Energieaufwand lösen lassen, numerisch, immer mit dem nagenden Zweifel im Hinterkopf. Hat das echt Hand und Fuß? Oder passt das Integrationsverfahren nicht zum Problem? Oder Sie bilden jetzt Ihre Gleichungen auf eine Rechenschaltung ab? Was man hier nämlich eigentlich sieht, dieses hier noch relativ überschaubare Gewirr von Strippen, das ist eine mathematische Gleichung. In dem Fall sind es drei mathematische Gleichungen. Hier hängen nämlich Summierer, Hinterintegrierern, Hintermultiplizierern, Hinterblablabla. Wenn man jedes Kabel zurückverfolgt, stellt man fest, jedes Kabel und jedes Rechenelement macht natürlich eine einfache Rechenaufgabe. Und ich kann im Prinzip jede mathematische Gleichung als so ein Kabelgewirr stöpseln und umgekehrt dieses Kabelgewirr durch klassische mathematische Gleichungen repräsentieren. Und schauen wir uns mal ein ganz, ganz einfaches Problem an. Ich skippe hier mal ein bisschen drüber. Ich hätte gerne Sinuskurve. Das ist so das Anfängerproblem für Analogrechner. Wie macht man das auf einem Digitalrechner? Wie würden Sie, wenn Sie für ein Spiel oder sonst irgendetwas mal schnell einen Kreis bräuchten? Wie machen Sie einen Kreis auf einem Digitalrechner? Rufen Sie dauernd ein Sinus auf? Haben Sie so was wie vor Phi gleich 0, solange wie Phi kleiner 2P ist, mache Phi 0,1er Schritten größer und rechne jeweils Sinus und Cosinus von Phi aus? Ich hoffe nicht. Das dauert ewig, weil was macht der Sinus? Der wertet eine Taylor-Reihe aus. Das heißt, die trinken in dem Ausrechnen eines Polynomes für Tausende von Stützstellen nur um den Publikum Kreis zu malen. Wie würden Sie das denn schlau auf einem Digitalrechner machen, den Kreis zeichnen? Cordic ist hier das Stichwort. Coordinate Rotation by Digital Computer. Das ist auch was, was man dem Militär zu verdanken hat. Das war eines der Probleme bei den B 52-Bombern und der Hastler. Wie zum Teufel navigiere ich eigentlich in so einem Ding? Wenn Sie da 24 Stunden unterwegs sind, die haben ja ständig, Sie haben Ihr Koordinatensystem und Sie fliegen um die Erde rum, die auch ein Koordinatensystem hat und alles dreht und rotiert und sonst was. Dafür wurde ein sehr cooles Mathematisches Verfahren Cordic entwickelt. Wo ist denn meine Frau, mein Taschenrechner? Sonst hätte ich den schnell zeigen können, dass auch in den ganz klassischen, kraftlichen Taschenrechnern verwendet worden ist. Aber in der Analogtechnik macht man was ganz ganz anderes. Wenn Sie an Sinus und Cosinus denken, und das ist wahrscheinlich das Problem, dann sind Sie vom Matheunterricht in der Schule völlig verdorben worden, weil Sie denken an Einheitskreis, oder? Sie denken an irgendjemanden, der den Kreis malt und da malt ein rechtwinkliges Dreieck rein und das ist der Sinus, das ist der Cosinus. So kann man es sehen, aber so muss man es nicht sehen. Das ist nämlich eigentlich gar nicht das, was den Sinus auszeichnet. Was den Sinus auszeichnet, ist was ganz anderes. Nämlich eine Differenzialgleichung zu lösen. Der Sinus hat eine lustige Eigenschaft. Wenn Sie sich so ein Sinus vorstellen, also aus Ihrer Perspektive sieht er dann so aus, der Sinus sieht so aus, dann ist die erste Ableitung vom Sinus ein Cosinus, weil der steigt mit Steigung 1 im Nullpunkt. Die erste Ableitung ist ein Cosinus. Die erste Ableitung vom Cosinus ist ein Minus Sinus. Das heißt, die zweite Ableitung von einem Sinus ist der Minus Sinus. Und das ist eigentlich eine coole Eigenschaft, die man ausnutzen kann und das tut man auch beim Analogrechner, weil man fragt sich, finde ich eine Differenzialgleichung, wo man normalerweise sagen würde, um Himmels willen, bist du wahnsinnig so was Kompliziertes, wie eine Differenzialgleichung zu machen, um so was Simples wie ein Sinus auszurechnen. Und die Antwort ist, das ist sau cool, dass es viel vernünftiger ist, eine Tailareihe zu machen. Man schreibt nämlich erst mal seine Differenzialgleichung hin, dass da unten die zwei Tüttelchen über dem Y heißen, es ist die zweite Ableitung von Y nach der Zeit. Das ist genau das, was ich gerade gesagt habe. Die zweite Ableitung vom Sinus ist Minus Sinus. Y-Punkpunkt ist gleich irgendwas mal Minus Sinus. Und das kann ich jetzt neben, um es wirklich sehr, sehr direkt mit dem Analogrechner zu lösen. Mal angenommen, der übliche Mathematiker-Trick, ich behaupte, ich wüsste, was Y-Punkpunkt ist. Was natürlich dreist gelogen ist, ich habe keine Ahnung. Aber angenommen, ich wüsste, was Y-Punkpunkt ist. Dann wissen Sie alle, wenn ich einmal drüber integriere, kriege ich Y-Punkt raus. Das Minus steht liegt daran, dass, wie gesagt, Rechenelemente das Vorzeichen in der Regel einmal drehen. Aber wenn ich das hier hätte und ich würde noch mal drüber integrieren, dann bekomme ich ja Y raus. Und wenn ich da das Vorzeichen umdrehen würde, man beachte diese Häufung von Konjunktiven, dann hätte ich Minus Y. Blöd nur, dass ich Y-Punkpunkt nicht kenne. Aber jetzt kommt das coole, das ist doch eine Gleichung. Hier steht doch Y-Punkpunkt ist gleich minus irgendwas mal Y. Es ist ja wirklich gleich. Das heißt, das da ist genau dasselbe wie das da. Das heißt, ich kann einfach ein Kabel von hier nach hier stecken und habe eine Rechenschaltung, die mein Gleichheitszeichen zufrieden stellt. Und das coole an der Sache ist, hier wird erstmalig wahrscheinlich für manche klar, wofür in der Schule immer das war, das Integral über bla bla bla ist blub plus C. Sie erinnern sich an dieses unmotivierte plus C, diese Konstante. Wo Mathe-Lehrer ein meistes die Erklärung schuldig geblieben sind, warum eigentlich, warum eigentlich? Naja, wenn ich mir diese Differenzialgleichung angucke, die kann ich auch ganz simpel lösen. Ich könnte sagen, ich fange mit Null an und dann ist das Ding immer Null. Null integriertes, Null integriertes, Null des Minus, Null des Null tut sich nix. Das ist eine sogenannte partikuläre Lösung, allerdings die Dorfste von allen, die triviale Lösung. Was wäre, wenn ich das mit 1 anfangen lasse? Tada, dann kommt ein Cosinus raus. Was ist, wenn ich das mit minus, dann kommt ein Minus-Cosinus raus. Und das ist der Sinn von dieser Konstanten, die man in der Schule meistens nicht verstanden hatte, dieses plus C. Und das kommt hier. Diese zwei Anschlüsse, damit sage ich den Integrierern. Und übrigens, wenn ihr anfängt zu integrieren, dann fangt nicht bei Null an, sondern bei einem bestimmten Startwert. Und damit kann ich dann dem Rechner sagen, was ich gerne hätte. Das ist eine Vollschwingung eines Sinus, der mithilfe von zwei Integrierern und einem Summierer erzeugt worden ist. Und ich hoffe, Sie müssen zugeben, dass Charmante an der Geschichte ist. Ich habe keine komische Dove-Geometrie gebraucht. Ich brauchte nicht mal eine geometrische Vorstellung davon, was ein Sinus ist. Das Einzige, was ich brauchte, war eine Differenzialgleichung. Und die habe ich ohne nachzudenken in eine Schaltung übersetzt. Und voilà, es kommt die richtige Lösung raus, nämlich eine Sinuskurve. Das kann ich jetzt, das ist auch ein Grund, wofür oder ein Bereich, in dem Analog-Rechner sehr gut einsetzbar sind. In der Messtechnik braucht man häufig eine sogenannte Gleitfrequenz. Im englischsprachigen Raum ist das meistens als Wobbeln bekannt. Das heißt, eine Frequenz, irgendein Sinus-Signal, das mit einer niedrigen Frequenz anfängt und bis zu einer hohen geht. Und das ist auch nicht so viel schwieriger. Bei einem Analog-Rechner brauche ich einfach nur zwei Multiplizierer, weil da muss ich nämlich nur dieses Omega-Quadrat mit der Zeit veränderlich machen. Und was dann rauskommt, ist sowas. Und ich hatte gestern mit einem Freund gemailt, der sich gerade überlegt, oh, ich brauche dringend ein Signalgenerator, was würdest du mir empfehlen? Wenn ich ganz ehrlich bin, ich würde mir Analog-Rechner empfehlen. Weil, weil dann schreibe ich einfach die Differenzialgleichung auf, die mein Signal beschreibt, stöpselt das und wo alla, habe dieses Signal. Und zwar richtig schön spektral rein, viel besser als mit so einem Direkt-Synthese-Teil, so einem modernen. Lassen Sie uns noch ein einziges Beispiel vor Ende dieser Veranstaltung angucken. Ein bisschen was Komplizierteres, was ich auch jeder vorstellen kann. Masse-Feder-Dämpfersystem. Klar, da habe ich plötzlich ein paar Parameter. Die Feder könnte unterschiedlich steif sein, der Dämpfer kann unterschiedlich stark sein. Was für Auswirkungen das hat, habe ich vor ein paar Monaten erlebt, als mein Auto nicht über den TÜV kam. Spießer allesamt, nur weil eine Feder gebrochen war, haben die mich nicht über den TÜV kommen lassen. Ich gebe offenzu, es ist ganz erstaunlich, welche Auswirkungen das doch auf die Fahrdynamik hat. Mit neuer Feder fährt sich doch deutlich relaxter und stabiler in Kurven. Schauen wir uns mal ganz kurz an. Hier haben wir eine Masse, die soll punktförmig sein. Da Sie den Punkt gar nicht sehen, habe ich einen Kringel gemacht. Hier ist eine Feder und hier ist ein Dämpfer. Und mathematisch, dass es bisher noch quasi Schulphysik, das kennen Sie noch, die Kraft, die so eine Masse macht, ist einfach F gleich M mal A, Masse mal Beschleunigung. Ich kenne zwar die Beschleunigung nicht, macht aber nichts mit dem Trick von eben. Ich tue so, als wüsst ich Sie und handle mich dann von der Beschleunigung zur Geschwindigkeit, zur Position und wo er la, habe dann irgendwann wieder die Beschleunigung in der Hand und kann so eine Rechenschaltung aufstellen. Hier ist meine Feder, die ist auch stark vereinfacht, die ist rein linear. Das heißt, wenn ich die doppelt so weit auslenke, brauche ich doppelt so viel Kraft. Die geht auch nicht kaputt und überhaupt. Und mein Dämpfer, der ist geschwindigkeitsabhängig. Kennt auch jeder, der mal mit der Handfläche durch Wasser im Schwimmbad oder eher im Schwimmbad, denn der Badewanne gibt es eine Riesensauerei gefahren ist, stellt auch fest, wenn Sie das sehr langsam machen, ist das relativ leicht. Versuchen Sie mal, die Hand schnell durch Wasser zu bewegen. Da stellt man fest, wie ein Geschwindigkeitsabhängiger Dämpfer funktioniert. Was man jetzt macht, bisher ist ganz normal, das müssen Sie auch machen, wenn Sie es digital mit einem speicherprogrammierten Rechner machen. Sie machen ein bisschen Physik. Die Summe aller Kräfte in einem abgeschlossenen System ist null. Dann setzen Sie für die Kräfte die einzelnen Therme ein und stellen fest, das ist eine Differenzialgleichung geworden. Hier habe ich zweite Ableitung nach der Zeit und eine erste und eine Nullte und die ist noch dazu homogenen, weil sie null ist und dann löse ich das nach y-Punkt-Punkt auf. Wer an den Trick mit dem Sinus denkt, ist der selbe Trick wie eben. Ich tue so als wüstig, was die Beschleunigung ist. Wie gesagt, das ist dreist gelogen, aber aus der Beschleunigung kann ich mir die Geschwindigkeit mit einem Integrierer basteln und aus der Geschwindigkeit die Position. Und wie man sieht, die zweite Ableitung hat ja irgendwas mit der Geschwindigkeit und der Position zu tun. Das heißt, ich baue mir diesen Thirm aus Rechenelementen auf. Und das ist der einzige Trick, der dahinter steckt. Das heißt, ich fange erst mal ganz vorsichtig an. Ich behaupte, ich wüsste, was das ist. Integriere es, dann hätte ich in y-Punkt. Integriere noch mal, dann habe ich meine Position. Das multipliziere ich mit der Federkonstanten und mit der Dämpferkonstanten. Summe mir den Kladderer Dutch zusammen. Dann habe ich diesen Thirm, das ist schon fast das, was ich in den Bruch gehabt habe. Und dann muss ich am Ende einfach noch mal durch 1 x 1 durch m rechnen. Und voilà, kann hier eine Rückführung schließen. Und das ist der Trick bei fast allen Analog-Rechenschaltungen. Ich habe eine Rückführung. Das heißt, ich habe immer ein dynamisches System, das also zeitlich sich eben nicht konstant verhält. Auf einem klassischen System, Baujahr 1961, sieht das so aus. Man sieht die Schaltung selber belegten winzigen Teil dieses Analog-Rechners, vielleicht so ein Fünftel oder ein Sechstel. Man sieht auch das klassische Ausgabegeräten aus Zyloskop. Wenn man dann diese Rechnung mal laufen lässt, kriegt man solche Bilder raus. Das heißt, ich kann während der Rechnung läuft einfach an einem Poti drehen und kann mir anschauen, was passiert eigentlich, wenn die Feder stärker wird. Und man stellt zum einen fest, zum einen schwingt es natürlich länger aus. Aber man stellt auch fest, die Frequenz verändert sich. Das kann ich natürlich auch mathematisch zeigen, aber hier sehe ich es. Und das ist ungleich cooler, also einfach auf die Formeln zu starren und sich zu überlegen, oh Gott, ungedämpfte Kreisfrequenz. Wurzlaus Omega 0 Quadrat minus Beta Quadrat. Ah, völlig unintuitiv, das hier ist intuitiv. Ich sehe, wie würde eigentlich meine Masse ausschwingen? Und ich kann direkt in die laufende Rechnung eingreifen. Hier noch mal ganz kurzen Bild für Details, für die Zeit. Aber falls Sie sich je fragen, wie viele Zombies Sie töten, müssten pro Zeiteinheit, wenn es zu einer Zombie-Apokalypse kommt, dann hilft Ihnen natürlich wie in fast allen anderen Lebenslagen ein Analog-Rechner. Und das Interessante ist, das kommt in den Filmen nie raus. Die Filme sind beschiss, wissen Sie das? Ich habe immer gedacht, das wäre ernst, nein, natürlich nicht. Aber was in den Filmen nie rauskommt, das ist immer so ein schwarz-weiß Ende. Entweder alle Tod, also alle Zombies oder die Zombies haben verloren. Sie schaffen es, periodische Zombiesysteme hinzukriegen. Das heißt, das grauen muss gar kein Ende haben. Hier noch ein letztes Beispiel, ein vorletztes Beispiel, eines sogenannten chaotischen Attraktors, ein Rössler-Attraktor. Sie müssen auch hoffig zugeben, ist es einfach wunderschön, oder? Vor allem, wenn man das auf dem Oszilloskop sieht und dreht an dem Poti und sieht sofort, wie verändert sich dieser Attraktor eigentlich? Zum Abschluss der Ball ist jetzt nicht so toll, da habe ich noch ein letztes Beispiel. Luftströmung um den rotierenden Zylinder. Und das kann man noch erweitern in der Luftströmung um eine Tragfläche. Ohne eine einzige Zeile Code, nur durch mehr oder minder schlaues Verschalten von Rechenelementen. Und das Schöne ist, das kann man wirklich so schnell laufen lassen, dass sie auf dem Oszilloskop wirklich so einen Output kriegen. Ja, das ohne Witz hängt zu einem großen Teil davon ab, wie viele Rechenelemente sie dafür entbeeren können. Also man bekäme es hin. Also ein gewisses Problem bei dieser Rechnung hier ist, wenn Sie wollen, kann ich Ihnen wie gesagt die Folien geben, da ist ein logaritmischer Term drin. Das heißt, das Ding hat gewisse Probleme, wenn es hier hinten zu Vorzeichen umkehr kommt. Also das käme mit Turbulenzen überhaupt nicht gut zurecht, weil man dann ein Overflow bekommt beim Analogrechner. Das heißt, irgendein Rechenelement geht in die Begrenzung. Das ist aber ein Valida-Punkt. So, das war übrigens das Bild, das man ganz am Anfang gesehen hatte von dem relativ großen Analogrechner mit den vielen Strippen. Das war konkret genau das Programm, dass die Umströmung dieses sogenannten Jukowski-Profils gemacht hat. Damit habe ich Ihnen, das hätten Sie wahrscheinlich auch nicht gedacht, geschafft, in der Dreiviertelstunde durch 106 Seiten durchzuhetzen. Wir wurde gesagt, ich muss Ihnen noch, oder soll Ihnen noch, was ich von Herzen gerne tue, die Gelegenheit für Fragen geben. Aber ich möchte nicht versäumen, Sie noch darauf hinzuweisen, wie gesagt, es gibt einen Hands-on, erscheinen Sie zahlreich. Schießen Sie los. Wie programmiert man das Flügelprofil da rein? Gute Frage. Das Flügelprofil, ob Sie es glauben oder nicht, ist ein verbogener Einheitskreis. Das ist Anfang des 20. Jahrhunderts entwickelt worden von den Herren Runge und Jukowski. Wer an Runge-Kutta-Integrationsverfahren denkt, dass genau der Runge und ein Herr Jukowski, die haben eine Konforme, d.h. eine winkelerhaltende Abbildung entwickelt, mit der Sie in einen Einheitskreis in so eine Tragfläche verbiegen können. Und solche konformen Abbildungen, damit hat die theoretische Herodynamik auch wirklich begonnen, weil das war das erste Mal, dass man mathematisch so eine komische Form überhaupt beschreiben konnte. Und so funktioniert es eigentlich auch. Die Strömung um den rotierenden Zylinder, die kriegt man nämlich mathematisch relativ gut hin. Dann ist die Idee, und jetzt verbiege ich meinen Zylinder in eine Tragfläche. Und kein Witz, die Strömung folgt, dieser Verbiegung ist wirklich realistisch danach. Okay, wenn Sie sonst ... Sekunde, Moment. Der 10-4-Fehler, woher kommt das? Also wenn Sie Analog-Elektronik machen, zum einen Sie haben immer Rauschen. Rauschen an PN-Übergängen unvermeidbar auch mit modernen Operationsverstärkern. Sie haben Drifteffekte, versuchen Sie mal einen Operationsverstärker ganz ohne Nullpunktdrift hinzukriegen, ist beliebig schwer. Und da fängt es an, wirklich eklig zu werden. Weil wenn Sie ein Zeitintegral bilden, und Sie haben irgendwo auch nur einen Millivolt-Fehlerspannung, Ihr Integral verschiebt sich natürlich dann langsam pro Sekunde um dieses eine Millivolt nach oben. Das heißt, dass es auch schwierig reproduzierbar ist. Es gibt zwei verschiedenen Analog-Rechnungen. Das ist ein sehr interessanter Punkt. Ja, wenn Sie wirklich die letzten Nachkommastellen angucken, da liegen die deutlich auseinander. Aber was den Grad an Realismus der Lösung betrifft, sind Sie in der Regel wirklich vergleichbar. Das können Sie auf irgendein Analog-Rechner stecken, die werden nicht ganz genauso so aussehen, aber im Großen und Ganzen so. Und das ist das Erstaunliche. Es ist eine wirklich gutmütige Form des Integrierens. Sie haben nie das Problem, wie bei numerischer Integration, dass es manchmal halt wirklich kompletter Käse sein kann. Du hast gesagt, dass die vier Nachkommastellen, dass das ja gar kein Problem ist, weil das braucht man sowieso nie. Aber wenn ich jetzt was weiß, dass ich Elektronen oder kleine physikalische Sachen mit Elektronenmasse oder blank berechnen will, mit einem Analog-Rechner, dann brauche ich das ja doch... Braucht man dafür wirklich so viel Stellen oder brauche ich nur einen sehr kleinen Wertebereich? Wie genau kenne ich die Elektronenmasse? Wahrscheinlich reichen auch da drei bis vier Stellen und damit rechnen zu können. Das ist ja egal. Das kann ich durch entsprechende Skalieren meiner Rechnung weder im Bereich von 10 oder 0 kriegen. Ich habe halt nur vier Stellen. Das heißt nicht, dass ich nicht mit sehr großen oder sehr kleinen Werten durchskalieren rechnen könnte. Ich sehe nur halt so eine Art Halbegleitkommazal, die ich habe. Half Float. Ja, wenn Sie keine Fragen mehr haben, bedanke ich mich ganz herzlich für Ihr Interesse und wie gesagt Hands On in einer Stunde.