 So, herzlich willkommen erstmal. Vielen Dank für Ihr zahlreiches Erscheinen. Analogrechnerprogrammierung, das könnte für viele von Ihnen neu sein, vor allem weil es ein ganz anderes Programmierparadigma ist, als das, was Sie aus der algorithmischen Welt der speicherprogrammierten Digitalrechner kennen. Analogrechner haben auf diesem VCFB einen relativ großen Anteil, einen eigenen Raum sogar, mit wunderschönen Maschinen, wie Sie gesehen haben. Eine EAI Mini-AC aus dem Computermuseum in Paderborn, eine GTE EA 22 von Miel, eine EAI 180, eine wunderschöne RT 700 von Telefunken. Man sieht einen schönen Querschnitt über die Analogrechnerentwicklung zu der späten 60er bis frühen 70er Jahre mit den Rechnern, die dort stehen. Und ich bin gestern unglaublich oft gefragt worden angesichts der Patchfelder dieser Analogrechner und das ist das Programm. Ja, das ist das Programm. Dieser Kabelverhauer auf den Patchfeldern ist genau das, wie man einen klassischen Analogrechner programmiert. Klassischer Analogrechner heißt jetzt quasi wirklich spaghetti code, wenn man so möchte. Analogrechner haben, wie wir gestern gesehen haben, definitiv eine große Zukunft, aber natürlich nicht in dieser Form. Analogrechner für das 21. Jahrhundert werden auf Chips integriert sein und die gesamte Verschaltung der Rechenelemente wird über Kreuzschienenverteiler mit FET Switches geschehen, sodass man nichts mehr wirklich physikalisch stöpseln muss. Nichtsdestotrotz die Programmiertechniken werden dieselben sein und deswegen lohnt es sich durchaus nicht nur mit historischem Interesse, sich mit der Analogprogrammierung zu befassen, sondern auch mit dem Blick nach vorne. Zum Beispiel herrscht relativ großes Interesse im Bereich der Gamephysik, was Analogrechner als Co-Prozessoren angeht, denn was liegt näher als für die Simulation von physikalischen Systemen, wie sie für Spiele benötigt werden? Na ja, ein physikalisches System zu nehmen. Es ist ja irgendwie schon ein bisschen pervers, das Schritt für Schritt algorithmisch auf einem Digitalrechner zu machen. Deswegen ganz kurz ein paar Worte zu beginnen. Was ist eigentlich ein Analogrechner und was ist sein Wesen? Ganz wichtig, obwohl die meisten Analogrechner, die sie je zu Gesicht bekommen werden, analog-elektronische Analogrechner sind, ist das kein Muss. Es gab durchaus digitale Analogrechner. Was den Analogrechner nämlich zum Analog- oder Analogon-Rechner macht, ist, dass er mit einem Modell arbeitet. Das heißt, es ist wirklich kein Widerspruch, in sich einen digitalen Analogrechner zu haben. Das machen auch zunehmend mehr Firmen und Universitäten mit Hilfe von FPGAs, Field Programmable Gate Arrays, in denen sie digitale Analogrechnerstrukturen implementieren. Als kurze historische Randbemerkung der erste digitale Analogrechner, die nennt man dann DDRs, für Digital Differential Analyzer, ist 1949 gebaut worden. Und zwar von Northrop, Madida. Der Rechner war ursprünglich für militärische Applikationen vorgesehen und zeigt, wie früh man auf die Idee kam, das Ganze auch digital elektronisch zu machen. Das heißt, der zentrale Dreh- und Angelpunkt ist, ich arbeite hiermit mit einem Modell. Ich arbeite nicht notwendigerweise mit Analog-Elektronik, wobei die natürlich viele Vorurteile hat, allerdings auch ein paar Nachteile. Wenn Sie einen klassischen Digitalrechner anschauen, den Sie alle kennen, eine speicherprogrammierte Architektur, dann fällt Ihnen als erstes auf, dieser speicherprogrammierte Digitalrechner hat eine feste Struktur. Das Einzige, was sich ändert, ist der Algorithmus im Speicher. Das ist beim Analog-Rechner genau umgekehrt. Sie haben gar keinen Speicher, indem Sie einen Programm ablegen, sondern Sie ändern die Struktur des Rechners. Genau das geschieht über das Patch-Feld. Ich habe hier mal ein Patch-Feld mitgebracht, das ist natürlich jetzt nicht wirklich im Detail zu sehen, aber wenigstens von der Größe. Das ist ein klassisches Patch-Panel einer großen Analog-Rechenanlage von Telefunken. Und Sie sehen hier wirklich Tausende von Buchsen. Und mit diesen Buchsen können Sie alle einen Ausgänge und Steuereingänge von Rechenelementen miteinander verbinden, in geeigneter Weise, um irgendein Problem zu lösen mit der Maschine. Bei kleinen Analog-Rechnern ist das Patch-Panel festmontiert. Bei großen Analog-Rechnern konnte man es abmachen. Das heißt, ohne Witz die Programmbibliothek bestand aus einem Schrank voller Patch-Panel mit dem entsprechenden Kabelgewusste obendrauf. Das heißt, der Programmwechsel von einem Programm zunächst ging im einfachsten Fall wirklich in wenigen Sekunden. Hebel ziehen Patch-Panel raus, neues Patch-Panel rein, Hebel wieder hoch drücken, Patch-Panel arretieren und fertig. Ganz so einfach war es in der Praxis nicht, weil Sie müssen dann noch ganz viele Potentiometer meistens einstellen, aber nichtsdestotrotz, es funktionierte. Das heißt, die Struktur des Analog-Rechners ist nicht fix. Das ist der eigentliche Trick an der Sache und auch der eigentliche Vorteil. Da Sie die Rechenelemente, wie wir im Folgenden an vielen, vielen Beispielen sehen werden, geeignet miteinander verschalten, um ein Modell Ihres Problems zu kriegen, haben Sie auch nicht das Problem, dass Sie bei klassischen Digital-Rechnern haben, dass Sie zum Beispiel Parallelismus sehr, sehr mühsam nur umsetzen können und ständig SIM-Affore oder Mutex oder sonst irgendetwas brauchen. Weiterhin Analog-Rechnern haben durchaus nicht nur Vorteile, es gibt auch manche Nachteile. Sie kennen alle den Trade-Off, den Sie bei Digital-Rechnern machen können, zwischen Komplexität und Laufzeit. Wer Hitchhikers Guide to the Galaxy gelesen hat, erinnert sich vielleicht an Deep Thought, den Rechner, der Millionen Jahre gerechnet hat und dann die Antwort auf alle Fragen 42 auszuspucken. Und das ist ein leicht überspitztes Beispiel dafür, dass, wenn Sie ein komplexeres Problem haben, können Sie das mit einer digitalen Maschine, mit einem speicherprogrammierten Digital-Rechner, unter erhöhtem Zeitaufwand in der Regel lösen. Diesen Trade-Off gibt es nicht in dieser Form bei einem Analog-Rechner. Entweder Ihr Problem passt auf den Analog-Rechner, das passt halt nicht drauf. Wenn aber Ihr Rechner von seiner Größe nicht dem Problem angemessen ist, dann können Sie das Problem damit nicht lösen. Kann man durchaus als Nachteil sehen. Das wird aber ohne Weiteres wieder aufgewogen, eben durch die Tatsache, dass alle Rechenelemente eines Analog-Rechners vollkommen parallel arbeiten. Man kann sich so ein bisschen wie eine Datenflussmaschine vorstellen. Hier sind zwei, wie ich finde, sehr illustrative Abbildungen aus einem Buch aus den 50er-Jahren, die das Prinzip, die unterschiedlichen Wirkprinzipien von Digital- und Analog-Rechnern mal unterstreichen. Digital Computers equivalent to a very reliable, highly-paid, exceptionally fast. Man beachtet 300 bis 10.000 Operationen pro Sekunde. Das ist etwas alt, die Abbildung. Das Calculator Operator. Das trifft Sie auf dem Punkt. Sie haben im einfachsten Fall ein zentrales Rechenwerk, die Arithmetic Logic Unit. Sie haben ein Steuerwerk und sie haben irgendwo einen Speicher, aus dem Sie Instruktionen und Daten lesen, entweder zusammen oder getrennt. Ein Analog-Rechner hingegen sieht so aus. The General Purpose Analog Computers comparable to a team of operators. Was man hier oben sieht, dieses Team of Operators, jeder Operator kann eine Operation abbilden, addieren, multiplizieren, integrieren, dividieren. Und diese Felden, die dazwischen quasi gespannt sind, die sind die Verbindungen. Das heißt, die zeigen an, was aus dem einen Operator rausgeht, landet als Input beim nächsten Operator und so weiter. Das heißt, Sie haben keine zentrale Steuereinheit, Sie haben keinen zentralen Takt oder sowas, sondern Sie haben Rechenelemente, die in den Fällen, die wir uns hier anschauen werden, alle mit Spannungen arbeiten, um Werte zu repräsentieren und die verschalten Sie geeigneterweise, um Modelle zu entwickeln für die Probleme, die Sie lösen möchten. Wenn Sie was mit Analogien, mit Modellen machen, das ist die erste Frage, die sich stellt, wie abstrakt sind diese Modelle. Im einfachsten Fall können Sie direkte Analogien wählen. Eine direkte Analogie bedeutet zum Beispiel, wenn Sie eine Minimaloberfläche bestimmen wollen, nehmen Sie eine Seifenblase oder einen Damenstrumpf oder sowas. Hat man durchaus gemacht, wenn Sie sich anschauen, wie Gaudi zum Beispiel die Statik für seine Kirche entwickelt hat, stellen Sie fest, der hat da wirklich Stoffbahnen genommen und mit Sandsäckchen beschwert, um die verschiedenen Lasten zu simulieren, die auf den Tragwerkstrukturen lasteten. Im Unterschied zu solchen direkten Analogien, die also dasselbe physikalische Prinzip nutzen, wenn ich irgendwas mit einer Oberfläche mache, dann mache ich das auch mit irgendetwas, was Oberflächen bildet. Im Gegensatz dazu sind indirekte Analogien zu sehen. Das heißt Analogien, die auf einem anderen Wirkprinzip arbeiten und in der Regel abstrakter sind. Und das, was eigentlich das größte Interesse nach sich zieht, sind analog-elektronische indirekte Analogien. Das heißt egal, ob Ihr Problem aus der Mechanik, aus der Kernphysik oder sonst irgendetwas ist, Sie bilden es erstmal in Form einer mathematischen Gleichung ab oder eines Systems von Gleichungen, Differenzialgleichungen und danach bilden Sie die wiederum ab in eine Schaltung von Rechenelementen, die dann diese Gleichung sozusagen mechanisiert. Hier ist ein Beispiel für eine direkte Analogie. Mit solchen direkten Analogien, entweder mit Seifenfilmen oder eben mit Strümpfen und Ähnlichem, wurde beispielsweise das Dach des Münchner Hauptbahnhofes, des Münchner Olympiastadions simuliert. Das kennen Sie alle, diese wirklich grandiose Dachkonstruktion, die an Pylonen hängt. Und da stellt sich natürlich die Frage, wie muss die Dachstruktur eigentlich aussehen, um bei den auftretenden Windschnee und sonstigen Lasten stabil zu sein? Das hat man mit solchen Modellen hier simuliert. Was man sieht, ist eine Stoffbahn, die von den physikalischen Eigenschaften halbwegs dem entspricht, was man natürlich runterskaliert vom Dach erwartet. Und an diesen Stellen kann man die Position der einzelnen Pylone einstellen und dann zu gucken, welche Formen ergibt sich und die dann später makroskopisch wirklich als Dachkonstruktion auszuführen. Eine indirekte Analogie sieht dann zum Beispiel so aus. Hier sieht man jetzt nicht mehr, was simuliert wird. Dafür müsste man sich die Rechenschaltung, das heißt, das Programm im Detail anschauen. Hier ist es zum Beispiel die Simulation des Weges, den ein Luftteilchen um eine Tragfläche herumnimmt. Und Sie sehen, das ist auf der einen Seite ein Problem aus der Aeronautik. Mich interessiert letztlich Auftrieb und Ähnliches von der Tragfläche. Aber simulieren tue ich das, indem ich ein vollkommen anderes physikalisches Prinzip nutze, nämlich hier ganz abstrakte Recheneinheiten, die addieren, multiplizieren, integrieren können und so weiter. Das mit dem integrieren kann man übrigens gar nicht oft und laut genug sagen. Das Tolle an einem Analogrechne ist, dass Integration eine Grundoperation ist. Das heißt, nicht nur plus-minus-mal durch, wobei sie Multiplikation und Division gar nicht mal so häufig in der Regel brauchen, aber Integration ist wirklich eine Grundoperation eines Analogrechners. Wie kann man das implementieren? Im Idealfall sollte man sich darüber gar keine Gedanken machen müssen. Wenn Sie eine indirekte Analogie machen, ob das Analog elektronisch ist, oder vielleicht hydraulisch oder mechanisch, idealerweise stellt man sich wirklich nur eine Blackbox vor, die irgendeine mathematische Operation ausführt. Wie es innen aussieht, tut nichts zur Sache und hilft nicht beim Programmieren. Was man klassisch gemacht hat, war am Anfang naheliegend erstmal mechanische Rechenelemente. Dann hatte man ohne Witz hydraulische Analogrechner gemacht. Wenn Sie mal im Londoner Science Museum sind, dann schauen Sie sich den Finanzierfallografen an. Muniak genannt des Volkswurz Philips, der damit unter anderem Simulationen gemacht hat, die zur Entdeckung der sogenannten Philips-Kurve gebracht haben. Auch in Russland waren hydraulische Analogrechner, die wirklich mit Wasser gerechnet haben, in den 30er Jahren relativ weit verbreitet. Zum einen als direkte Analogin, Lagerstätten-Simulation zum Beispiel, zum anderen aber auch wirklich als ganz abstrakte Rechenautomaten. Dann stellt sich natürlich die Frage um Himmelswillen, rechne ich mit Wasser, wie integriere ich denn mit Wasser? Vollkommen trivial eigentlich. Sie regeln über ein Ventil den Zufluss eines Wasserstromes zu einem Behälter und wiegen den einfach nach einer bestimmten Zeit. Der Behälter tut nichts anderes als integrieren, nämlich das Wasser aufsammeln, das in dieser Zeit spannend reingelaufen ist. Ganz erstaunlich, damit kriegen sie relativ problemlos 3-4 Nachkommastellengenauigkeit hin. Dann hatte man, und das ist hier auf dem VCFB auch vertreten, analogelektronische Implementation, das heißt, ihre Summierer, integriere und was auch immer, sind rein analogelektronisch umgesetzt und es gibt eben auch die Möglichkeit, das digital zu machen. Aus heutiger Sicht mechanisch ist wirklich nur noch Museum von Interesse, hydraulisch natürlich auch, aber vielversprechend sind wirklich analogelektronische und digitale Umsetzungen von solchen Rechenanlagen. Welche Vorteile hat eine analogelektronische Implementation? Eine unglaublich geringe Leistungsaufnahme. Das heißt, wenn Sie sich anschauen, wie viele MIPS bzw. Megaflops pro Watt sie bekommen, liegt das wirklich immer noch in Faktor 3 über dem, was moderne, modernste Digitalrechner schaffen. Und netterweise dadurch, dass die Integration letztlich darauf abgebildet wird, dass man einen Kondensator auflädt, muss man sich keine Gedanken über das Integrationsverfahren selber machen. Wer von Ihnen mal numerisch integriert hat, kennt das Problem, welches Verfahren nutze ich denn um irgendein Problem zu lösen. Das kann man nie pauschal beantworten. Da gehört viel Erfahrung dazu und teilweise auch viel experimentieren. Das Problem haben Sie fast nie mit einem analogelektronischen Analogrechner. Die Lösungen sind in der Regel realistisch. Nachteile gibt es allerdings auch. Die Begenauigkeit ist naturgemäß beschränkt. Wer mit Analogelektronik experimentiert hat, weiß, Rauschen, Drift und ähnliche Dinge sind Effekte, die Sie nie prinzipiell loswerden. Die können Sie natürlich in Ihrer Größe beschränken, aber nichtsdestotrotz besser als vier Nachkommastellenauflösungen kriegen Sie eigentlich nicht hin. Ein weiterer Nachteil ist, wenn Sie um etwas zu integrieren, einfach einen Kondensator aufladen, dann steckt da ja die Zeit direkt drin. Das heißt, Sie haben zumindest ohne weitere Kunstgriffe nur die Zeit als sogenannte freie Variable bei der Integration. Sie können also nur integrale bla bla bla DT ohne weiteres ausrechnen. Und was wirklich ein Problem ist, Funktionen zu erzeugen, die von mehr als einer Variable abhängen, ist zugegebenermaßen eklig. Funktionen von einer Variable sowas wie Sinus X, das ist einfach, aber sowas wie F von X, Y, das fängt an schwierig zu werden. Und wenn Sie mehr als zwei Variablen haben, kriegen Sie das rein analog elektronisch nicht mehr mit vertretbarem Aufwand, in der Regel in den Griff. Sie ahnen es natürlich, es gibt eine Maschine, die genau das kann, den Speicher programmierten Digitalrechner. Der kann das super. Da können Sie zum Beispiel in aller Ruhe Ihre Funktion vorberechnen, legen die als Matrix im Speicher ab und greifen einfach drauf zu, wenn Sie den bestimmten Funktionswert brauchen. Und das führt Sie automatisch zum nächsten naheliegenden Schritt. Warum nicht die beiden Typen von Rechnern koppeln? Einen Analogrechner, der eine bestimmte Klasse von Problemen, nämlich Differenzialgleichung, sehr, sehr, sehr effizient lösen kann. Und auf der anderen Seite den Speicher programmierten Digitalrechner, der eine andere Klasse von Problemen sehr, sehr gut lösen kann, nämlich Entscheidungsprobleme und Tabellenlookups und so was. Und was Sie dann bekommen, ist ein Hybrid-Rechner. Und das ist ganz sicherlich die Richtung, in die die Analog-Rechentechnik gehen wird, quasi als Co-Prozessor. Wie schon gesagt, ich kann das Ganze in Form eines DDA, eines Digital Differential Analyzers auch rein digital machen. Das hat natürlich selber wieder Vor- und Nachteile. Ein Vorteil ist, ich kann beliebig genau rechnen. Ich muss einfach nur meine Zahlenrepräsentationen entsprechend länger machen. Der Nachteil an der Sache ist natürlich, Sie kennen das alle, wenn Sie mit Gleitkommazahlen rechnen, Vorsicht. Stellenauslösungen, Sie verlieren, Assoziativität kommen, irgendwie alles doof. Das heißt, ich fang mir all die grundlegenden Probleme wieder ein, die Sie klassischerweise beim Rechnen mit dem Digitalrechner haben. Weitere Vorteil ist aber, das schreit gerade danach auf einem FPGA, einem Fields Programmable Gate Array, implementiert zu werden. Die heutzutage ja wirklich für Send-Beträge fast zu haben sind. Und Funktionserzeugung, auch von Funktionen mehrerer Variablen, ist extrem simpel, wenn Sie genügend Memory haben, füllen Sie das vorher mit Ihren Funktionswerten und greifen Sie einfach rein. Nachteil ist, Sie sind halt wieder digital. Sie haben eine höhere Stromaufnahme. Sie haben all die Probleme, die ein zentraler Takt mit sich bringt und uns. Und Sie haben wieder das Problem, nämlich die Frage, wie integriere ich einfach. Integriere ich einfach nach der Simpsen-Regel? Vielleicht ein bisschen zu simpel, wobei das frühe Digital Differential Analyzer durchaus gemacht haben. Aber wenn man sich überlegt, wie man Roge Kutter oder Heunen in Hardware machen würde, das macht irgendwie auch keinen Spaß mehr. Das heißt, so ganz nachteilfrei ist leider keiner der beiden Versionen. Unabhängig davon aber, ob man es analog, elektronisch oder digital macht, hat man einen ganz typischen Satz von Rechenelementen, die einem in der einen oder anderen Art und Weise immer zur Verfügung stehen. Und die sollten wir uns jetzt im folgenden Mal anschauen. Typische Rechenelemente sind Koefficientenglieder. Ich muss irgendwie Parameter in meine Gleichungen einbringen können. Dann habe ich Summierer, mit denen kann ich die Summe von Variablen berechnen. Vorsicht. Aktive Rechenelemente wie Summierer und Integrierer drehen in der Regel immer das Vorzeichen einmal um. Das ist gerade für den Anfänger ein unglaublicher Stolperstein, weil man sich ständig mit den Vorzeichen verhaut. Das ist der Implementation dieser Rechenglieder geschuldet. Dann habe ich Integrierer. Das ist etwas, was mich bis heute begeistert, dass so eine an sich eklige Operation wie Integration mit einem Analogrechner wirklich eine Grundoperation ist, die einfach da ist. Ich habe Multipliziere, was erstaunlich kompliziert ist. Wenn Sie sich mal überlegen, in der Natur gibt es viele Prozesse, die was integrieren lassen. Sie sind in den Teichregnen die Regenmenge, also die Regenstärke gebildet. Aber Ihnen wird wahrscheinlich nichts einfallen in der Natur, was das Produkt von zwei Variablen freihaus liefert. Das ist schon ein gutes Indiz dafür, das könnte analog- elektronisch ein bisschen unangenehm werden. Multiplikation ist ganz erstaunlich, wie viele verschiedene Verfahren man im Laufe der Jahrzehnte entwickelt hat dafür. Interessanterweise nutzt man sogar bei Digital Differential Analyzers manchmal zwei Integrierer, um eine Multiplikation abzubilden. Weil Integration so viel einfacher ist, spendiert man lieber zwei Integrierer, um damit über einen kleinen Trick eine Multiplikation abzubilden. Dann hat man Funktionsgeber. Im einfachsten Fall so eine Art Look-Up-Tabelle. Man kann Funktionen approximieren als ein Polygonzug mit entsprechenden Fehlern. Ich muss mir also Stützstellen und Stützwerte aussuchen dass es natürlich Polygon über viele, viele Potentiometer so ein, dass es die möglichst genau trifft. Das ist eine unangenehme Arbeit, muss man leider sagen. Bei den meisten meiner historischen Maschinen in meiner Sammlung findet man noch Aufkleber über den Funktionsgebern, die manchmal an Drastikheit nichts zu wünschen übrig lassen. Auf dem einen steht, wer das verstellt, ist tot. Da hat wohl jemand sehr, sehr viel Zeit in die Einstellung seiner Funktion investiert. Bei anderen sind die Poties wirklich mit Hansa Plast festgeklebt, damit niemand auf die Idee kommt, daran rumzudrehen. Funktionsgeber sind wirklich hart. Es gibt auch ein paar digitale Elemente, die also wirklich nur noch zwei Zustände unterscheiden können, nämlich Komparatoren, mit denen ich Werte vergleichen kann. Es ist eine Größe oder kleiner als ein anderer Wert. Und Schalter, mit denen ich Bedingungen in eine Rechnung einbringen kann. Das allersimpelste Rechenelement ist ein koeffizienten Glied. Das ist nichts anderes als ein Spannungsteiler. Das heißt, Sie können irgendeinen Wert, eine Variable, die bei einem analogelektronischen Analogrechner als Spannung vorliegt, mit einem konstanten Vorfaktor multiplizieren, der zwischen 0 und 1 liegt. Ganz wichtig, konstant, das ist kein Multiplizierer. In der Praxis ist das letztlich ein Potentiometer, das Sie per Hand einstellen oder ein multiplizierender DA-Wandler oder sowas in der Art. Solche koeffizienten Potentiometer haben bei klassischen Analogrechnern ihre Tücken, nämlich wenn Sie an die Schule zurückdenken belasteter Spannungsteiler, wenn an dem Schleifer keine Last angeschlossen ist, dann ist das Teilungsverhältnis linear abhängig vom Winkel, auf den ich meine Achse eingestellt habe, das Potentiometers. Wenn aber mein Schleifer belastet ist, dann bekomme ich so eine durchhängende Kurve. Das hat bei klassischen Analogrechnern zur Folge, dass man immer sehr, sehr mühsam unter der richtigen Last die Potentiometer einstellen muss. Dafür gab es immer eine eigene Betriebsart PotZ, setze die Potentiometer auf die richtigen Werte. Das kann man heute natürlich deutlich einfacher machen, da Operationsverstärker fast zu einem Pfennigartikel verkommen sind und man kann einfach die Ausgänge der koeffizienten Potentiometer puffern. Das ganz zentrale Element eines analogelektronischen Analogrechners ist der Operationsverstärker. Den kennen Sie wahrscheinlich auch alle. Ein Operationsverstärker ist ein Differenzverstärker, der hat einen nicht invertierenden und einen invertierenden Eingang. Und im allereinfachsten Fall kann man sich erst mal vorstellen, dass die Leerlaufverstärkung, d.h. die Verstärkung, die der Verstärker aufweist, wenn keine rückkoppelenden Elemente da sind, nichts, was irgendwie vom Ausgang auf den Eingang zurückkoppelt, dass diese Leerlaufverstärkung unendlich ist. Man kommt natürlich nicht an unendlich, dann hätte eine ganz, ganz kleine Eingangsspannungsänderung ja eine unendlich große Ausgangsspannungsänderung zur Folge. Aber man kommt erstaunlich nah dran, muss man sagen. Klassische Analogrechner, egal ob jetzt rührenbasiert oder schon volltransistorisiert, haben sehr, sehr ausgefeilte Operationsverstärkerkonzepte genutzt, die es ohne Witz erlaubt haben, Leerlaufverstärkungen zumindest für niedrige Frequenzen in der Größenordnung von 10 hoch 9 zu erreichen. Das ist also deutlich höher, als das, was hier heute hoch integriert, so einfach erwerben können. So, hier ist mal fast eine Detailschaltung, wie ein Summierer aussieht. Mit dem Operationsverstärker können Sie nämlich sehr, sehr einfach Summationen bilden. Sie haben auf der linken Seite ein Eingangsnetzwerk, R1, R2 bis Rn. Und zwischen dem Ausgang des Operationsverstärkers und dem Summenpunkt am invertierenden Eingang haben Sie noch einen Feedback-Widerstand. Und das Verhältnis zwischen den Eingangswiderständen und diesem Feedback-Widerstand, das sind Gewichte, mit denen mein Eingangswert quasi multipliziert wird. Was diese Schaltung also liefert, die Ausgangsspannung, das Verhältnis zwischen Ausgangsspannung und dem Feedback-Widerstand, entspricht gerade der Summe der Verhältnisse der Eingangsspannung und den jeweiligen Eingangswiderstandswerten. Das heißt, wenn Rf und R1 und R2 und alle Widerstände den gleichen Wert haben, dann bildet das Ding einfach die Summe aller Eingangsspannungen, aber mit verdrehten Vorzeichen. Der Vorzeichendreher ist klar, weil ich ja den invertierenden Eingang meines Verstärkers nutzen muss, denn ich möchte ja eine Rückkopplung haben. Das Ding soll sich ja selber stabilisieren. Deswegen, ich brauche die Vorzeichenumkehr, damit der Strom, der über Rf fließt, gerade die Summe der Strömerausgleich, die über R1 bis Rn zum Summenpunkt fließen. Das erklärt schon mal, warum jeder Summierer das Vorzeichen umdreht. Es gab übrigens ganz wenige analogrechne. Hitachi hatte solche gebaut. In den 70er-Jahren, die hatten an jedem Rechenelement sowohl invertierte als auch nicht invertierte Ausgänge. Nur das hatte zur Folge, dass sie für den nicht invertierten Ausgang noch mal einen Inverter vorsehen mussten, was natürlich damals unglaublich teuer gewesen ist. Deswegen sich es nicht durchgesetzt hat. In der Praxis malten man nie den Detailschaltplan für so einen Summierer, sondern man nimmt ein abstraktes Symbol, das hier unten zu sehen ist. Man sieht, das Dreieck, das legt noch die Verwandtschaft zum Operationsverstärker nahe. Das kommt aus der Zeit, als man sich noch wirklich bewusst sein musste. Denkt dran, da steckt ein Operationsverstärker dahinter. Dieser Summierer hier hat zum Beispiel vier Eingänge mit bestimmten Gewichten. Der erste Eingang ist mit eins gewichtet. Der zweite mit fünf. Der dritte mit zehn. Und der vierte, das ist der Summenpunkt. Der mit S bezeichnete Eingang ist genau der Eingang, der den invertierenden Summenpunkt des Operationsverstärkers zur Verfügung stellt. Das braucht man manchmal, um eigene Elemente in die Rückführung legen zu können, wenn man zum Beispiel eine Amplitudenbegrenzung machen möchte oder irgendwie was sehr Nichtlinieheres, viel Logarithmus oder so aufbauen möchte. Was dieses abstrakte Rechenelement jetzt macht, es rechnet einmal U1 plus fünfmal U2 plus zehnmal U3, aber das Ganze mit umgedrehtem Vorzeichen. Das ist also die Grundoperation, die Sie mit einem Summierer haben. Den Summierer kann man leicht erweitern, hier ein bisschen vereinfacht dargestellt in den Integrierer, indem ich in die Rückführung keinen Widerstand lege, sondern einen Kondensator. Das heißt, der Strom, der durch den Kondensator fließt, muss die Summe der Ströme kompensieren, die durch die Eingangswiderstände laufen. Wenn man sich kurz daran erinnert, wie das Gesetz für Kondensatorladung ist, stellt man fest, die Umkehrfunktion davon ist just gerade eine Integration, das Ding hier integriert, natürlich auch wieder mit Vorzeichenvertauschung. Was dieses Ding also macht, es berechnet, wie der Summierer erst mal die Summe von Eingangsgrößen integriert, jetzt aber automatisch auch noch drüber. Das Symbol dafür sieht so aus. Der Unterschied zum Summierer ist erstmal das rechteckige Kästchenlinks und ganz wichtig, der eine Anschluss nach oben. Der Summierer ist einfach, er addiert einfach Werte und dreht das Vorzeichen um. Wenn Sie an Integration zurückdenken, dann erinnern Sie sich noch integral von irgendwas bla bla bla plus eine Konstante. Die Konstante ist eigentlich klar, die Umkehrfunktion von der Integration ist ja die Differenziation und beim Differenzieren fallen Konstanten weg und genau diese Konstante, die sogenannte Anfangsbedingung eines Integrals. Stellen Sie sich vor, Sie wollen zum Beispiel eine schwingende Masse simulieren. Wo lassen Sie die Masse beginnen mit Ihrem Schwingen? In der Regel werden Sie sie quasi nach oben auslenken und dann simuliert loslassen. Und dieses Ich fange oben an, das ist der Anfangswert meiner Simulation, das ist der Anfangswert eines Integrierers in dieser Schaltung. Und genau diesen Wert, den speise ich in den Integrierer über den Eingang einen, der in der Regel nach oben oder unten weggezeichnet wird. Die Eingänge, die nach links weggehen, das sind ganz normale Eingänge, über die summiert wird, bevor die eigentliche Integration ausgeführt wird. Das heißt jetzt aber, mein Integrierer hat einen Zustand. Er kann sich im Großen und Ganzen in drei Zuständen befinden. Der erste Zustand ist quasi Reset. Heißt auch manchmal Reset oder IC für Initial Condition oder Anfangswert oder im deutschen Pause. Wenn Sie diesen Zustand haben, dann ist der Ausgang des Integrierers auf dem Wert, den Sie als Anfangswert eingespeist haben mit ungedrehtem Vorzeichen. Wenn Sie dann die Integrierer in den nächsten Zustand schalten, nämlich Rechnen oder Operate, dann fängt der Integrierer an, wirklich das Zeitintegral plus diese Startbedingung zu rechnen über die Eingangswerte. Und der dritte, sehr praktische Betriebszustand ist Halt. Beende die Integration, wenn Sie den Integrierer nicht zurück. Das ist unglaublich praktisch, wenn Sie irgendeine Simulation haben und Sie möchten wissen, wie verhält sich mein System oder welche Werte haben bestimmte Variabend zu einem bestimmten Zeitpunkt in meiner Simulation angenommen. Und dann ist die Idee, initialisieren Sie die Rechenschaltung, lassen Sie losrechnen und in dem Moment, wo die Simulation an einem Punkt kommt, der Sie interessiert, halten Sie die Rechnung an und alle Integrierer behalten die Werte, um lesen werden zu können. Dafür haben viele Analog-Rechner eigentlich die meisten schon in frühen 60er-Jahren digital Voltmeter zum Auslesen gehabt und ein Anwahlfeld. Sie hatten Tastenfelder, konnten Sie die Adresse eines beliebigen Rechenelemente eintasten. Und dann, wenn der Rechner zum Beispiel im Zustand Halt gewesen ist, haben Sie in aller Ruhe auslesen können, der Integrierer 1 liefert den Wert 1,23, der Integrierer bla, irgendwas in der Art. Funktionsgeber, immer Sie intern aussehen, repräsentiert man meistens durch. Dieses Symbol hier, wie gesagt, nicht vergessen, Funktionsgenerierung mit Analog-Rechnern ist mühsam, sehr, sehr mühsam. Es gibt im Großen und Ganzen, wenn Sie einfache Funktionen von nur einer Variablen haben, zwei grundlegende Techniken, die aber alle darauf beruhen, dass Sie irgendwie die Funktion durch einen Polygonzug approximieren. Die beiden Varianten unterscheiden sich eigentlich nur darin, wenn Sie hier persönlich naheliegendere Systeme war von Telefunken. Sie haben equidistante Stütztellen. Das heißt, Ihre Funktion der Wertebereich bei Analog-Rechnern ist an sich immer beschränkt. Klar, wenn Sie irgendwelche Werte durch Spannungen repräsentieren, irgendwo haben Sie eine maximale und eine minimale Spannung. Und egal, was das wirklich dann in der physikalischen Umsetzung ist, diese Spannung bezeichnet man als Maschinen-Einheit. Bei transistorisierten Rechnern sind das meistens plus-minus 100 Volt. Und als die ersten transistorisierten Rechner aufkamen, warben auch manche Hersteller damit, dass jetzt erstmalig das Programmieren ungefährlich sei. Und wenn man einem Röhrenrechner gestöpselt hat und etwas unbedarft in einer laufenden Rechnung irgendwo einen Stecker rausgezogen hat und dran fasste, hat sehr, sehr schmerzhaft zu spüren bekommen, was ein Operationsverstärker der 100 Volt am Ausgang liefern kann, doch ausrichten kann. Die Idee von den Funktionsgebern von Telefunken ist, als ich unterteile meinem Bereich zwischen plus und minus einer Maschinen-Einheit, was auch immer das jetzt in Spannung ist, in 20, 21 Stützstellen in festem Abstand. Das hat den Charme, dass ich mich nur noch darum kümmern muss, quasi die Position der Funktion an den einzelnen Stützstellen einzustellen. Das hat den Nachteil, dass ich manche Funktionen, die zum Beispiel eklig sind in irgendeinem Bereich, darstellen kann. Wenn sie Funktionen haben, die so halbwegs glatt über den ganzen Bereich sind, ist das prima. Wenn sie eine Funktion haben, die auf der einen Seite sehr, sehr viele Richtungswechsel hat und auf der anderen Seite sehr glatt ist, ist das ein selten doofes Patent, weil sie haben halt equidistant Stützstellen verteilt. Da, wo sie mehr bräuchten, haben sie zu wenig und da, wo sie mit weniger auskämen, haben sie zu viel. Aus dem Grund finden sie vor allem dass sie nicht nur die Steigung des Polygons an den jeweiligen Stützstellen eingeben können, durch Potentiometer, sondern auch die Stützstellen definieren können. Das ist toll, um die Funktion zu repräsentieren, dass es wirklich unglaublich, unintuitiv und mühsam diese Dinge einzustellen. Also wie auch immer mannen Funktionen implementiert, das allgemeine Symbol für einen Funktionsgeber sieht erst mal so aus. Das mit dem Rauf runter lerne ich auch noch. Das ist ein Funktionsgeber und jetzt ein Funktionsgeber von zwei Variablen, so was wie f von x, y, gleich x mal y. Ich hatte eben gesagt, Funktionen von mehr als einer Variablen sind eklig. Das ist auch der Grund dafür, weswegen Multiplikation so schwierig ist. Man hat aus heutiger Sicht fast absurd anmutende Versuche unternommen. Hyperbelfeld-Röhren, also Elektronenstrahl-Röhren, wo sie hyperbelförmig gebogene hatten und mit einer Servo-Schleife versucht haben, den Elektronenstrahl auf einer bestimmten Position von Elektroden aufzufangen. Man hat thermische Multipliziere gemacht, man hat es mit Hall-Sonden gemacht, man hat Servo-Multipliziere gebaut, wo Potentiometer, viele, viele Potentiometer auf einer Achse von einem Motor angetrieben wurden und was man in Tischrechnern meistens findet und das sehen Sie in allen, fast allen Tischrechnern, die drüben in der Ausstellung stehen, und man hat das mit einem Multiplizierer. Da habe ich selber erst vor einigen Jahren gelernt, dass die Grundidee erstaunlich alt ist. So hat man im 19. Jahrhundert sich schon behäufen, wenn man Werte multiplizieren musste, aber nur eine Quadratzahlntabelle hatte. So was gab es früher auch als Tafelwerk, also nicht nur Logarithmen-Tafeln, sondern es gab auch Quadrattafeln. Und die Idee ist verrückt eigentlich. Was Sie leicht machen können, sind Summen und Differenzen. Elektronisch sowieso haben wir stärker paar Widerstände, kein Problem. Sie haben eine Summe oder eine Differenz gebildet. Und was Sie auch prima machen können, ist ein konstanter Vorfaktor, so was wie ein Viertel. Kein Problem, nehmen Sie den Spannungsteiler und stellen Sie den halt auf den Viertel. Und was Sie auch relativ gut noch machen können, sind Funktionen einer veränderlichen. Zum Beispiel so was wie f von x gleich x Quadrat. Wenn man jetzt an die binomischen Regeln zurückdenkt, dann kommt man auf die Idee, dann könnte ich doch eigentlich 4x y rechnen, ist einfach. Quadrat ist auch einfach. Minus, ebenfalls einfach, x minus y, Quadrat. Und was übrig bleibt, ist 4x y, malen Viertel. Und schon habe ich mit zweimal einer Quadratbildung einer Summe und zwei Differenzen das Produkt von zwei Variablen gebildet. Was mich sehr freut ist, dass Sie alle Schmunzeln und Grinsen. Ich fand die Idee früher auch vollkommen hale Büchen. Wie kann man auf sowas kommen? Wie kann man das machen? Das wird das Einfachste, um analogelektronisch zu multiplizieren. Wenn Sie nicht gerade moderne, so hoch nicht, aber nicht moderne integrierte Schaltungen haben, die dann mit Gilbert-Zellen multiplizieren arbeiten. Und es ist definitiv besser als irgendwelcher Hand gebauten Hyperbelfeld-Röhren. Wenn Sie übrigens mal in Darmstadt sind, das wissen die wenigsten, ich habe es auch nur durch Zufall entdeckt, an der Hochschule Darmstadt, die Informatik und die Ausstellung hat so ein paar Artefakte aus der Geschichte des Instituts gesammelt. Und da sehen Sie die einzige, die letzte noch existierende Hyperbelfeld-Röhre dieser Welt, die nämlich in den 50er Jahren für einen an der Hochschule Darmstadt entwickelten Analogrechner E-Lard entwickelt worden ist. Und dieses Ding ist gigantisch. Das ist eine Röhre, die ist fast ein halben Meter lang, hat bestimmt 10 Zentimeter Durchmesser. Wenn Sie sich überlegen, dass Sie einen kompletten 19-Zoll-Einschub mit Elektronik für die Ansteuerung brauchen, um nur das Produkt zu bilden, dann ist man plötzlich ziemlich glücklich, dass jemand die Idee hatte, rechne doch lieber x plus y² minus x minus y² um zu multiplizieren. Also Sie sehen, Multiplikation ist nicht ganz trivial. Dann gibt es noch Komparatoren. Im Prinzip ganz, ganz simpel. Sie haben irgendetwas, was zwei Werte vergleicht. A und B. Damit steuern Sie Ihren Komparatoren mit einem Schalter eingezeichnet. Das ist das Standardsymbol. Dieser Schalter war früher wirklich ein Relais. Später natürlich ein elektronischer Schalter und die Idee ist, dieser Schalter kann zwei Positionen annehmen, je nachdem ob A größer oder kleiner als B ist. Dazu ist nicht viel zu sagen. So, dann lassen Sie uns mal überlegen, wie man einen Analogrechner programmiert. Das Bildchen hier ist auch wieder aus dem Buch, aus dem die beiden Abbildungen vorher waren, aus dem Truet. Darf ich auf das zweite Bildchen hinweisen. Da hat das Männlein eine eckige Brille. Das liegt daran, dass das Bild in dem Buch völlig unbrauchbar war. Deswegen ist meine Frau noch mal neu gezeichnet hat und die Brille ist meine Brille. Das heißt, auf der Folie hat meine Frau mich quasi verewigt in dem zweiten Bildchen. Aber das Bild ist ansonsten wirklich sehr, sehr original getreu. Physical system can be simulated by an analog computer. Ganz wichtig, worum es hier geht, sind dynamische Systeme, die wir simulieren. Das heißt, man hat irgendwie ein Problem. Man analysiert es. Man verwandelt das Problem in eine mathematische Darstellung. Das ist der eigentliche Trick an der Sache. Das eigentliche Problem, das haben Sie aber immer. Egal, ob Sie es digital, also mit einem Speicher programmierten Digitalrechner machen oder mit einem Analogrechner, der Schritt vom Problem zum Modell ist der Schwierigste. Denn jeder Fehler, den Sie da machen, ruiniert Ihnen halt am Ende der Simulationsergebnis. Irgendwann landen Sie bei einem Satz Differentialgleichung. Die sind dann der Ausgangspunkt für die Programmierung. Auch da ist nichts anderes als beim Speicher programmierten Digitalrechner. Auch da müssen Sie erst Ihre Modellbeschreibung haben, bevor Sie sich algorithmisch nähern können und mit dem Analogrechner können Sie dann Ihr System simulieren. So. Differentialgleichung kennen Sie hoffentlich oder vielleicht? Bei normalen Gleichungen, wie man sie aus der Schule kennt, da geht es immer darum, den Wert einer Variablen zu bestimmen. Differentialgleichung tragen das einen Schritt weiter. Bei einer Differentialgleichung geht es darum, eine unbekannte Funktion zu finden. Nicht einen Wert. Und das ist genau das, was Ihnen in der Natur ständig begegnet. Als anschaulichstes Beispiel stellen Sie sich die Federung an einem Automobil vor. Sie versetzen dem Auto einen Schlag, in dem Sie zum Beispiel einen Bord schließen. Was passiert ist, das Ding wird harmonisch schwingen, wird aber gedämpft werden durch Reibung in Stoßdämpfer und sonstigen Teilen. Die Frage ist, wie verhält sich das Auto, wenn es zum Beispiel mit einem Sprungimpuls angeregt wird? Und letztlich können Sie das bei einfachen Differentialgleichung analytisch lösen? Stellt fest, dass es irgendwie was Harmonisches mit einem Sinus drin, das wird irgendwie noch gedämpft, und genau das ist das, was Ihnen der Analogrechner liefert, aber natürlich nicht in analytischer Form, sondern letztlich in Form einer Spannung in diesem Fall, die den zeitlichen Verlauf eines Signals beschreibt. Bei der Differentialgleichung ist also nie ein konstanter Wert gesucht, sondern letztlich eine Funktion, die beschreibt, wie sich ein System verhält. Differentialgleichung besteht oder ist dadurch gekennzeichnet, dass Sie eine Funktion haben, die Y genannt, Y von X, und Sie haben diese Funktion und Ihre Ableitungen innerhalb einer einzigen Gleichung vereint. Im allgemeinsten Fall dieses Y hoch n in Klammern heißt, das ist die n-te Ableitung von Y. Hier haben wir also Y hoch n von X, plus irgendein Vorfaktor mal n-erster Ableitung, plus noch ein Vorfaktor von bla, bla, bla, plus irgendein Vorfaktor und die erste Ableitung, plus ein Vorfaktor und die nullte Ableitung ist gleich irgendeine Funktion, eine Anregungsfunktion oder sowas. Sowas hat in der Regel noch Anfangsbedingungen. Zum Beispiel bei der Idee mit, ich hab Massefeder dämpfer, ich lenke meine Masse aus, ich hebe die quasi hoch, die hängt an der Feder und dann lasse ich sie zu Beginn der Rechnung virtuell los. Das heißt, ich lasse sie los und die Masse wird irgendwie etwa so schwingen und in einer bestimmten Position in ihrer Ruhelage eben zur Ruhe kommen. So. Wie alt das grundlegende Verfahren ist, dass man bis heute fast immer nimmt, um solche Differenzialgleichungen einem Rechnerzugäng nicht zu machen. Das geht nämlich auf Lord Kelvin zurück. Der hatte im ausgehenden 19. Jh., 1876, wenn ich mich recht entsinne, das erste Mal die Gelegenheit darüber nachzudenken mit mechanischen, naja, analog Rechnern dynamische Probleme zu lösen. Sein Bruder hatte nämlich den ersten mechanischen Integrierer entwickelt. Der war noch bei weitem nicht ausgereift und es kam kein wirklicher mechanischer Analogrechner dabei raus, aber die Idee kam schon mal dabei heraus. Und Herr Kelvin hat sich folgendes Idee gedacht, ich habe eine Differenzialgleichung, da kommt eine Funktion vor, die ich nicht kenne. Und diese Funktion kommt in verschiedenen Ableitungen gleichzeitig in dieser Gleichung vor. Angenommen, ich wüsste, was die höchste Ableitung ist, dann könnte ich mich ja, wenn ich Hausen an meinen eigenen Stiefelschlaufen aus dem Sumpf ziehe, indem ich sage, wenn ich weiß, was die höchste Ableitung ist, dann integriere ich einmal drüber und habe die zweithöchste. Und integriere nochmal drüber und habe die drithöchste. Und so weiter. Ich integriere dann einmal drüber, bis ich meine Funktion habe und damit hätte ich alle Teile zusammen, die auf der linken Seite der Gleichung auf der Folie zuvor waren. Die wurden irgendwie mit Vorfaktoren multipliziert, da waren noch Summationen dazwischen. Und das könnte ich ja auch machen mit meinen niedrigeren Ableitungen, die ich aus dieser als erst mal bekannt voraus gesetzten höchsten Ableitung bestimmt habe. Damit hätte ich alles, was auf der linken Seite der Gleichung ist in der Hand. Und damit habe ich automatisch das, was auf der rechten Seite der Gleichung steht, weil es ist ja eine Gleichung, es ist ja ein Gleichheitszeichen da. Ein kleines Beispiel, schauen wir uns mal das hier an. Ich habe eine dritte Ableitung, einer Vorsicht Funktion, y ist eine Funktion, nicht einfach nur ein Wert. Ich habe eine Funktion y, die ich nicht kenne und ich habe eine Differenzialgleichung, die mir sagt, die dritte Ableitung plus Vorfaktor mal die zweite Ableitung plus Vorfaktor mal die erste Ableitung plus Vorfaktor mal immer noch unbekannte Funktionen soll 0 sein. Was ich dann mache, ich löse das erst mal auf nach der höchsten Ableitung. Y, punkt, punkt, punkt. Klar, rest einfach umstellen mit negativen Vorzeichen auf die rechte Seite. Und dann kann ich mir überlegen, ich behaupte, ich wüsste, was y, punkt, punkt, punkt ist. Wenn ich das einmal integriere, kriege ich minus y, punkt, punkt raus. Nicht vergessen, jeder Integrierer dreht einmal das Vorzeichen um. Wenn ich das nochmal integriere, kriege ich y, punkt raus. Und wenn ich das nochmal integriere, kriege ich minus y raus. Das ist schon gar nicht schlecht. Auf der rechten Seite meiner Gleichung brauche ich ja minus y, punkt, punkt. Perfekt, das habe ich schon. Fast perfekt, da stimmt das Vorzeichen noch nicht. Und ich brauche ein minus y. Das habe ich auch schon. Ich habe schon fast alles, was ich brauche, um die rechte Seite dieser Gleichung darzustellen. Die Idee ist jetzt folgende. Hinter dem ersten integrieren habe ich minus y, punkt, punkt. Das multipliziere ich mit was? Dieser Kringel, Sie erinnern sich, das ist die Kurzschreibweise für einen koeffizienten Potentiometer. Das multipliziere ich mit y, punkt, punkt, punkt. Punkt, punkt. Soll mit a2 multipliziert werden. a2 ist also genau das, was ich hier einstellen würde. Hier würde ich a1 einstellen. Da stimmt aber das Vorzeichen nicht. Weswegen ich einen Summierer mit nur einem Eingang nehme, der summiert also nicht, sondern dreht nur das Vorzeichen um. Und hier drüben habe ich noch mein minus y. Und das muss ich noch mit a0 multiplizieren. Damit habe ich alle Teile, die auf der rechten Seite dieser Gleichung standen. Die rechte Seite der Gleichung habe ich jetzt. Ich habe minus a2 y, punkt, punkt, minus a1 y, punkt, minus a0 y. Das ist die rechte Seite meiner Gleichung. Das heißt, das soll ja gleich dem sein, was ich eben als bekannt vorausgesetzt habe. Ich habe ja behauptet, ich wüsste, was y, punkt, punkt ist. Und jetzt weiß ich es ja, nämlich gerade die Summe daraus. Und das ist genau der brillante Trick von Lord Kelvin, das Kelvin-Schrückführungsverfahren. Das ist mein einer Term, mein zweiter, mein dritter Term. Und alle die nehme ich als Input für meinen ersten Integrierer und voilà. Ich habe eine Rechenschaltung, die ein Modell für diese Differenzialgleichung darstellt. Wie die sich verhält, kann ich jetzt einfach ausprobieren, indem ich bestimmte Startwerte vorgebe. Ich überlege mir, welche Initialbedingungen hat mein Problem für die dritte, für die erste, für die erste, für die nullte Ableitung. Ich setze meinen Rechner in den Zustand Initial Condition, dann lasse ich ihn loslaufen und ich kann mir in alle Ruhe zum Beispiel auf einem Schreiber oder einem Oszilloskop die Variablen anschauen, die mich interessieren, die das zeitliche Verhalten meines simulierten Systems beschreiben. Im Prinzip können Sie genau das mit einem speicherprogrammierten Digitalrechner auch machen. Wenn Sie zum Beispiel mal für ein Spiel ganz schnell einen Kreis erzeugen wollen, nutzen Sie bitte keine Sinus-Cosinus-Funktionen, die Sie verwenden sehr, sehr ineffizient. Lösen Sie lieber eine Differenzialgleichung, was mit jeweils einer Addition und Multiplikation möglich ist, um Schritt für Schritt ein Sinus-Cosinus-Pärchen rauszubekommen. Diese Technik ist wirklich für beliebige Dinge einsetzbar. Am weitesten verbreitet es wirklich dieses kelvinische Rückführungsverfahren. Es geht aber auch anders. Es gibt eine Substitutionsmethode, da ist die Idee, ich habe eine Differenzialgleichung höheren Grades, das ist simpel, sondern in dem Fall zum Beispiel eine Differenzialgleichung zweiten Grades. Und die Idee ist, kann ich nicht irgendwie in diese Gleichung was substituieren, um sie in eine handhabbare Gleichung ersten Grades zu transformieren. Das heißt, kann ich nicht aus einer DGL zweiten Grades, zwei DGLs ersten Grades machen. Kann ich. Müssen wir uns glaube ich nicht so sehr im Detail anschauen, die Folien können Sie auch gerne, also wer in USB-Stick im Anschluss an das hier, dann können Sie Sie sich in Ruhe anschauen. Die Idee ist hier, ich basteln mir erstmal eine neue Differenzialgleichung, dieses Fraktur Y ist gleich Y-Punk plus A1 Y leite das ab und sehe, das sieht schon ziemlich aus die zweite Gleichung auf der Folie 33, sieht schon ziemlich ähnlich aus wie der linke Teil der Gleichung auf Seite 32. Hier haben wir nämlich einen Y-Punk plus A1 Y-Punkt und das ist genau das, was ich hier mit meinem Fraktur Y-Punkt angedeutet habe und voilà. Ich habe aus einer DGL zweiten Grades eine ersten Grades gemacht, in die ich eine weitere ersten Grades einsetze. Das Interessante ist, dass die Rechenschaltung manchmal etwas besser sind, die aus der Substitutionsmethode herauskommen, als die, die aus dem Kälvienverfahren rauskommen. Der Nachteil ist, dass ich mich immer verrechnet, zumindest wenn ich mache Paul halt mache ich dann doch immer das Kälvienverfahren, weil irgendwo geht dann doch bei mir ein Punkt unter. Wenn das alles wäre, wäre es fast trivial. Der Haken an einem Analogrechner ist der vorhin schon erwähnte beschränkte Wertebereich. Egal, wie groß er ist, ich kann immer sagen, ich kann zwischen Plus und Einer Maschinen-Einheit rechnen. Wie gesagt, ganz gleich, was für einen Spannungswert diese zugeordnet sind. Das ist, Sie müssen natürlich darauf achten, dass während Ihrer laufenden Rechnung keine einzige Variable in dieser Rechnung diesen Bereich überschreitet. Sie müssen skalieren. Wenn Sie irgendwas haben, Sie simulieren ein Auto. Das hat eine Masse von 1,5 Tonnen. Diese Masse schwingt und wird irgendwelchen Beschleunigungen ausgesetzt und Geschwindigkeiten und bla bla bla. Keiner dieser Werte darf in der Präsentation in einer solchen Rechnung den Bereich von Plus minus 1 überschreiten. Das heißt, Sie müssen alle Variablen in Ihrer Rechnung schlau mit Vorfaktoren versehen, um sicherzustellen, dass Sie nie aus dem zulässigen Rechenspannungsbereich rauskommen. Das Problem haben Sie bei klassischen Digitalrechnern die Gleitkommazalendarstellung ermöglichen. Nicht so in dieser Form, weil Sie bei Gleitkommazalen einen idiotisch großen Wertebereich überstreichen können. Aber Sie haben keine sehr große Auflösung mehr. Es ist eine sehr gute Auflösung mehr, wenn Ihre Gleitkommazalen betragsmäßig sehr groß werden. Auch da haben Sie letztlich solche ähnlichen Probleme. Eine extrem interessante Sache bei einem Analogrechner ist, ich muss nicht nur einfach skalieren, um sicherzustellen, dass meine Variablen den zulässigen Bereich nicht überschreiten. Ich sollte sicherstellen, dass Sie ihn möglichst gut ausnutzen und, und das ist das wirklich cool, dass Sie ihn sehr gut ausklarieren. Ich kann den ganzen Rechner zum Beispiel langsamer laufen lassen, als das Problem in der Realität braucht. Oder ich kann ihn deutlich schneller laufen lassen. Wie funktioniert das technisch? Ganz einfach. Erinnern Sie sich daran, ein Integrierer tut eigentlich nichts anderes als ein Kondensator mit einer gesteuerten Stromquelle aufzuladen. Die Zeitdauer, die ich brauche, um den Kondensator mit einem gegebenen Strom zum bestimmten Punkt aufzuladen, wenn ich 10 mal schneller rechnen möchte, nämlich einfach einen 10 mal kleineren Kondensator. Wenn ich 10 mal langsamer rechnen möchte, nämlich einen 10 mal größeren Kondensator. Das heißt, im einfachsten Fall kann ich meine Rechnung fast immer ganz simpel um den Faktor 10 beschleunigen oder verlängern, indem ich andere Rechenkondensatoren verwende. Große Analogrechner hatten teilweise dafür sogar eine Taste auf der Stand 10 times oder 10 mal. Und bei ganz großen Rechner konnten Sie die sogar einen Kondensator ausdrücken. Wenn Ihre Simulation gerade einen unglaublich langweiligen Punkt gewesen ist, Sie wollen zum Beispiel simulieren, wie Sie ein Kernreaktor anfahren. Das dauert ewig, das dauert wirklich Ewigkeiten. Also da sitzen Sie locker mal ein paar Stunden davor, bis Sie den stabilen Punkt gefunden haben und viele Prozesse sind gerade am Anfang sehr, sehr langsam. Und dann hatte man die Möglichkeit, okay, jetzt kommt ein Teil der Simulation, der interessiert mich nicht wirklich. Ich drücke mal die Taste mal 10. Und dann kann ich die Simulation oder durch Michael Spidiner danach wieder in den normalen Modus zurückschalten. In der Regel haben Analogrechner, Analog-Elektronische mehrere Zeitkonstanten bei den Integrierern zur Auswahl. Üblich sind 1 10 mal schneller, 100 mal schneller und sogar 1000 mal schneller. Wenn Sie sich in der Ausstellung zum Beispiel die kleine EAI 180 anschauen, das ist der kleine Rechner im Holzgehäuse, dann stellen Sie fest, dass die Integrierer 2 Zeitkonstanten haben, die Zeitkonstante 1 und die Zeitkonstante 100, 100 mal schneller. Man möchte man so schnell rechnen, zum Beispiel, wenn Sie auf einem Oszilloskop eine quasi kontinuierliche Darstellung erreichen möchten. Sie haben irgendein System auf der EAI 180 ist gerade was sehr Interessantes gestöpselt, was ein Pendel simuliert. Sie haben Systemen physikalisch, das möchten Sie viel, viel schneller als in quasi Realzeit simulieren. Wenn Sie sich in der Zeitkonstante rechnen zum Beispiel 100 mal schneller und etwas, was 1000 mal schneller, etwas, was in der Realität vielleicht 20 Sekunden dauert, dauert dann natürlich nur noch 20 Millisekunden. Und nach 20 Millisekunden setzen den Rechner wieder zurück, lassen ihn wieder rechnen, setzen ihn wieder zurück, lassen ihn rechnen. Was Sie bekommen, ist ein stehendes Bild der Funktion, die Sie eigentlich suchen. Und dann können Sie während der Rechnung des Systems ändern. Und Sie sehen sofort auf dem Oszilloskop wie verändert sich die Lösungsfunktion. Sie haben kein Lack dazwischen, wie Sie das bei Digitalrechnern haben. Sie haben wirklich ein direktes Feedback. Sie drehen irgendwo und in dem Moment ändert sich genau das System, das Sie simulieren. Und Sie kriegen wirklich ein Gefühl dafür, wie das System sich verhält. Lassen Sie uns mal ein paar einfache Beispiele angucken. Sie sehen, das sind unglaublich viele Folien in diesem Bereich. Aber wie gesagt, wenn ein USB-Stick dabei hat, kann gerne die Folien mitnehmen. Denn die komplexeren Probleme hinten sind, denke ich, recht interessant. Lassen Sie uns mal was ganz Einfaches angucken. Ich brauche einen Sinus zum Beispiel. Ich hätte gerne eine Sinusfunktion. Zum Beispiel praktisch, wenn ich mal einen Kreis malen möchte oder zum Beispiel den Umriss eines Fahrzeugs auf einem Oszilloskop darstellen möchte. Da kommt später noch ein Beispiel, dass es natürlich in erster Linie ist, wenn man die Masse fährt. Also wenn Sie mehr Massen schwingern simuliert haben, was ganz typisch für die Fahrzeugtechnik ist, dann übrigens erstaunlich kompliziert, wenn Sie sich überlegen, wie viele Freiheitsgrade ein Eisenbahnwagon hat mit Drehgestellen. Das ist wirklich erschreckend kompliziert von der Mathematik. Das hatte man erst in den 50er-Jahren mit elektronischen Analogrechnern überhaupt in den Griff bekommen. Solche Eisenbahnwaggons bezüglich ihrer Fahreigenschaften zu simulieren. Wenn ich das natürlich hübsch auf einem Oszilloskop darstellen möchte, indem ich zum Beispiel den Umriss eines Objektes male, dann brauche ich fast immer so ein Sinus-Cosinus-Pärchen. Das kann ich noch verbiegen mit Funktionsgeneratoren in eine bestimmte Form. Als Grundlage brauche ich ständig so eine Sinus-Funktion. Und die Idee ist, wenn Sie ein Sinus brauchen, Sie erinnern sich wahrscheinlich, alle Sinus-Cosinus am Einheitskreis ist einem in der Schule beigebracht worden. Die Sache mit An- und Gegenkathete und Hypotenuse. Das ist eigentlich nicht die Essenz des Sinus. Was den Sinus wirklich auszeichnet ist, er ist eine partikuläre Lösung einer bestimmten Differenzialgleichung, einer ganz simplen Differenzialgleichung. Nämlich im simpelsten Falle sowas wie y-punkt-punkt-gleich-minus-y. Diese Differenzialgleichung wird direkt vom Sinus gelöst. Wenn man das mal ganz kurz überlegt, Sinus sieht so aus, das heißt die erste Ableitung ist ein Cosinus, die zweite Ableitung ist ein Minus-Cinus. Das heißt y-punkt-punkt, zweiter Ableitung einer mir unbekannten Funktion ist gleich das negative der Funktion Voila, der Sinus löst das zum Beispiel. Das ist eigentlich die Natur des Sinus, nämlich diese Differenzialgleichung zu lösen. Das heißt aber umgekehrt, wenn ich diese Differenzialgleichung mithilfe des kelvinischen Rückführungsverfahrens auf einem analog rechner Löse kriege ich Voila einen Sinus raus. Ohne irgendwas mit Einheitskreisen oder sonst was am Hut gehabt zu haben oder Bewinkeln nachzudenken, sondern einfach natürlich als Lösungsfunktion für etwas. Dazu übrigens was ganz Typisches für ein analog rechner. Wenn Sie eine Funktion in irgendeiner Rechnung brauchen, die Sie als Lösung einer Differenzialgleichung bekommen, dann lösen Sie einfach diese Differenzialgleichung. Machen Sie keine Funktionsgeber oder sonst irgendetwas, sondern machen Sie eine kleine Hilfsrechenschaltung, die genau dieser eine Differenzialgleichung löst und Ihnen an der richtigen Stelle den richtigen Funktionswert liefert. So, die Rechenschaltung ist natürlich simpel. Y Punkt Punkt, gleich minus Y. Ich behaupte, ich hätte Y Punkt Punkt und integriere einmal drüber, dann kriege ich minus Y Punkt. Ich integriere nochmal drüber und ich kriege Y. Ich drehe das Vorzeichen um und habe minus Y und das ist genau das, was hier eigentlich stand. Y Punkt Punkt, gleich minus Y. Zu dem Omega kommen wir gleich. Das ist die Grundschaltung, die Sie brauchen, um den Sinus zu machen. Sprich, 2 integriere, ein Vorzeichen, umkehre und Sie kriegen zwanglos einen Sinus raus. Das Schickel ist den Cosinus, kriegen Sie geschenkt, weil hinter dem nächsten integriere ist natürlich ein Cosinus vorhanden. Das heißt, Sie haben gleich ein Sinus-Cosinus-Pärchen. So, jetzt kommt noch die Sache mit dem Omega. Das Omega muss irgendwie auch in die Rechnung rein, denn das ist das frequenzbestimmende Potentiometer. Mein Omega geht in diesem Fall über zwei koeffizienten Potentiometer in meine Rechenschaltung ein. Das heißt, ich habe zwei Potentiometer hier durch diese Kringel eingestellt, die als Vorfaktoren für die jeweiligen Integrierer dienen und dieses K0, das jetzt da steht, das ist die Zeitkonstante des Integrierers. Das heißt, K0 hängt zum einen davon ab, was für einen Kondensator habe ich in der Rückführung. Das heißt, wie schnell ist der geladen Kondensator ab, welche Gewichtung hat das jeweilige Eingangssignal? Was rauskommt, ist das da. Das hier ist jetzt Zeit gesteuert, genau so lange gelaufen, wie man es für eine Schwingung braucht. Wenn Sie die Rechnung nicht anhalten, läuft das im Idealfall ewig weiter und liefert Ihnen einfach ein kontinuierliches Sinusignal. In der Praxis tut es das nicht. Warum? Die Macken der Analog-Elektronik. Entweder wird es gedämpft, weil Sie irgendwo Verstärkungen haben, die eben nicht gerade bei ein sind. Oder es schaukelt sich auf. In der Praxis müssen Sie, wenn Sie über längere Zeiten hinwecken, Sinusignal mit konstanter Amplitude haben, noch ein bisschen an Elektronik drumherum bauen, um eine Amplitudenstabilisierung einzubauen. Das kriegt man aber relativ leicht hin. Aber man sieht, ich habe eine ganz einfache Rechenschaltung, das da, und ich kriege einen Sinus raus. Ich habe hier nirgends explizit irgendwas von Trigonometrie reingesteckt, und ich bekomme automatisch den Sinus als Lösung für eine bestimmte einfache Differenzialgleichung 2. Gradis geliefert. Wenn sich das noch mal anschaut, könnte man auf die Idee kommen, was passiert eigentlich, wenn ich diese Vorfaktoren Alpha dir irgendwie die Frequenz bestimme. Klar, je kleiner der Faktor ist, desto länger dauert das integrieren quasi, weil die Eingangswerte entsprechend kleiner skaliert sind, desto niedriger ist die Frequenz. Und ein steuerbarer Vorfaktor ist doch nichts anderes als eine Multiplikation. Das heißt, wenn ich diese beiden koeffizienten Potentiometer, die ich per Hand einstellen muss, kurze Bemerkung am Rande, manche Rechner boten für sowas sogar Doppelpotentiometer an. Da haben sie zwei Protis auf einer Achse, die sie gleichzeitig einstellen können, weil sowas so unglaublich häufig ist, dass sie zweimal genau den selben Koeffizienten brauchen, dass es sich dann anbot, um die Frequenz anzusetzen. Das heißt, wenn ich mal meine beiden Parameter Alpha durch Multipliziere ersetze, man sieht an der Stelle, wo vorher ein Koeffizienten Potentiometer vorgeschaltet war, steckt jetzt einfach ein Multiplizierer, dann kann ich die Frequenz von außen steuern. Ich kann zum Beispiel mit einem weiteren Integrierer hier unten, der erzeugt eine Rampe, eine ansteigende Spannung, kann ich dafür sorgen, dass es eine Grenzfrequenz geht, bis die Rechnung abgebrochen wird. Das kann man dann zum Beispiel auch nutzen, um sich eine Sinusfunktion zu machen, weil das, was ich hier reinstecke, ist eigentlich nichts anderes, als die erste Ableitung von dem Winkel, von dem ich die Sinusfunktion haben möchte. Das sieht dann zum Beispiel so aus, wenn man es laufen lässt. So eine Art Vorbildgenerator. Es erzeugt mir einen Zwieb über den bestimmten Frequenzbereich. Das ist eine Hilfsschaltung, die ich erstaunlich häufig, wenn Sie mal ein Sinuscosinus-Signalpärchen brauchen, lassen Sie uns mal ein praktisches Beispiel anschauen. Masse, Federdämpfersystem. Kennt jeder. Sie haben eine Feder, die hängt an der Decke, an der Feder hängt eine Masse, und unten an der Masse ist ein Dämpfer. Und arg vereinfacht, so eine Feder hat eine Kraft, die irgendwie proportional in einer einfachsten Falle zur Auslenkung der Feder ist. Stimmt natürlich nicht. Irgendwann überdehnen Sie die Feder in einem zu weit ausgelenkten Bereich. Aber im einfachsten Fall ist die Kraft, die so eine Feder aussieht, linear von der Auslenkung. So ein Dämpfer ist zum Beispiel ein Flüssigkeitsdämpfer. Sie haben ein Paddel in einem Ölreservoir oder sowas. Und das kennen Sie alle aus der Badewanne oder im Schwimmbad. Wenn Sie mit der Handfläche ganz langsam durchs Wasser streichen, haben Sie kaum Kraftaufwand. Wenn Sie das versuchen, schnell zu machen, ist es ganz erstaunlich, welchen Widerstand Ihnen das Medium entgegensetzt. Das heißt, beim Dämpfer haben wir etwas, was eine Kraft ausübt, die proportional zur Geschwindigkeit ist. Und bei der Masse, welche Kraft übt so eine Masse aus? Naja, F gleich M mal A, eine Kraft, die proportional zur Beschleunigung ist mit der Masse. Damit haben wir eigentlich schon alles zusammen, was man braucht, um sowas mit einem Analogrechner zu lösen. Und das können wir später als ganz einfaches Beispiel mal beim Hands-on-Training drüben im Analogrechner-Räumchen machen. Dafür sind ja drei Analogrechner da hier als Kringel dargestellt, die übende Kraft aus M mal A. Was ist die Beschleunigung der Masse? Wenn ich mir vorstelle, dass meine Masse vertikal ausgelenkt werden kann, dann ist die Beschleunigung der Masse gerade die zweite Ableitung von der Position der Masse. Wenn Y also die Position meiner Masse bezeichnet, dann ist Y Punkt, die Geschwindigkeit der Masse und Y Punkt Punkt die Beschleunigung. Das heißt, mein M mal A ist in Wirklichkeiten M mal Y Punkt Punkt. Das zwangsläufig in Richtung einer Differenzialgleichung. Dann habe ich meine Feder, die übt eine Kraft Fs aus, die ist gerade S mal Auslenkung, S mal Y und ich habe meinen Dämpfer, der übt eine Kraft aus, die ist proportional mit einer Dämpferkonstanten zur Geschwindigkeit. Das heißt, die Kraft, die der Dämpfer ausübt, ist einfach D mal Y Punkt. Geschlossenes physikalisches System, die Summe der Kräfte muss 0 sein. Das heißt, voilà, ich habe irgendwie M Y Punkt Punkt plus D Y Punkt plus S Y ist 0. Da ist sie, meine Differenzialgleichung, 2. Gradis, die dieses System beschreibt. Und erst an der Stelle trennen sich jetzt die Wege. Bis dahin hätten Sie es auf einem speicherprogrammierten Rechner genauso machen müssen, weil ohne mathematisches Modell können Sie nichts programmieren. Beim Analogrechner ist es ab jetzt deutlich einfacher als beim Digitalrechner, weil wenn Sie das nicht mit so was wie Matlab oder Mathematika machen, wo die ganze Intelligenz der Integration schon drinsteckt, müssen Sie es selber machen lassen Sie uns das mit einem Analogrechner machen. Ich löse mal diese Gleichung rechts oben auf nach der höchsten vorkommenden Ableitung nach Y Punkt Punkt. Das heißt, ich bringe das D Y Punkt und das S Y nach drüben, habe ich minus D Y Punkt minus S Y und teile noch durch die Masse und dann habe ich das in der Form, die ich brauche, um das Verfahren von Herrn Kelvin anzuwenden. Y Punkt Punkt gleich dieser Ausdruck auf der rechten Seite. Und jetzt kann ich anfangen. Y Punkt Punkt Punkt und integriere einmal drüber und kriege ein minus Y Punkt. Ich integriere nochmal drüber und kriege Y. Das Y kann ich schon mal direkt mit einem koeffizienten Potentiometer mit meiner Federkonstante S multiplizieren und habe rechts schon mal die Kraft, die meine Feder ausübt. Nicht schlecht. Das minus Y Punkt hat noch das falsche Vorzeichen. Das heißt, im nächsten Schritt brauche ich noch einen Summierer hier, um aus dem minus Y Punkt einen Y Punkt zu machen. Das multipliziere ich jetzt mit meiner Dämpferkonstante und die zwei Werte addiere ich zusammen. Das heißt, was ich addiere, ist S mal Y plus D mal Y Punkt. Aber da der Summierer ja immer eine Vorzeichenumkehr macht, bekomme ich minus Klammer auf die Y Punkt plus S Y. Klammer zu. Voila. Das ist fast die rechte Seite meiner Gleichung. Das Einzige, was fehlt, ist das durch M. Das durch M mache ich wie? Natürlich nicht durch Division, viel zu mühsam, sondern ich multipliziere lieber mal eins durch M. Und das kann ich natürlich mit einem koeffizienten Potentiometer machen. Ich nehme das, was rechts rauskommt, multipliziere es mit eins durch M und das ist ja gerade die rechte Seite meiner Gleichung. Die muss ja gleich der linken Seite meiner Gleichung sein und deswegen kann ich hier jetzt die Rückführung schließen. Das heißt, das, was hier rauskommt, minus die Y Punkt plus S Y ist gerade Y Punkt. Und damit habe ich meine Rechenschaltung fertig für das simulierte Masse-Feder-Dämpfer-System. Ich habe zwei Integriere gebraucht. Zwei Integriere heißt aber auch, ich habe die Möglichkeit, zwei Anfangsbedingungen zu definieren. Was bedeuten die Anfangsbedingungen? Was liefert der erste Integriere? Was liefert der zweite Integriere? Der erste Integriere liefert Y Punkt. Das heißt, die Anfangsbedingung für den ersten Integriere startgeschwindigkeit meiner Masse. Ich kann also zu Beginn der Rechnung sagen, der Simulation die Masse soll schon eine bestimmte Startgeschwindigkeit haben, in dem Moment, wo ich anfange zu simulieren. Was liefert der zweite Integriere? Der liefert die Position. Das heißt, die zweite Anfangsbedingung, das Potentiometer an dem minus Y 0 steht, das liefert mir die Startposition. Das heißt, ich kann vor meiner Simulation sagen, die Masse sei bis hierhin ausgelenkt und das hat schon eine bestimmte Geschwindigkeit nach oben oder nach unten. Und dann lasse ich die Integriere vom Zustand Initial Condition in den Zustand Operate übergehen. Setup, Sie sehen, ist extrem simpel, so gut wie keine Kabel nötig, sind ja auch nur ganz wenig Rechenelemente. Was hier zu sehen, ist ein klassischer Telefunken-Tischrechner. Wir sehen auch drüben in der Ausstellung hier vom Institut für Medienwissenschaft sehen können, da ist eine RAT 700 und ein RA 742. Ganz klassische Tischrechner, wobei das Wort Tisch hier ein bisschen in die Irre führt, die wiegen immer 105 Kilogramm pro Stück. Was übrigens auch der Grund ist, weswegen mein GTE-Rechner auf zwei Tischen steht. Der wiegt nämlich etwa 120 Kilogramm und ich war mir nicht ganz so sicher, ob eines von den Tischen das wirklich tragen kann. Links das klassische Ausgabeinstrument ein Oszilloskop und wenn wir das mal laufen lassen, sehen wir das hier. Ich bekomme geeignetes Zeitskalierung im ersten Fall wie gesagt einfach durch Ändern der Rückführungskonensatoren in den Integrierern bestimmen. Im einfachsten Falle bekomme ich direkt auf einem Oszilloskop zum Beispiel ein stehendes Bild, wenn ich den Rechner repetierend arbeiten lasse. Das heißt immer wieder die selbe Rechnung durchführen lasse, immer wieder den Zyklus zwischen Anfangswert, Rechnen, Anfangswert, Rechnen, Anfangswert, Rechnen durchlaufen lasse. Wie man sieht, die beiden Kurven beschreiben offensichtlich zwei unterschiedliche Lämpfer deutlich schwächer als bei dem System oben. Wenn die Frequenz unten kleiner wäre, hätte man auch gleichzeitig sehen können, die Feder ist offensichtlich auch stärker als die Feder bei dem oberen System. Wenn Sie sich jetzt in die Rolle eines Fahrzeugentwicklers in den 50er, 60er Jahren hineinversetzen, wie stimmen Sie Ihr Fahrwerk ab für bestimmte Straßenverhältnisse? Na ja, überlegen Sie erstmal wie das Fahrzeug mathematisch beschrieben werden kann. Das ist der Hauptschritt in Form einer Simulation, egal ob analoge oder digital. Dann stellen Sie eine Rechenschaltung auf, dann skalieren Sie sie geeignet, damit Sie zum Beispiel so eine stehende Darstellung auf einem Oszilloskrupp bekommen, dann sorgen Sie für geeignete Anfangsbedingungen oder auch Eingabefunktionen. Es gab wirklich Versuche zum Beispiel vom Militär Kettenfahrt, also man hat natürlich Panzer zum Beispiel simuliert, die sind ausgesprochen interessant als Simulationsobjekt, weil wenn Sie was mit 7 Achsen haben, die alle mehrere Freiheitsgrade haben über eine fette Kette miteinander gekoppelt sind, das ist wirklich nicht trivial. Wenn Sie wissen wollen, wie sich so was in einem Gelände verhält, war früher sogar die Idee, man fährt das Gelände ganz langsam ab und misst dabei Steigung Höhe und bla bla bla und steckt das gespeichert auf ein Magnetband als Werte in eine laufende Simulation rein und kann dann so lange am Parameter drehen, bis sich das simulierte Fahrzeug so verhält, wie sich es verhalten soll. Hat sich rausgestellt, dass das A unnötiger Aufwand war und B sogar mehr Probleme verursacht hat, als es gelöst hat. Einfacher ist es im Ende dann immer sich anzuschauen, wie verhält sich das System bei einer sprungförmigen Anregung. Das heißt, das passiert, wenn ich zum Beispiel über ein Bordstein fahre, ich weiß mit einem Panzer nichts außer dem Bordstein, aber wenn das entsprechend skaliert ist. Das Schöne ist also, Sie können direkt in eine laufende Rechnung eingreifen welchen Einfluss hat das auf Ihr simuliertes System. So ein Einmassen-Feder-Dämpfer-System ist natürlich trivial. Interessanter wird es bei einem 2-Massen-Feder-Dämpfer-System. Da nähern wir uns jetzt nämlich einem Auto. Auch noch extrem vereinfacht. Bei einem Automobil hat 4 Räder die sind einzeln gefedert und aufgehängt. Die Karosserie kann ja nicht nur translatiert werden, die kippt auch, das heißt, die kann rotieren. Sie haben viele, viele Freiheitsgrade. Das hier ist eine sehr vereinfachte Darstellung, die wirklich nur mal davon ausgeht. Ich möchte ein simples Auto-Modell simulieren, das aus 2 Massen besteht. Eine sehr große Masse im 1, meiner Karosserie und eine relativ kleine Masse im 2, mein Radsatz. Und diese Massen sind miteinander gekoppelt und zwar über einen Stoßdämpfer, D, und eine Feder und die Masse 2. Das Rad ist auch über eine Feder gekoppelt an dem Boden, nämlich einfach durch den Reifen selber. Das ist die Frage, wie verhält sich so was? Erst mal Differenzialgleichung aufstellen. Ich kriege natürlich jetzt 2 Differenzialgleichungen für jede Masse eine. Für die untere Masse, die ist noch relativ simpel, für die obere Masse dahin natürlich die 2. Differenzialgleichung mit drin und das ist ein interessanter Punkt, das ist ein System 2er gekoppelter Differenzialgleichungen. Die eine beeinflusst die andere. Das heißt, es bietet sich an 2 getrennte Rechenschaltungen erstmal herzustellen um so zu koppeln, wie diese beiden schwingenden Massen im realen Objekt gekoppelt sind. Um ins Detail gehen zu wollen, wie gesagt, Folien können sie gerne haben, um es nachzuvollziehen. Ich kriege diese eine Teilrechenschaltung und man sieht, diese Teilrechenschaltung bekommt als Input an dieser Stelle einen Wert y2 Punkt. Der kommt von einer anderen Teilrechenschaltung her. Die andere Teilrechenschaltung ist nämlich die hier Input ein minus y1 Punkt und da oben ein minus Vorfaktor von y2 minus y1. Darüber hängen diese beiden Gleichungen zusammen, nämlich über die Stoßdämpfer und über die Federn, mit denen Radsatz am Fahrzeug hängt. Sie beeinflüssen sich also gegenseitig. In der Praxis hätte es das eigentlich schon getan. Sie würden dann entweder mehr Kanal Oszilloskop nehmen oder mehr Kanal Schreiber, mit dem Sie jetzt protokollieren, wie bewegt sich Ihr Fahrzeug bei einer sprungförmigen Auslenkung zum Beispiel. Ich wollte, um ein bisschen Publikums wirksam was demonstrieren zu können, das wirklich auf einem Oszilloskop als hüpfendes Autochen darstellen. Das heißt, ich brauche irgendwie ein Auto-Grundkörper und man ahnt das, was brauche ich dafür. Ich brauche so ein Sinus-Cosinus-Signal-Pälchen. Das heißt, ich habe noch eine kleine Teilrechenschaltung, die so aussieht wie die einfache Sinus-Cosinus-Schaltung vorhin und ich brauche ein paar Summiere. Ich habe nämlich zwei Positionen. Ich habe mein Y2, das beschreibt, wo ist mein Rad gerade und ich habe mein Y1, das beschreibt, auf welcher Höhe befindet sich gerade meine Karosserie. Das Einzige, was ich jetzt noch machen muss, ist eigentlich auf einem Oszilloskop mehrere Objekte quasi gleichzeitig darzustellen, nämlich idealerweise zwei Räder, die hüpfen können und eine Karosserie, die über den Rädern ist und auch hüpfen kann. Dafür ist dieser Funktionsgeber mit dem verbiege ich einen Einheitskreis und der Räder, der halbwegs aussieht wie ein Autochen. Die Schaltung sieht dann so aus, es wird schon etwas voller und die Darstellung sieht so aus. Ich habe unten eine Straße. Auf der Straße liegen momentan die Räder auf und über den Rädern ist die Karosserie des Fahrzeugs und man kann wirklich wunderschön zeigen, entweder wie verhält sich das bei einer Sprung Antwort, ich kann die Straße einfach mal hüpfen lassen und ich sehe, wie die Räder kurz abheben, wie der Bodenhaftung kriegen, wie die Karosserie noch eine Weile nachschwingt und ich kann während ich das mache und die Räder anpassen. Ich kann zum Beispiel sagen, wie verhält sich das mit steiferen Federn oder stärkeren Dämpfern? Ich kann also einfach mal probieren, wie würde sich ein Sportwagen verhalten, wie verhält sich ein amerikanischer Straßenkreuzer oder irgendein anderes Fahrzeug durch Parameter-Variation. Ich kann auch und das ist natürlich auch nicht uninteressant sagen, ich nehme noch einen Sinus-Cosinus-Generator, nämlich so eine Gleitfrequenz-Schaltung und mache mir eine Straße, die nicht einfach eine Sprung Anregung erzeugt, sondern kann ich ausprobieren, wie verhält sich mein Fahrzeug bei bestimmten regelmäßigen Bodenunebenheiten. Und das kennen Sie alle garantiert. Irgendwelche alten Kopfsteinpflaster-Straßen, bei denen Sie mit einer bestimmten Geschwindigkeit nicht gut rüberkommen, weil Ihnen sehr schnell sehr schlecht wird, weil Sie Eigenfrequenz Ihres Fahrzeuges erreichen. Und das kann man hier wirklich wunderbar ausprobieren. Man kann auch schön diese Frage lösen, die einem immer wieder gestellt wird, was passiert eigentlich, wenn ich sehr schnell über einen offenen Gulli-Deckel fahre? Ja, halt nix. Wenn es sehr schnell ist, ist die Feder nicht stark genug, um den Radsatz in den offenen Gulli-Deckel hineinzudrücken. Das kann man hier auch sehr schön ausprobieren. Was passiert eigentlich, wenn die Straße mal kurz wegsagt und sofort wieder da ist? Dann kann ich ausprobieren, welche Parametrisierung meines Autos zu welchem Fahrverhalten führt. Ein System können wir uns, denke ich, noch anschauen. Ein klassisches Räuberbeutesystem. Räuberbeutesystem, das ist etwas, was den Herrn Volterra von Lotka auffiel, als sie sich angeschaut haben, wie die Verkäufe von Hasen und Luxfällen über die Jahre hinweg aussahen in einer bestimmten, relativ abgeschiedenen Gegend. Und denen fiel auf, da sind erstaunliche Zyklen drin. Meistens gibt es so einen Anstieg von Hasenfällen, die Jäger angeschleppt haben. Dann gehen die Hasenfälle zurück und es gibt mehr Luxfälle und dann gehen die Luxfälle wieder zurück und es gibt mehr Hasenfälle. Ein ziemlich abgeschlossenes Ökosystem, die Hasen vermehren sich wie die sprichwörtlichen Hasen, werden weggefressen von Luxen, dann sind irgendwie zu wenig Hasen da, die Luxe sterben ein bisschen aus, dann können sich die Hasen wieder ungestörter vermehren und so weiter. Das ist ein typisches Beispiel, das sich natürlich sehr, sehr einfach mit einem Analogrechner lösen lässt, indem wir nämlich einfach zwei Differentialgleichungen aufstellen, eine für Luxe und eine für Hasen. Oben ist unsere Gleichung für die Hasen. Das ist die Vermehrungsrate der Hasen. Erpunkt ist irgendwie Alpha 1 mal R, das ist die Vermehrungsrate. Wie schnell vervielfachen sich die Tiere? Minus Alpha 2 RL. Gesundheit. Wie schnell werden die Tiere weggefressen von Luxen? Alpha 2 ist quasi der Einfangquerschnitt von Luxen und Hasen. Wenn das Produkt von Luxen und Hasen sehr groß wird, ist die Wahrscheinlichkeit, dass die beiden sich begegnen und der Lux den Hasen frisst entsprechend groß. Wie aus? Luxe haben eine Sterberate, Beta 1. Wie schnell sterben sie aus ohne Nahrung? Aber sie können sich vermehren, wenn sie Hasen fangen, plus Beta 2 RL. Ich habe also wieder zwei gekoppelte Differentialgleichungen. Was sie hier rauskriegen, ist erstmal so eine Rechenschaltung für die Hasen. Die Hasen, nochmal ganz kurz, war Alpha 1 R minus Alpha 2 RL. Okay. RL hätte, habe ich noch nicht. Kann ich es mit Alpha 2 multiplizieren? Kann minus R mal Alpha 1 dazu sumieren? Daran denken, dass das das Vorzeichen umkehrt und das liefert mir gerade R-Punkt. Damit habe ich die erste Gleichung als Rechenschaltung umgesetzt. Das kann ich mit den Luxen genauso machen. Meine Luxe sind extrem einfach. Ich habe RL mal Beta 2. Das ist der Input und ich habe eine Sterberate Beta 1 mal minus L. Das ist die Rate, mit der die Luxe sterben, wenn sie keine Nahrung finden und ich habe natürlich auch hier einen Startwert für den Integrator, der mir sagt, mit wie vielen Luxen lege ich eigentlich los. Das einzige, was noch fehlte, war das RL. Das kriege ich ja jetzt, weil diese beiden Teilrechenschaltungen mir zum einen das R und zum anderen das L geliefert haben. Ich brauche also nur noch einen Multiplizierer. Dass der Multiplizierer hier ane, es wahrscheinlich liegt daran, dass in diesem speziellen Fall ein solcher Parabel-Multiplizierer verwendet worden ist, der nämlich gerade x plus y² minus x minus y² rechnet. Dafür brauche ich jeweils das Plus und minus x und das Plus und minus y. Das ist ganz typisch für solche Multiplizierer, dass ich beide Variablen mit beiden Vorzeichen brauche. Das ist also die Rechenschaltung, die ich bekomme, um so ein einfaches Räuberbeutelsystem zu simulieren. Das sieht dann im Setup so aus. Das Oszilloskop ist arg stillos, weil digital aber es ist wenigstens auch uralt. Was man hier sieht auf dem Oszilloskop, man sieht es auf der nächsten Folie gleich etwas besser, ist das hier. Die obere Kurve sind die Hasen, sie vermehren sich mehr oder minder schlagartig und an bestimmten Punkte übernehmen die Luxe und vermehren sich selber und fressen Hasen weg. Dadurch sinkt meine Hasenpopulation, die Luxpopulation kriegt zu wenig zum Fressen, stirbt selber aus, dadurch haben die Hasen wiederum bessere Chancen zu vermehren und so weiter. Interessant ist es gar nicht Trivialparameter zu finden, unter denen das über lange Zeit stabil bleibt. Also so Ökosysteme sind sehr, sehr haklige Dinge, muss man sagen. Wir kriegen sogar noch eins durch. Faszinierend. Ball in Kiste, das ist an einem Stand vom Herrn Glashik zu sehen drüben, auf der EAI Mini-AC vom Heinz-Nixdorf Museumsforum, die ausgestellt ist. Das ist ein ganz klassisches kleines Demonstrationsbeispiel. Ich möchte einen springenden Ball in einer gedachten Box hüpfen lassen. Die Grundidee ist erst mal wieder einfach. Ich brauche was, um den Ball darzustellen. So ein Sinus-Kosinusgeber, damit kriege ich ein Kringel. Und ich muss irgendwie eine Rechenschaltung haben, die sich um die Y-Position des Balles kümmert, während er springt und eine Rechenschaltung, die sich um die X-Position des Balles kümmert, während er von links nach rechts läuft bis zur Wand, und tut und. Und das ist im Prinzip erstaunlich simpel. Ich habe also hier meinen gedachten Ball beschrieben durch ein XY-Koordinatenpärchen, der in dieser Box springt und dargestellt wird durch Überlagerung mit so einem Sinus-Kosinus-Kreis. Sie erinnern sich, ich habe gesagt, es ist gar nicht so einfach, über lange Zeit hinweg ein Sinus-Kosinus-Pärchen zu machen, das konstante Amplitude hat. Hier sehen Sie jetzt mal eine praktische Rechenschaltung. Da muss man leider doch mal kurz drüber nachdenken, dass es eben kein rein abstraktes mathematisches Rechenelement ist, sondern etwas, was ja doch analog-elektronisches Innenleben hat. Was man hier sieht, zum Beispiel unten diese 2 Z-Dioden, das ist Amplituden-Begrenzung, um sicherzustellen, dass meine Amplitude nicht über alle Maßen steigt. Und ich habe noch eine ganz kleine Rückkopplung dieses 0,02 rechts oben, das sorgt dafür, dass meine Amplitude nicht abklingt bei der ganzen Geschichte. Aber das ist reine Technik. Wenn ich den Ball anschaue, dann muss ich irgendwie ein Doppelintegral bilden. Eigentlich klar, ich habe eine Beschleunigung. Das Ding fällt, Erdbeschleunigung. Und wenn ich einmal integriere, kriege ich die Geschwindigkeit des Balles raus. Wenn ich nochmal integriere, kriege ich die Y-Position raus. Muss also 2 Integrale rechnen. Diese Rechenschaltung liefert mir meine Ball Y-Position. Man sieht hier wieder diese Z-Dioden, das ist offen gestanden ein Kunstgriff gewesen, weil ich hatte keine zusätzlichen Rechenelemente übrig. Die sind unter und oberer Deckel des Kastens. Und ich muss mich noch darum kümmern, dass der Ball auch braver in den rechten und linken Wänden abprallt. Und hier sieht man ein typisches Beispiel dafür, wofür man Komparatoren brauchen kann. Hier vergleicht ein Komparator, nämlich bin ich rechts oder links abgeprallt. Und der andere Komparator zusammen mit seinem zugeordneten Schalter dient dazu, die Laufrichtung des Balles umzukehren, die übrigens auch linear langsamer wird. Ich habe hier eine hohen Ballgeschwindigkeit an. Die Geschwindigkeit wird linear langsam, ein bisschen null erreicht. Und immer wenn ich eine Wand stoße, muss ich die Richtung umkehren meines Balles. Dann habe ich X und Y. Das überlagere ich noch mit meinem Sinus-Cosinus-Pärchen und kriege, oala, einen Ball raus. Hier sieht man gerade nicht allzu viel. Die Belichtungszeit war zu kurz, aber man ahnt so ein bisschen, dass es ein Kringel, der da unten gerade abgeprallt ist, in der Ecke. Ich blätter nur mal schnell durch die restlichen Folien durch, damit Sie sehen, was man eigentlich alles damit machen kann. Oh, okay, aber ich glaube, ist trotzdem okay, aber danke dir. Ein wunderschönes Beispiel finde ich ist Strömungssimulation. Das heißt, Sie interessieren sich darum, dafür welchen Pfad nimmt ein Luftteilchen um eine Tragfläche. Das ist insofern recht interessant, dass es zeigt, dass man auch mit leichtem Aufwand sich in der komplexen Zahlenebene mit einem Analogrechner nähern kann. Direkt ist sie ohne Weiteres nicht zugänglich, aber ich kann natürlich explizit mit Real- und Imaginärteil arbeiten. Das hier ist insofern eine ganz interessante Geschichte. Das nennt man eine konforme Abbildung. Ein Herr Jukowski, zusammen mit Herrn Kutta, hat solche konformen Abbildungen untersucht und festgestellt, dass Sie mit so einer konformen Abbildung auf einem Analogrechner darstellen würden, sieht man es unten. Das hier ist die Rechenschaltung für eine konforme Abbildung. Man sieht, auf der linken Seite habe ich zwei Eingänge, die zum Beispiel X und Y, die ein Einheitskreis darstellen, d.h. ein Sinus-Cosinus-Pärchen, und was rechts rauskommt, ist wieder ein X und Y Wert, der allerdings den Kreis nachdurchlaufen dieser konformen Abbildung darstellt. Nach der konformen Abbildung sieht der Kreis aus wie eine Tragfläche. Das alleine ist schon schick, aber richtig interessant wird es eigentlich, wenn man jetzt versucht, die Strömung, die Umströmung dieses Profils zu simulieren. Das ist das, das kann man mathematisch geschlossen machen für ein etwas abstrakten Fall, dass man nämlich die Umströmung eines unendlich langen rotierenden Zylinders betrachtet. Auf den ersten Blick sollte man denken, Typisch Mathematiker, was hat denn das mit der Realität zu tun? Aber wenn man von oben auf so einen unendlich langen Zylinder draufschaut, dann sieht er eigentlich aus wie ein Einheitskreis. Und eben haben wir gesehen, dass wir ein Einheitskreis verbiegen können, dass er wiederum aussieht wie eine Tragfläche. Das ist fast nahe. Wenn ich simulieren kann, wie so ein Strompfad eines Luftteilchens um diesen unendlich langen Zylinder aussieht und ich kann diesen Zylinder in der Tragfläche verbiegen, kann ich dann nicht auch den Weg, den das Luftteilchen um den Zylinder beschreibt, in den Weg verbiegen, den es um das Profil beschreiben würde. Die Antwort ist ja. Das kann ich mit genau derselben Rechenschaltung machen. Das heißt, ich habe irgendwie zwei Rechenschaltungen. Die Tragfläche, die nutze ich auch gleich, um den Stromfaden eines Teilchens entsprechend zu verbiegen. Und ich brauche eine Rechenschaltung, die eben die Umströmung dieses gedachten Zylinders simuliert. Die sieht so aus. Wenn ich das zusammen tue, kommt so was raus. Man sieht auf dem Oszilloskop als stehendes Bild meine Tragfläche. Und hier ist noch ein bisschen Trick drum herum. Die ist hier und ausgeführt. Das heißt, ich male einmal die Tragfläche und dann male ich einen so einen Stromfaden. Und diese Rechnung hier hat noch ein Trick. Die malt nämlich nicht nur einen Stromfaden drunter, sondern ganz schnell einen ganzen Schwung von Stromfäden, nämlich 16 Stück unten drunter. Und man sieht sehr schön, diese Tragfläche liegt wirklich wie in so einem Kissen eingebettet. Was man hier jetzt nicht so schön demonstrieren kann, was aber am Rechner geht, Sie können dann mit einem Potentiometer einen Stromungsabriss bekommen. Und Sie können mit einem anderen Potentiometer zum Beispiel entweder den Abstand dieser 16 Stromfäden steuern oder Sie betrachten nur einen Stromfaden und stellen dann dessen Anstellwinkel und dessen Abstand zur Tragfläche ein. Die können Sie entweder oben oder unten rum umströmen lassen. Ja. Man bekommt es sicherlich hin und der Aufwand wird dann entsprechend größer. Wenn man bedenkt, wie viele Monate die Maschinen dran gerechnet haben und wenn man bedenkt, wie wenige Millisekunden meine Maschinen sozusagen dran rechnet, sieht man natürlich den vornen Nachteil auf beiden Seiten klar. Ich bin hier begrenzt, ich habe nicht die Möglichkeit, Komplexität gegen Zeit zu tauschen. Der Rechner müsste halt dann extrem groß sein. Das ist der Fall. Das ist der Fall. Der Rechner müsste halt dann extrem groß sein, um das zu simulieren. Das dürfte wahrscheinlich einer der Gründe gewesen sein, weswegen damals die Ideen Richtung Speicher programmiert sind. Das fing ja an mit einer IBM-CPC, das heißt nicht wirklich Speicher, sondern Lochkarten programmierte Maschine gegangen ist. Aber eben, dass ich quasi beliebig komplexe Probleme anfassen kann, nur halt zu Not, sehr lange Warte. Aber wenn meine Komplexität im Vorhinein bekannt ist und mein Rechner passt, das geht in Heaven. Dann noch zwei. Ich überziehe ein paar Minuten, aber nur wenige. Ein Lorenz-Attraktor, den kennen Sie auch. Eigentlich wollte ich einen stöpseln, aber dann wurde mein AI 180 für was anderes gebraucht, was aber auch sehr interessant ist. Lorenz-Attraktor kennen Sie alle als das archetypische chaotische System von Herrn Lorenz, ein Meteorologen entdeckt worden, als er mit seinem damals wohl neuen HP-Tisch-Rechner rumgespielt hatte. Und der Lorenz-Attraktor ist ein typisches Beispiel für chaotisches System, das in diesem Fall auf drei Differentialgleichungen zurückgeführt werden kann, die, wie man sieht, über die Funktionen X, Y und Z alle wechselweise miteinander gekoppelt sind. Und wenn ich das auf einem Analogrechte umsetze, ich habe drei Gleichungen, ich kriege drei Rechenschaltungen. Was man hier noch ganz gut sieht, wenn man sich mal kurz die linke obere Rechenschaltung anschaut, hinter dem integriere sind zwei Summierer. Wenn Sie daran denken, dass ein Summierer immer eine Vorzeichenumkehr macht, ist klar, wenn ich zwei Summierer habe, kann ich es auch weglassen. Weil dann könnte ich einfach das, was aus dem integriere rauskommt und das Y direkt wieder in den integriere stecken. Und jetzt schauen Sie mal ganz kurz auf der nächsten Folie, wie sich die linke obere Rechenschaltung vereinfachen lässt, nämlich nur noch ein integriere übriggeblieben. Die Summierer fallen weg. Und genau dasselbe gilt auch für die rechte obere Schaltung. Auch da habe ich wieder zwei Summierer hintereinander und die kann ich quasi wegrationalisieren. Und auch die untere Teilrechenschaltung wird simplen, indem ich die beiden Summierer weglasse. Das heißt, ich komme mit drei integrierern und zwei multiplizierern aus, um den Lorenzattraktor zu beschreiben. Was ich dann rauskriege, ist das hier. Schönes wieder durch Zeitskalierung kann ich entweder als stehendes Bild auf einem Oszilloskop darstellen oder zum Beispiel in aller Seelenruhe plotten. Jetzt noch ganz kurz was zum Abschluss. Ein Chuaattraktor. Lustigerweise kam das gestern beim Abendessen auf das Thema, der basiert auf einer theoretischen Diode, einer Chua-Diode und lässt sich durch auch wieder drei Differenzialgleichungen eine eher eklige Funktion F beschreiben, die das Verhalten dieser Diode modelliert. Und dieser Chuaattraktor, der ist wirklich gemein auf einem Analogrechner umzusetzen wegen der Skalierung. Ihre Variable nehmen so unglaublich unterschiedliche Größenbereiche an, dass es wirklich schwierig ist, das Gleichungssystem so zu skalieren, dass sie es auf einem Analogrechner zum Laufen kriegen. Um ehrlich zu sein, das hat mich ein gesamtes Wochenende gekostet, bis das funktioniert hat. Aber danach hat es hervorragend funktioniert. Was nämlich rauskommt, sind diese drei Sätze von Gleichungen entsprechend diesen Rechenschaltungen. Dass das hier so ein Riesenaufwand nach sich zieht, der größte Aufwand steckt in der verfliegsten Betragsfunktion drin. Ich brauche zwei Beträge für diese Chua-Diode. Das sind diese Module, diese Rechenverstärker, offene Verstärker, aber die haben wir noch gar nicht geredet mit den Dioden in den Rückführungen. Man sieht, das geht gerade noch so auf einem Telefonkentischrechner. Aber wirklich gerade noch so, es bleibt kein einziges Rechenelement übrig. Man braucht den gesamten Tischrechner dafür. Aber was rauskommt, ist dieser ganz berühmte Double-Scroll-Attraktor, den man dann auch, wenn man es entsprechend langsamer laufen lässt, sehr, sehr schön plotten kann. Das heißt, dass die 3-Dimensionale Körper projizieren auf eine 2-Dimensionale Fläche, zum Beispiel hier eine Spirale. Ich habe eine 3D-Spirale, die ich auf ein Oszilloskop projiziere und in Echtzeit zum Beispiel drehen kann. Es gibt ein wunderschönes Buch über High-Speed Analog Computing, wo Sie sogar die Projektion eines 4-Dimensionalen Würfels mit Hilfe eines Analogrechners ausgeführt sehen. Damit bin ich am Ende der kleinen Einführungen das Programmieren von Analogrechnern. Ich bedanke mich ganz, ganz herzlich für Interesse. Und wie gesagt, wer möchte, kann mir einfach seinen USB-Stick geben und dem gebe ich die Folien mit. Vielen, vielen herzlichen Dank und noch viel Spaß auf dem VCFB.