 Hallo, liebes Publikum. Wir sind jetzt bei einem sehr spannenden Talk, nämlich für alle, für die 0 und 1 ein bisschen langweilig geworden ist, und wo man gerne so ein bisschen was mehr noch dazwischen hätte, weil irgendwie 0 und 1, mein hey, das hat sich ausgelutscht. Haben wir jetzt Sven Köppel, der uns etwas über wie hacken wir analoge Computer hält, zum Beispiel dem offiziellen Titel, der wieder ein bisschen langweiliger ist, kontinuierliche Computer, die rechende Architektur der Zukunft. Viel Spaß mit Sven Köppel. Ja, hallo. Danke, dass ihr alle so zahlreich erschienen seid. Ich spreche heute über was, das ist irgendwie schon so, im Publikum war da, da steht es auch nochmal, analog steht schon drin und trotzdem habe ich Ihnen einen anderen Titel gegeben und hacken ist jetzt auch noch dazugekommen. Mal gucken, worüber wir heute alles sprechen können, wofür die Zeit reicht. Ich hoffe, ihr hattet bislang eine schöne GPN. Es ist ja super spannend, was es für tolle Projekte hier gibt und was man alles sieht. Es dreht sich ja von vorne bis hinten eigentlich immer um Digitalisierung, um digitale Datenverarbeitung und alles, was wir mit Computern machen können. Und ja, was ist das Digitales, ist eben Ende des Tages immer das Rechne mit Zahlen, digital 0 und 1, binär, tra-la-la bzw. so der Archetyp hier, Ascene, dass letztlich der Rechner halt immer mit Zahlen rechnet und alles andere sind Symbole. Da ist zum Beispiel ein Symbol und das ist hier auch und das Leerzeichen hier ist auch ein Symbol und letztlich Symbole oder quasi Platzhalter für irgendwelche komplexere Sachen, Bilder oder so, die codiert werden in Zahlen, ich glaube, das muss ich den Publikum hier nicht erklären. Der Punkt ist, diese Zahlen sind immer diskret, sie sind immer, es ist halt immer nur eine, sie setzen letztlich in Ziffern runtergebrochen. Also entweder die Ziffer ist da oder sie ist nicht da, sie hat einen Wert, aber man kann nicht irgendwie einen Teil von der Ziffer oder irgendwas darstellen. Und ein unglaubliches, ja, wenn man sagt, dass das Ergebnis von Erzehnten, von Software-Entwicklungen und Software-Ithikturen ist das halt irgendwie so weit zu abstrahieren, zu verschleinen, dass wir das halt de facto diesen Kontinuumesübergang schaffen. Und wenn man sich jetzt irgendwas auf den Computer anschaut, so eine schöne Linie hier, oh, toll, Sinus, dann sieht das einfach smooth und sauber aus und ja, klar, der Computer kriegt das ja irgendwie hin. Dass der Computer natürlich in Wirklichkeit hier irgendwie 50 Stützpunkte hinlegt und dazwischen dann interpoliert und das halt dann algorithmisch mit beliebiger Genauigkeit auch ausrechnen kann, steht dann auf einer anderen Seite. Also auf einem Level von Datenverarbeitung allerdings, also nach dem Motto Datenacquise zum Beispiel oder Messwerteverarbeitung, also wenn ich jetzt wirklich von Datenspreche im Rheinsinn, dann sind Daten und bleiben Daten eigentlich immer das, was hier auf diesen roten Punkten dargestellt ist. Also sie bleiben immer diskret. Und da kann man jetzt ein bisschen picky sein und sagen, ja gut, aber dieser Sinus ist ja doch irgendwie ganz da. Man kann natürlich auch den Sinus als Symbol als solches verstehen und man kann ja über den Sinus sprechen, der Sinus und über den Sinus diskutieren und ihn einfach als Platzhalter nehmen. Aber in dem Moment, wo man ihn auswertet, wird da eben diskret. Also alles, was sich auf einem Digitalkomputerverarbeiter ist und bleibt diskret, es sind wirklich immer am Ende des Tages Null und Einsen. Und wenn man jetzt mal so ein bisschen auf Signalverarbeitung eine Macht oder so ein bisschen so eine Elektrotechnik geht, dann kennt man vielleicht, hat schon mal jemand gesehen, dieses Bild, so Darstellung von Zeitauflösung, die diskret oder kontinuierlich sein kann, Werteauflösung diskret oder kontinuierlich. Wo wir bei dem Digitalcomputern sind, ist immer hier unten rechts. Also wir sind hier quasi bei endlich, bei diskret aufgelösten Werten. Zahlen sind eben mit Ziffern dargestellt und diskret aufgelöster Zeit. Also das ist vor allem der Takt in unserem Digitalcomputer, eben immer Takt und inzwischen diesen Takt passiert halt im Level der Informationsverarbeitung nichts. Und das andere Extrem, das ist hier oben links dargestellt, das ist so das, wie sich viele die Wirklichkeit vorstellen, kontinuierliche Zeit, kontinuierlicher Wert und ja, ob das so ist, kann man jetzt so in Richtung Quantenmechanik auch natürlich irgendein Frage stellen, aber da gehe ich jetzt heute mal an der Stelle nicht drauf ein. Wenn wir jetzt mal so ganz plakativ sagen, okay gut, was ist denn, wie stellt man das da? Nogu, auf der einen Seite früher hatten wir zum Beispiel, wie unsere Vorfahren, die so Telefonanlagen, wo eben tatsächlich umgeswitscht wurde und dann bestand eine End-zu-Ende-Verbindung, wo man quasi wirklich zwei Telefone an verschiedenen Orten in der Stadt, in Deutschland oder vielleicht sogar weltweit miteinander verbunden waren. Das war wirklich kontinuierliche Zeit, kontinuierlicher Wert, der da übertragen wurde zwischen diesen Telefonen. Und ein riesenerfolgtes Internet ist es ja letztlich, dass wir geswitschte Netzwerke haben, dass wir nicht mehr so was haben, wo man irgendwie nur End-zu-End-Verbindungen ermöglichen kann, sondern Netzwerktepologien, wo es Cross-Bare-Arrays gibt, die auch geschaltet werden und wo ich komplexe Netzwerksstrukturen ermöglichen kann und eben nicht immer zur gleichen Zeit mit irgendeinem Person spreche, wo ich auch Datenpaket orientiert übertrage. Das ist ja letztlich quasi der Übergang vom Telefonnet zum Internet. Und worüber ich heute mit euch sprechen will, ist eben die Tatsache, dass diese ganze schöne Welt des Digitalen, die uns das alles gebracht hat und die wunderbar ist und die ich euch abschaffen will, früher oder später zu was ziemlich problematischem führt. Jetzt habe ich das ein bisschen plakativ mit Klimawandel dargestellt, aber worauf ich hinaus will, ist, dass wir in verschiedener Hinsicht auf eine Wand zufahren. Das klingt so ein bisschen überdramatisierend und jetzt auch heute ein bisschen einordnen. Aber im Grunde genommen hat dieser digitalen Informationsverarbeitung kann nicht in dem Wahl in der Weise weiter wachsen, wie sie wachsen soll und wird uns nicht in der Weise weiter Fortschritte in der Hardware und Software möglichen, wie es bislang der Fall war. Und wir bräuchten dessen eben andere Paradigme. Zunächst möchte ich aber darauf eingehen, warum, wo ist nun das Problem im Kern eigentlich da? Und das ist ganz banal gesagt, dass man ein Handy heißt. Und das hat ganz verschiedene Gründe. Aber auf einem theoretischen Level der Informationsverarbeitung ist es eben so, dass Informationsverarbeitung Energie benötigt. Und zwar sehr wenig Energie tatsächlich. Also ein einziges Bit zu switchen, sozusagen im theoretischen Limit, braucht 10 hoch minus 20 Joule. Das sind also eine Zahl, wo man eine 0 und dann 20 Nullen und dann irgendwann kommt der ersten 1 oder hier in dem Fall eine 3. Eigentlich war es ja theoretisch, diese Arbeit weg zu sein scheint. Jetzt ist es natürlich so, dass wir Gigabyte, Terabyte, dass sehr viele 10er Potenten von Bit zwar arbeiten. Also kann man sich vorstellen, dass das vielleicht doch mal relevant wird. Aber eine Sache, die hier dargestellt ist, ist eben, wir haben halt letztlich auch bei so was wie Zemos bei Baustein immer Lexströme, Dinge, die halt nochmal on top kommen, die sich auch da nicht weg, durch technologischen Fortschritt wegdiskutieren oder wickeln lassen. Und beispielsweise, wenn man mal so ein Schaltkreis, also das Schalten selber, wenn in dem Moment, wo ich wirklich ein Bit ein oder ausmache, dann kann man das vorstellen, dass ob ich hier ist, in einem traditionell Schaltkreis hier, sagen wir mal, auf Zemos, ob ich wirklich ein Schalter auf und zumache. Und jedes Mal entlad ich de facto entweder hier einen oberischen Widerstand oder eine Kapazität. Und im oberischen Widerstand ist es klar, da entsteht Wärme direkt und bei der Kapazität entsteht Wärme zum Beispiel durch so was wie parasitäre Widerstände. Und das sind die Gründe, warum wir, warum CPUs warm werden und warum wir diese fetten Kühlkörper auf unseren Zentralprozessoren haben, um die abzuführen, weil da Ströme sind, die man eigentlich gerne nicht hätte. Und das Verrückte ist, was ich gerade sagte mit dem Landauerlimit, das Ganze wird im Prinzip in ein paar Jahren ab so umlaufen. Also als ich dieses Bild hier das erste Mal gesehen habe, habe ich gedacht, okay, das ist ja seltsam. Nein, wir sind jetzt irgendwo bei 2022 und das heißt also so mit so einem aktuellen System, wenn ich jetzt davon ausgehe, ich verarbeite immer mehr Bit, also das ist ja hier exponentiell steigend in dieser logaritmischen Darstellung, dann bin ich in zehn Jahren eigentlich so weit, dass ich mit alleinem Energieverbrauch durch IT-Systeme den kompletten globalen Energieverbrauch sprenge. Also kriegen wir eben nicht so ganz zehn. Also es ist eben schon heute so, dass es gibt so ein paar Zahlen, die man sich ganz gut merken kann, zum Beispiel, dass der IT-Sektor genauso viel CO2 ausstößt, der globale, wie der globale Luftverkehr, oder hier mit den 7% beispielsweise. Es ist also durchaus listisch, dass allein so was wie in Zeiten von Corona, wir haben das mitbekommen in die letzten zwei Jahre, dass einfach steigende Informationsverarbeitung auch dazu führt, dass diese Zahl immer größer wird. Jetzt kann man das natürlich verbessern, dadurch, dass wir technologisch irgendwie dann vielleicht doch mal ziehen muss, hinter uns lassen und was Besseres erfinden oder was auch immer. Da kann man so ein paar Größenordnungen gewinnen. Das wird sich dann hier hinten in so ein paar Jahren erweitern. Kommen wir dann von 2035 bis 2045. Okay, kann sich jeder ausrechnen, wie alt er bis dahin ist. Ja, und irgendwo haben wir dann dieses theoretische Limit. Das kann man eben auch staches, ja, verdammt, aus thermodynamischen Limites herleiten. Da sind wir dann vielleicht bei 2060, natürlich ein bisschen weiter hinten, aber immer noch erstaunlich greifbar nah. Also mein Gesetzesfall ist, dass das jetzt stimmt. Müssen wir ja handeln. Und das Handeln ist, wir wollen weniger Energie verbrauchen und hier ist direkt die Koalition zum Informationsverbrauch. Also müssen wir weniger Bit verbrauchen. Und jetzt stellt sich die Frage, okay, wir wollen ja eigentlich rechnen, rechnen macht Spaß und rechnen ist auch für viele Sachen wichtig. Und da will ich schon mal vorgreifen, es gibt ja ein Rechner, ich sehe viele Rechner in diesem Raum, hier sehe ich, ich sehe sie nicht, aber ich sehe die Stirn und dahinter sind sie. Und ganz, ganz vielen Rechnern. Unsere Gehirne, die brauchen alle unglaublich wenig Strom und Energie, 20 Watt ungefähr, sagt man für einen Gehirn. Und haben eine Rechenleistung, die unsere Computer jetzt, bekannterweise im autonomen Fahren, beispielsweise in anderen KI-Anwendungen, noch bei Weiten nicht erreichen. Also effizientes Rechnen ist möglich. Frage ist, wie kommen wir dahin? Naja, eine Sache, auch hier, das Wort ist steckt hier schon wieder drin, wir müssen Informationen vermutlich anders verarbeiten, als wir es jetzt machen. Und beispielsweise, ich hatte das Gehirn jetzt gerade schon genannt, ist es so, dass im Gehirn ein Signature-Race Ratio oder die Auflösung in Bits, in effektiven Bits, sehr viel geringer ist als das, somit für recht typischerweise in Computern. Und hier auf der X-Axis ist aufgetragen, was man eben, das ist eine beliebigen Einheiten, wie viel Bits verarbeitet werden pro Information, letztlich pro Informationskanal. Auf der Y-Axis ist jetzt hier ebenfalls beliebige Einheiten, was das nun für Leistung, für Energie verbraucht. Und man sieht einfach, dass digital sehr gut wird, und zwar unschlagbar gut wird, wenn man sehr akkurat Dinge versucht darzustellen, aber analoge Informationsverarbeitung in Größenordnung weniger Energie benötigt, wenn man Informationen nicht so akkurat darstellt. Wenn man Informationen ein bisschen weniger gut aufgelöst darstellt, zum Beispiel sehr erheblich weniger gut aufgelöst. Das ist was, worüber wir wahrscheinlich hinmessen. So, jetzt habe ich das teuflische Wort analoge ja doch gesagt. Jetzt bute ich mal kurz mein Windows 95-Rechner und gucke nach, was ist jetzt eigentlich dieser Analog-Computer von den, dieser Kerl da gerade spricht. Ja, ich weiß, Windows XP, sorry. Dann finde ich das ja, Analog-Computer. Das ist doch das mit den vielen Löchern und Kabeln, und irgendwie hat man schon mal gesehen. Also, Retro- Retro-Thing sehe ich hier und sowas. Ja, das wollen wir wahrscheinlich nicht, oder? Ich glaube, da sind wir uns sicher, wenn man jetzt zurück in den Sexcenter ist, ist doch deutlich schöner unsere ganze digitale Welt. Wer sowas noch benutzt, dann gibt es sicher noch die Autofielen, die finden zur Wahl dann Analoge, elektronische Musik und sowas, ganz interessant. Aber das ist, das ist was, worüber wir nicht hinwollen. Um zu zeigen, was meine Perspektive ist, müssen vielleicht erst noch mal ein bisschen aussohn, hinsichtlich was ist denn jetzt nun das Problem mit unserer digitalen Informationsverarbeitung. Also, warum ist eigentlich ein fundamentales Problem? Ich habe jetzt gerade so ein energetisches genannt. Aber da kann man ja sagen, okay, so ähnlich wie mit Autofahren, ich fahre jetzt erstmal nochmal ein bisschen weiter Auto mit meinem Verbrenner und dann gucken wir mal. Es ist aber eigentlich noch viel schlimmer. Hier ist ein Plot der unter anderem eine Sache darstellt, die man immer so hört, so einen sozialen Netzwerken, dass das Moose Law doch nicht mehr stimmt. Moose Law ist ja jetzt vorbei und jetzt kommt ja irgendwas anderes. Tatsächlich ist Moose Law immer noch genauso gut da wie vor 40, 50 Jahren. Das ist ja die Aussage, dass die Anzahl der Transistoren sich innerhalb von der fixen Zeitspanne verdoppelt oder so ein exponentielles Gesetz vorliegt und das ist bis zum heutigen Tag noch sehr gut da. Es geht beispielsweise in Speichern. Speicher werden immer mehr speichern auf einem Chip. Die Dichte nimmt immer weiter zu. Es funktioniert nach wie vor. Was aber nicht funktioniert, ist, dass unsere Computer schneller werden. Und das ist wahrscheinlich jedem aufgefallen, der in den letzten 10 Jahren mal einen neuen Computer gekauft hat. Ich rede hier von Laptops oder einem Personalcomputer. Die Frequenz ist seit mindestens 10, eher 20 Jahren fast konstant geblieben. Die Single Thread Performance ist fast konstant geblieben. Was im Gegensatz zu weiterhin gewachsen ist, das ist die Anzahl der logischen Kerne, also das Multithreading, was wir mittlerweile verbauen in den Prozessoren. Was sich hinter diesen Zahlen verbirgt, das sind verschiedene, die haben verschiedene Namen diese Phänomenes. Eine ist die Energiebarriere beispielsweise, dass die Leistungsaufnahme pro Quadratzentimeter auf einem Chip so groß wird, an Temperaturen, die dort entwickelt werden, so groß, dass es einfach nicht mehr mehr möglich ist, die abzukühlen, die wegzubringen. Und dass man deswegen auch nicht mehr in der Lage ist, das noch weiter einzuhalzen. Da gibt es natürlich wiederum Leute, die dann anfangen mit Flüssigkühlung und weiß ich nicht was. Aber auf jetzt so traditionellen Systemen, wie wir sie in unseren Hosentaschen tragen, wird das eben immer schwieriger. Und das hängt letztlich mit der Tatsache zusammen, dass der Energieverband Leistungsverbrauch quadratisch geht zu der Frequenz von dem Takt, also letztlich der Takt des Prozessors. Das heißt, das ist der Grund, warum wir jetzt so bei 3 Giga-Herzen ungefähr rumhängen und da im Prinzip nicht mehr groß weiterkommen. Aber nach wie vor wird ja wohl noch jeder im Raum zustimmen. Es gibt ja Fortschritte. Ist ja nicht so, dass ich die letzten 20 Jahre nichts getan hätte und das heute so eine alte Windows-Gurkow und all die genauso gut wäre wie jetzt ein neuer Rechner. Na gut, klar gibt es Fortschritte. Man will erleben nach wie vor eine Miniaturisierung, dass die müssen Skalen von Transistoren immer geringer werden. Zuletzt hatte ich glaube ich von 2 Nanometer oder 4 Nanometer gelesen. Also wirklich Bereiche, in denen man schon längst in einem Bereich ist von Quantenmechanik. Aber trotzdem schaffen wir es da, klassische Gesetzmäßigkeiten zu kontrollieren und wirklich vorherrsagbare Digitarechner zu bauen. Der Punkt ist halt, na wie vor, wir entwickeln uns eigentlich hier immer weiter hoch. Also wir wollen eigentlich schnellere Rechner, dass der Performance der Goldstunner ist und gleichzeitig wird die Energiedichte halt doch irgendwie noch mal ein bisschen hochtreiben. Und ich habe es vorhin schon gesagt, wo wir eigentlich hin müssen, ist das genaue Gegenteil. Wir müssen eigentlich darunter, das menschliche Gehirn, dass eigentlich erstaunlich langsam ist, wenn man dem mal so was wie ein Tag zu Worten kann. Da gibt es verschiedene Ansätze und was eben echt sehr wenig Energie benötigt. Das ist ja auch ein Punkt zu machen, aber sie werden einfach teuer, sie sind irgendwann unverhältnismäßig. Anderer Punkt, ich habe es gerade gesagt, Parallel-Prozessing ist so ein Ding, klar funktioniert auch, funktioniert allerdings nur bis zu einem gewissen Level. Es gibt auch da einen relativ einfachen Zusammenhang an das Gesetzentlicht, da kann man quasi aus dem seriellen Teil von einem Programm ableiten, wie gut sich der parallelisieren lässt. Und das ist erschreckend die Ergebnisse. Also ich habe mir mal ein Beispiel gemacht, wenn der Parallel-Teil nicht irgendwie im 9.9.9 Bereich ist, dann ist der Speedup echt sehr gering, wenn man dann viel mehr Ressourcen daneben stellt. Das ist unter anderem der Grund, warum eure 30-Kern-Handys in der Hosentasche nicht 30-mal schneller sind als ein 1-Kern-Handy. Okay, ich fasse nochmal zusammen. Also wir haben eine Energiebarriere, wir haben ein Andersgesetz und eine Sache, die ich jetzt noch nicht angesprochen habe, ist dieser Verneumernflaschen, heißt die Tatsache, dass der Datenbus zwischen Speicher und CPU letztlich ein Flaschenheiß darstellt. Also wir kriegen die Daten nicht schnell gedruckt und CPU geschoben, um sie zu verarbeiten. Und das ist, das denke ich mir nicht aus, da gibt es nach belegbarer Zeit einen Bereich von KI beispielsweise, wo 60% des Zeitenergieaufwanders da verloren gehen an dieser Stelle. Weil wir nämlich die Notengewichtung an künstlichen neuralen Netzen nicht rechtzeitig oder nicht schnell genug in die Verarbeitung kriegen. Wo sie stattfindet im CPU. Und natürlich gibt es auch Möglichkeiten, im Digitalen sich hier weiter zu entwickeln. Ich meine, diese Architektur hier ist nicht in Stein gemeißelt. Es gibt seit Jahrzehnten andere Dinge, beispielsweise GPUs, Stream-orientierte Prozessoren, Vector-Prozessoren, die ein grundsätzlich anderes Layout haben und auch sehr effizient funktionieren oder beispielsweise FPGA, viel Programmable Gate Arrays, wo man mit programmierbarer Logik die Möglichkeit hat, überhaupt ganz eigene Computerarchitekturen zu entwickeln, die beispielsweise so ein Streaming-System beinhalten. Was man damit schafft, ist, man kann grundsätzlich mehr Paralysierung implementieren. Wenn man das mit anders gesetzlichen bekommt, was man nicht schafft, ist die Energiebarriere, bzw. den Takt. Also diese Systeme sind eben nach wie vor in unserem Diagramm, wo wir vorhin waren, digitaler Zeit, digital in der Wertedarstellung, voll diskret. Und das heißt, wenn man da eben jedes Mal ein Schalterchen umlegen muss, hat man eben immer wieder diese Abwärmerprobleme. Die Verarbeitung von Information kostet eben wirklich Energie. Und deswegen, beim Play-Doh-Gee, wir müssen halt weg vom Digitalen, so leidt mir es tut. Schönes Digital, und ich will auch jetzt nicht die Digitalisierung in Abrede stellen, im Gegenteil, wir wollen ja weiter digitalisieren, aber wir wollen es in der Art und Weise, dass Wachstum möglich ist. Wir wollen ja noch mehr KI, aber dann muss die KI auch das liefern, was sie liefern kann und soll. Ich bin nicht der Einzige, der diese Vorschläge hat. Es gibt einen ganzen Bereich, ein ganze wissenschaftliche Bereich, nennt sich exotische Rechnerarchitektur und exotische Computing. Und da gibt es ganz viele Ansätze. Beispielsweise gibt es Quantencomputing, so das Ding, das ist ja auch ein Quantencomputer dargestellt, das ist ja mittlerweile auch ein sehr großer Bereich, wo ganz viele Leute dann forschen. Fundamental andere Konzepte, man nutzt die Möglichkeiten und die Gesetzmäßigkeiten der Quantencomputings, Überlagerung oder Verschränkung. Wenn ich ganz so fancy ist, wäre man jetzt zum Beispiel im Bereich von Zventronik oder von tonisches Rechnen, das geht so in Richtung, dass man nochmal ein paar mehr Quantenmechanische-Eigenschaften ausnuss, aber tatsächlich klassische Logik implementieren. Ist ein Stück einfacher, wenn man so ein Informatik- Background hat und sich nicht grundsätzlich komplett neu umorientieren muss, kann dann also wie gesagt klassisch und vorher sagt man programmieren. Dann hatte ich ja gerade schon viel über das Gehirn gesprochen, das Ganze fasst man oft gerne zusammen unter den Begriffen also letztlich so ein bisschen Bio-Engineering. Ich baue ein Computer so wie das Mensch hier gehirn. Ihr idealerweise Vermengung von Speicher- und Recheneinheiten läuft unter den Begriff Computational Memory, wird dann auch wieder gerne von irgendwelchen Dingen wie Memrestoren, also nochmal Konzepte, die das Ganze auch effizient umsetzen, gibt es halt noch nicht so richtig. Oder beispielsweise, was über das ich heute reden will, was das verstaubte Rechnersystem von OPA war, was ich vorhin gezeigt habe, das klassische Analog-Rechnen. Was man halt sagen muss, all diese Dinger haben eigentlich gemeinsam, außerdem klassischen Analog-Rechnen, dass sie grundsätzlich Grundlagenforschung sind und dass sie grundsätzlich sehr viel auch Materialforschung oder viele Sachen von verschiedenen Disziplinen beheimaten. Und das Verrückte ist, dieses klassische Analog-Rechnen, was ich hier vorschlage hingegen, ist 50 Jahre alt, ist verstanden und muss eigentlich nur ums Schrank holen. Also machen wir das mal. Übrigensweise, wir haben das gemacht bei uns mit Bernd Ulmann, das ist so der Analog-Rechner von Asti in Deutschland und der hat diesen Rechner hier gebaut. Das ist der Analog-Paradigm Model 1 und das ist ein, nach traditionellen Maßstäben mit Patch-Carlen und allem, wie man das so von Analog-Rechnen für kennt, gebauter Rechner, der aber moderne Technologie verwendet. Also SMD-Bausteine, höhere Grenzfrequenz und so weiter. Und diese Rechner, was ich dazu sagen muss, Namens geben, ist eben nicht die Talsache, dass da Analog-Signale verarbeitet werden, also tatsächlich kontinuierliche Zeit und Wertedarstellung, das, was wir immer so mit Analog assoziieren, sondern Namens geben, ist tatsächlich die Analogiebildung, die mathematische Analogie. Wir sind ja also hart in dem Bereich von Modellbildung und Wissenschaftsphilosophie unterwegs. Also wir müssen eigentlich immer einen mathematischen Modell finden, was passt zu einer elektronischen Schaltung und finden also quasi letztlich zu einer mathematischen Formulierung dann den elektronischen Schaltkreis. Das heißt, wir bauen unsere Analogien aus kleinen Blackboxen nach. Dazu erzähle ich gleich noch ein bisschen mehr. So ein Analog-Rechner ist intrinsisch parallel. Das geht gar nicht anders. Der ganze Rechner rechnet gleichzeitig in der gleichen Zeit. Es ist ein großer Schaltkreis, der erst an und alles läuft. Daher gibt es keine Algorithmen, die irgendwie nacheinander intakten, irgendwas durchrechnen, sondern es passiert einfach alles gleichzeitig, was da drin läuft. Das ist fundamental anders als in jedem digitalen Rechner. Das Ding ist extrem energieeffizient, dadurch, dass halt tatsächlich mit Strom gerechnet wird und nicht dadurch, dass es was anderes repräsentiert und man dann eben fixe Einheiten davon beispielsweise hin und her schickt. Und zu guter Letzt, ich hatte es gerade schon gesagt, kontinuierliche Zeit, kontinuierlicher Wert. Die Abwesenheit von Takt sorgt eben dafür, dass wir hier nicht ständig quasi Energie sinnlos verbraten, dass wir irgendwie Taktzyklen durchiterieren. Es ist also da an der Stelle eben fundamental anders als mit digitalen Prozessoren. Vom Aufbau ist es aber eigentlich recht ähnlich, was jetzt so die Fundamenten an den Baustellen angeht, und zwar ein Transistor. Wenn man sich als Transistor nimmt beispielsweise, dann kann man daraus logische Gatter bauen beim Digitarechnen, hat dann pro Leitung immer ein Bit und das wird dann hin und her transportiert. Daraus kann man dann bolche Algebra machen, daraus kann man dann aratmische Rechnelemente machen, da hat man irgendwann eine Alu und dann irgendwann seinen Prozessor und dann fängt ja die Software erst an, die dann anfängt da zu abstrahieren und mit Software eben dann High-Level entwickeln kann. Im Analogrechne ist das alles ein kleines bisschen weniger Fancy. Also da baut man aus den Transistorern dann letztlich also erst mal was, dass man auf einer Leitung eben mehr Informationen hat, eine Leitung trägt nicht nur einen Bit und dann baut man daraus ein Operationsverstärker. Das ist so ein bisschen das Kernbau-Element, wenn man verstehen will, wie diese Art von Analogrechner funktioniert, die klassischen dann geht, dann sammelt sich das immer um den Operationsverstärker und wir nutzen hier aber letztlich Gesetzmäßigkeiten, die fundamental sind in der Elektronik, also zum Beispiel kirchaufische Gesetze. Die Natur summiert letztlich für uns die Ströme, die hier am Sinnpunkt reinkommen und der Operationsverstärker, der Puffer, dann eigentlich nur noch dagegen, dass dahinter zum Beispiel spannende Koppelsachen angeschlossen werden können. Und aus diesem Bauelement, das kann eben summieren auf die Art und Weise, die wir jetzt nicht benutzen und man kann daraus dann auch mit viel Arbeit, ehrlich gesagt, multiplizierer bauen. Das ist nochmal eine andere Geschichte und daraus kann man dann Schaltkreise entwickeln, die equivalent sind zur mathematischen Gleichung und die zugrunde liegende Sprache hier, also was ist eigentlich, was ist eigentlich die Sprache von Analogrechen, das ist die Sprache der Differenzarechen letztlich, also gewöhnliche Differenzaregleichung, die mit werden einfach auch strichen. Das ist, wenn man so will, ist das dann das Analogond, also jetzt nicht mal Analogrechen, so ein, mein Wort gebraucht, gerade so Touringmaschinen und so was, also Rechenmodellen, die man kennt aus der Digitalwelt und es gibt beispielsweise auch von Shannon, so ein General Purpose Analog-Computer Definition, wie man aus wenigen Baustein, also einen konstanten Geber hat, man da eine integriere Einheit, eine addiere Einheit und eine multipliziere Einheit als Blackboxen und dass man daraus eben eine Stärke bestimmen kann, was für eine Rechenstärke dieser Rechner eigentlich hat. Und es ist eben bemerkenswert, das Einzige, wo hier eigentlich gespeichert wird, also wo hier Informationen vorgehalten wird, ist beim Integrierer, das ist der Einzige, der einen Zustand in intern hat, der integriert nämlich einfach das, was bei ihm anliegt über die Zeit, Integration ist sowas in die Summierung nur kontinuierlich und da liegt im Prinzip Information an, aber sie wird eben kontinuierlich verarbeitet, das heißt eben nicht so wie bei einem Digital-Rechner, wo sich ein Kondensator eben blitzartig entlädt oder auflädt. Und natürlich ist das alles beim Analog-Rechner jetzt nicht rosig, weil sonst hätten wir die alle und alles wäre analog. Nein, es gibt da auch Probleme. Also ich will ja nicht hierhin sagen, dass den Ding hinter dem Berg hervorhalten. Analog-Rechner sind prinzipiell einfach relativ ungenau. Das ist sowas, das liegt halt daran, weil bei Analog-Rechnern die Genauigkeit bestimmt wird, dadurch wie gut die Bauteile sind. Analog-Elektronik ist eben teuer, wenn man gute Bau-Elemente kauft. Und ja, wir kriegen mit dem Model 1 beispielsweise sowas wie 3 Medizimalstellen hin, also ungefähr 1 % relative Genauigkeit. Was man jetzt so philosophisch oder ja vom Paradigmar sehen kann, ist, dass die Messung eigentlich, dass die Rechnung eigentlich sowas in eine Mess-Operation wird. Das heißt, man präpariert elektronische Schaltkreis auf irgendeine geeignete Art und Weise, setzt da irgendwie Randbedingungen, lässt den Lauf und misst währenddessen was rauskam. Es ist also prinzipiell anders, als man das bei einem Algorithmus macht, den man beim Computer hat, ist eher so wie in der Quantencomputing, da ist es auch so mit der Mess-Operation, nur dass es hier halt deterministisch ist. Es gibt nur einen Freiheitsgrad, das ist ein echtes Problem, wenn man das so vom ersten Blick aussieht, mit Analog-Rechnern, die können halt nur in der Zeit integrieren, vielleicht so ein Seitendetail, ein Zeitendetail und tatsächlich noch die bekanntere Sache ist die Tatsache der Wertedarschendung. Man muss sich hervorstellen, dass man auf einem Analog-Rechner, wenn man wirklich jetzt zum Beispiel in der Spannung einen Wert darstellt, also 5 Volt ist die Hälfte von 10 Volt, aber auf so einem Rechner jetzt irgendwie 2 Kilo Volt darstellen, oder dann plötzlich 2 Megawolt, das wird irgendwo problematisch. Kann man sich, glaube ich, ganz schnell überlegen und gleichzeitig auch 2 Millivolt nachmessen zu wollen. Man nennt das so eine Elektrotechnik-Bound-in-Bound-out-Probleme, dass man halt de facto einen endlichen Intervall rechnet, oder so was, oder vielleicht auch ein anderer Pegel plus 15 Volt, aber man muss halt überlegen, wie man seine Zahl in der Stunde damit irgendwie in Kombination bringt. Das muss aber kein Problem sein, weil es tatsächlich viele, viele Anwendungen gibt, zum Beispiel Optimierungsprobleme, die das von Anfang an eingebaut haben, dass sie damit auch umgehen können. Zum Beispiel, da habe ich mal auf so einem Model 1 hier einen Quanten-Computing-Anwendung nachgerechnet, das nennt man Easing-Problem und da haben wir im Endeffekt gekoppelte Temperaturen-Ossilator-Netzwerke. Eine wunderbare Sache funktioniert ganz toll auf elektronischen Analog-Rechnern und hat von der Zahl in der Stellung a priori erst mal überhaupt gar kein Problem. Okay, also mal ein kurzes Beispiel, wie man eigentlich so ein Demprogramm jetzt jetzt so mit den Blackboxen, jetzt ja schon gesagt. Sprache ist so die Sprache der Differenzahlgleichung, das ist jetzt hier Y ist ein Signal in der Zeit, Y von T, Punkt heißt zweite Ableitung, das ist ein typischer harmonischer Osilator hier, den schreibt man dann geeigneterweise um dann wendet man eben so Regeln an, dass man aus der Differenzahlgleichung eine Integralgleichung macht, zweimal integrieren, gibt einem diese Integrierer hier, die man ineinander schaltet, Ende muss man noch Minus machen, das macht man hier mit so einem Summierer, die Dinger haben alle implizite Negationen drin, das am Rande und dann macht man den Trick, der sich Kelvinscher Kelvinscher Substituzonstrick oder sowas, dass man letztlich dann sagt, ah, ich hab hier Y und das ist ja durch die Gleichheitszeichen, das gleich wie Y Punkt, dann kann ich einfach sagen, das ist der gleiche Spannungspegel und kriege auf diese Art und Weise ein Schaltkreis, der geschlossen ist und der eben relativ schnell relaxiert zu der richtigen Lösung und dann eben sich auch richtig in der Zeit entwickelt. Das heißt, was rauskommt, ist dann eben auch tatsächlich ein Sinus, wenn man es auf Osiloskop legt, irgendwo dann hier sein Messgerät dranhält und gegen Ground misst und man kann das natürlich jetzt jetzt auch ein bisschen genauer machen mit Anfangswerten oder wie auch immer, dann werden wir diese Schaltpläne hinzeichen. Man sieht ja, dass es ein bisschen anders aussieht mit diesen Black Boxen als sonst mit Schaltplänen, wo man jetzt wirklich noch im Ground sehen würde und sowas. Aber das springt jetzt hier an der Stelle den Rahmen. Worauf ich eigentlich eingehen möchte, ist wofür ist das Ganze denn jetzt nun gut? Ich habe ja so ein paar Beispiele genannt, gerade auch schon mal so ein bisschen Quantencomputing erwähnt und das Gehirn und das sind eben alles die Sachen, wo man erstmal das erste Beispiel gehirnt. Also prinzipiell ist jetzt die Frage, ja, ist das Gehirn jetzt digital oder analog? Na gut, es gibt zumindest mal erstmal die Beobachtung das ist hier ein gewisser, also, dass es sich eher so verhält wie ein Analogrechner mit seiner hohen Vernetzung, mit einfachen Rechenelementen im Gehirn den Neuronen, die wenig Information verarbeiten, die das komplett parallel machen, die irgendwie so was wie Spannungsgekoppelt sind, viele ähnliche Eigenschaften zu dem, was Analogrechner machen. Und es gibt beispielsweise nur eine Möglichkeit, wie man Neuronale Netze zum Beispiel auf Analogrechnern darstellen kann, mithilfe von elektronischen Neuronen. Das geht zurück auf, ich klare, in 60er Jahren wurden schon solche Neuronemodelle im Elektron in den Schaltkreisen nachgebaut und auch überlegt, ob man sowas auf Analogrechnern machen kann und das ist aber tatsächlich nicht das Einzige. Also es gibt auch ganz viele Ansätze, wie man dann eben Neuromorphschut, die man in den Schaltkreisen entwickeln kann, die halt tatsächlich Analog im Kern sind. Wofür ist es interessant? Natürlich, dass wir sehr große neuronale Netze auf Analogrechnern effizient lösen können und zwar welche, die wir auf digitalen eben nicht in der Geschwindigkeit oder mit dem EnergyBudget hinbekommen. Und es gibt tatsächlich Anwendungen für und auch Arbeitsgruppe und Universitäten, die sowas machen. Ein Beispiel ist die amerikanische Firma MythicAI, die hat zum Beispiel ein Tipp entwickelt, der hat 600 Millionen künstliche Neuron in dieser Art und Weise in so einer Floating-Gate Bauweise quasi in Memory Computing gebaut und es funktioniert. Und es ist schnell, es braucht wenig Energie. Also das ist, es passiert de facto schon, was ich hier erzähle. Ein anderes Beispiel ist Quantencomputing. Habe ich ja ein bisschen erzählt, es ist ja mal versus, alleine für sich ein Vortrag für sich jetzt über das Quantencomputing zu sprechen. Also funktioniert ja, wie ich vorhin schon gesagt habe, da braucht man dann Verschränkungen, hat eben grundsätzlich ich sage es anders. Was steht denn hier? Es steht nichts, okay, ich improvisiere. Also es gibt 3 fundamentaler Eigenschaften bei Quantencomputing. Das ist eine Überlagerung, also Superposition, weil die zugrunde liegenden Gleichungen der Quantenmechaniklinia sind. Das andere ist Verschränkungen und das ist eben sowas dass ich bei einem Messprozess wo ich ein kollapsender Wellenfunktion habe eben instantan auch weiß was die Belegung von anderen Quantenvariabeln ist und das Dritte, was man jetzt in den Bundes nennen könnte, wäre beispielsweise instantane Fernwirkung geht in die ähnliche Richtung. Ich glaube, ich habe das vergessen, ist aber nicht so wichtig. Denn Analogrechner können eigentlich alles außer Verschränken. Und ein schönes Beispiel, wo man Analogrechner benutzen kann, ich hatte es ja gerade schon genannt, im Bereich von adiabatischen Quantencomputern die adiabatische Simulation zur Lösung von Optimierungsproblemen kommt eigentlich aus der algorithmischen Entwicklung von klassischen Rechnertechniken aus den 60er Jahren und kann man aber sehr gut Analog machen weil man da eben nicht diese ganzen Probleme hat, das von einem algorithmischen Ansatz, einem speicherbasierten Ansatz und ich hatte vorhin ein Rechner gezeigt, der das kann, läuft unter dem Stichwort Anila und der Vorteil wenn wir Aniling machen im klassischen Simulated Aniling ist wir haben echte Cubits quasi also ideale Cubits, wo wir nicht irgendwie Fehler Korrekturen machen müssen wir können viele davon machen wir haben nicht die Begrenzung durch den Quantenvolumen alle diese Probleme, die man hat auf Quantencomputing wo es eben bislang, also es gibt ja viele Skeptiker, die das Beispiel der Meinung sind, dass diese Anilingmaschinen von D-Wave in Wirklichkeit eigentlich nur klassischer Analogrechner sind weil sie halt nicht schaffen die quantenmechanischen Eigenschaften über den erforderlichen Zeitraum aufrecht zu erhalten also deswegen mein Claim hier Analogrechnen kann schon sehr viel hinsichtlich Quantencomputing man könnte sich also tatsächlich überlegen viele Quantenalgorithmen die keine Verschränkungen benötigen davon gibt es einige, auf klassischen Analogrechner zu machen, es ist ganz verrückt, es ist im Zuge der Quantencomputing Entwicklung einfach vergessen worden wenn ich das mal so plump behaupte das ist mal so was wir Analogrechnen gab wir machen das jetzt in Ulm hier in Baden-Württemberg zusammen mit dem Deutschen Zentrum der Luft- und Raumvertechnik dass wir in einer großen Initiative zum Thema Quantencomputing von der Bundesregierung Analogrechner entwickeln klassische Analogrechner, keine Quantenanalogrechner sondern klassische, weil wir und das wurde uns geglaubt eben sorry ich hoffe es ist stimmt mit den Analogrechnern viel können wir müssen es beweisen, wir sprechen uns ein paar Jahre noch mal wieder aber es gibt noch mehr, also zum Beispiel die Frage was können Analogrechner jetzt auf so einem Komplexitätstheoretischen Level also ich hatte es ja vorhin schon mal so ein bisschen angedeutet, es gibt eben Leute die das glauben, zum Beispiel Haber Siegelmann, das glaube ich an irgendeiner amerikanischen Ivy League Universität, die der Meinung ist dass Analogrechner prinzipiell der anderen, also klassische Analogrechner dynamistische Analogrechner einer anderen Komplexitätstheorie angehören als Digitarechner und sich damit irgendwo auf halbem Weg zu der Rechner Fähigkeiten von Quantencomputern beispielsweise bewegen was interessant sein könnte für solche Probleme, für Verschlüssungsknaken und wenn ich das jetzt mal so dumm sage wir nähern uns langsam den Themen Hecken ich merke es, also es könnte jetzt sagen was kann man mit dem Analogrechner Hecken vielleicht es gibt auch tatsächlich ganz interessante Märkte so aus der Ingenieursecke heraus, also zum Beispiel kann ich mit Analogrechnern Rechner bauen die einfach durch den unglaublich geringen Energieverbrauch wir reden hier davon, dass wir nicht mehr Mikrocontroller in milli Watt, sondern plötzlich Mikrowatt benötigen oder noch darunter für aktive Rechnungen und dazu eben die hohen Rechengeschwindigkeiten Internet of Things der ganze Krams also irgendwie in dem Moment wo man halt kleine Rechnungen lokal machen kann dann brauche ich sie auch nicht in die Cloud schicken sondern kann sie eben direkt vor Ort machen und bis hin zu solchen Leuten die dann meinen hey, da mache ich auch gleich das Energy Harvesting an Ortenstelle, kriege die Energie die ich zum Rechnen brauche da an der Stelle wo ich rechne da gibt es Ideen da, Herzschrittmacher draus zu machen oder Insulinpumpen oder ja, irgendwas für Reifen okay es gibt sehr viel, ich habe noch ein bisschen Zeit ich erzähle einfach noch ein bisschen mehr ich habe ja gerade was gesagt zum Model 1, wir bauen diesen Analogrechner wenn ihr wollt, könnt ihr euch das mal durchlesen auf unseren Webseiten, eine Sache die wir heute hier angekommen sind ist ein Open-Source-Rechner der heißt Vier Analog Thing eigentlich würde man ja nicht Open-Source sondern Open-Hartware sagen hier das ist eine kleine Version von diesem Rechner den ich gerade gezeigt habe der einfach da wo wir an vielen Stellen versucht haben so was abzusägen was halt sonst einfach sehr teuer ist das ganze Gold zum Beispiel und ihr lacht nicht, es ist hier diese ganzen Stecker sind eigentlich alles so Goldsocken 100 Euro und dann ist der ganze Rechner halt auch irgendwie plötzlich in der ganzen Größenordnung und diesen Rechner haben wir auch dabei da steht da vorne also wir haben davon zwei Stück stehen die in dem Hexcenter stehen wo wir ein Manual geschrieben haben es liegt auch dabei wo man mal mit dem Rechner reinkommen kann in das Analogeparadigma also wirklich ein bisschen patchen kann und gucken kann wie sich das anfühlt wie das funktioniert das hat jetzt hier zum Beispiel Potentiometer einzusetzen, hat aber auch Schnittstellen um in die ganze Tinkering Szene zu kommen also man kann eine Arduino-Anschließend-Recipe-Pie-Anschließend an Hybrid-Controller-Schnittstelle, wo man noch nicht mal eine Pegelwandlung machen muss wo wir direkt CMOS-Pegel rausgeben und wir geben auch Audio-Pegel raus man kann da direkt mit einer RCA zum Beispiel dann Adapter an seinen Handy oder Laptop oder sowas falls man noch eine schöne 3,5 mm Klinkenbuchse hat reinpacken und man kann sich eine billige Soundkarte kaufen aber der Punkt des Soundkarten gibt es für 20 Euro auch richtig gute Oszilloskope fangen halt selber bei 300 Euro ungefähr an wenn sie zum einigermaßen taugen und dann, der Rechner ist halt in so einem größten Segment wir wollten also wirklich hier die Einstiegsmannierung möglichst weit senken für Ausbildung, für Lehre jetzt nicht auch für so etwas wie Hacking-Bereich jetzt wäre der richtige Moment zu fragen ob man das Ding hacken kann oder ob der Rechner hier ist komplett analog da ist kein Mikroprozessor drin da ist tatsächlich, wenn man so will, digital nur eine Flusssteuerung drin also es gibt eben Betrieb von Analog-Rechnern jetzt setzt sich um zusammen mit den Integratoren Betriebsmodi die steuert man hier unten über so einen Drehschalter da hinter sind so ein paar digitale ICs Handvoll aber ansonsten ist das Ding komplett analog ich zeig mal kurz was so drin ist also was das jetzt so hat also man kann die eben integrieren in Werter, zwei Multiplizierer und ganz viele andere Sachen was man halt bedenken muss bei Analog ist es eben so, dass die Rechenelemente die man hat physisch hat, also hier in der Hand halten kann die nutzt man ja um seine mathematischen Gleichung noch darauf abzubilden das heißt ich kann mit dem Ding hier genau zwei Sachen multiplizieren miteinander ich kann nicht irgendwie fünf multiplizieren und dann brauche ich drei mehr von diesen Dingen an ich kann damit genau vier Summen bilden wenn ich sie auf der Zunge zergehen lassen wenn ich irgendwie auf meinem Laptop oder in meinem Handy irgendwie Peißen starte, dann kann ich damit deutlich mehr als vier Summen bilden aber hier kann ich eben nur vier Summen bilden und da denkt man sich wahrscheinlich sofort was soll ich denn überhaupt damit das was kann das denn überhaupt für mich und ja das stimmt es ist ja begrenzt man kann damit dann zum Beispiel so was machen wie ihnen ein paar Attraktoren zusammen basteln oder so n, kleiner 3 Körperprobleme lösen die Benutzung ist dafür eben recht einfach zumindest bei dem hier mit den Patch-Kabeln das ist eben noch der gleiche Idee vom klassischen Analog-Rechen mit Patchen und so was aber ich denke eine Sache die hier auffällt ist das ist ja so so wie es früher war also wir leben jetzt eigentlich die 60er Jahre nur noch mal ein schön und neu und klein und alles aber eigentlich ist das ja nicht so wirklich zielführend oder also bis auf die Sachen die ich vorhin als Motivation nannte von wegen das ist prinzipiell besser und toller und so was ist aber was bringt mir das denn wenn ich mit sehr wenig Energie bedarf ein Attraktor ausrechnen kann und das sieht ja eigentlich kein Mensch ja das stimmt natürlich und deswegen haben wir ich habe eine Firma gegründet mit diesen Bern-Ulmann und noch ein paar anderen das Ziel diese Technologie wie man sie zum Beispiel hier in dem VNLogThing sieht auf einem Mikrochip zu bringen und da fällt erstmal direkt eine Sache auf wie kann ich denn auf meinem Mikrochip jetzt eigentlich die ganzen Patch-Kabel stecken die müssen ja sehr sehr klein werden die Antwort ist natürlich ja stimmt das machen keine Ameisen das macht man einfach gar nicht mehr im Gegenteil wir wollen das Ding digital reconfigurierbar machen das heißt wir machen das Gleiche was eigentlich die Telefon-Damen und vielleicht auch Herren in den 40er Jahren gemacht haben und zwar mithilfe von einem Digitarechner der dann Verbindungsmatritzen schließt und auf diese Art und Weise das Zusammenstecken von Rechen-Elementen ermöglicht zu einer Zeit bevor die Rechnung läuft danach ist die Rechnung konfiguriert dann drückt man auf Starten, sie läuft und am Ende misst man die Ergebnisse also im Prinzip das Elektronik-Experiment auf einem Mikrochip und das Ganze ist ziemlich aufwendig wir sind da schon eine Weile dran und es ist ganz verrückt also es ist natürlich bei vielen Gesichtspunkten gar nicht so einfach zum Beispiel, dass man sich überlegen muss was will ich denn jetzt mit was verbindbar machen denn alles was verbindbar sein soll muss auch vorgesehen verbindbar sein weil wir nicht zeitcontinuierlich arbeiten wollen das ist ein schönes Beispiel es gibt zum Beispiel schon einen ähnlichen Chip das nennt man eben viel Programmable Analog Array FPAA hier ist zum Beispiel ein kleines Board von ZRNA das ist ein Open Source Projekt die haben ein Analog Chip dann eben so ein FPAA und daneben steckt hier ein STM32 meine ich und dann ist hier noch so ein bisschen was wo man halt hier alle möglichen Anausgänge dranstecken kann und auf diese Art und Weise schon mal ein bisschen Analog Rechne on the Chip ausprobieren kann das Schöne bei ZRNA ist die haben ein richtig cooles Python Interface, da kann man also sehr high Level dann auch so seine Bauteile setzen miteinander verbinden es ist allerdings mit Fokus eher so auf Audioverarbeitung und wir haben halt doch den General Poppers Aspekt dass wir ja hier wirklich Reward Probleme lösen wollen eine Sache die halt dieser Chip jetzt nicht so schön macht weswegen wir die nicht so sehr mögen ist der ist in diesem Diagramm was ich vorhin gezeigt habe jetzt müssen wir mal gerade überlegen wo der ist, der hat eine kontinuierliche Wert aber das Kreativ zeigt, der ist hier der ist nämlich getaktet er hat eben doch wieder ein Getakt und der Takt liegt letztlich in der Verbindungsmatrix wo sie eben die Rechne Elemente also ist nicht während der Rechnung schaffen so wie man die verbunden sein sollen sondern halt dann umkonfigurieren und das ist halt so halb analog ich meine die Werte sind zwar schon mal kontinuierlich, aber der Rest ist das Kreat das heißt was sie mit dem Chip insbesondere nicht so richtig gewinnen ist den geringen Energieverbrauch zumindest nach unseren Maßstäben ich sage immer unser, damit meine ich wir machen das halt mittlerweile als Firma weil ja Ball als sehr teuer ist Chips herzustellen wir sind aber nach wie vor nicht die ersten wir haben tatsächlich vor 6-7 Jahren die im akademischen Bereich die ersten Entwicklung einen modernen Analogrechner nach dem indirekten Analogie-Prinzip als General Purpose Computer auf den Chip zu bringen da gibt es ganz verrückte Arbeiten von Doktoranden zum Beispiel in Ninguo der sowas einfach mal durchentwickelt hat während seiner Doktorarbeit und ja, die haben ihre eigenen Begrenzungen sind aber superinteressante Studien wenn man sich mal durchlesen will so öffentlich verfügbar ich will noch mal kurz erzählen wie man so ein Ding jetzt eigentlich programmiert also so ein Chip wie wir uns das vorstellen wie man den benutzt dazu mache ich jetzt Beispiel jetzt vorab so ein Hello World aus der Numerik also aus dem wissenschaftlichen Rechnen das ist jetzt so ein bisschen ja, speziell weil es nicht die harte was für die meisten heute Programmieren bedeutet aber exzessieren wir es mal durch gleichung lösen, die fängt schon damit an nicht jeder will eine differenzial gleichung lösen aber falls wir eine lösen wollten wäre das unser erster Schritt dann würden wir die vielleicht nochmal umschreiben dann würden wir die diskretisieren das ist immer der Punkt also die Kontinuumsphysik oder in anderen Bereichen wird halt immer erstmal durch den Diskretisierer gejagt und dann wird es eben in den ersten Moment in der Approximation, in Zeit und in räumliche Taschen und so weiter aus einer integralischen Summe geworden dann weiß ich, ich muss die Summe irgendwie ausrechnen die da steht und wenn ich die Summe ausgerechnet habe kann ich einen Schritt weiter gehen und ja, hier rechnen wo ist denn hier eigentlich die Summe im Prinzip mache ich hier die Summe genau und so eine Vorschleife ist auch schön ich glaube der Code kompiliert sogar und ja, da sieht man sogar Godbolt ganz toll, da sieht man ein bisschen Assembler also funktioniert und dann kann man das auch angucken und ganz, ganz viele Leute viele, viele Generationen von Doktoranden Naturwissenschaften in der Tirilischenphysik und Andervo verbringen ihre Lebenszeit damit diesen rechten Teil hier schneller zu machen also irgendwie dafür zu sagen dass der algorithmische Teil dann doch nochmal ein bisschen besser funktioniert, parallel funktioniert und so weiter und dann irgendwann lasse ich es halt laufen wärt es aus, dann kriege ich natürlich eine Menge Daten, hier sehen sie wieder sehr kontinuierlich aus, aber es ist ja klar sie sind diskret, lasst euch nicht täuschen und, oh das war's, sorry ja gut, das war's, so okay, story fine ab hier übernehmen die Wissenschaftler, weil dann gucken sie sich mal an Wissenschaftlerinnen, gucken sie sich mal an wie man den ganzen Kram auswertet und so ich hab ja jetzt hier ein Computerexperiment gemacht so, das gleiche so wie es hier steht kann man jetzt eben auf einem Einzelnen auf einer Logrechine abbilden, ne? ich hab ja gerade schon gesagt, es ist jetzt ein bisschen speziell weil es hier fürs Beispiel, dass ich eine Differenz-Zeigleichung lösen will ist, jetzt hab ich überlegt nämlich mal motiviere ich das ein bisschen warum sind Differenz-Zeigleiche interessant eigentlich wollte ich jetzt an der Stelle erzählen dass ja letzte Woche zum Beispiel ein Loch gemessen wurde im Zentrum unserer Milchstraße was nur ging, weil ganz viele Leute Differenz-Zeigleichung lösen mit denen sie, als zum Beispiel ein steinischer Gleichung mit denen sie eben simulieren, wie so eine Raumzeit aussieht aber es gibt unglaublich viele Beispiele, wo man Differenz-Zeigleichung gerne lösen möchte gut, es ist trotzdem jetzt hier erstmal ein tolles Beispiel wie sieht es jetzt analog aus ich fang genauso an, ich hab die gleiche Differenz-Zeigleichung dann mach ich im Prinzip fast das gleiche, muss sie aber nicht diskretisieren, denn ich kann sie direkt auf den Analogrechner abbilden, also diese mathematische Gleichung, da tippe ich mein Computeralgebra-System ein, dann macht mein Computeralgebra-System daraus ein abstrakten Sonntagsbaum und dann kann ich den fast eins zu eins übersetzen in eine Ersatzschaltung für einen elektronischen Schaltkreis und das Ganze passiert, ja, kann man dann auch intermediär repräsentieren digital, indem ich das zum Beispiel in irgendeine domainspielsivischen Sprache hinschreibe, letztlich also irgendwie sehr realisiere oder so was, zum Beispiel also diese elektronische Schaltung in einer Art und Weise auf einem digitalen Darsteller und dann kann ich es laufen lassen auf einem echten Analogrechner wenn ich den Chip jetzt hätte oder ich lasse das simulieren oder was auch immer aber im Grunde genommen würde ich es jetzt auf einem echten Analogrechner laufen lassen das is work in progress daran aber nur unter anderem zum Beispiel in Ulm und es ist super interessant, weil es sehr, sehr viel Digital-Technologie involviert von der theoretischen Informatikaspekt hier von compilerbau und so was, bis hin zu Ansprechen von Hardware, Kernel-Triber bis runter zu Realtime Operating auf irgendeinem Controller dann am Ende den direkten Input zu machen an Analogrechner wo man eben möglichst nah an Hardware ist also man deckt hier wirklich so ein bisschen den vollen Stack dann von Strichen ab falls dir das interessant findet dann schaut mal ein bisschen bei uns vorbei und das Thema euch grundsätzlich interessiert und ich bin am Ende meines Vortrags angekommen habe aber noch versprochen über Hacking zu sprechen Einsatz will ich noch dazu sagen ist das Ding hackbar es gibt es ist interessant, also es gibt da verschiedene Meinungen ich würde vielleicht daraus eine schöne Publikumsfrage machen falls wir da für Zeit haben, da müsste ich mal fragen, wir haben da für Zeit, ok, was ist eure Meinung ist der Analogrechner hackbar oder nicht der digitale, also der Fybrido ja, jetzt musst du mit dem Mikro umgehen lassen also hackbar ist der Zustandsraum der nicht unbedingt nötig ist um die Gleichung abzubilden, also wenn du es analog machst mit nur, wo du genau die Zustände implementierst die du auch brauchst und sonst keine, dann nicht digitale, also memory schreiben memory lesen und so ist von übel das war ein super Beitrag, danke danke, also ist ja die Frage, was die Definition von Hacking ist und also ich sehe das als kritisch-schöpferischer Umgang mit Technologie das heißt also auch ein Türschloss kann ich hacken, wenn ich halt ein Sportfreund der Spertechnik bin heißt natürlich kann ich den Analogcomputer hacken indem ich damit was mache, was sonst keiner erwartet hat ja, guter Punkt, ich mein das tatsächlich ein bisschen unter dem Security Kontext, aber ja, das ist schön will noch jemand dazu was sagen oder wir können auch eine Fragerunde machen das war jetzt gerade so eine gemogelte Fragerunde ich persönlich würde mal einen großen Magneten irgendwie ins Spiel bringen schön, ja also die Frage ist tatsächlich ein bisschen wie die Definition ist und ich weiß, dass es zum Beispiel Techniken ja gibt das war auch, gehört man mit den Medien dass man anhand der elektromagnetischen Abstrahlung von einem Prozessor, von einem Digitalrechner rauskriegt was der gerechnet hat, das gab's schon alte Tricks dass die Leute mit den PDP8 Musik über Radio gemacht haben und ich bin mir sicher, dass der Analogrechner für sowas auf jeden Fall empfänglich wäre anhand der elektromagnetischen Abstrahlung zu sagen, was der rechnet wahrscheinlich sogar noch besser als Digitalrechner aber ob das nun Hacking ist das ist eine Frage, was ich damit machen will ja, super ja, zu dem was mein Vorredner gerade gesagt hat natürlich, ich kann den Rechner ja auch so konfigurieren dass ich Leitungsübersprecher hab und damit mein eigenes Ergebnis beeinflussen durch das Schaltbild dass ich quasi abbilde auf die Hardware ja, also ich freue mich über eure Beiträge, ich sehe es genauso also wir führen da intern auch Diskussion und es gibt verschiedene Meinungen, ich bin auch der Meinung eine Attacke, wenn man sie will ist in verschiedenen Szenarien auch möglich natürlich kann man sich auch Sachen vorstellen, wo der sehr isoliert ist und so und dann läuft da ja kein Algorithmus und dann ist ja irgendwie alles gut aber ja, also man muss dann immer noch mal um die Ecke denken, denke ich eigentlich auch wollen wir noch eine Fragerunde machen, gibt's denn Fragen im Publikum? ja ich würde sagen, ja es gibt Fragen die Entwicklung von Analogrechnern ist ja eng verknüpft mit der Entwicklung von analogen Synthesisern und dort ist man relativ früh auch auf ein Problem gestoßen, nämlich bei der Miniaturisierung also wenn ich zum Beispiel die Schwingung einer Violine-Seite beispielsweise mit Physically Modeling modellieren möchte, dann komme ich auf einen Gleichungssystem mit vielen Differenzialgleichung und wenn ich das lösen will brauche ich hunderte von Variationsverstärkern, wenn man die jetzt miniaturisieren will, habe ich das Problem zumindest bei Bipolar-Technik dass die Rechenelemente sehr ungenau werden, weil beim Schrumpfen der ganzen Halbleiter der Gates und so weiter ja das immer ungenauer wird bei CMOS-Technik ist es vielleicht nicht ganz so schlimm aber wahrscheinlich auch, also wie ist das mit der Miniaturisierung, geht das überhaupt? ja, das ist ein sehr guter Punkt und natürlich liegt da am Ende hier die die ganze Arbeit begraben, also wir haben zum Beispiel bei uns im Team einen hochlinialen Multiplicierer in CMOS entwickelt und auch patentiert, der tatsächlich hinsichtlich von Genauigkeitseigenschaften und Ansprüchen da unsere 1% die wir uns typischerweise da vorsetzen erreicht, aber gerade so, also ich habe jetzt auch rausgehört, PDEs wurden gerade erwähnt, das spezielle Differenzialgleichung aber auch ein Ding, was ich gerade rausgehört habe war so was wie auf dem Chip wird es eben noch mal deutlich schwieriger, Dinge zu entkoppeln die gar nicht gekoppelt sein sollen und ja, das ist sicherlich eine Herausforderung, ja genau, also da ist viel zu tun Hi, du hattest ja eingeleitet mit dem Klimawandel um es mal ganz groß aufzuhängen und meine Frage war, also mir ist klar dass das ein bisschen überdramatisiert war auch, Blickfang zu haben und so, aber wie wenn du es ernsthaft mit ein bisschen Abstand betrachtest wie für wie wahrscheinlich hältst du es dass das mehr als nur ein Tropfen auf den heißen Stein ist, im Rahmen des Energieverbrauchs der Digitaltechnik natürlich, klar, also wir machen das Kühe weniger puchsen ist klar, aber wenn wenn du das Ding programmieren willst dann erfordert das ein höheres Maß an intellektuellem Aufwand als eine Sache in JavaScript zu programmieren, behaupt dich das sind die meisten Leute in der Industrie schon signifikant überfordert ja, das ist ein guter Punkt und abgesehen davon sind halt die Sachen, die auch im Philosopher laufen, sehr banal eigentlich und die Beispiele du gebracht hast sind sehr viel Differenzialgleichung und Mathematik und so was, ich sehe da ein Wert drin, keine Frage aber wie groß ist der Tropfen ja, also genau, natürlich war Klimawandel jetzt auch so die KU-Käule, also den Mehrwert, also ein Break-even sozusagen, zwischen dem ganzen Mehraufwand, den ich betreiben muss um eine andere Rechnetechnologie anzusteuern und bis sie sich auszahlt, den hat man immer wenn man die Digitaltechnik verlässt und das verlässt, was wir gerade im Moment machen dann hat man genauso beim Quantencomputing oder bei irgendwelchen KI-Systemen die ich auch erstmal irgendwie trainieren muss und so was, bis sie dann vielleicht irgendwann das Interessante zeigen und in dem Zuge dessen dann vielleicht auch Energie sparen unsere Vision mit diesem Analogrechner ist ein bisschen großspurig dass wir den halt gerne als Co-Prozessor in jedem Digitalrechner sehen würden so ähnlich wie man heute Co-Prozessoren verbreitet hat für Tensor-Kalkulationen im Zusammenhang mit KI beispielsweise wo wir einfach ein enormes Potenzial sind auch Energie zu sparen, wird das die Welt retten wahrscheinlich nicht, wird es jemand geben der die Welt damit zerstört wahrscheinlich schon, also das ist es tut mir leid aber ich glaube also dadurch das Analogrechner so eine hohe Dichte ermöglichen von Rechnen wird es natürlich auch irgendwelche Leute geben die sagen, Mensch geil, mein Rechenzentrum verbraucht unter einem 30 Megawatt der Preis ist mir egal, ich will auch weiterhin 30 Megawatt verbrauchen, ich packe mit dem Analogrechner voll, dann habe ich die 10-Millionfache Rechenleistung aber auch nach wie vor 30 Megawatt damit ist der Umwelt natürlich nicht geholfen vielleicht ist der Umwelt damit geholfen weil dann viel schneller irgendwelche Dinge berechnet werden wenn die Rechnung vielleicht schneller ging weil damit ja grundsätzlich quasi die Effizienz erhöht wird jetzt in so einem witzchaflichen Speech aber alleine jetzt mit Analogenparadigma die Welt zu retten ist eine hohe Kantre, stimmt ja wenn ich mich richtig erinnere noch aus der Vorlesung damals hatte ein Delta Sigma Wandler auch irgendwelche Integrale integriert und ist ja etwas was wir heute in jeder Soundkarte drin haben und ich wollte fragen ob das ein Beispiel ist für einen ganz ganz kleinen Analogrechner den wir jetzt bereits heute in jeder Technik drin haben das ist ein super interessanter Punkt also was ich zum Beispiel nicht gesagt habe es sind zwei Drittel oder sowas von den ICs und von der Elektronik die in unserem iPhone stecken sind analog also es ist so man glaubt immer die Analogtechnik ist so von gestern heute ist gar nichts mehr analog aber wir bauen ja die ganze Digitaltechnik auf den Schultern von der Analogrechnik Analogtechnik, die ist ja nicht weg die ist noch da sind das jetzt deswegen ein Analogcomputer wahrscheinlich nicht weil die ganze Logik und das was es eigentlich zum iPhone macht steckt ja in dem Digitalprozessor drin der ganze Logikram der ganze Analogram, sorry, der ist ja quasi eigentlich nur der IO overhead um irgendwie mit der echten Welt zu kommunizieren, deswegen ist ein Analog Digitalkonverter ein Analogrechner es wäre so ähnlich wie zu sagen ist ein Netzteil ein Analogrechner ein Netzteil rechnet ja auch irgendwie zwischen zwei Spannungen eine Eingangsspanne, Ausgangsspannung aber man kann sicherlich ähnlich ein paar Gedenken dran gehen aber ich würde es nicht in Analogrechner bezeichnen aus leider aktuellem Anlass habe ich die Frage sind Analogrechner grundsätzlich robuster gegenüber elektronischer Kriegsführung ja das ist schön jetzt gerade im Kontext mit den Beiträgen die wir gerade eben schon hatten also Analogrechner sind prinzipiell mit Umwelteinflüssen also deutlich sind Sieber gegenüber Umwelteinflüssen das ist ja gerade das Problem weil Digitalrechen ist super robust also so ein 0 und 1 irgendwo halt zum Anipulieren ist dann doch mal ein bisschen schwieriger als wenn man nun ein kleines Bisting beitragen muss um Wert zu verändern was auf der anderen Seite eben entsprechende Countermeasures erfordert ich würde diese Frage auf gar keinen Fall mit Ja beantworten also ich glaube nicht dass Analogrechner deutlich besser sind gegen Angriff und Gegenteil Sie sind jetzt wenn man jetzt solche Sachen anspricht wie Sie vorhin erwähnt wurden hier im Publikum wahrscheinlich deutlich sensitiver Ihr könnt euch jetzt entscheiden eine Frage haben wir noch Ich habe eine Frage der Analogrechner der ist ja prinzipiell anfällig gegen Umgebungsbedingungen wie sieht es sozusagen mit der numerischen Stabilität gegenüber Umgebungsbedingungen aus wenn der Rechner in einem Raum steht der 5 Grad wärme ist habe ich dann ein anderes Ergebnis ja auch eine super Frage es gibt da mehrere Sachen also zum einen Begriff Stabilität der ist definiert einmal in der numerik hinsichtlich des Lösungsverhaltens von Differenzialgleichen und man kann den auch in ähnlicher Weise definieren in der Systemtheorie also in der Art und Weise wie man dann die Stabilität von elektronischen Schaltung untersucht das ist jetzt eine rein theoretische Untersuchung da kann man dann sagen okay das verhält sich zum Beispiel gut oder das ist richtig und ähnliches eine andere Sache ist was sind die Umwelteinflüsse die die Charakteristika der Bauteile verändern also da haben wir einfach in der Praxis nie erlebt dass wir irgendwie eine Neukalibration oder ähnliches von den Analogrechnern machen mussten die wir haben aber wir sind mit dem Ding weder über den Atlantikgesäge noch auf den Himalaya gestiegen und dementsprechend ist das ja ich sag mal dafür gibt es Datenblätter ganz doof also die sollte man sich dann genau durchlesen ja Dankus für ein Körpel