 Dann darf ich gerne vorstellen, iUvo, Club Urgestein, Mitbegründer von C-Base bis WTFEG und präsentiert uns heute seinen Vordergrund über die Software-Krise 4.0. Was ist das? Einfach gesagt, einfach die Expansion von Komplexität in der Software-Endblock-Wirklung, die wir bereits in mehreren Iterationen hatten, in den 60ern, den 80ern jetzt. Und möglicherweise auch in der Zukunft. Wie wir damit umgehen, wie wir darüber nachdenken. Vielen Dank, iUvo, für deine technik-philosophische Perspektive. Vielen Dank. Vorweg Applaus. Wir haben nur eine halbe Stunde Zeit und die wollen wir versuchen zu nutzen. Das hier wird also kein Software-Engineering-Vortrag, sondern das hat was mit Technikphilosophie, mit Technikfolgenabschätzung und mit ein bisschen Glaskugeln zu tun. Ich erkläre euch im Laufe des Vortrages, warum. Schon mal ab, bitte. Sowohl die Farbe, wie auch die Formatierung, der Slides ist nicht so ganz gelungen. Es gab da ein glitzekleines Formatierungsproblem in letzter Sekunde, aber die sind sowieso im Wesentlichen zum Gliederungen und zum Augen irgendwohin schweifen lassen gedacht. Ja, unter meinem Nick iUvo findet man mich in diesem Internet und in diesem Club, das da unten ist mein Mastodon-Account, also bei Rückfragen immer gerne. So, dies hier ist die Version 2.0 eines Vortrags, der im Titel 4.0 hat. Unglücklich ist aber so. Ich habe den schon mal auf dem letzten D-Wog gehalten und wurde aufgefordert, dass das doch in einer verbesserten Version nochmal zu tun hier. Worum geht's? Softwarekrise ist, das war mir auch entfallen, ist ein feststehender Begriff, den man bis vor zehn Jahren so um informatik Grundstudium im zweiten Semester tatsächlich mal beigebracht bekommen hat. Ne, da schüttelt einer den Kopf. Können wir ja gleich im Q&A erklären, was der Grund ist. Also, so wie Gott den Computer erschaffen hat, irgendwann so in den 60er Jahren hat man sich als Firma, als Behörde, als Militär so ein Mainframe gemietet meistens. Da hingestellt und da kam ein großer Haufen Manuals dazu und vielleicht rudimentär auch so ein bisschen Software und dann hat jeder seinen Mainframe benutzt und hat irgendetwas dafür programmiert. Da war also nichts interoperabel, da war nichts so richtig kompatibel, da musste dann immer mal gucken, wenn Firma B von Firma A irgendwas lernen wollte, dann mussten sich die Programmierer im weißen Kittel mit Krawatte erst mal austauschen und so ein paar Lochkarten ändern und ein paar Lochstreifen ein bisschen schneiden und dann ging das irgendwie. Und die erste Softwarekrise war schlicht die, dass damals die Hardware schneller besser wurde als die Software. Damals war der Computer, wie seit seinem Anfang immer schon, vor allem ein militärisches Ding. Also Computer in der Wirtschaft war noch nicht so das Wichtigste, aber für die Militärs war der Computer so the next big thing, das muss man unbedingt machen, so wie heute autonome Drohnen oder so was. Und es gab demzufolge 1968 gleich mal eine Krisenkonferenz der Nahto tatsächlich, am Bodensee, heute noch bekanntes Stichwort Bodensee Konferenz. Wie können wir denn das Ganze um Gottes Willen lösen? Okay, die Lösung war einfach höhere Programmiersprachen. Dann hat man also angefangen, Programmiersprachen zu erfinden, die ein bisschen interoperabler waren, ein bisschen genauer definiert waren. Und so kam man bis ungefähr 1975 einigermaßen klar und dann lief man da wieder in ein Komplexitätsproblem. Es gab ja zu der Zeit noch keine Möglichkeit irgendwie kollaborativ an Software zu arbeiten. Das heißt, man hatte in einem Softwareprojekt so richtig Engineering, daher kommt das Wort, so richtig auf dem Reisbrett genau vorgegebene Dinge wie alles zu sein hat und hat so lange dann rumprobiert, bis das alles einigermaßen zusammenspielte und dann blieb das eben so. So, da wurde man natürlich furchtbar unflexibel. Das heißt, wenn zum Beispiel die Anforderungen in Militär und Wirtschaft sich geändert haben, dann musste man auf dem Reisbrett einen neuen kompletten Plan machen und alles vom Squatch noch mal machen. Das war sozusagen das Ende der zweiten Softwarekrise. Was war die Lösung? Ja, Kollaboration. Also sobald es auch nur die Vorläufer von sowas wie Internet gab. Also ich habe hier mal geschrieben 1985, das ist debatable, man kann auch 1990 schreiben oder so. Hat man also angefangen, das zu entwickeln, was wir heute selbstverständlich finden. Kollaborative Tools, Versionskontrollsysteme, sowas wie heute GIT und die ganzen Vorläufer. Auch der ganze FOSS-Gedanke Free Open Source Software, das spielt da ja auch mit rein. Das wäre ja früher so gar nicht möglich gewesen. Das heißt, nach Ansicht der meisten Leute, die sich mit solchen Fragen beschäftigen, befinden wir uns so seit ungefähr 30 Jahren in Phase 3. Der ständigen Krise. Naja, worin besteht die Krise? Heute, sie kulminiert seit ein paar Jahren. Notausgänge und Probleme sind sozusagen zum Normalfall geworden. Etwa Squam, so ein Werkzeug, was eigentlich mal dafür gedacht war, ein Vollkomferenz des an die Wand gefahrenes IT-Projekt wieder zum Laufen zu kriegen, wird zum Dauernormalfall und wird sozusagen als ständiger Notbehelf benutzt und die Konsequenzen für das Arbeitsklima und die Qualität, die das dann eben so hat. So, und seit ein oder zwei Jahren geist dann mehr und mehr Paper rum aus Informatik, aus Philosophie, aus Technikfolgenabschätzung, die interessanterweise alle so ähnliche Titel haben. Irgendwie so Software Crisis 4.0, so findet man immer wieder mal. Und das ist uns vom dreiviertel Jahr aufgefallen. Ihr dürft gerne reinkommen. Und deswegen ist das hier ein Plausibilitätscheck. Ich will euch mal erzählen, was die Technikfolgenabschätzer glauben, was die nächste Phase sein könnte und vielleicht können wir drüber ins Gespräch kommen, was eigentlich los ist. Okay, das habe ich euch alle schon erzählt. Bodenseekonferenz NATO 1968, kann ich mal gucken. Etwa Dijkstraß, berühmter Artikel. Auf dem Camp kennt ihr vielleicht, war eine Straße nach Herrn Dijkstra benannt, also 1972, schrieb er einen Aufsatz mit dem Titel The Humble Programmer. Das war sozusagen der Beginn dieser theoretischen Überlegung. Hat nicht euch bereits erzählt, beginnt es eigentlich ein Internets-Euforiefase und so weiter. So, genau, hier sind wir heute. Im Zustand 3.9, seit ein paar Jahren, wartet man, was passiert denn als Nächstes? Also Notstand, als Normalität, Sackgassen und Treibsender. Alle von euch, die irgendwie in der Entwicklung tätig sind, wissen, was für Krisen es in Projekten so gibt und was für Auswirkungen das hat zum Teil auch Absurd. Und natürlich, man kann es auch den Medien entnehmen. Also auch Leute, die ja von überhaupt keine Ahnung haben, Öffentlichkeit Medienpolitiker stellen halt fest, denkt an die Corona-Warn-App oder an die unsedige Luca-App oder an das Maut-System. Immer mehr Softwareprojekte, ja, explodieren, funktionieren nicht, müssen beerdigt werden, kosten unendliches Geld und funktionieren trotzdem nur, naja, so halbgut, sagen wir mal. Seit einigen Jahren gibt es Ansätze, das zu verbessern. Die Stichworte sind Low Code oder No Code. No Code wäre sowas wie Graphic Programming. Das heißt also, ich klicke mir, ohne eigentlich selber irgendwie Coden zu können, Stücke zusammen und sage Computer, ich brauche eine Webseite mit einer Datenbank, wo mich das und das eingeben kann und die dann die und die Daten verwaltet und ausgibt und dieses oder jenes Dokument druckt, zum Beispiel. Das kann ich mir dann zusammenklicken, ohne eine Zeile Coden zu können. Etwas darüber, aus Qualitätsgründen gibt es dann diese ganzen Low Code Ansätze. Also wenn ich so ein bisschen Skripten und so ein ganz bisschen Coden kann, dann kann ich mir Dinge zusammenklicken und kann sie so ein bisschen anpassen. Das geht so ein bisschen ineinander über. Gemeinsam haben diese Dinge natürlich, dass diejenigen, die da Software produzieren, im Einzelnen letztlich nicht mehr wissen, was sie da tun und dass der Code, der da rauskommt, auch hinsichtlich seines Zustandes, nicht mehr ohne Weiteres nachvollziehbar ist. Ist natürlich ein Problem bei Kritisanwendungen, bei finanziellen Anwendungen oder auch bei den ganzen Geschichten, die da mit künstlicher Intelligenz oder auch Wahlcomputern usw. zu tun haben. Daran kann man es schön illustrieren. So, dieser Zustand 3.9, der blubbert vor sich hin, was vor allem fehlt und das da kann ja jeder von uns in der Entwicklung irgendwie lange tätig war. Ein Lied von Singen sind die menschlichen Faktoren und Zustände. Das hatte ich in der ersten Version dieses Vortrages noch rausgelassen. Ich glaube mittlerweile, dass ein nicht zu unterschätzender Teil der Probleme darin liegt, dass einfach die Produktionsbedingungen unter den Menschen heute Software herstellen eigentlich völlig unakzeptabel sind. Da rede ich nicht von irgendwelchen Büffes und Obstschalen in irgendwelchen fancy Co-Working-Spaces oder so. Aber die Werkzeuge, mit denen heute Software hergestellt wird, sorgt eben dafür, dass man entweder Fragmentierung hat, niemand wirklich genau weiß, was er eigentlich macht und auch keinen Erfolgserlebnis haben kann. Ich habe jetzt ein gutes Werk getan, sozusagen. Und es gibt auch kaum noch Arbeit, mit der man irgendwann mal fertig wird. Und da kann man wirklich 30 Jahre alte Lehrbücher der Arbeitswissenschaft konsultieren. Der Frust ist in wahrsten Sinne des Wortes programmiert. Es fehlt die Intervention an der humanen Schnittstelle von Softwareentwicklung und Management und ich will verraten, das ist etwas, worüber ich momentan sehr viel nachdenke und wo ich versuchen will, auch aus dem Chaos heraus vielleicht mal ein kleines Angebot zu machen. Denn oft genug kann es sich ja um Unverständnis. Also die Schnittstelle zwischen den Menschen, die Software erstellen und den Menschen, die Softwareerstellung managen im Sinne von Finanzierung und Zielstellung und Marketing natürlich auch im Auge behalten. Die ist halt mehr als schlecht. Wir können alle ein Lied davon singen. Nur die Politiker haben diesen Aspekt noch nicht ganz verstanden. Die gucken immer etwas gequält und denken dann, oh Gott, müssen wir jetzt noch die Betriebsräte involvieren oder so. Nein, müssen wir nicht, aber wir müssen besser zusammenarbeiten. Warum? Naja, es gibt natürlich ökonomische Krisensymptome, Kostensteigerung, abzuschreibende Projekte zum Teil in Milliardenhöhe. Qualitäts- und Haftungsrisiken ist klar, wenn auf diese Art halt nur so mittelgute Software rauskommt und Politiker diskutieren halt über Haftung für Softwarerisiken, dann wird nicht zuletzt die Versicherungsbranche auch ein bisschen nervös. Den berühmten Fachkräftemangel kennen wir alle. Das wird so von zwei Seiten gesehen. Das eine ist natürlich eine ineffiziente Softwareproduktion, sorgt natürlich dafür, dass ineffizientes Personal woanders fehlt. Und auf der anderen Seite gibt es aber auch Menschen, die denken na, vielleicht wird durch immer mehr Low Code und No Code oder den nächsten Schritt vielleicht ganz viel Personal einfach redundant. Und dieser Anbietermarkt im Bereich des Software-Erstellungs-Personals wird vielleicht geändert werden. Kurz und gut, es gibt politischen Druck, merkt man auch immer mehr. Aber politischen Druck, ich sag mal, weitgehend uninformiert noch. Problembewusstsein, das geht irgendwie nicht so weiter, aber was man machen soll, weiß man nicht so richtig. Und was man befürchten muss, ist natürlich, man kennt das alle, jeder von euch, der mal in großen Konzernen gearbeitet hat, wir haben eine Kostenkrise, okay, es wird ein Kostensenkungsprogramm gefahren. Und was Kostensenkungsprogramme bei laufenden großen Softwareprojekten bedeuten, nun ja, wir haben es alle schon mal erlebt. Da wird dann eben zur Not zusammengebacken, was gerade noch da ist und irgendwie deployt und dann mal geguckt, was passiert. Burnout ist human capitals, so wie der Personal das so schön nennt. Da können wir auch alle ein Lied von singen. Ich kenne nun wirklich mehr als einen im Chaos, der in den letzten Jahrzehnten mal an solchen Verhältnissen tatsächlich die eigene Gesundheit verloren hat. Kleingegliederte Ausbildungsinhalte und Manuals, auch das ist ein Problem. Alle diejenigen von euch, die man versucht haben, womöglich im Nachhinein eine formale Qualifikation zu erlangen, weil sie sie irgendwie gebraucht haben, sehen im Grunde, wie wenig das mit dem zu tun hat, was man tatsächlich hinterher macht. Also es werden Leute in Bachelor, Master, Fachinformatiker, Schematar gepresst und die sind ziemlich kleingliedrig und da wird im Grunde so ne McDonald'sisierung gelehrt. Das heißt, also ich habe ganz kleine Abschnitte und ich habe ein Manual, ein Handbuch und wenn ich mich genau daran halte, dann kann ich das hinkriegen. Wir alle hier könnten übermorgen McDonald's Restaurant betreiben. Wenn wir uns über Nacht alle die Manuals reinziehen, dann würde das irgendwie funktionieren. Es wäre vielleicht nicht besonders perfekt und es würden sich ein paar Warteschlangen bilden, aber es würde funktionieren. Und das ist zur Zeit dieses Greifen nach Strohhalm, was um sich greift. So, was hat das alles mit Technikphilosophie zu tun? Das ist das, womit ich mich nicht hauptberuflich, aber so als Lehrauftrag akademisch beschäftige. Eine Unterdisziplin von Technikphilosophie ist Technikvollenabschätzung, also qualifiziertes Glaskugeln. Was könnte denn als Nächstes kommen? Und die Philosophen an sich haben ja vor allem mal an sich, dass sie einen, je nach Unterdisziplin, zwei, dreihundert, manchmal auch längeren, ganz conceasen Backtrack aller ihrer Gedanken und Aktivitäten haben. Und wenn man Philosophie studiert, dann sind so die ersten zwei bis drei Jahre im Grunde Rezeption des Backlocks. Was wurde in die letzten zwei oder hundert Jahre so gedacht? So auch in der Technikphilosophie. Und eines der Grundprobleme, über die da nachgedacht wird, ist eben die Frage von Vertrauenkontrolle und Legitimität im Verhältnis von Mensch und Technik. So, und jetzt gibt es halt ein Versuch, und da gibt es so halbfertige Papers und halbfertige Präsen, die werden so rumgereicht, gerade alle mit dem Titel Softwarekrise 4.0 oder was ähnliches. Fortschreibung der eben geschilderten Problemlage und der jetzigen Lösungsansätze und der Technikfolgeabschätzung. Und fast alle kommen zu demselben Schluss. Die Vermutung zurzeit ist, die nächste Phase der Auswegesuche könnte in der Anwendung des gesamten KI-Paradigmas auf die Software entwickeln, Ausdruck finden. Low-Code und No-Code-Strategien sind vorboten. Also die These, die Vermutung ist, Leute werden versuchen, mit allen Schwierigkeiten, den ganzen KI-Kram, über die man technisch, ethisch, moralisch auch schon seit 20, 30 Jahren nachdenkt, auf Softwareentwicklung zu werfen. Soll also heißen, ich mache nicht mehr No-Code im Sinne von, ich brauche eine Webseite und die braucht die und die Datenbank und die muss das und das ausgeben können, sondern ich füttere eine mehr oder weniger gute künstliche Minderintelligenz, wie ich das immer nenne. Ich füttere die mit Anforderungen. Also ich sage nur noch, ich brauche eine Webseite, und das können soll enter. Und da interpretiert irgendeine KI, was ich denn gemeint haben könnte und wirft Code aus und den kann ich dann depleuen. Und niemand weiß mehr, wie der eigentlich zustande gekommen ist. Niemand kann auch mehr feststellen, Computer programmieren, Computer, dann wirklich vollkommen losgelöst. Wer hat das sozusagen mal gemacht? Und wie ist das zustande gekommen? Also das ganze Legitimitätsproblem stellt sich da völlig neu. Ja, das bedeutet, alles was wir so in den letzten Jahrzehnten schon so an mehr oder weniger dystopischen Vorstellungen gemacht haben, über sich selbstständig gemacht habende autonome Systeme, die irgendwie so was wie ein künstliches Bewusstsein womöglich entwickeln können, müssen wir auch hierauf anwenden. Also sorry Dave, I can't do that, könnte auch passieren. Liebe Software-Stellungs-KI, ich hätte gar nur das und das. Nein, Computer says no. Oder möglicherweise, ausgabe, ja mache ich, aber irgendwo im Hintergrund, das sind nicht, wie heißt das so schön, da gibt es Fachbegriffe, das sind nicht gewollte Wünsche oder Anwendungen. Das heißt, es kommt im Grunde was anderes raus oder es gibt Restriktionen, von denen ich gar nicht weiß oder die ich gar nicht gewollt habe. Das kann dann eben auch passieren. Dieser Code ist in deinem Land nicht verfügbar. Also in China würde vielleicht eine KI bestimmte Sorten von Code gar nicht erzeugen, weil der Staat das vielleicht nicht möchte. So, und die Gretchenfrage ist natürlich dieselbe, wie sonst bei AI auch. Der Gegenbeweis ist halt noch nicht angetreten, obwohl viele Leute sagen, wir sind auch weit davon entfernt. Was wäre denn, wenn es tatsächlich allein eine Frage von genügend verschalteten Neuronen, wie in so einem menschlichen Gehirn sind, wenn es allein davon abhinge, ob irgendwann so etwas wie Selbstbewusstsein entsteht. Das wissen wir ja noch nicht. Also unsere ganzen bisherigen KI-Simulationen haben das noch lange nicht erreicht. Was ist denn, wenn wir irgendwann vielleicht nicht gleich so was wie einen Menschen, aber vielleicht so was wie ein Panzer oder einfach nur unseren Hund haben. Der hat ja auch zweifellos irgend sowas wie bewusst sein. Der träumt und ist sich zweifellos einer eigenen Existenz irgendwie bewusst, hat sowas wie eine Seele. So, und wenn er stirbt, dann sind wir traurig. Und das kann man auch, dass den Traurigkeitseffekt, den hat man auch schon bei heutigen KI-Systemen, also dass Benutzer traurig sind, wenn so ein System zum Beispiel abgeschaltet wird oder sonst wie nicht mehr zur Verfügung steht. Die Philosophen denken dann über nach, wie wäre es denn mit einer neuen Gattung von Lebewesen womöglich? Über Kontrolle, Vertrauen und Legitimität hinaus brauchen wir dann sowas wie Maschinenrechte, sowie jetzt etwa Tierrechte oder sowas. Das könnte auch bei Softwareentwicklung eine ganz große Rolle spielen. Haben wir dann irgendwann KI mit irgendeinem Bewusstsein, welcher Art auch immer mit eigenen Interessen und moralischen Vorstellungen, die dann irgendwie Code generieren und Computer programmieren. Ja, sorry für die Formatierung, das war ein Problem in letzter Minute. Und da sind wir dann bei Menschmaschinenkonflikten, kennt ihr wahrscheinlich auch alle meistens aus dystopischen Filmen, Cyberwar mit Hilfe von autonomen Drohnen oder wie jetzt gerade in Ukraine so der russische Soldat, der vor einer Drohne wegläuft, die in Filmen verfolgt so, war eigentlich ein ikonisches Bild des Cyberwars der Zukunft möglicherweise. Und die ganze Frage von Menschmaschinen-Schnittstellen, vielleicht brauche ich ja irgendwann gar nicht mehr auf so einem grafischen Interface irgendwie zusammenklicken, sondern vielleicht reicht es ja, wenn ich mit Spracheingabe oder was auch immer, einfach mal eine halbe Stunde Philosophie redollar, jemand müsste mal. Wir bräuchten mal eine Software, die das und das kann und irgendwann sagt die KI, Bingo, ich mach dir mal Version 0.1 bis morgen, könnte ja sein. Es hat noch andere Weiterungen, die uns auch als Club interessieren müssten. Die ganze KI-Diskussion betrifft ja auch Märkte, Demokratie und Menschenrechte, Transparenz. Also, wie kann ich wissen, dass der Computer mit dessen Hilfe ich Computer programmiere, dass der tatsächlich meine Interessen im Auge hat und nicht die eines wie auch immer autokratischen Staates zum Beispiel oder einer Partei, die für sich in Anspruch nimmt, ganz genau zu wissen, wie die Geschichte verlaufen wird. Das hatten wir ja auch schon mal. Wie ist das mit Evolutionsprozessen? Gibt es irgendwie sowas wie Software-Darvinismus, dann nach dem Motto der Markt regelt oder möglicherweise auch der Markt ist verzerrt, also auch ökonomische Theorien von Software-Entwicklung spielen da eine Rolle. Und es wird natürlich möglicherweise zu einer starken, veränderten menschlichen Rolle in der Software-Entwicklung und Wartung kommen. Also nicht mehr durch langes Üben, also Koden ist ja auch Übung, ist ja auch ein bisschen Handwerk und Übung macht den Meister so. Das wird möglicherweise aufhören, sondern es geht vielleicht darum, dass Menschen besonders gut mit koderstellenden Kain kommunizieren können. Das heißt völlig neue Talente und Fähigkeiten wären da die Frage. Und dann ist die Frage, was ist das Unveräußerliche des Menschen? Also wofür brauche ich immer noch Menschen? Oder habe ich irgendwann Netzwerke von computerprogrammierenden Computern, die Dinge tun? Und wonach, das weiß eigentlich niemand mehr so genau. Worauf wäre also zu achten? Und da komme ich jetzt langsam schon zum Ende des kurzen Vortrags. Sehen wir Vorzeichen. KI kann ja alles möglich sein. Wir wissen alle, dass wir dann noch lange nicht soweit sind, wie wir hoffen. Was dürfen wir denn hoffen? Werden vielleicht die Arbeitsbedingungen in der Software-Entwicklung mal besser? Können wir uns irgendwie vorbereiten? Wo könnte man ansetzen? Also Menschmaschineschnittstellen, Menschumwelt, Entwickler und Management, das ist etwas, wo ich mich ein bisschen engagieren möchte. Da ist da wirklich viel zu tun. Und die Technikphilosophen könnten mal so die Schnittstellen zwischen ET, KI, KI und Software ein bisschen näher beleuchten mit dem Instrumentarium, was sie haben. Und was sollen wir jetzt tun? Vorausgesetzt. Das habe ich beim letzten Vortrag, beim Divock auch gemacht. Vorausgesetzt, wir einigen uns darauf, dass es kein völliger Bullshit ist und dass man da noch mal näher draufgucken müsste. Ja, gründen wir doch sowas ähnliches. Nicht TuvaTXT, sondern Tuva.ai oder KI, wie man möchte. Sammeln wir uns mal und nehmen wir mal Initiative und überlegen wir mal für den Fall, das in gar nicht so ferner Zukunft irgendwie Politiker oder Wirtschaftsleute oder Militärs irgendwie beim Presse-Team anrufen, fragen, was eigentlich der Club zu all dem so meint. Und dann ist es ja immer sehr schwierig, wenn man irgendwie feststellen muss, was das Chaos eigentlich so meint, dann hat man am besten irgendwann mal Gruppen und Grüppchen schon mal darüber nachdenken lassen und das in irgendein Patch schreiben. Das ist ja immer das Allerschwierigste für jemanden, der irgendwie eine Meinung des Clubs irgendwie nach außen kundtun soll. Sammeln wir uns und nehmen wir mal Initiative, ihr findet unter dieser URL hier, netviltech, das ist die Dresdner Technikphilosophie an der TU dort. Da gibt es eine Arbeitsgruppe, Transcodec, schreckliches Akronym. Da beschäftigen sich Leute mit solchen Fragen wie eben. Und ich bin ja auch Podcaster und Radiomancer, falls ihr irgendwie Beiträge dazu habt und Ideen für eine Sendung, dann bin ich dafür auch immer offen. So, das waren die 25 Minuten und jetzt haben wir hoffentlich eine Viertelstunde für Q&A. Test, Test. Ja, so ganze Viertelstunde haben wir nicht, aber legen wir mal los. Okay, würdest du mit deinem Mikrofon den Menschen, die was sagen wollen? Ja, mach ich. Hier ist jemand. Also erst mal Danke für den Talk. Ich kann auch jedenfalls so sagen, dass mit dem KI's die Code schreiben, da muss man nicht bis morgen warten. Es gab da das Projekt von Github, aber vielleicht noch Interessante. Man kann heute auf openair.org gehen, sich dann Account klicken, ich glaub, man kriegt irgendwie 18 Dollar gratis gut haben, um den GPT-3 zu benutzen, dass eben genau das tut, auf Zuruf irgendwie Code ausgeben. Es kommt noch keiner auf die Idee, diesen Code zu deployen, soweit ist man noch nicht. Ich denke nur, es ist immer eine große Gefahr, KI's zu anthropomophisieren. Das machen Menschen sehr, sehr gerne. Sie gucken Dinge an und sie geben dem irgendwie Persönlichkeit, wo keine ist. Das ist linäre Algebra, was da drin stattfindet. Und ja, das ist intransparent. Da gibt es auch Ansätze, die das versuchen, transparenter zu machen, wo sich die KI selbst wieder erklärt. Weil es natürlich auch wieder durch KI stattfindet. Also das zuverlässig ist das mal auch nicht, aber immerhin. Ja, und ich denke, bis KI auch in der Lage ist, Verantwortung für die Software zu übernehmen, wird es, glaube ich, auch kein Manager deployen wollen, weil die wollen ja, dass jemand eine Feature owns und dass jemand eine Feature maintained. Das ist meine Ansicht dazu, dass da keine Diskussion gibt. Da habe ich meine Zweifel. Also ganz ehrlich, also die Leute sind zocklos. Also, gerade Management finde ich oft zocklos. Vielleicht hast du besonders gute Manager. Mich würde interessieren die Zeitperspektive. Das ist ja immer, fast mit das Allerwichtigste. Da hinten, Polaris, da hinten, gleich noch. Was ist die Zeitperspektive so? Reden wir hier von Jahren oder Jahrzehnten, bis wir da weiterkommen? Ja. Von Jahren, nicht Jahrzehnte. Okay, also das höchste Zeit, dass wir uns mal damit beschäftigen. Da hinten. Ich hatte auch im Rahmen meines Philosophiestudiums durchaus gerne mal Kontakt mit Thomas Metzinger. Dementsprechend auch eine interessante Ansicht von KI für mich verbietet sich ein bisschen der Name künstliche Intelligenz. Aus meiner Sicht sind es eher komplexe Automaten. Und damals an der Uni war es tatsächlich auch unverantwortlich, dass man sich an genetischen Algorithmen doch ran traut. Oder ist das hoffentlich immer noch verboten? Ja, das war es. Das war es. Das war es. Das war es. Das war es. Das war es. Das war es. Das war es. Das war es. Das war es. Das war es. das war es. Das war es. Das war es. Das war es. Oder ist das hoffentlich immer noch verboten? Mit deinem surgierenzu Robert Metzinger aus Bonn? Ja, alles klar. Bitte, vor dir war noch mal anders dran. Nimm noch Mikro, dann können alle das hören. Nimm das Mikro. Ich kenne einen Entwickler der genetische Algorithmen schon seit 15 Jahren zum Spekulieren an Aktienmärkten verwendet. Also Intraday-Trading, das längst zur Realität. Ja, genau, wollte ich auch sagen. Also, wenn nicht Pornografie, dann halt Finanzmarkt. Irgendein Treiber gibt's, der vorgeblich alles nicht so schlimm ist. Tasselwurm. Ja, also ich hab so in dem Alter, wo Leute im Osten in Brandenburg Baseballschläger in der Hand hatten, aber ich hab Gödel Escherbach gelesen. Ja, okay. Und zu dem Thema gibt's irgendwelche Organismen, die so Neuronen haben. Da gibt's bei Gödel Escherbach so einen Dialog über einen Ameisenhaufen, der also ein Organismus ist. Die Ameisen sind was anderes, der Ameisenhaufen ist der Organismus. Und dann kann man sich jetzt überlegen, ob ein soziales Netzwerk heutzutage auch schon so ein autonome Organismus ist, in dem die einfachen User einfach Neuronen sind. So, ich hab gerade das Feedback bekommen. Wir müssten jetzt bald zum Ende kommen, bitte. Gebt dann seine Frage noch rein. Okay. Aber dann vege ich euch langsam aus den Saal raus. Ja.