 Je nach Zählung und Lesart befinden wir uns aktuell in der dritten Softwarekrise, die sich in immer langweigeren und teureren Softwareprojekten ausdrückt, die im Ergebnis auch weit hinter den Erwartungen bleiben. Elfi, BER und ein Bahnhof in Stuttgart können der Glatt als reale Pondance herhalten. Und was kommt nun? Informatiker, Softwarepraktiker und Betriebswürde in Konzernen flankiert mit der Forschung aus anderen Disziplinen beschäftigen sich mit dieser Frage und auch, was die Technikphilosophie möglicherweise beitragen könnte. Unser vortragender Ayovo macht Podcasts, Technikphilosophie, Radio und auch Genossenschaften. In seinem Talk wird er uns mitnehmen und kurz erklären, was uns in einer Softwarekrise 4.0 zu erwarten hat. Bühne frei für Ayovo! Herzlich Willkommen zum Chaos Studio in Potsdam beim CCCP, selbst der Ayovo, gegen Ende des diesmaligen österreichischen D-Wog Bridging Bubbles. Ein kleiner Vortrag von 20 Minuten mit anschließend Q&A und wenn ihr wollt, noch anschließender BBB-Sessions zum Thema die Softwarekrise. Das ist ein feststehender Begriff Gegenstand von Lehrveranstaltungen, allerdings sozusagen nur bis zur Gegenwart und die Evolution, die nur noch kommen werden, über die macht man sich Gedanken oder Sorgen, je nachdem, wo man steht. Und ich möchte diese kurze Zeit einfach mal benutzen, um euch auf den neuesten Stand zu bringen, was du die Technikphilosophie zu dem Thema sagt. Das wird also 20 Minuten Vortrag, 20 Minuten Q&A, anschließende BBB-Runde, die links gibt es im Freetalks unter di.c3vog.de. Falls, liebe Zuhörerinnen, ihr dabei sein wollt, da findet man weitere Links, wo man sich einklinken kann in die Diskussion. Was soll das Ganze? Softwarekrise, wie gesagt, ist nicht jedem, der täglich mit IT zu tun hat, gleich ein Begriff allen, die mal Informatik studiert haben, hingegen schon. Und die ersten beiden Phasen, die schon in der ferneren Vergangenheit liegen, sind auch gut verstanden und Gegenstand von Lehrveranstaltungen akademischer Art. Diese beiden Phasen möchte ich kurz erläutern, wo das Ganze herkommt, wie die Geschichte aussieht. Ich will kurz auf die Problemlandschaft von heute eingehen und dann auf den eigentlichen Gegenstand, nämlich welche Lösungsansätze, Hoffnung und Sackgassen, die Zukunft wohl für uns bereit haben wird. Und von der Geschichte her fangen wir mal so an, als die Dinge noch so waren, wie der Herrgott den Computer erschaffen hatte, hatte man ein Mainframe, den hat man sich ausgeliehen beim Hersteller, ihn sozusagen geließt oder möglicherweise auch mal gekauft für Viehgeld oder gar selbst gebaut oder angepasst. Mit der Hardware kamen Handbücher, im wahrsten Sinne des Wortes, meistens so einige hundert Kilo. Und die Software hatte man sich bitte schön selber zu schreiben, sodass das von Anwender zu Anwender schon mal ein bisschen differierte, was man aus den Informationen im Handbuch so gemacht hat. Daraus resultierte so ungefähr 20 Jahre nach Einführung des Computers, wie wir ihn heute so kennen, die erste sogenannte Softwarekrise, die sogar dazu führte, dass man 1968 witzigerweise in Deutschland am Bodensee eine gleichnamige Konferenz abhielt im Namen der NATO, wo das Thema das war, was der Informationswissenschaft der Edward Dykes war, 1972 so beschrieb, Hardware-Fortschritt geht schneller als Software-Fortschritt und wir haben ein Problem. Die NATO, wie gesagt, machte eine Konferenz, das zeigt auch an, wie die Wichtigkeit damals so verteilt war mitten im Kalten Krieg. Da war Computer noch eine überwiegend militärisch wichtige Angelegenheit, die man auch militärisch lösen musste. Die zweite Phase waren dann die 1970er und 1980er Jahre. Man kann im Grunde sagen, bis zu der Beginn des Internets, wie wir heute es kennen, sich am Horizont abgezeichnet hat. Da gab es Software-Engineering sozusagen im Wortsinn. Es gab Projekte, wo von vornherein genau definiert war, was verlangt war, wie es abzulaufen hatte. Es gab wie auch heute oft noch Lastenhefte, wie das der deutsche Ingenieur so sagt, und es wurde statisch, hierarchisch und genau getaktet, ein Projekt abgearbeitet und eben auch nachgehalten und kontrolliert. Und wie das dann immer so ist, da ja nun das Wachstum in der Informationstechnologie auch damals schon nicht mehr Line A war, wurde das Ganze immer mehr zu groß, zu langsam und zu komplex für diese Strukturen. Und das war dann Phase 2 der Software-Krise, wie man sie auch in Lehrveranstaltungen heute einschlägig beleuchtet. Und so kam es eben zu genau dem, womit wir uns heute noch umschlagen, nämlich mit den letzten 30 Jahren. Das wäre dann in dieser arbitären Betrachtung und Einteilung die Phase 3, in der man versucht hat, mit dynamischen Methoden sozusagen der Komplexitätserhöhung und Dynamik der technischen Entwicklung irgendwie noch herzuwerden. Und diese 30 Jahre, das ist so seit einiger Zeit der Anschein, nähern sich so langsam die Ende und es kommt irgendwas Neues und das wäre dann die Software-Krise 4.0, nur wie sie aussieht, das weiß man nicht ganz genau. Mit dem Beginn des eigentlichen Internets hat man kollaborative, simultane Arbeitsformen eingeführt. Klar, das war die Euphorie der Internetphase. Alles ist mit allen vernetzt, alle können dezentral dynamisch miteinander arbeiten und damit schaffen wir es ganz leicht, dem Komplexitätsforschritt nicht mehr hinterherzulaufen, sondern wie der Militär sagt, wieder vor die Lage zu kommen. So in 90ern dachten das Leute, da dachte man überhaupt nicht, Internet so, Quell und Lösung aller Probleme sozusagen. Und man konnte auch noch mit den alten Methoden aus der Phase 2 durchaus vieles erschlagen. Die Älteren von uns erinnern sich noch, wie Microsoft so den Übergang von Windows 95 zu Windows Vista geschafft haben und noch in staatlicher Manier alles zugezogen hat, alles geändert hat und die Sicherheitsanforderung auf ein völlig neues Level gehoben. Das war so das letzte Mal, das mit sehr großem Aufwand tatsächlich etwas gelang, auch wenn der User das erstmal nicht so groß gemerkt hat. Mit der Euphorie zusammen kamen dann auch die ganzen durchaus sinnvollen Fortschritte und Kontrollverluste, die damit einhergingen. Das zunehmend schwieriger werdende Management des menschlichen Faktors, das Arbeitsklima im weitesten Sinne, die kollaborativen Methoden der Paketierung, die Ausbildung des Open Source-Gedankens, wie wir ihn heute kennen, die dezentrale Verfügbarkeit von Bibliotheken, damit auch die Kommerzität von Abhängigkeiten der Einzug neuer Layer sozusagen zwischen der Maschinensprache und dem Layer, der vor dem Bildschirm setzt. Das alles trug dazu bei, dass diese letzten 30 Jahre der Software-Krise 3.0 auch immer dynamischer verlaufen sind. Ich erinnere auch noch an historische Dinge wie Computer-Aided-Programming und so weiter. Heute sagen manche, befinden wir uns sozusagen bei der Software-Krise 3.9. Das heißt, die ganzen Gegenmaßnahmen, Notausgänge, Sackgässen und Treibsende kulminieren irgendwie so langsam. Wie lange das noch geht, wissen wir nicht. Stichworte sind hier Standardisierung, Log-Ins, also Log-Ins zum Beispiel, wenn man als mittelständisches Unternehmen auf Microsoft gesetzt hat, dann ist das eben so und ist auch ein sogenannte Industriestandard. Davor hieß es in 70er Jahren mal, niemand wurde jemals gefeuert, weil er IBM gekauft hat. Heute ist das so ähnlich, wenn man Microsoft benutzt, nur dass die Probleme gleichzeitig immer noch größer werden. Viele von uns kennen die in den letzten Jahren entwickelten Methoden eigentlich zur Rettung über komplexer, verzögerte, überteuerte Projekte, Agile, Scrumm und so weiter. Da wurde sozusagen die Notmaßnahme, der Notausgang zum Alltag und in all zu vielen Fällen zur Sackgasse und zum Treibsand der Kosten- und Zeitaufwand immer mehr in die Höhe getrieb. Von den menschlichen Faktoren und Zuständen gar nicht zu reden. So, was ist die philosophische Perspektive darauf? Ich will hier nicht mit philosophischen Begriffen und so weiter um mich werfen. Wenn man auf diese Dinge in nicht technischer, sondern technikphilosophischer Perspektive schaut, dann sieht man hier so als Auswahl natürlich eine Krise von Vertrauen, Kontrolle und Legitimität. Das Kontrollverlustgefühl im Softwareprojekt, das kennt jeder. Die Politik tut sich sehr, sehr schwer, denkt nur an unser aller Bemühungen, um Kritis, um sichere Software, um den Umgang mit Sicherheitslücken und so weiter. Also die Autoritäten, in welcher Hinsicht auch immer die finanziellen Autoritäten, die juristischen Autoritäten, die staatlichen, die moralischen haben hier ein Vertrauenskontroll und Legitimitätsproblem. Der Philosoph betrachtet das unter dem Oberbegriff der Ethik und zu diesen Gedanken gehört auch schon seit mehreren hundert Jahren der Gedanke so des Golems, des künstlich erschaffenen, lebenden Subjekts, den man auch irgendeine Form von Ethik zuschreiben muss. Und den man versucht zu kontrollieren, Agency, sagt die Englischsprachige Philosophie dazu, die Probleme, die entstehen, wenn man so etwas Selbstgeschaffenes für sich handeln lässt. Und natürlich ebenfalls aus dem Englischen Entlin, der Moral Hazard, älteren von uns noch bekannt aus dem real existierenden Sozialismus oder auch modern so ausgedrückt, als das Freerider-Problem. Das heißt, man verhält sich nicht zuletzt als Mensch und auch als menschliche Gruppe eben keineswegs so, dass der Gesamtnutzen tatsächlich optimiert wird, sondern verfolgt seine eigene Agenda daher Agency. Das sind alles Dinge, die einen sehr langen Backtrack haben, der auch sehr, sehr gut dokumentiert ist. So arbeitet der Philosoph ja auch. Und mit Hilfe dieses Backtracks versucht man technisch philosophisch Technikfolgenabschätzung zu betreiben. Das heißt voraussagen darüber zu treffen, was der technische Fortschritt in einer mehr oder weniger definierten Zeitspanne in der Zukunft so bewirten wird. Und damit wehren wir bei einer Hypothese und dem Versuch, die Fortschreibung der jetzigen Problemlage mit Hilfe der Methoden der Technikfolgenabschätzung einfach mal vorzuschreiben und zu überlegen, was könnte denn dann möglicherweise passieren. Und die Vermutung, die sich daraus ergibt, könnte die sein, dass man sagt, die nächste Phase der Auswegesuche aus diesem Komplexitätsproblem, dem Kontrollverlustproblem, könnte in der Anwendung des gesamten AI oder künstliche Intelligenzparadigmas auf Softwareentwicklung ihren Ausdruck finden. Vorboten könnten sein Stichwörter wie Low Code oder No Code. Das heißt also Strategien und Werkzeuge und Anwendungsmethoden, die darauf hinauslaufen, dass Softwareentwicklung eigentlich gar nicht mehr direkt durch Menschen stattfindet, sondern durch mehrere Layer von, ja, wiederum Software und Computer, die man braucht, um Computer zu programmieren. Was sind bekannte und Probleme und Weiterungen dieser Annahme? Also der Annahme, dass ohne Computer keine Programmierung von Computer mehr möglich sein könnte, sowas Ähnliches haben wir ja bereits im Bereich der Migroschip-Produktion. Wir haben das Problem der nicht mehr vorhandenen Nachvollziehbarkeit, erst recht nicht mehr der Legitimität, denkt mal als Beispiel so an die Nachvollziehbarkeit von demokratischen Wahlen und warum wir immer gegen Wahlcomputer waren. Sowas Ähnliches kann man auch auf Software-Erstellung anwenden. Was ist die Gretchenfrage bei der AI, wie immer ihr wollt? Naja, es gibt in der Philosophie so ein schwer zu widerlegendes Gedankenexperiment, das seiner empirischen oder theoretischen Lösung hört, nämlich die Annahme, dass wir es immer noch nicht geschafft haben genügend Neuronen zu simulieren, abzubilden oder zu schaffen und in Computern darzustellen, sodass wir auch nur in die Nähe unseres jetzigen menschlichen Gehirns kämen. Dann ist die schwer zu widerlegende Hypothese, was ist denn, wenn einfach nur genügend Neuronen verschaltet sein müssen, auf welche Weise auch immer, auch da gibt es natürlich Fortschritt und Experiment, könnte es nicht sein, dass irgendwann, wenn eine gewisse kritische Spelle über Schritten ist, so was wie Bewusstsein tatsächlich entsteht und die Frage ist, woran und wie werden wir es bemerken und wann werden wir es bemerken, dass das entstanden ist. Das ist die Forderung, die mit Kontrolle, Vertrauen, Legitimität zu tun hat. Da geht es um die Frage, müssen wir dann neben Menschenrechten, Maschinenrechte definieren. Erschaffen wir irgendwie eine neue Gattung von Lebewesen. Das sind so Dinge, die jetzt erstmal sehr, sehr abseitig und übertrieben klingen, aber das könnte tatsächlich sein, dass das so Version 4 der Software-Krise tatsächlich ist, nicht nur Computer programmieren, Computer und ohne die geht es nicht mehr, sondern die Maschinen programmieren, haben möglicherweise dabei irgendwann auch irgend so was wie ein Bewusstsein. Das heißt also, es ist da die Frage des Menschen und des Maschinenbildes. Es ist die Frage von Menschmaschinenkonflikten, Stichwort Cyberwar, von Menschmaschinen Schnittstellen, woran bemerken wir denn, ob da, ob da Bewusstsein da ist und all die Fragen, diese Unterstichworten wie Transhumanismus, Hybridwesen und so weiter zusammenzufassen sind. Makro, ökonomisch oder in der Makrobetrachtung geht es dabei dann um Märkte, um Demokratie und Menschenrechte, Transparenz und Maschinenrechte. Wie bildet sich denn das ab, wenn Evolutionsprozesse miteinander konkurrieren, ob nun auf Märkten oder in irgendwie gearteten politischen, hoffentlich demokratischen Prozessen brauchen wir irgendwann Stimmrecht für software entwickelnde Maschinen, die sich selbst reproduzieren. Gibt es dann so etwas wie ein Software Darwinismus oder gibt es Märkte die einen irgendwie in solchen irgendwie simulierend sind, die womöglich durch irgendetwas verzerrt. Also Volkswirtschaft spielt da auch eine Rolle. Und wie gehen wir um mit der Veränderung der menschlichen Rolle in der Softwareentwicklung und Wartung? Was ist das unveräußerliche menschliche über, das man hierbei nachdenkt? Das sind Fragen über die Philosophen nachdenken. Also was bleibt eigentlich übrig, wenn wir irgendwann Maschinen mit mehr oder weniger viel Selbstbewusstsein haben, denen wir sagen, wie sie andere Maschinen programmieren sollen. Sehen wir Vorzeichen davon. Also ich habe so Stichworte genannt wie Low Code und No Code. Da kann man sagen, das ist nun aber sehr niederschwellig und liegt sehr weit drunter. Aber ist es möglicherweise so, dass wir schon Anhaltspunkte sehen? Wie müssten wir da nachsuchen? Wie könnten die aussehen? Was dürfen wir hoffen, um mal kurz zu zitieren? Also was ist die optimistische positive Variante? Wie könnte eine Dystopie sein? Oder kann es auch eine Autopie werden? Und wie hätten wir uns jedenfalls darauf vorzubereiten? Das sind so die Fragen, die die Technikphilosophie an eine so antizipierende Softwarekrise 4.0 zu stellen hätte. Und dann die Frage an uns, hier ans Chaos und an alle, die mit so was zu tun haben. Was tun wir nun? sozusagen tuvat.ai Wir hatten auch mal so einen schönen Prozess. Da ging es auch um Automatisierung also um das AIKI Problem. Und darum denke ich, nachdem ich mal kurz angerissen habe, worum es hier gehen könnte, sammeln wir uns mal, nehmen wir mal Initiativen, sprechen wir darüber. Wenn ihr wollt gleich im Q&A und in dem Big Blue Button unter diesen Stichworten findet und erreicht ihr mich, schauen wir doch mal, ob wir in den nächsten Monaten irgendwie ein Dialog hierzu hinbekommen. Meine Kollegen von der Technikphilosophie und ich würde mich dazu sehr freuen. Ich mache in dem Button noch ein bisschen Radio, falls eine Sendung gefällig ist. Sowohl die C-Base wie auch der CCC Potsdam CCCP haben natürlich auch Radiosendungen. Da könnte man durchaus auch zu diesem Thema mit interessierten Gästen, die was dazu zu sagen haben, mal eine Sendung gestalten. Also wenn das so ist, dann meldet euch bei mir. Damit vielen Dank und wir gehen über zu Q&A. Was für ein Vortrag. Ich könnte mir also ganz, ganz herzlichen Dank dafür. Mal virtueller Applaus für diesen kurzen Einblick in die Büchse der Pandora. Selbst bin ich Software-Entwickler und habe auch gerade deswegen sehr, sehr interessiert zugehört. Und ich könnte mir vorstellen, dass eben nicht nur Software treibende, sondern auch andere sterbliche Wesen zu Philosophen sich mit diesen Fragen jetzt beschäftigen werden. Zumindest gedanklich sich darauf vorbereiten. Wenn ich ein Zitat von Kant gleich mal aufgreifen darf, was dürfen wir hoffen? Lass mich ergänzen mit, was müssen wir fürchten. Gute Frage. Das hatte ich ja versucht, so ein bisschen anzutiesern, was wir befürchten müssen, ist im Grunde das, was man keine von irgendwelchen, wie heißt der alte Schwarzenegger-Film, also seit den ersten Science-Fiction-Romanen aus den 50ern, wo die Maschinen sich gegen die Menschen wenden. Das muss ja nicht gleich so ablaufen, dass wir von irgendwelchen autonomen Roboter-Armen erschlagen werden. Das könnte sich ja ganz subtil dadurch ausdrücken, dass der Kontrollverlust zum Beispiel in Software-Projekten noch ganz andere Formen annimmt, die wir vielleicht zunächst mal gar nicht bemerken. Eine Frage, eine Lassung von Q&A, wäre Low-Code und No-Code, so wie du es dargestellt hast, nicht auch eine Potenzierung dieses Golem, also im Sinne von, ist es eine Nachvollziehbarkeit des Codes, denn überhaupt auch möglich, wenn etwa in neuronalen Netzen Code und Daten ja miteinander verschmolzen sind. Kommt drauf an, welche Ansprüche du stellst. Ich muss immer, obwohl ich davon keine Ahnung habe, an das denken, ich möchte erzählen, die mit der Konstruktion und Produktion von Microchips zu tun haben. Da sind wir ja auch schon da angelangt, dass im Grunde genommen auf die untersten Layer kaum noch jemand verständlichen, verständigen Zugriff hat. Ich denke, wir gehen durch so eine ganz lange Graufase der Kontrollverlust, der wird sich nicht so schlagartig abspielen oder wir werden ihn nicht so schlagartig bemerken, sondern wir werden uns vielleicht einfach daran gewöhnen, auch dadurch, dass einfach Generationen wegsterben. Das Spannendste bei all den Menschen ist die Zeitperspektive. Es gibt ja immer mal wieder technische Fortschrittsentwicklungen, von denen alle erzählen, in wenigen Jahren werden wir und so weiter, und dann hat es doch 25 Jahre gedauert. Und das könnte hier auch sein. Ich kann dir beim Besten nicht sagen, ob das, was ich hier als sozusagen logische, soweit es das hier geben kann, Fortschreibung der technikvollen Abschätzung, ob dieses Szenario in 5, in 25 oder in 125 soweit ist. Ich weiß es nicht. Jedenfalls werden die Probleme in Phase 3 unserer Software-Krise ja nun exponentiell schneller im Moment, habe ich den Eindruck. Das ist der Eindruck, der sich mir so aufgedrängt hatte, dass wir, dass die Hardware sich zuerst noch schneller entwickelt hatten, dass wir mit der Software erst nicht hinterhergekommen sind, aber jetzt scheint es ja, was so zu sein, dass wir von einer Krise je schneller wir laufen, immer nur noch schneller in eine noch größere Krise fangen. Ja, also ich krieg auch manchmal die Frage, dass sei doch unrealistisch, warum sollte, dass jemand machen, warum sollte man enorme Anstrengungen unternehmen. Und ja, also ganz am Anfang meiner Ausbildung wurde ich mal ökonom, und ich kann mich noch dran erinnern, so dieses so viel Aufwand würde ja niemand treiben, das ist schon mehrfach schief gegangen, auch gerade in der IT. Fachkräftemangel und teurer IT-Kräfte bewirken ja auch, dass der Betriebswirt im Zweifel sagt, dann versuchen wir es mal mit technischen Lösungen. Und es muss ja nicht unbedingt so sein, dass die Einleitung in Phase 4 der Software-Krise jetzt aus wunderbar guten Lösungen besteht. Wie wir wissen, kann es auch sein, solange man den Projektmanager nur dafür überzeugt, dass sei kostengünstiger, dass richtig schlechte Lösungen einfach mal deployt werden und mal gucken, was dabei rauskommt. Das sehen wir doch überall. Und ich bin manchmal der Meinung, man sollte nicht nur sagen, man sollte nicht finstere Verschwörungen widdern, wo man Effekte mit Dummheit erklären kann. Man kann sie auch mit betriebswirtschaftlichen Kostenverläufen erklären. Es muss also keineswegs sein, dass wir hier gleich mal so full blown in Phase 4 übergehen. Es wird wahrscheinlich so ein Treibsand sein, so eine Grauzöhne, die wir durchgehen und die Argumente so was anzufangen, sind gar nicht so sehr because we can. Vielleicht können wir in Wirklichkeit gar nicht, aber wir glauben das Kostenargument wird dann schon das Seine tun. Auch eine Form von Evolution. Deshalb meinst du, wir strampeln immer mehr und immer mehr und dadurch rutschen wir noch immer tiefer, immer mit rein. Kann sein. Manche beschreiben das so. Das ist natürlich alles höchstabitär. Du könntest das Ganze genauso gut in 8 oder in 5 oder in 3 Phasen einteilen. Aber wenn ich jetzt mal versuche, fortzuschreiben, dann würde ich sagen, ungefähr so müsste wir ja aussehen. Und wie sagt die, dass die Verzweiflung groß genug wird. Das sehen wir ja im Moment. Oh ja. Und was du auch sagtest, ein Aspekt, auf den ich noch mal eingehen möchte, wenn unser Großhörn, das Affenhörn, was ich heute auch mitgebracht habe, nicht in der Lage ist, ich selbst zu erkennen, also bis in die letzte Tiefe, ist die Frage, wählen wir denn tatsächlich eine wie auch immer geartete Erkennung können. Ich fand das ein tollen Aspekt in deinem Vortrag. Ja, gut, das ist nun in dieser ganzen KI-Diskussion der letzten, ich weiß nicht, 20 Jahre nun eine der Hauptaspekte. Wie du richtig sagst, wir haben nun von unserer Hirnstruktur schon Probleme sozusagen, uns unseres Bewusstseins bewusst zu sein. Und genau das wird natürlich hier auch passieren. Nicht zuletzt die Künstler und die Roman- Filmautoren, die leben es uns ja vor. Dass es vielleicht gibt es ja schon eine wirkliche KI und nicht nur so eine künstliche Minterintelligenz Simulation, wie wir sie in der IT immer haben, wir haben sie nun noch nicht bemerkt. Ohne Schleichwerbung zu machen, aber Marku für Kling zu lesen, ich bin gerade im zweiten Teil, ist da auch durchaus erhellend. Achso, du meinst dieses Buch, was es in Schwarz und in Weiß gibt? Keine Werbung, aber ja genau. Ich habe den Titel auch vergessen, aber ja, ich ändere mich. Ja, man kann auch mit Humor, das ist legitim. Man kann auch mit Humor sich solchen Problemen nähern, warum denn nicht? Vielleicht ist es die einzige Möglichkeit, sich da mit Humor zu nähern. Nein, nicht ganz zu schwarz malerisch. Eine nächste Frage. Ich lese das mal, müssen wir in der Software immer die Lösung an das Problem anpassen Fragezeichen, können wir nicht auch einmal das Problem an die Lösung anpassen. Das heißt, warum brauchen wir Drohnen, die mehr Bildverarbeitung navigieren und Pakete ausliefern, wenn wir auch einfach ein Rohrpostenetz bauen könnten. Das Rohrpostenetz kennt keine systemfremden Verkehrsteilnehmer, wie zum Beispiel Vögel. Der Gedanke ist klar, dass man sozusagen sich nur auf das Problem fokussiert oder auch nur darauf abstellt. Mein spontaner Gedanke ist, hat im Prinzip seit Beginn der technischen Entwicklung nicht so richtig funktioniert. Also ich will es jetzt nicht mit, because we can erkläre das vielleicht ein bisschen zutrivial, aber so lange es konkurrenzförmige konkurrenzförmige Evolutionssysteme gibt, werden Leute immer versuchen, irgendwas anders zu machen und auch da wieder dieses ganze schreckliche Marketingproblem haben wir natürlich auch. Es ist letzten Endes gar nicht so wichtig, dass die Software hinterher mehr kann. Hauptsache es ist als solches verkäuflich. Also das ist jetzt ins Unreine gedacht. Das sind glaube ich unabhängig vom Gesellschaftssystem so Grundbedingungen oder Formen menschlicher Evolution. Um diesen unreinen Gedanken ein bisschen weiter zu treiben versuche ich mal, vielleicht ist auch nur diese ganze Marketingmaschinerie schuld, dass sie dafür sorgt, dass wir Software immer schneller, immer wohnter programmiert haben und dass die Dinge tun muss, die sie gar nicht gemacht hätte. Wir haben Marketing hinausdenken. Also auch als Gesellschaftssysteme, in denen es zum Teil kein Marketing im eigentlichen Sinne gab, konkurriert haben. Denk mal an den Kalten Krieg, den wir jetzt gerade uns wieder ins Gedächtnis zurückrufen. Da gab es auch eine Systemkonkurrenz und zwar in nicht ausprobiert haben der militärische Innovationen und strategischer Innovationen. Also es muss nicht unbedingt eine markförmige Konkurrenz sein. Man kann auch einfach so ein bipolares Modell sich denken. Wo einfach zwei Leute oder zwei Parteien, zwei Agenten sich die potentielle gegenseitige Vernichtung vorhalten und dann sozusagen spieltheoretisch one-on-one gegeneinander spielen in so einem Konkurrenzsystem. Was glaubst du, was von diesen wahrscheinlichen Szenarien oder von den Aspekten, die du uns beleuchtet hattest, was wird uns sozusagen am wahrscheinlichsten, nein, am frühesten ereilen? Ja, meine Glaskugel ist übermorgen kaputt gegangen. Also fraglich ist ja zunächst mal, ab wann man das so wahrnimmt und das tun wir ja nicht alle gleich. Die einen werden es für möglich halten, dass es sowas gibt, die einen werden sagen, das ist jetzt wirklich mal eine echte KI, um mal ein Beispiel zu bringen. Andere werden sagen, nein, auf gar keinen Fall. KI als Marketingbegriff ist manchmal schon... Ja, haben wir ja im Moment, ich sage immer, künstliche Minderintelligenz in irgendwelchen Vorträgen vor Businessleuten so. Man kann schon so eine Simulation machen, ob man die dann akzeptiert oder nicht, das ist ja auch eine Kultur- und Mentalitätsfrage. Die ersten Versuche sind 230 Jahre alt oder so, mechanical Turk, wir kennen es alle so als moderne. Dann haben wir gute Leibniz wie die Maschine oder Determinismus. Wir werden die Welt ausrechnen können. Genau, richtig. Das dauerte eigentlich so bis zu Kaisers Zeiten. Auf diesem Gedankengebäude basierte auch noch die ganze Phase 2 des Problems, als man noch Softwareprojekte so richtig ingenieurmäßig mit Lastenheft und statischen Projektverlauf und Abrechnung und so. Da war das eben so. Interessanterweise, die ersten Programmierer waren ja Feinmechaniker, was der Röhren Hardwaregeschichte rüberkam. Ja, um Programmiererinnen vor allem. Die Herren der Schöpfung haben sich zwar mit Architektur heute beschäftigt, aber das eigentliche Koden und sei es auch nur das Zusammensticken von Ding-auf-Analog-Rechnern, das war dann, wie das damals eben so war, Frauenarbeit. Das hat sich dann auch erst wieder ein sehr interessantes sociologisches Phänomen und gibt es auch viel Verarschung zu. Ein kleiner Hoffnungsschimmer leuchtete kurz auf, als du den Aspekt beleuchtet hattest, dass wir gar nicht mehr wirklich in die Tiefe gucken, dass wir diese alten, uralten Libraries noch in C geschrieben, aus den 70er Jahren immer weiter verwenden und ein positiver Aspekt ist ja, es gibt eine Gruppe von Wesen, die da vielleicht hat, seit die noch einen Blick hat. Das sind die Hacker, die dann locker vor Schelldecke, dass wir da unten noch durchaus aufräumen können, zum Entsetzen aller anderen. Ja, noch gibt es sie. Also ich erinnere mich noch deutlich, wie ich an dem Y2K-Bug 1999 profitiert habe, weil ich halt noch relativ unkompliziert in der Lage war, Datumsfelder in Kobold und Fortran zu verlängern. Das war eigentlich keine besondere Raketenwissenschaft, aber da hat man auch schon Leute aus dem Altersheim tatsächlich die kompliziteren Probleme noch lösen mussten. So war das damals. Ja, das damals. Genau, es kann auch sein, dass es zwar keine Menschen mehr gibt, die noch alten Code warten oder manipulieren können, aber vielleicht gibt es irgendwann noch Maschinen, die es noch können. Kann sein. Diesen Aspekt aufgreifend, denn wenn ich über künstliche Intelligenz auf der einen Seite nachdenke, aber auch an das Internet der Dinge, dass dadurch vielleicht eine Potenzierung der Kommunikation von Maschinen miteinander explosionsartig zur Entwicklung kommen können, die, und jetzt spinne ich ein bisschen sein Klipschen um, auch ein Bewusstsein befördern könnten. Weißt du denn, auch ein menschlicher Körper ist ja aus Milliarden von Zellen aufgebaut, die auf bestimmte Art miteinander kommunizieren. Kann durchaus sein. Wie gesagt, die Frage ist immer, wann die Teilnehmer an so einem Netzwerk ihre Wahrnehmung als Bewusstsein akzeptieren. So, ein Kühlschrank wird sicherlich nicht mehr schaffen. Ob überhaupt irgendetwas ist zu meinen Lebzeiten noch schafft, werden wir mal sehen. Aber auf jeden Fall wird der Beginn dieser Entwicklung debatable sein. Da gibt es vielleicht auch kulturelle Unterschiede. Die einen werden sagen, ja, das ist okay. Denk mal daran, wie Japaner mit Robotern umgehen und wie Europäer das tun. Es schon ein Albtraum wäre, dass wir das Problem mit der alten PflegerInnen tatsächlich dann mit Hilfe von Robotern erledigen. Auch weiß ich gar nicht. Wenn alt oder sehr alt werden, heißt ja, dass mein Aktionsradius in physischer Hinsicht immer weiter schrumpft bis hin zu meinem Zimmerchen im Altenheimen sozusagen. Und wenn ich mir vorher die Roboter selbst gebaut habe, die an um mich herum sind, dann ist das vielleicht gar nicht so schlecht. Also dann fürchtest du jedenfalls nicht meinen persönlichen Albtraum, dass mich irgendwie so ein Roboter tot pflegt, dass ich den Alpen verhängt, weißt du? Nein, man könnte ja möglicherweise vorsorgen. Unser einer könnte ja möglicherweise vorsorgen, indem man sich seine technische Umgebung an der letzten wohnenden Adresse schon mal vorher baut. Ich weiß nicht. Also wir schweifen abfürchtig. Ich fürchte auch. Eine weitere Frage. Wie sieht es aus mit constrained orientated programming mit higher order logic? Ja, ja, ja. Programmiertheorie Begriffe. Wie sieht es damit aus? Ja gut, das ist ein Teil des Weges dahin. Man kann jetzt diskutieren, ob das noch Software Krise 3.9 oder schon 4.01 ist. Aber diese Ansätze sind genau das, was möglicherweise dazu führen könnte, dass der nächste Evolution Schritt so aussieht. Also jedenfalls kommt das dabei raus, wenn man Technikfolgeabschätzung auf der Basis der jetzigen Problemlagen macht. Okay. Ich habe hier noch eine Anmerkung. Gerade auf der Stichwort Pflege mit Robert dann findet der Schreibende eigentlich ganz gut, denn es dringt keine menschliche Pflegekraft in den, schreib schneller, ich lese in den persönlichen Bereich vor. Okay, da geht es sozusagen um Emotion, um auch um Charme und schon in den 80ern, war das 90ern, das Experiment heißt Eliza, Eliza könnt ihr googeln. Also Menschen mit mentalen Problemen, Heimbewohner und so weiter waren durchaus bereit im Experiment, ein sehr einfachen Personal Computer des technischen Standes von vor 25, 30 Jahren, als ein adäquaten Gesprächspartner in gewissen Lebenssituationen zu akzeptieren und sich nicht einsamen, sondern sogar irgendwie abgeholt und verstanden zu fühlen. Ja, genau. Das Wiederholen der Frage auch immer. Genau, das war dieses therapeutische Report, wie man so sagt. Meinen Sie, so? Ja, ja, ja. Oder warum wollen Sie wissen, wie das Wetter ist? Möglicherweise auch das. Okay, das ist schon hart an, sorry Dave, I can't do that. Wobei natürlich der gute alte Touring-Test dann auch eine Aktualisierung bekommen wird und wir kennen, ob wir es mit einem bewussten Situationen haben. Ja, genau. Aber dann nochmal, welchen persönlichen Test man anlegt, das ist sicherlich eine individuelle Kulturfrage, also müssen wir mal gucken. Aber ja, die Frage ist halt, ob in der Krisenphase 3.9 noch 3.91 bis 9.9 kommt oder ob es, wann wir und ob wir schneller über die Schwelle kommen. Ich weiß es nicht genau. Entschuldige, gerne. Aber tatsächlich, vielleicht ist es auch nicht unbedingt eine Krise der Software, sondern nur so als Beispiel, wenn man es an Siri denkt, also Eliza heißt jetzt Siri und wenn ich es mal benutze und freischalten will und Siri zum Beispiel bitte mir einen Wecker zu stellen und sie bedankt sich dann, könnte ich mir vorstellen, dass viele Wesen, die vielleicht nicht so den Techniker vielen Hintergrundblick haben, wie Menschen, die sich mit Software auseinandersetzen, dass das natürlich so eine Art einfacher Lebensform ist, mit dem er interagiert? Ja, also ich habe nun versucht schon so den Ausschnitt dieses Gesamtrealitätsproblems auf Software Entwicklung schon so ein bisschen zu legen. Es muss nicht so sein, dass sozusagen unsere gesamte Wirklichkeit sich so weiterentwickelt. Das wäre auch vermessen. Aber so nach dem, was wir jetzt wissen können, sieht früher oder später wie gesagt, ob fünf oder 25 Jahre weiß ich nicht wahrscheinlich die nächste Stufe von Software-Krise aus. Die kann dadurch verschiedene Dinge ausgelöst sein. Einmal eben, dass möglicherweise die künstlichen Minderintelligenzen mit den hartwerttechnischen Möglichkeiten nicht Schritt halten, das wäre dann so was wie in Phase 1 und 2 oder möglicherweise auch so, dass es da kulturelle Konflikte gibt und man sich auf dem Globus da nicht einig ist, was jetzt die nächste Phase sein könnte. Und natürlich ganz biologisch, wir hatten es eben schon, wenn irgendwann auch die letzten organischen Hauptspeicher tot sind, die diesen Code noch lesen konnten. Hat man vielleicht wirklich nur noch Maschinen, aber wir wiederholen uns. Aber wir wiederholen uns. Eine kleine Hoffnung habe ich mit dem Sire auch, weil wenn sie mir den Wecker eingestellt hat und ich mich brav bedanke, dann haben wir erlebt, dass ich den Verrat gestürzt ist, mit irgendwelchen Fehlern aufgetreten. Machen wir sie. Ja, wir werden sehen. Haben wir noch was? Tatsächlich, wenn ich das so überschaue, wir haben das Q&A-Pad vielleicht hier noch einen Hinweis für die Faszination, für technisch einfacher Lösung, eine Empfehlung aus dem Publikum. Ein Link, solar.lowtechmagazin.com Ich habe natürlich jetzt keine Möglichkeit, das hier deutlich zu machen, aber noch einmal solar.lowtechmagazin.com als Faszination, Empfehlung aus dem Publikum. Okay. Interessant habe ich mal notiert.