 Deswegen darf ich sagen Tag und herzlich willkommen hier bei uns im digitalen Salon, und zwar von der Radio Wissen und dem Humboldt-Institut für Internet und Gesellschaft. Ich bin Marlis Schaum und wir wollen heute Platz machen hier für Roboter. Zumindest gedanklich wollen wir das machen. Wir wollen heute ansatzweise diskutieren und uns fragen, wiefern eigentlich Roboter schon bei uns angekommen sind in unserer Gesellschaft hier bei uns in der Welt im Allgemeinen. Welche Folgen das hat, wo das vielleicht auch noch so hingehen könnte, was die Roboter schon so übernehmen, was sie machen und vor allem auch welche moralischen Fragen denn dabei so ein bisschen aufploppen. Das ist eine Menge Holz für eine Talkstundenrunde, aber ich denke mal mit unseren Gästen hier kann das klappen. Wir haben ein Informatiker dabei und einen Robotik-Fan Wolfgang Koi. Herzlich willkommen Wolfgang. Daneben sitzt auch mit Bart, deswegen sitzen sie zusammen. Johannes Kleske von Third Wave und Johannes ist quasi Unternehmensberater für die Digitale Welt, so verkürzt zusammengefasst. Interessiert sich für alle Technologieveränderungen und wie sie sich auf uns auswirken und berät dann Unternehmen dazu. Außerdem zu Gast bei uns, Janina Sombetski, ich sag's immer falsch, Sombetski. Janina Sombetski, sag's deswegen noch mal. Das ist ein so schöner Name, aber tut mir leid. Janina ist Philosophin, ist das Kiel zu uns angereist heute und wir haben ein Gewerkschafter zu Gast, nämlich Martin Beckmann von Verdi. Damit ist unsere Runde komplett. Ein Gewerkschafter, eine Philosophin, ein Informatiker und ein Unternehmensberater hört sich irgendwie erst mal skurril an, dass man die alle zu einem Thema einlädt, aber unser Thema mit den Robotern und der Roboterethik, das ist ja wirklich von allem etwas. Das sind Bits und Weiz und Technik, aber auch eben moralische Fragen und es geht um Arbeitsplätze, vor allem im Dienstleistungssektor und das ist was, was der hustene Martin Beckmann besonders gut kennt. Ich würde gerne in dieser Runde zuerst anfangen, dass wir mal kurz klären, über welche Arten von Robotern wir dann eigentlich sprechen. Also ist das der niedliche Roboter mit den großen Glubschaugen, der die Arme so bewegt, den wir aus Filmen kennen, der Senioren in Altenheimen betreut. Geht es um solche menschähnlichen Roboter, um die wir uns kümmern müssen oder ist das noch viel mehr? Ist das zum Beispiel auch das automatisierte System, das Börsenhandel betreibt? Was würdet ihr sagen? Wolfgang, ich fang einfach mal bei dir an. Was würdest du sagen? Welche Roboter kümmern wir uns? Ganz breiter Bereich. Ein erheblicher Teil davon ist militärisch. Also Drohnen. Dronen. Kampfroboter, die sich bewegen, die Rettungsaktionen machen, die schießen können. Killerrobots ist ein Thema, aber das viele reden. Gelegentlich kann man Prototypen sehen und das geht weiter zu Fahrzeugen, die automatisch fahren, Autos, die die automatisch fahren, aber natürlich viele andere Varianten. Und es hat solche lustigen Eigenheiten wie Haushaltsroboter. Dazwischen liegt die ganze, der ganze Produktionssektor, in dem sehr viel Robotik ist. Aber man sieht an der Stelle, wenn man sich eine Fabrik anguckt, schon gleich Robot ist unsere Projektion in eine bestimmte Kombination von Programm, Sensorik und Aktorik. Und vieles, was da abläuft, würde man gar nicht als Roboter bezeichnen. Du hast selber gerade erwähnt, Hochfrequenzhandel im Börsenhandel. Ja, das ist kein sichtbarer Robot und hat Folgen, die vielleicht viel schlimmer sind und viel tiefgehender sind als alles, was wir uns so konkret vorstellen. Was ist ein Roboter, wo du sagen würdest, den hat wahrscheinlich echt keiner vor Augen, über den wir aber heute auch sprechen müssen. Ist das so ein Börsenhandelsroboter? Ein Computerprogramm? Ein Börsenhandelssystem könnte man als Robot bezeichnen. Es gibt Robots, die im sehr, sehr kleinen Bereich sind, die in der Größenordnung einer Blutzelle sind, solche Sachen. Wo arbeiten die? Arbeiten ist ein guter Begriff dafür. Na ja, natürlich in der medizinischen Forschung. Nanotechnologie in dem Bereich gibt es auch solche Systeme. Und was ist der größte Bereich? Sind das die Humanoidenroboter, die uns auch so niedlich erscheinen, mit denen wir uns irgendwie besser verbinden können, weil die uns manchmal auch ähnlich sehen? Na ja, große Fahrzeuge natürlich, also allein Drohnen, die die Größe eines Passagierflugzeugs haben, so etwas gibt es. Aber wenn man es mal reduziert auf industrielle Roboter, die also in der Fertigung da sind, das sind das schon Geräte, die können eine Tonne heben und auf einen Zehntel Millimeter genau platzieren. Und das über fünf Meter Armradius, das sind schon gewaltige Maschinen, die sehr eindrucksvoll sind. Okay, was ist dein Lieblingsroboter, Martin Beckmann? Welcher Roboter macht den Dienstleistungssektor am meisten kaputt? Also ich würde den weiten Zugang zum Begriff Robotik unterstützen, weil wenn wir jetzt über Dienstleistung reden, dann denkt man natürlich sofort an diese Roboter, an die Serviceroboter, etwa im Bereich der Pflege, also da gibt es diesen Prototyp des Care Robots vom Fraunhofer Institut entwickelt, der halt etwa Menschen, Dementemenschen daran erinnern soll zu trinken und dann halt etwa Getränke anreicht. Ja, das sieht ja aus wie tatsächlich, wie man sich so einen kleinen Alumenschen vorstellt, mit Augen und Gesicht und allem und so. Ja, weniger spektakulär eigentlich, also schon auch, geht vor allem sozusagen, dass man auch ein Greifarm hat, der was angreift. Also es kommt Arm aus dem Nichts und reicht dem Dementemenschen ein Glas Wasser. Ja, er wird auch angesprochen. Also es läuft auch mit Ansprache und dann halt hinreichend. Klingt unheimlich. Klingt vielleicht unheimlich ist für mich allerdings auch ehrlich gesagt auch nur ein, es ist ein Prototyp und es ist dann noch nicht so viel passiert. Das Entscheidende ist für uns, es geht eher um die Frage digitale Durchdringung und Technik Einsatz in Dienstleistung. Ja und davon ist der Einsatz von Service Robotern ein Teil davon. Was ist ein anderer Teil? Also es geht natürlich darum, generell war oft die Vorstellung so, über Roboter reden wir ja im Zusammenhang vom Einsatz bei Industrie schon lange. Ja, also halt eben mikro elektronische Industrie 3 0, also sozusagen ab den 70er, 80er Jahren und dann die Diskussion Menschen, deren Fabrik und ähnliches. In Dienstleistung war lange die Vorstellung Dienstleistungen sind nicht rationalisierbar, Technik Einsatz spielt da keine Rolle. Also quasi Journalisten müssen sich nicht fürchten, Buchhalter müssen sich nicht fürchten, Lehrer müssen sich nicht fürchten. Das war die klassische Vorstellung, die ist damals formuliert worden in 50er Jahren von Jean-Four Astier, einen französischen Wirtschaftswissenschaftler, der gesagt hat, es gibt einen Trend zur Tertiarisierung, den gibt es ja auch tatsächlich, wenn wir uns anschauen, auch in Deutschland mit einer wichtigen industriellen Basis, haben wir über 70 Prozent der Wertschöpfung und der Beschäftigung in Dienstleistung. Four Astier hat gesagt, es gibt einen sozusagen starken Produktivitätsschub durch Rationalisierung im industriellen Bereich, vorher im Landwirtschaftsbereich. Es gibt noch ein paar Beispiele, also der Dienstleistungssektor würdest du sagen, ist inzwischen nach dem Industriebereich auch von Robotern durchdrungen? Es war, es war die Vorstellung, dass man dort nicht rationalisieren kann. Das war eine Vorstellung, die eine Illusion ist. Ich kann auch durch massiven Technikeinsatz natürlich in Dienstleistungsbereichen rationalisieren. Bekannte, da geht es jetzt nicht um irgendwie Zukunftsvision. Ich meine, einer der Bereiche in dem Dienstleistungsbereich, in dem relativ schnell technisch rationalisiert wurde, war der Finanzdienstleistungsbereich mit dem Einsatz von Geldautomaten und der Umstellung auf Onlinebanking. Und das Prinzip setzt sich jetzt natürlich an verschiedensten Dienstleistungsbereichen durch, also im Bereich von E-Commerce und und und. Also, wir sehen schon, dass die verschiedensten Dienstleistungsbereiche auch zunehmend halt eben technisch durchdrungen werden. Und da ist für eine Gewerkschaft natürlich die Frage, wie gehen wir damit um? Es geht da sicherlich einerseits auch um teilweise Verlust von Arbeitsplätzen, tatsächlich durch etwa komplette Automatisierung, also etwa automatisierte Gepäckverladesysteme an Flughäfen zum Beispiel oder automatisierte Hochregallager in der Logistik. Oder Supermarktkassen, an denen man... Supermarktkassen, die bekannten Supermarktkassen irgendwie bei IKEA zum Beispiel, halt die Selbstbedienungskassen und und und. Also, da entstehen schon auch im Dienstleistungsbereich Herausforderungen. Und da wird es auch darum gehen, dass wahrscheinlich auch Arbeitsplätze verloren gehen. Aber... Bevor wir aber darüber sprechen, das ist ja eine Diskussion. Die einen sagen, ja, da gehen Arbeitsplätze verloren, kommen aber vielleicht neue hinzu. Die anderen sagen, ne, da kommt eine richtig schlimme sozialer Miese-Welle auf uns zu. Reden wir aber nochmal ganz kurz darüber, wer das denn eigentlich entscheidet, wo sich Roboter durchsetzen. Also, wer hat entschieden, dass IKEA Supermarktkassen hat, bei den man selber ein- und auscheckt. Wer entscheidet, ob es eine vollautomatisierte Gepäcksortierung gibt oder nicht. Ich meine, das sind wir doch selber, oder? Wir nehmen das doch an. Was meint ihr? Ja, Nina. Sollte man annehmen, ja. Denkst du nicht? Doch, ich denke schon. Also, wir finden das ja gar nicht mal so übel, oder? Also, uns, wenn wir da nicht gerade arbeiten, stürzt da nicht. Ja, ich glaube, es ist Paradox, dass man auf der, oder zumindest ein wenig Paradox, dass man auf der einen Seite schon Angst davor hat, dass, ja, sehr weit fortgeschrittenen, entwickelte Technik irgendwie den Menschen einnimmt oder Lebensbereiche des Menschen verändert oder deformiert. Und gleichzeitig dieser Angst versucht damit zu begegnen, dass man nur noch weiter entwickelte Technik einsetzt oder neu zum Einsatz bringt. Das ist irgendwie auf der einen Seite so... Ja, aber ich meine, wer treibt das an? Da sind noch nicht irgendwelche kleinen Erfinder in Stübchen, die auf einmal sowas auf den Markt werfen und dann sagen, guck mal, was ihr damit machen könnt. Das kommt doch von uns allen oder nicht, dass wir sowas wollen. Johannes, was meinst du? Ich glaube schon, dass es Erfinder in kleinen Stübchen gibt, die spannende Sachen machen. Der Legende nach wahrscheinlich eher Garagen als Stübchen. Wobei im Deutschen wahrscheinlich eher Stübchen. Ich glaube, natürlich ist ein großes Thema eine komplexe Frage, wer treibt den Fortschritt an? Wer hat den Fortschritt schon immer angetrieben? Ich meine jetzt gerade in der Robotik. Also, wen interessiert das da? Sind das die Unternehmen? Nein, es ist auch da genau. Das Gleiche ist die Frage zwischen dem, was wir gut finden, was dem Unternehmen hilft, was es von Unternehmen rationaler macht. Ich finde, die selbst Check-out-Kassen sind ein gutes Beispiel, weil wenn man sich meinen Markt stellt, der das anbietet, wird man genau gesehen, dass es die einen gibt, die sagen, ich möchte immer gerne zur Kassiererin gehen, weil das fühlt sich richtiger an. Oder da habe ich mehr Vertrauen darauf, dass sie es richtig machen. Und dann wird es sagen, Gott sei Dank, endlich kann ich irgendwie mein eigenes Zeug schnell durchziehen. Ich muss mich nicht da irgendwo in die Schlange stellen. Es sind so unterschiedliche Angehensweisen, wie wir als Konsumenten darauf reagieren, dass aber in der Regel eine ganz andere Motivation ist, als wie der Hersteller sagt, ich möchte irgendwie Zeit einsparen, ich möchte irgendwie mehr anbieten, damit es schneller vorangeht, damit ich mehr umsetzen kann, ohne mehr Geld in den Personal investieren zu müssen. Ich hätte gedacht, der simple Grund dafür, dass immer mehr Roboter in unserer Welt und Gesellschaft existieren, in vielen Bereichen, Dienstleistungen wie woanders, ist einfach, dass wir einfach mehr Wachstum wollen, weniger Geld ausgeben wollen, noch besser Leistungssteigerung. Ist das nicht so, auch in der Robotik nicht so? Das ist ja eher so Liebe zur Technik, Wolfgang. Also ich finde das sehr faszinierend, wie oft in deinen Sätzen das Wort wir vorkommt, weil ich kann mich jetzt nicht erinnern, dass ich gefragt werde, ob ich so eine Kasse haben will, oder ob ich gerne die Logistik hätte ein bisschen automatisieren möchte. Das ist doch völlig klar, wo die Prozesse ablaufen. Leute investieren Geld in irgendwelche Firmen und versuchen es mit weniger Geld zu machen oder mit dem gleichen Geld mehr Umsatz zu machen. Da sind die Entscheider und ihre Helfer sind die, die so etwas technisieren. Also wir haben gar keine Möglichkeit zu wählen. Die Kunden spielen keine große Rolle, es sei denn, dass sie nun absolut protestieren und sagen, wollen wir es nicht und drumrum gehen. Das ist ein stiller Protest. Ein lauter Protest wäre mir jetzt wenig bekannt. Ich habe auch noch von kleinen Notiz genommen. Wobei, also ich kenne einige Versuche mit Pflegerobotern, die natürlich mit einem unterschiedlichen Äußeren Versuchsweise zum Einsatz gebracht wurden und wo dann schon sehr lauter Protest teilweise kam, je nachdem, was das, ob das einen Rollender Kasten war, eben mit einem hässlichen Librihing-Greifarm, der mir einiges Wasser geben wollte, was dann den Nahbereich des Menschen doch in der Weise irgendwie angeht, wie wir das nicht gut finden, gut heißen können. Und genau das umgekehrte Ding, also gerade gegen Altersvereinsamung beispielsweise der Einsatz von Spielrobotern und dann wieder humanoiden Robotern oder so Tierrobotern, die sehr gute Testergebnisse erzielt haben, wenn man irgendwie eine Woche lang oder so mit älteren Menschen in Pflegeheim irgendwie zum Einsatz gebracht hat und die darüber dann ganz begeistert waren und die dann auch nicht mehr hergeben wollten. Also ich glaube, gerade in dem Bereich im Bereich der Service Robotik der medizinischen Robotik ist es schon sehr viel deutlicher spürbar eben der Protest, von dem sie gesprochen haben oder auch noch nicht Protest. Beziehungsweise zeigen da halt eben auch Umfragen unter Senioren, gerade im Bereich der Einsatz von Robotern im Pflegebereich, dass die Einschätzung sehr unterschiedlich sind. Je stärker es um menschliche Nähe geht, umso größer sind die Zweifel am Einsatz von Robotik. Also halt der Roboter, etwa der irgendwie alte Laken oder neue Laken transportiert oder so, der wird noch angenommen, aber etwa Roboter, die etwa heben sollen, werden sehr, sehr kritisch gesehen. Waschen sollen, ja. Also je näher uns Roboter kommen, desto kritischer werden wir? Seht ihr es? Zumindest im Pflegebereich, ja. Johannes, Wolfgang? Bin unsicher. Ich habe nichts dagegen, dass ein Fahrstuhl automatisch ist. Aber der fasst dich nicht an. Das will ich ihm auch nicht fahrt. Es gibt wunderbare kleine Hamster, die reden das nach, was man sagt, 15 Euro oder so. Man sagt was zu dem Hamster, und er sagt das zurück. Die ist so nübsch. Also ich glaube auch da, der Punkt der Altersvereinsammlung, Nähe kann durchaus auch gewünscht, ich glaube körperliche Nähe es kann schwierig sein, aber soziale Nähe, soziale Austauschkommunikation spielen, sind auch formmenschliche Äußerungen, die einem sehr nahe gehen, und die uns sehr wichtig sind, die uns emotional sehr angehen, und die glaube ich leichter mit Robotern, mit bestimmten Roboter, sehr spezifischen Robotern, irgendwie umsetzbar sind, als das Waschen vielleicht, oder der Toilettengang, ist ja gerade darum ein bisschen anzupiessen und herauszufinden, wer eigentlich entscheidet, welche Arbeiter Roboter machen können, und wo wir sie haben wollen. Ist der technische Fortschritt da einfach unaufhaltsam, das kommt, in manchen Bereichen wird es vielleicht mal zurückgedrängt, aber wir werden diese Roboter mehr und mehr haben? Das ist eine Frage der Investitionen und das Return on Investments. Es geht da um kommerzielle Interessen, ganz einfach, und gebremst wird das, wenn Leute sagen, da mache ich nicht mit, dann gibt es vielleicht in der Tarifverhandlung irgendeine Einschränkung, oder beim Betriebsrat, oder eben schlicht die Ignoranz einer solchen Sache, weil die Leute sagen, das benutze ich nicht, das ist mir zu blöd. Wir reden halt immer sehr stark über dieses, ein Roboter ersetzt einen bestimmten Menschen, der macht das gleiche wie der Mensch, und wir machen jetzt, jetzt wird es nur vom Roboter gemacht, aber dabei blenden wir, also in der Diskussion immer genauso, also erstmal die ganzen Sachen, wo Roboter vielleicht besser sind, als wir, wo sie einfach einen besseren Job machen. Was sind die denn besser? Ja, vom Roboter, oder vom Algorithmus, der mir hilft, irgendwie das Archiv als Jurist durchzusuchen nach Präsidentsfällen, der das wesentlich besser rauskommt, der vielleicht eine wesentlich bessere Mustererkennung hat, um Krebs in einem UV-Bild oder in einem Röntgenbild anzugucken, von tatsächlich eine Finanztransaktion in allen möglichen Bereichen, wo wir feststellen, okay, vielleicht ist da die Maschine einfach besser als wir. Deswegen kommen wir natürlich sehr schnell zu diesem Thema, wo die Frage ist, ist das ein Bereich, wo der Mensch nicht besser ist, also gerade bei den persönlichen Berührungen, und da ist halt aber auch wieder die, für mich die andere Frage, wir können jetzt darüber diskutieren, so sollte das nicht immer ein Mensch sein, der irgendwie diese Nähe gibt und so weiter, aber ich glaube ganz viel auch, warum zum Beispiel das gut ankommt, ist, dass gar nicht die Menschen da sind, um das zu machen. Ich fand es sehr spannend in der Vorbereitung, was Südkorea zum Beispiel in dem Bereich macht, und sie sagen einfach, wir müssen das machen, weil unsere Gesellschaft altert so schnell, dass wir irgendwann nicht mehr die Leute haben, die überhaupt dafür sorgen können, unsere Senioren zu versorgen, um für sie da zu sein, und da füllt plötzlich, der Roboter ersetzt nicht jemand, für die es tatsächlich da ist, und das finde ich so einen der sehr spannenden Aspekte, den man da nicht vergessen darf. Wenn wir aber mit Robotern agieren auch, dann müssen wir doch entscheiden, welche Richtung es geht, also ob wir die Menschen den Robotern was befehlen, ob wir gleichberechtig mit denen zusammenarbeiten, und ob es eher so ist, dass der Roboter uns irgendwann sagt, wo es lang geht, was denkt ihr in welche Richtung das gehen wird, wenn wir auf die Roboter zum Beispiel auch so angewiesen sind, wie du es gerade beschreibst. Das wird auf jeden Fall in alle drei Richtungen gehen, also da leg ich mich auch fest. Welche Roboter werden uns denn bestimmen? Die interessieren mir am meisten. Welche Roboter uns bestimmen werden? Es ist eine extrem spannende Diskussion, die leider noch viel zu wenig in dem ganzen Quantified Self-Bereich, also in dem Selbstvermessungsbereich gemacht wird. Es gibt einfach die Tools, also nehmen wir mal ein Beispiel, irgendwie die neue Xbox ist in der Lage, ich komme in mein Wohnzimmer rein, in die Xbox kann direkt tracken, indem ich vorbeiläufe, wie ist mein Puls, wie ist meine Atmung, bin ich gerade gestresst, bin ich schlecht drauf, dafür gibt es verschiedene andere Tools, die alle in diesem Bereich, der Selbstvermessung um ein furchtbares deutsches Wort dafür zu benutzen, reinfallen und die mir jetzt Hinweise für meinen Alltag geben können. Zum Beispiel solltest du dich heute mal noch ein bisschen mehr bewegen, weil du hast verdammt faul. Ich kann die Xbox einfach ausschalten. Ich kann die Xbox einfach ausschalten, was die Xbox ja nicht wirklich interessiert, wie wir inzwischen wissen, weil sie gehört ja ständig zu, damit sie weiß, wann sie sich wieder einschalten soll. Das sind so Fragen, die dann kommen, die ich sehr spannend finde, wie, an welchem Punkt sage ich, das geht, greift mir zu tief ein, in das, wie ich mich quasi der Maschine zuhöre oder wo ich auch sagen, das ist einfach ein Vorteil. Ich muss da nicht drauf achten, sondern ich werde dran erinnert, wie der Roboter, der mir sagt, trinkt was. Da brauche ich nicht mal irgendwie vergesslich für sein, es hilft mir auch im Alltag irgendwie, wenn ich dran erinnert. Wolfgang, in welche Richtung denkst du, geht es am ehesten? Gleichberechtigt werden wir Roboter wirklich daneben uns akzeptieren, werden wir immer die Master sein, die denen sagen, wo es langgeht? Es ist interessant, da ist ein Herrschaftsverhältnis, was angesprochen wird und das finde ich schräg daran. Also erst mal habe ich da technische Hilfsmittel. Solange ich selber entscheiden kann, kann ich entscheiden, das sind meine technischen Hilfsmittel. Wenn ich in der Arbeitssituation bin, dann kann ich das schon nicht mehr unbedingt zu Hause, kann ich das nicht. In der Arbeitssituation steht mir die Technik irgendwie gegenüber als Verlängerung der Herrschaftsverhältnisse bei der Arbeit. Das ist das Organ des Chefs, wenn man so will und das verlangt etwas und dann kann ich auch noch Nein sagen, das ist aber sehr viel schwerer. Gleichberechtigt, das kommt mir seltsam vor, weil ich nicht wüsste, welche Rechtsfrage ich einer Technik übergeben soll. Gleichberechtigt meine ich eher so, dass wir die als normale neue Mitbewohner anerkennen. Ich würde Sie auch nicht als Mitbewohner anerkennen. Dass Sie einfach da sind und wir wundern uns gar nicht mehr drüber. Ja, Technologie existiert und sie ändert sich und wir leben in einer technischen Gesellschaft. Also insofern werde ich mich immer damit auseinandersetzen müssen, dass es Technik gibt. Aber könnt ihr euch vorstellen? Aber die Rechtsfrage ist damit erst mal gar nicht zu tun. Ich würde da anschließen wollen, wer ist uns? Man muss ja sozusagen nicht nur ein Herrschaftsverhältnis zwischen Technik und dem Menschen, sondern zu sagen, wir haben einen Interessen-Dreieck, wir haben Interessen von Arbeitgebern, wir haben Interessen von Beschäftigten, wir haben Interessen von Kunden-Nutzen. Das kann man ausbuchstabieren, was das die jeweiligen Interessen sind. Unter diesen Bedingungen findet Technik-Einsatz statt und bisher findet Technik-Einsatz vornehmlich unter den Bedingungen statt. Letztlich, dass Unternehmen stark sagen, sie setzen das ein als Mittel kapitalistischer Rationalisierung, Kostensenkung, erhöhere Gewinne. Der Ansatz von der Gewerkschaft wäre auch zu sagen, wir wollen auch so etwas wie Gestaltungspolitik machen im Bereich von nicht nur sozusagen von Tarifverträgen, die Arbeitszeit oder ähnliches Regel. Wir wollen die Einfluss nehmen auf die Gestaltung von Technik und Technik-Einsatz. Das heißt, im Endeffekt so etwas wie eine Innovationspolitik zu betreiben als Gewerkschaft. Es geht im Endeffekt darum, dass bei der Entwicklung wie bei dem Einsatz neuer Technologien die Entscheidung nicht allein bei Unternehmen liegt, die etwas einsetzen und am Ende der Betriebsrat sind dadurch wahnsinnig viele Arbeitsplätze gefährdet und dann verhandelt man Sozialplan, sondern am Anfang gleich versuchen sozusagen einzusteigen und zu sagen, wir müssen bei der Entwicklung von Innovationen beteiligt werden. Das ist voraussetzungsvoll. Da geht es um rechtliche Fragen. Welche Möglichkeiten habe ich überhaupt? Als Betriebsrat habe ich da nur begrenzte Möglichkeiten. Es gibt einen Paragrafen Betriebsverfassungsgesetz 92 A, der da Möglichkeiten bietet. Das sind allerdings vornehmlich Mitspracherechte. Keine echten Mitbestimmungsrechte. Man kann sagen, wir haben was dagegen, dass da ein neuer Kran eingesetzt wird X und dass da Jobs dadurch wegfallen. Aber mehr geht nicht, oder was? Ja, wenn man so will, ja. Man kann Vorschläge machen, man kann Vorschläge machen zur Gestaltung von Arbeitsorganisationen durch technischen Einsatz. Aber daran muss sich der Arbeitgeber nicht halten. Aber letztlich können wir natürlich fordern, dass die Personalvertretungsgesetze etwa im Nordrhein-Westfalen gibt es ein neues Landespersonalvertretungsgesetz, dass etwa bei entsprechenden Rationalisierungen um eine Veränderung der Arbeitsorganisation den Personalräten tatsächlich mit Bestimmungsrechte bietet. Jetzt sind wir schon sehr in den politischen Diskussionen rund. Es ist mir noch ein bisschen zu unkonkret. Das ist mir zu sachlich, zu unfassbar jetzt gerade, würde ich mal sagen. Lass uns vielleicht mal auf diese, ich kann es mir einfach nicht vorstellen, das ist eine sehr, finde ich, eine sachliche Diskussion irgendwie. Lass uns doch mal lieber darüber sprechen, wie das, also du sprichst ja an, da ersetzt was zum Beispiel Menschenjobs. Das hat Johannes eben auch schon gesagt, da fallen vielleicht Jobs weg. Du hast angesagt, es könnte auch manchmal sein, dass einfach Roboter welches System auch immer die Arbeit einfach auch besser machen kann. Da gibt es ja die einen, die sagen, man hat immer gesehen bei industriellen Veränderungen oder wenn eine neue Technik dazu kamen, dass zwar Jobs wegfallen, dass sich neu entwickeln, sondern die eine Richtung, die sagen, da kommen auch wieder neue Jobs drum herum. Und die andere, ganz konträr Richtung, sind so die, die sagen, gerade bei der Robotertechnik geht das so schnell gerade mit den Veränderungen, da kommen wir nicht mehr hinterher, da kommt eine riesengroße soziale Krise auf uns zu. Kann man überhaupt sagen, in welche Richtung das gehen wird, oder ist das alles so ein bisschen prophetisierend und wir gucken mal und keiner weiß so richtig oder kann man das tatsächlich schon absehen, kann man sich auf eine Seite schon schlagen? Große Schweigen, ne? Die Gewinnerseite, das ist ja klar. Noch mal, Wolfgang, bitte. Es hat keinen Sinn, welche ist die Gewinnerseite? Das ist schwierig rauszubringen, wenn die Gewinner sind. Also ich will nochmal zurück. Technik ist nicht alternativlos, um mal dieses beliebte Wort aufzugreifen. Und weil es Alternativen gibt, kann man darüber reden, ob man etwas so macht oder so macht. Das geht mit einem blöden Datenbanksystem los. Ich kann bescheuerte Masken den Leuten anbieten, wo sie sich mit Deppen vorkommen, wenn sie etwas eintragen sollen und alles fünfmal eintragen müssen. Oder ich kann eben ein Stück Programm liefern, das etwas taugt, mit dem man etwas machen kann. Und das sind die Bewegungen, in denen wir uns vor allem... Also Technik hat eine Technikalternative. Das sind technische Alternativen, das gebe ich zu an der Stelle. Ich kann auch rauskriegen, dass es gar nicht geht. Im simple ist der Prozess ja auch nicht, dass diejenigen, die teure Technik einsetzen, um irgendein Prozess zu verbessern, nicht lernfähig werden. Dass sie nicht irgendwann merken, das geht so gar nicht. Wir haben die letzten Jahrzehnte schon genug Sackassen gesehen, wo ein Verblödsinn gemacht wurde und das auch wieder zurückgenommen wurde. Was zum Beispiel? Automatisch Übersetzung war so etwas. Da kann ich mich gut erinnern, wie Sie man ein tolles System in der Forschungsabteilung dann zu Ihren Übersetzern gegangen ist. Sie haben ganz viele, weil Sie Ihre Handbücher übersetzen müssen und denen das hingeknallt haben und die gesagt haben, das geht nicht, das geht nicht, das geht nicht, das geht nicht. Habe ich zufällig mitgekriegt. Und was hat die Forschungsabteilung gemacht? Sie hat nicht etwa gesagt, dann lassen wir das. Sie hat gesagt, dann geht mal her, wir kommen gleich demnächst mit dem neuen System. Das ist dann besser. Das war vor 25 Jahren, 30 Jahren. Das hat sich nicht so viel besser geworden. Es wird immer noch nicht eingesetzt. Unterschied, das sind Kulturfragen. Deutsche Firmen übersetzen immer noch ganz, ganz viel mit der Hand, sozusagen mit dem Kopf. Weil Sie an die Kunden im Ausland ran wollen und ordentliche Übersetzungen liefern wollen. Also da sind keine Jobs weggefallen? Das weiß ich nicht. Die Gesamtsumme ist schwierig. Vielleicht sind Sie viel eher weggefallen, weil PCs eingesetzt wurden und weil damit andere Sachen schneller wurden. Aber eben nicht der Kernbereich der Übersetzung. Das ist gar nicht her. Was sagt ihr denn zu diesem Argument mit dem, was immer wieder kommt, dass Roboter Jobs wegnehmen. Die fallen einfach weg und die Menschen stehen dann da, weil sie keine Alternative haben. Ich würde sagen, dass die Arbeitsmarktdynamik wesentlich komplizierter ist, als solche Sätze. Es gefällt mir nicht, dass du immer sagst, dass es komplizierter ist, als der Musikaufwärme. Es mag ja sein, aber es ist komplizierter. Die Versage über Arbeitsplatzentwicklungen ist eine der ganz, ganz schwierigen. Man kann natürlich große Tendenzen sagen. Nicht die Automobilindustrie hat abgebaut über 30, 40 Jahre. Aber von Jahr zu Jahr kann man das nicht vorhersagen. Da ist das kompliziert. Also ganz grundsätzlich, wenn wir jetzt mal, da habe ich es vor Augen in den USA die Daten dann gucken, dann sehen wir, dass ab spätestens den 90ern haben wir eine gleichmäßige Entwicklung der Produktivität der Unternehmen und der Arbeitsplätze, die entstanden sind. Die Kurven liegen fast übereinander. Ab den 90ern spätestens gehen sie auseinander und die Entwicklung der Arbeitsplätze stagniert und die Gewinne bzw. die Umsätze gehen weiter nach oben. Durch den Einsatz von mehr Technik. Das ist die zweite Frage. Erst mal haben wir diesen Zustand. Wir stellen, was genau sind die Einflussfaktoren da drauf? Ein großer Einflussfaktor sind wir uns alle einig. Ich würde nicht behaupten, dass es der Einzige ist, aber ein wichtiger ist die Produktivitätssteigerung durch IT in irgendeiner Form. Ob das alles Roboter sind, wie genau wieder die Frage, was genau zählen wir zu einem Roboter. Aber das erste Mal, das passiert, das heißt, ich weiß es nicht, ob es das erste Mal in der Geschichte wäre. Aber wir sind auf jeden Fall in den Punkt, das nach ganz vielen Jahren, Jahrhunderten, wo durch technischen Fortschritt Arbeitsplätze weggefallen sind, die dann wieder ersetzt wurden durch andere, durch neue Entwicklungen. Wir scheinbar das erste Mal an einem Punkt sind, oder seit langem mal wieder das erste Mal an einem Punkt sind, wo durch technischen Fortschritt Arbeitsplätze wegfallen, die nicht einfach so durch neue ersetzt werden. Zumindest, was die letzten 20 Jahre angeht. Es kann sein, dass es einfach eine bestimmte Phase ist, die gerade passiert. Und wir demnächst irgendwie wieder den neuen Schub haben, weil wir plötzlich verstehen, wie wir unsere menschlichen Fähigkeiten, unsere Kernpotenziale wesentlich besser einsetzen können. Weil wir plötzlich durch die Maschinen in quasi so eine Identitätskrise gelernt haben, wo wir eigentlich richtig gut drin sind, das plötzlich verstehen. Und deswegen ganz viele neue Arbeitsplätze schaffen, die nur von Menschen tatsächlich ausgeführt werden. Aber dann Entwicklungen zurücknehmen oder darauf aufbauen, neue Dinge schaffen. Also ich glaube, wir haben praktisch keine wirklichen Beispiele, wo wir eine Entwicklung wirklich zurückgenommen haben. Sondern es ist eher die Frage immer im Weg nach vorne, wo wollen wir justieren. Wollen wir sagen, wir können eh nichts machen. Technologie, Determinismus, das funktioniert halt alles so. Wir sind dem ausgeliefert. Oder wo wollen wir tatsächlich die Weichen stellen, aber in die Zukunft gedacht. Und wo willst du sie stellen? Ich finde tatsächlich genau diese Frage extrem spannend. Was ist das, wo wir wirklich gut sind? Und was uns ausmacht? Nämlich zu Sachen wie das persönliche, den direkten Land. Es hört sich mal ein bisschen doof an, wenn man dann nur auf den einen Bereich, dass wir sind halt besser im Umgang mit Menschen. Wir sind ja auch Menschen. Wir sind auch Menschen, wir sind auch gut im Umgang mit Menschen. Ich glaube, es gibt noch ein paar mehr Sachen. Es gibt doch bestimmte Dinge wie Mustererkennung, wie Intuition, wie bestimmte Dinge festzustellen. Und ich glaube, das ist eine extrem spannende Frage. Wir sind tatsächlich im Vergleich zu den Maschinen, im Vergleich zu dem, was wir heute wissen, was wir Maschinen einprogrammieren können, wo wir tatsächlich gut viel besser drin sind und wo wir noch weit, weit davon entfernt sind, Maschinen das mitgeben zu können, weil wir es noch überhaupt nicht in der Lage sind, das zu formulisieren in irgendeiner Form. Da sind wir dann gleich schon bei dem Bereich, inwiefern Roboter zum Beispiel moral lernen können, oder man denen Moral und Ethik programmieren kann. Kommen wir gleich noch zu. Das geht ja Nina und Martin. Also jetzt so langfristig. Ich tue mich ganz furchtbar schwer in Spekulation. Aber ich fand, die Punkte, die du angesprochen hast, wirklich schon sehr hilfreich. Die Johannis angesprochen hat. Ja, die Johannis angesprochen hat. Je differenzierter man versucht, das Bild zu zeichnen, je komplexer man versucht, das Bild zu zeichnen, desto näher ist man in der Lösung dran. Vereinfachungen sind hilfreich, um ad hoc Entscheidungen zu treffen und vor allen Dingen auch um Panikmache und Ängste ganz groß zu malen. Also ich persönlich habe keine Angst vor Robotern. Hat jemand hier im Saal Angst vor Robotern, die irgendwie hier was übernehmen oder so einen gibt? Okay. Ich glaube, so allgemein ist diese Frage auch zu allgemein. Ja. Wenn die Roboter im Raum kurz die Augen zu machen können, dann können wir noch mal fragen. Genau. Man kann das mit hoher Geschwindigkeit auf ein Zentel Millimeter platzieren. Da gehst du einen Schritt zurück. Und auch, wie der Herr im Publikum sagte, eine Drohne würde mir natürlich auch Angst einjagen. Klar. Wenn die auf mich zuschießt, erst recht. Kommt darauf an, wofür man die Drohne einsetzt. Man muss der Drohne nicht zu militärischen Zwecken einsetzen. Natürlich nicht. Aber ich meinte eher mit Angst vor Robotern so eine Art Ehrfurcht, dass man das Gefühl hat, hier gleitet was außer Kontrolle, nein, die Frage ist total spannend. Wollen wir das Publikum einziehen, dann gehe ich mir im Mikro hin. Ja, bitte schön. Ganz kurz, weil sie im Stichwort Angst ist. Ja. Und du fragst, der Begriff Drohne fiel. Genau. Die Entwicklung der Drohne geht ja darin. Die ist im Augenblick Cooly Bree groß. Also die weitest entwickelte Drohne. Die ist nicht größer als ein kleiner Cooly Bree. Das heißt, Kolibri. Das heißt, das ist eine interessante Frage in Bezug auf Angst auch. Inwiefern man das auch wahrnimmt? Der riesen Roboter oder der super heavyweight Roboter von dem Herr Kreuz spricht, sondern eben sozusagen der niedliche, kleine, süße, also so eher das Spielzeug, dass das halt Dinge kann, die unwahrscheinlich pervers sind. Aber fühlt sich irgendwann jemand hier im Raum so unterschwellig bedroht von Technik? Roboter, das ist das Gefühl, hat die übernehmen Dinge und machen das, was wir nicht mehr im Griff haben? Ne, ne? Nur einer. Immer schon, immer schon, bitte. Wovon fühlen Sie sich unterschwellig so ein bisschen unangenehm angerichtet? Immer schon, was mein Chef mit dem Computersystem in der Firma macht. Da bin ich immer bedroht als Angestellter, ob ich überwacht werde davon oder ob das zu meinem Vorteil geschieht, was dort implementiert wird, an Lösungsmethoden und wie Wolfgang auch sagt, die Interessen derjenigen, die investieren in Roboter und die sie nutzen, sind nicht unbedingt dieses Volkes. Wenn ich versuche, eine Drohne über Berlin fliegen zu lassen, kriege ich einen auf die Finger gehauen. Es gibt andere, die das dann dürfen für bestimmte Zwecke. Also wenn ich mein Fotoapparat hochsteigen lasse und schon meine Nachbargrundstücke fotografiere, was ich mit Konrad Elektronik jederzeit machen kann, bin ich mir strafbar. Es geht so ein bisschen in die Richtung, dass ich gerade versuche, herauszufilmen, wer die Roboter kontrollieren kann. Also auch gerade, wenn es um die Roboter geht, natürlich die nah an uns Menschen rankommen, meintet wegen im Pflegebereich auch. Und gerade, was wir gesagt haben, je näher uns Roboter kommen, je näher wir mit denen irgendwie interagieren oder die was für uns machen oder entscheiden, dann kommt diese Frage rein mit dem, müssen Roboter Werte haben? Müssen die unser Wertesystem kennen? Also zum Beispiel die moralischen Werte, die wir in so einer Gesellschaft akzeptieren. Müssen Roboter, können Roboter sowas lernen, Wolfgang? Du musst das doch wissen. Niemals. Das ist einfach, das ist die falsche Frage. Was ist die richtige Frage? Roboter niedlich und wissen, dass sie niedlich sind. Nein, das wissen sie nicht. Was wäre die richtige Frage? Die richtige Frage ist, ob die Roboter Regeln einhalten, ob sie in der Lage sind, verschiedene Situationen zu unterscheiden, ob sie so programmiert sind, dass aufgrund der verschiedenen Situationen vernünftige Entscheidungen getroffen werden oder Roboter einsieht, dass er gar nichts tun soll. Solche Sachen. Und kann man das einem Roboter programmieren? Ein Stück weit, ein Stück weit. Ich kann verhindern, dass ein Roboter aus dem Raum läuft, indem ich da vorne elektronische Sperre oder eine materielle Sperre machen. Das kann ich tun. Aber ich kann ihm nicht beibringen, dass er einsehen muss, dass er in dem Raum bleibt. Das hat keinen Sinn. Aber wie kann ich ihm denn dann beibringen, dass er zum Beispiel bestimmte Dinge, die alles vorgeben, jede Handlung vordenken, die er machen könnte und dann einprogrammieren, mache es oder mache es nicht in Situation X oder Y? Das ist jetzt wieder eine Frage, was ein Programm abdeckt. Das deckt natürlich nicht jeden möglichen Fall ab, weil es viel zu viele Fälle gibt. So ein Klassen von Fällen. Was ist in einem großen Sinne denkbar? Und alles, was wir hinkriegen, bestenfalls ist, dass die Maschinen technische Vorgaben einhalten. Dafür haben wir auch eine lange Entwicklung in der Industrie, wo es kontrolliert wird, wie das abgenommen werden muss. Dafür gibt es TÜV und sonst was. Und TÜA und wie die alle heißen. Und es gibt eine große Tradition von Rechtsprechung. Wie gesagt, das muss dem Stand der Technik entsprechen. Und der Umstände im Stand der Forschung entsprechen. So etwas mit Ethik hat das überhaupt nichts zu tun. Also unsere große Frage des heutigen Abends, nämlich, ob wir eine Roboterethik brauchen, würdest du beantworten, wäre schön, aber geht nicht? Wir müssen also R-O-F-L machen. Oh. Johannes, hilfst du mir aus der Klemme? Oder ist das die Gesprächsrunde jetzt eigentlich beendet? Weil Wolfgang gesagt hat, Leute ist nicht möglich. Nein, ich habe nur eine Grenze der Frage gezeigt. Die Frage ist ja total spannend. Das klang ja schon an, weil wir haben ja eigentlich nicht Angst vor der Drohne, sondern wir haben Angst vor den Leuten, die dahinter sitzen, die damit was machen wollen. Wir haben ja schon einmal eine Drohne mit der Möglichkeit, mich zu töten, quasi mit einem selbstbestimmten Verhalten anfangen, loszuschicken und irgendwann vielleicht Geräte aus der Kontrolle und all diese Fragen. Weil jetzt ist die Frage, brauchen wir eine Roboterbauerethik? Also brauchen wir die Leute, die die Roboter bauen? Verwenderethik, ja. Ich finde das sehr spannend. Wie gesagt, ich habe mich bei der Vorbereitung ein bisschen mit Südkorea beschäftigt, die 2007 angekündigt haben, dass eine Roboter, die die Roboter im Umgang mit Menschen und die Menschen im Umgang mit der Maschine, ganz offiziell hingeht und anfängt, einen Roboterethik-Codex zu entwickeln. Weil sie sagen, Roboter sind für uns Teil des allgemeinen Lebens ganz stark. Sie haben irgendwann mal das Ziel ausgegeben, einen Roboter in jedem Haushalt bis 2020, was auch immer das bedeutet. Aber sie sagen, wir brauchen das. Interessanterweise ist Teil dieser Roboter, also diese ganzen Fragen damit reingebaut. Und all das aber wieder, dabei geht es eigentlich um die Leute hinter den Maschinen, damit die Frage, wer hat dann die Verantwortung? Weißt du denn was über die Grenzen, die die da schon gesetzt haben, was zum Beispiel die Menschen hinter den Maschinen eben nicht dürfen oder was sie dürfen? Interessanterweise orientieren sich die Südkoreaner bei dem Thema an Asimovs 3-Computer-Roboter-Gesetzen, was total faszinierend ist. Was ist die Geschichte? Asimov hat in den 60ern und 52ern, 42 von den 50ern. Deswegen stellt man das als Frage rein, weil man sich nicht ganz sicher ist. Rundround heißt die Kurzgeschichte. Genau, diese Geschichte geschrieben. An denen gibt es drei, hat er drei Regeln entwickelt für die Roboter, die quasi ihr eigenes, das ethisches Verständnis, nämlich Regel Nummer 1. Ich darf den Menschen nicht verletzen und auch nichts unterlassen, was den Menschen davor bewahren würde, verletzt zu werden. Regel Nummer 2, ich muss... Die Befehle befolgen. Es sei denn, ich verletze damit Regel Nummer 1. Und Regel Nummer 3 bedeutet, ich muss meine eigene S-Existenz schützen. Es sei denn, ich verletze damit Regel Nummer 1 und Nummer 2. Daher kommt man schnell in Konflikte, wenn man sich selber schützen will, aber gleichzeitig im Befehl auch... Das Entscheidende daran ist vor allem, dass Asimov diese Regel entwickelt hat um das Fiction-Geschichte aufzubauen, die natürlich sofort klar macht, warum diese Regeln nicht so funktionieren, wie sie vorgesehen ist. Deswegen wirkt es eine gewisse Euronie, wenn Südkorea jetzt hingeht und die Regeln... Die haben exakt diese Regel übernommen, oder? Sie haben die Regel nicht übernommen, aber sie haben quasi darauf aufgebaut. Sie haben sie als Grundlage erwähnt. Es ist allgemein sehr interessant und faszinierend zu beobachten, wie diese ganze Diskussion um Roboter und Roboteretik, die als Diskussion praktisch genauso gleich lang sind. Also mit der Erfindung des Roboters im Science-Fiction, daher kommt der Begriff. Auch gleichzeitig die Frage, kam es, was ist mit einer Ethik, was ist mit dem Selbstverständnis der Roboter? Und wir daraus, glaube ich, relativ viel auch lernen können, was Zukunftsszenarien angeht in die verschiedenen Regeln. Jetzt haben wir eine Fachfrau für Philosophie, Ethik und Moral. Hier bei uns in der Runde nämlich Janina. Du beschäftigst dich ja auch mit Roboteretik. Was, was man da will und was man da kann? Was will man denn in Deutschland roboterethisch gesehen? Oder wenn man ganz viele verschiedene Dinge. Zum Beispiel? Erstmal würde ich sagen, glaube ich, haben wir schon längst eine Roboteretik. Wir sind schon dabei. Was steckt denn drin in dieser Ethik? Es gibt nicht die. Insofern ist die Frage falsch formuliert, brauchen wir eine Roboteretik? Wir würden ja auch nicht in Bezug auf Menschen fragen, brauchen wir die Ethik, sondern wir fragen, inwiefern brauchen wir ethische Urteile? Inwiefern macht es Sinn, von moralischen Handlungen zu sprechen? Aber das ist eine ganz andere Frage, ob es eine bestimmte, konkrete Ethik gibt, die sagt, es gibt die und die und die Werte, A bis Z, die irgendwie gut sind und die wir wollen und die uns automatisch zu den Prinzipien und Handlungsregeln irgendwie führen. Die Roboteretik oder der Bereich der Roboteretik fragt generell danach, inwiefern Roboter in das moralische Universum aufgenommen werden sollten. In unseres, in unser menschliches. Ja natürlich, es gibt ja so gesehen keinen. Vielleicht gibt es noch ein anderes, vielleicht gibt es noch ein anderes und wir wissen es nicht. Also mit dem göttlichen kenne ich mich nicht so gut aus. Vielleicht eine Theologe noch dazu holen müssen. Aber nein, natürlich in das menschliche, wenn man so will. Und jetzt ist die Frage, in welcher Weise nehmen Sie sozusagen Teil an dem Spiel moral? Wenn wir, und da gibt es dann zwei große Lager in der Roboteretik, würde ich sagen, die einen beschäftigen sich eher mit der Frage, inwiefern Roboter, man sagt moral patients sein können. Also Träger moralischer Rechte. Diese Frage können wir ganz analog zu Tieren stellen. Die wird auch schon seit 100 Jahren auf jeden Fall schon in der Tieretik genauso gestellt, die Frage. Und da gehören Fragen rein, wie die, die Sie gerade alle angefangen haben zu diskutieren. Nämlich, wie verhalten wir uns zu Robotern? Oder was können wir von Robotern lernen? Wie müssen die, mit welchen Erden werden, müssen die Designer ausgestattet sein, um Roboter in einer korrekten, moralisch akzeptablen Weise zu bauen, wie auch immer. Das ist der eine Großbereich. Und da fallen auch die ganzen Diskussionen um Kate Darling mit rein. Mit dem kleinen Dinosaurierroboter, genau. Kennt jeder das Experiment von Kate Darling mit dem kleinen Dinosaurierroboter? Er hat einen kleinen Roboter, namens Pleo, oder Pleo, hieß der, hat die gebaut so klein wie so ein Un, so groß ungefähr. Und dann hat die Probanden damit spielen lassen, wie lange, eine Woche, oder was weniger, oder nur ein Tag, oder so eine Woche. Und dann, der reagiert so, er kann auf Gefühl, also auf Gefühlsregung reagieren und er schnappt so zu, wenn man dem was hinterhört. Also wie so ein kleines Hündchen quasi, kann man mit dem spielen. Und dann hat sie am Ende dieses Experiments zu den Probanden gesagt, so macht den kaputt. Und dann wollte keiner. Und dann hat sie irgendwann damit gedroht. Ich mache alle Roboter, die ich hier habe, kaputt. Die töte ich quasi, wenn ihr Pleo nicht kaputt macht. Dann hat irgendein Mann, glaube ich, eine Stange dann genommen und hat so lange auf den kleinen Dinosaurier eingehauen, bis er dann auf der Seite lag. Das haben sie beschreibt. Sie war entsetzt zu schweigen im Raum, weil da dieser tote Roboter lag quasi. Also wir vermenscheln anscheinend auf eine Art, ne? Genau. Meinst du, wie wir mit Robotern umgehen und zum Beispiel? Genau. Ja, und dieser Bereich, also die Frage danach, inwiefern Roboter moral Patience sein können, also Träger moralischer, passiv Träger moralischer Rechte, ist in dem Sinne kein neuer Bereich der Ethik. Wir haben den im Bereich der Tierethik eben auch schon. Und auch da fragen wir schon im Recht, das ist ein bisschen anders. Da ist es immer noch ein Sachschaden, wenn ich in Rehe über den Haufen fahre. Aber ich würde fast sagen, dass Wolfgang jetzt sagt, dass Roboter keine moralischen Rechte haben. Da sind Maschinen und ich kann sie auseinandernehmen. Ich kann sie mir zusammenbauen, dass ich zu Maschinen emotionale Bindungen entwickeln kann. Das bei einem Ingenieur, glaube ich, nicht verwunderlich. Allerdings entwickel ich die auch zu Maschinen, die gar nicht robotähnlich sind. Also ich würde eine alte Uhr nicht auseinander kaputt schlagen. Ich sage, Tierethik ist was ganz anderes als einer Maschine angehängt der Ethik. Warum? Inwiefern? Weil Tiere in einem ganz anderen Sinn, es sind Lebewesen. Und ich kann dazu ein ganz anderes Gefühl entwickeln. Ich kann annehmen, dass Tiere Schmerzen empfinden. Ich kann annehmen, dass sie ein Subjektbegriff haben, dass sie sich für ein Subjekt halten. Ein Roboter hält sich nicht für ein Subjekt. Ich glaube, da kommen wir in den zweiten großen Bereich der Roboter-Ethik, nämlich die Frage, inwiefern Roboter selbst Moral Agents sein können. Was heißt das? Inwiefern sie selber moralische Akteure sein können, Subjekte sein können, moralisch handlungsfähig sind. Dass man sie auch verantwortlich machen kann, wenn was schief geht? Genau, genau, genau. Ich mache hier nur die beiden großen Lager auf der Roboter-Ethik. Das ist tatsächlich sehr differenziert, glaube ich. Dass wir natürlich auch zu Tieren in einer anderen Art und Weise Emotionen entwickeln können. Aber ich denke wieder an die Senioren, die in Altersarmut und dann mit diesen Robotern irgendwie sehr, sehr starke Bindung in der Lage sind aufzubauen. Ich möchte darüber nicht urteilen, ob das eine bessere, stärkere, gehaltvollere, moralisch hochwertigere Bindung ist, als wenn derselbe Mensch zu einer Katze eine Bindung aufbaut. Das macht sich mir irgendwie nicht an, darüber zu urtern, ob das eine eine bessere Bindung ist als die andere. Und das meinte ich eher. Trotzdem kämpft es mir jetzt auch komisch vor zu sagen, dieser Roboter hat moralische Rechte. Es ist nun mal, wie Wolfgang auch sagt, kein Lebewesen. Nein, das ist klar, aber ich glaube, wir müssen da sehr differenzierte Schritte gehen. Wir versuchen immer, und das ist, glaube ich, diese Panikmache und die Angst, die da im Hintergrund lauert, wir versuchen immer von 0 gleich zum Z zu springen, und wir glauben nur, weil wir, weil wir hergehen könnten und versuchen könnten, auch eine, ja, eine vielleicht funktionalequivalenten Weise, Zustände oder Eigenschaften bei Robotern zu sehen, die wir auch bei Menschen oder auch bei Tieren sehen, dann sehen wir gleich, dann haben wir gleich diese Androidenangst, dass auf einmal Wesen da sind, die nicht leben, die uns aber furchtbar ähnlich sind und die uns dann irgendwie einnehmen wollen oder so. Ich glaube, wir müssen da tatsächlich vorsichtig sein. Man kann graduelle Schritte gehen. Man muss nicht gleich sagen, Roboter sind in der gleichen Weise verantwortungsfähig, würde ich niemals sagen, wie Menschen, warum sollten wir, warum sollten wir das wollen. Aber ich glaube, wir sind in der Lage, da sehr viel auch Phänomen-sensible und sehr viel differenzierter, auch vielleicht mit neuen Konzepten von Verantwortlichkeit vorzugehen und dann trotzdem zu sagen, eine Maschine, die in einer gewissen Weise in der Lage ist oder mit ethischen Prinzipien ausgestattet wurde. Man kann dann wiederum aber ja einprogrammiert wurden, oder? Von uns. Wir haben entschieden, welche Werte und welche da reingehen. Aber ich meine, bei Menschen ist es doch ganz häufig nicht viel anders. Du meinst, es wird anerzogen, wie reinprogrammiert. Es wird anerzogen, ich glaube, es ist, wir haben ganz, ganz starke, ganz nachvollziehbar. Ich wäre ja die Letzte, die das irgendwie blöd finden würde, alles über den Haufen werfen würde. Aber wir haben ganz starke moral, also Intuition darüber, was moral ist, was, was für Kompetenzen nötig sind, damit ein moralisches Urteil, ein moralisches Urteil gelten darf. Der eine mehr, der andere weniger. Genau. Und ja, aber am Ende des Tages läuft ganz, ganz viel auf, ja, auf so ein unbekanntes X, auf metaphysische Kompetenzen zurück, Willensfreiheit. Was weiß ich, ob du die hast? Ich kann noch nicht in dich reingucken. Ja, aber dir traue ich gerade alles zu, weil du so, du redest mich hier gerade platt. Nein, nein, nein, ich finde das ja auch hoch interessant. Die Frage ist nur, die ich ja aufwerfen wollte, ist, welche Roboter muss man irgendwie ethisch programmieren und welche nicht? Alle, oder sind das tatsächlich die Menschen dahinter, die einfach darauf achten müssen, dass die Roboter nicht außer Kontrolle geraten und dass man eben bei den Robotern besonders vorsichtig sein muss, die engen Kontakt mit Menschen haben? Sowohl als auch, glaube ich. Also natürlich geht es um die Nahbereiche des Menschen. Natürlich geht es um die ganz klar, um die Roboter, die mit den Menschen ganz stark in Kontakt kommen, um medizinische Robotenservice, Roboter natürlich, um Kriegsroboter, aber auch die selbstfahrenden Autos. Mein lieber Scholli, wenn die irgendwie über die Straßen fetzen und ich da drin sitze, oder es sind selbstfahrende Krankentransporte, natürlich wollen wir, dass da, also dass da die moralischen Prinzipien irgendwie einwandfrei funktionieren, wenn man so will. Ich glaube, es ist eine sogenannte Online-Kontrolle, also von Leuten, die irgendwo außerhalb sitzen und die Fäden ziehen und dann irgendwie diese ganzen selbstfahrenden Autos von alleine anhalten können. Das ist erstens ein Personalmangel, den wir da haben, wenn wir wirklich in dem Ausmaß in all den Bereichen Roboter einsetzen können wollen. Und es ist auch eine Frage von Geschwindigkeit in der Rechenprozesse ablaufen und in denen dann ein menschlicher Operator, sozusagen gar nicht in der Lage wäre, schnell einzugreifen und in einer Dilemma-Situation die richtige Entscheidung zu treffen, sondern das müssen wir vielleicht aus der Hand geben. Nicht immer, nicht in allen Fällen, aber in manchen Fällen. Aber ich würde sagen, dass ihr euch generell, während ihr euch einigt, wenn ich jetzt sagen würde, dass die Menschen, die Roboter programmieren, die ihnen Regeln geben, wie sie sich zu verhalten haben, dass wir da Regeln brauchen, was diese Menschen dürfen und was nicht. Haben wir die Regeln eigentlich schon? Diese Regeln haben wir, natürlich haben wir die. Sag mal eine wichtige. Also zum Beispiel darf das Grundwasser nicht verschmutzt werden durch eine solche Maschine. Wir haben eine Unmassen von Regulierungen, die technische Produkte betreffen. Sind es genug Regeln oder fehlt die alles? Nein, es sind nicht genug. Was fehlt? Deswegen gibt es ja gerade diese Diskussion, vor allem im militärischen Bereich. Auch da gibt es Regeln, es gibt das Kriegs-Völkerrecht. Und wenn man Drohnen einsetzt, dann nimmt man billigend in Kauf, dass unbeteiligte Zivilisten getötet werden, wenn man solche Maschinen einsetzt. Das ist aber nach dem Kriegs-Völkerrecht nicht zulässig. Jedenfalls unter den Bedingungen, unter denen das eingesetzt wird, das ist alles noch viel komplizierter. Damit man das los wird, versucht man, den Maschinen eine Ethik zu geben. Und die US Army hat sehr wohl ein Ethik-Projekt gefördert. Es gibt ein schönes Buch dazu, mit einem interessanten Autor, der das auch fest glaubt, was er da schreibt. Und der eben die Ethik vom Soldaten weggeben will, an die Maschine. Warum? Weil der Soldat sonst in Knast müsste, wenn diese Fälle passieren. Wie sie in tausendfacher Variants passiert sind in der letzten Zeit. Wir wissen ja, wie diese Maschinen eingesetzt werden. Wir wissen, dass es Tausende von Opfern gegeben hat. Und darunter mag es auch einige Kriegsgegner gegeben haben, die begründet angegriffen werden. Das weiß ich nicht. Aber es sind viele angegriffen und getötet worden, die Opfer sind und die nach dem Kriegsvölkerrecht so nicht hätten angegriffen werden können. Da muss die US Army dafür sorgen, dass ihre Leute, falls sie in Den Haag mal landen, nicht einfach festgenommen werden. Also schiebt man so eine Ethik auf die Maschine. Das ist eine durchsichtige und unangenehme Situation. Übrigens auch für die Soldaten. Also es ist ja nicht so, dass die Militärs das einfach umarmen und sagen es ja großartig. Sondern auch da gibt es große Widerstände innerhalb der Armeen. Wenn aber, sagen wir mal, die Entwicklung bei den Robotern in allen Bereichen fortschreitet, komplexer wird, vielfältiger wird, brauchen wir dann vielleicht entweder in den einzelnen Staaten oder sogar übergreifend irgendwann so etwas wie so ein Ethikrat für Robotertechnik? Auf keinen Fall. Wir brauchen die Umsetzung der rechtlichen Regelungen. Und die müssen natürlich fortgeschrieben werden mit der Weiterentwicklung der Technik. Das ist aber ganz unabhängig davon, ob das Roboter sind oder Hula Hoop reifen. CDU würde an der Stelle sagen, Robotik darf kein rechtsfreier Raum sein. Es ist Neuland. Es ist auf jeden Fall Neuland. Das ist wieder genau das Thema. Die Robotik ist ja auch da genauso kein rechtsfreier Raum als das Internet kein rechtsfreier Raum. Es geht darum, die Rechte, die da sind, auf das Neuland anzuwenden. Das ist genau, glaube ich, der Punkt. Deswegen kommen wir immer wieder zu diesem Punkt zurück. So wer sind die Leute dahinter? Für mich ist das Entscheidende dabei. Es ist immer wieder diese Reflexion. Was passiert denn da gerade? Wir merken, Dinge verändern sich. Es gibt neue Herausforderungen. Ich bin tatsächlich genau dieser Punkt, dass die Berichte von Drohnpiloten, wo man heute irgendwie zur Arbeit gegangen. Ich habe irgendwie so ein Joystick-Sauce, auch nicht viel anders als mit der Xbox. 20 Menschen irgendwie bei meinem Drohnangriff irgendwie ums Leben gekommen. Jetzt gehe ich nach Hause und mache irgendwie das Essen von meinen Kindern. Diese Drohnpiloten sagen, es ist für sie ein Riesenproblem, dieses Ding, weil sie tatsächlich nicht mehr vor Ort sind. Sie fragen so dieses Reflektieren von denen. Was passiert da? Und die Frage, wie ist quasi das Regelwerk, was wir schon haben, muss das quasi interpretiert werden auf diesen Kontext. Nicht den Leuten, die quasi das sagen, das ist super irgendwie, wir müssen nicht mehr unsere Soldaten hinschicken, sondern wir schicken jetzt unsere Drohnen hin, das zu überlassen. Aber würdet ihr sagen, egal wie autonom und intelligent und meinetwegen lernfähig Roboter mal werden, letztlich ist immer der Mensch, der sie befähigt, programmiert hat, ihnen was beigebracht hat, Schuld daran, was am Ende dabei rauskommt? Der, der den Auftrag gegeben hat. Ja, es gibt eine Kette der Verantwortung. Das ist bei allen Maschinen so. Das ist bei allen Organisationen so. Verantwortung existiert. Sie ist nicht zwingenderweise die Verantwortung desjenigen, der ganz am Ende steht. Das kann sehr viel weiter zurückliegen. Das kann der Konstrukteur sein, der Mist gebaut hat. Das kann der Geschäftsführer sein, der das angeschafft hat und meint, das sei sinnvoll. Aber diese Verantwortungsketten werden wir nicht auflösen. Ich sehe da keinen Grund für. Wobei ich das für mich, das Bild von der Kette will mir nicht so recht ein. Ich glaube, ich weiß nicht genau, von wem der Begriff ist es leider nicht von mir. Aber Verantwortungsnetze, ich glaube, das macht das Ganze sehr viel schwieriger, weil es eben nicht so leicht ist, immer einzelne Handel. Und das Problem haben wir, das ist ein altes Problem. Erstens das Problem des Schuldabwälzens, das Schuld an andere abgeben wollen. Ich bin eigentlich hier überhaupt nicht, habe damit nichts zu tun, war nicht meine Sache. Das haben wir doch nicht erst seit der Robotik. Aber hier ist es doch ein großes Thema, oder nicht? Natürlich, auf jeden Fall. Aber das ist besonders wichtig. Das stimmt, aber es ist eben, am Ende des Tages, das haben wir jetzt hier auch schon häufiger festgestellt, es ist keine, wir erfinden hier keine neue Form der Ethik, sondern es ist natürlich immer die Frage, nach dem Menschen und wie der Mensch sich zum Menschen verhält. Da ist die Roboterethik vielleicht ein neues Spielfeld und vielleicht eines, das besondere neue Werkzeuge und Spielzeuge uns an die Hand gibt, die das Ganze komplexer erscheinen lassen. Aber gerade intransparente Kontexte in denen Verantwortungszuschreibungen sehr, sehr schwer möglich sind, wenn wir uns in der Umweltethik umschauen. Da braucht man gar nicht anfangen. Aber hat denn irgendeiner von euch irgendwie Angst, dass das mit den Robotern aus dem Ruder laufen könnte? Oder ist das alles gut so, wie es ist? Wenn wir anwenden wollen, egal. Also scheint ja alles noch sehr in der Diskussion zu sein. Ich finde es total lustig, weil ich glaube, diese ganze Frage nach, könnte das aus dem Ruder laufen, ist einfach Teil dieser Geschichte der Roboter, die einfach von Science Fiction geprägt ist. Also, zu einem gewissen, ganz großen Teil einfach, als der Begriff, der daherkommt und seit langem wir uns damit beschäftigen, wo könnte das hingehen, weil es gute Stories sind. Ich habe keine Ahnung, was in 50 Jahren ist und wozu Maschinen in der Lage sind. Ich stelle nur immer wieder fest, dass wir Menschen verdammt kompliziert sind, verdammt komplex sind. Ich muss auch mal sagen. Und dass das quasi das in die Maschine reinzumachen, also dieser Punkt, über den wir immer wieder reden, das Selbstbewusstsein der Maschine. Also, wo irgendwie anfängt die Maschine selbstständig Entscheidungen zu treffen, wirklich autonom zu werden, also selbstständig zu werden. Also autonom ist ja durchaus schon denkbar in irgendeiner Form, aber wirklich dieses völlig selbstständige, wo ich auch nicht mehr antizipieren kann, wo sich in einen eigenen Weg entwickelt. Und wo wir es nicht mehr verstehen. Und wir sind zum Beispiel irgendwie Thema High Frequency Trading Algorithmen, die Aktien kaufen, wo wir, wo Flash Sales passieren, weil irgendwie der Algorithmus gefeuert hat und die Experten Monate zu brauchen, überhaupt zu festzustellen, was da passiert, das uns immer noch nicht erklären können. Das ist das, wo es interessant wird. Aber da ist nicht die Frage, braucht das Ding in Algorithmus. Da ist die Frage, müssen wir das anders programmieren, müssen wir da bestimmte Dinge einbauen, die quasi da verbieten. Oder wollen wir diese Verantwortung abgeben, dieses Verständnis abgeben und was bauen, wo wir irgendwann nicht mehr wissen, was genau passiert denn da eigentlich. Aber bis das tatsächlich im letztendlichen Effekt passiert, wird, glaube ich, noch viel Zeit vergehen. Also das Zentral ist eigentlich die Forderung an jede Technik, dass sie zuverlässig arbeiten muss und das ist nicht gegeben in diesem Bereich. Das wird auch nie so sein? Wir können höhere Zufallessigkeit erzeugen, wenn wir mehr Geld in die Entwicklung reinstecken und mehr Sorgfalt in die Entwicklung reinstecken und wenn wir mehr darüber nachdenken, was wir tun. Zufallessigkeit ist erreichbar in einem gewissen Maß. Aber eine perfekte Zufallessigkeit ist kaum denkbar. Nur um ein Beispiel zu nennen, es gibt ja nun zugelassene Autos auf den Straßen, die selbstständig fahren. Und ich glaube, die Firma Google hatte zwei Unfälle bisher. Der eine war, weil der Fahrer im Auto gefahren ist und nicht das automatische System. Und der zweite war, weil das Google-Auto an einer Ampel gebremst hat, weil sie rot wurde. Oder gelb wurde. Sie wurde wohl eher gelb. Und daraufhin ist ein anderes auf das Auto draufgefahren. Mit Fahrer. Man sieht, es ist sehr schwierig mit der Zufallessigkeit. Aber das ist das eigentliche Ziel. Wir müssen die Systeme zuverlässig machen und das ist teurer als nur sie zum Laufen zu bringen. Und wir haben eine sehr große Tendenzsysteme einfach in die Freiheit zu lassen, indem wir sie laufen lassen. Und sie sind doch gar nicht ausgereift vielleicht. Ja, die nicht ausgereift sind und das wissen wir alle, weil wir alle mit dieser Technik zu tun sind. Es ist auch ein schönes Sinnbild für Schule. Für Schule? Ja, wir lassen die Leute los, bevor sie eigentlich nennen. Ach komm, das ist ja so ein anderes, also Johannes. Das ist ein interessantes Thema. Da könnt ihr euch gleich drüber unterhalten. Ja, Nina, ich glaube, das stimmt. Aber da wollte ich auf einen Punkt zurück, wo Johannes ganz ziemlich am Anfang schon angesprochen hat. Du meintest irgendwie ja, man lässt diese Prozesse los und dann in Form einer fast Identitätskrise oder Spaltung, wie auch immer, muss man sich auf das zurückbesinnen, was eigentlich menschlich ist. Ich glaube, dass da weder irgendeine Spaltung noch eine Krise des Menschen, sondern genauso wie es menschlich ist, Dinge auszuprobieren und Dinge einfach mal so einfach weiter zu versuchen, weil man es kann. Ist es genauso menschlich, und das ist immer möglich vor allen Dingen, in Gang zu setzen, da muss man nicht von einem neuen Mensch sein oder von einer neuen Menschwerdung oder einer neuen Besinnung auf das eigentlich menschliche und was das denn ist. Jetzt habe ich irgendwelche Eigenschaften gefunden, die doch menschlich sind und viel banaler eben. Dass man Dinge einfach gerne schnell laufen lässt und dann im Nachhinein anfängt, darüber nachzudenken, was habe ich denn da getan. Das ist ja nichts Besonderes und nichts Neues mit einer Spaltung und einer Krise, glaube ich, zu tun. Viele Prozesse sind hoffentlich jetzt hier in Gang gesetzt worden, nicht nur unter uns, sondern auch in unserem wunderbaren Publikum. Ich danke euch, dass ihr alle zu Gast war. Ihr dürft euch jetzt alle zum Abschluss einen Wunschroboter noch wünschen. Martin, welchen Wünsch du dir, was kann der? Okay, du darfst noch drüber nachdenken. Wolfgang, du hast bestimmt ein paar Rad, oder? Ich habe schon einen, der gibt es schon, der ist ein Filmstar, der heißt Wally und ich mag ihn wirklich. Johannes? Ich bin fasziniert von Algorithmen, die mir im Alltag helfen können. Es gibt Revers, es ist eine Plattform, die Social Media Bots anbietet. Das heißt, ich kann so ein Bot eine Identität geben und sagen, du interessierst dich für die Themen, du machst das und das, du hängst gerne an den Plätzen ab und dann schicke ich den los und dann bewegt er sich durchs Netz und checkt ein, der blockt selbstständig, er twittert, er tut all diese Dinge. Und nennst du den auch Johannes? Nein, den nenne ich natürlich nicht Johannes, aber ich kann gucken, was spielt er zurück, mit was beschäftigt er, wo kommt er hin, weil er folgt an verschiedenen Links und so weiter. Und es ist wie so, Odin hatte seine zwei Raben, die er immer losgeschickt hat, um die Welt und die ihm berichtet haben, was da draußen passiert. Das hätte ich gern. Und Janina? Ein Wunschroboter? Ich glaube, ich hätte gerne ein Diskutierroboter. Der sich mit dir auseinandersetzt? Ja, genau. An dem ich meine Argumente und meine Thesen testen kann, dass ich das ausstehen habe und immer zu reden kann. Und der muss dann kritisch darauf Antwort geben. Muss ich? Ja, ja, dann schreibe ich das Paper danach und gibts dann raus. Martin, ist dir auch einer eingefallen? Für so Interaktionen habe ich doch lieber noch Menschen. Ich hätte doch lieber ein ganz einfachen Serviceroboter für Arbeiten im Haushalt. Da kann dir auch schon geholfen werden. Da gibt es schon einige. Vielen Dank in dieser Runde. Wolfgang Koi war zu Gast Informatiker Johannes Kleske. Ich sage mal Unternehmensberater für die digitale Welt. Nina Zomitzke. Philosophin aus Kiel. Vielleicht darf ich ein Roboter sagen. Ein Namensaufsagroboter. Sehr schön. Ja, ich übe das noch bis zum nächsten Mal. Und Martin Wegmann war dabei von Verdi. Unser Superpublikum hier im digitalen Salon. Vielen Dank euch ein und noch viel Spaß. Entweder in dieser Runde sofort. Das Mikro ist noch an. Ich kann es sofort in die Runde geben, wenn eine Frage noch diskutiert werden muss. Und da geht auch schon ein Arm hoch. Und ich gebe einfach mal weiter. Würdet ihr es selbstständig untereinander weitergeben? Das wäre schön. Prima. Leg mal los. Eine Frage habe ich doch noch. Und zwar geht die so ein bisschen in Richtung Nina. Weil das, was sie gesagt haben mit der Kette der Verantwortung. Und die Frage. Und du hast gesagt, das Ganze ist so ein bisschen graduell. Wir machen keinen direkten Unterschied zwischen. Wir haben nicht irgendwo so einen Punkt, wo wir sagen, jetzt ist ein Roboter oder wäre ein Roboter, wenn wir ihn denn hätten. So autonom, dass wir sagen müssen, der ist jetzt moralisch und wir müssen ihm bestimmte moralische Rechte zuschreiben oder wir müssen gucken, dass er verantwortlich ist. Der ist jetzt erwachsen. Genau, so ungefähr. Und weil sie gesagt hat, mit der Kette der Verantwortung, wenn man das weiter spielt und man hätte jetzt tatsächlich so einen solchen Roboter, der tatsächlich moralische Fragen und die politische Urteile bilden könnte, dann müsste man. Und man würde trotzdem immer noch sagen, na ja eigentlich ist der verantwortlich, den gebaut hat. Dann könnte man genauso fragen, warum sind denn wir Menschen überhaupt für irgendwas verantwortlich sind. Nicht unsere Eltern dafür verantwortlich, dass wir so gebaut sind, wie wir gebaut sind. Ist nicht die Gesellschaft dafür verantwortlich. Das scheint mir auch irgendwie so ein bisschen so eine Verantwortung. Ich würde jetzt mal sagen, Flucht vielleicht zu sein. Ich mache trotzdem den Ingenieur verantwortlich. Müssen wir nicht irgendwann sagen, also gibt es nicht so einen Punkt auf dieser Linie, wo wir sagen müssen, jetzt ist aber nicht mehr der Ingenieur verantwortlich, genauso wie eben der ist erwachsen. Jetzt ist nicht mehr die Eltern verantwortlich, sondern jetzt muss der Roboter selber reisen. Ich glaube, logisch spricht ihm überhaupt nichts entgegen. Natürlich ist das vorstellbar. Deswegen, ich meinte ganz am Anfang so ein bisschen, dass ich mich da vor Spekulationen einfach bewahren möchte. Logisch spricht ihm nichts entgegen, dass das denkbar ist. Ich glaube, dass es in der Frage danach, was moral ist und wann ein moralisches Urteil ist, dass wir, das wiederhole ich jetzt so ein bisschen, wir haben ganz starke Intellizion darüber, was programmiert sein heißt. Was es heißt, dass ich ausgestattet bin mit und das veranlasst mich dazu und bewegt mich dazu, in die moralische Urteile fällen zu können. Ich habe das mit den Kindern irgendwie schon so ein bisschen angeführt. Ich glaube, das Erziehung, ganz basal, sehr ähnlich funktioniert. Also, dass das Ausstatten mit Prinzipien, nach denen wir dann handeln, ob sie jetzt anerzogen sind, ob ich sie aus meinem gesellschaftlichen Kontext herausfilter und übernehme, ob ich sie in ein Buch lesen und auswendig lerne, wie auch immer. Das sind auch alles Formen der Programmierung, wenn man so will, der Selbstprogrammierung. Und ich glaube, tatsächlich, es ist eine gratuelle Entwicklung, wie du gesagt hast, ab einem bestimmten Punkt, den wir noch lange nicht erreicht haben, der aber logisch vorstellbar ist, müssten wir hergehen und das... Und tatsächlich dann sagen wir, ich bin jetzt erwachsen. Du meinst, wir setzen uns die Grenze selber. Also, du meinst, es gibt nicht... Auch weiter, ich will nicht sagen, dass wir diesen Punkt irgendwann notwendig erreichen müssen. Ich will hier keine Zukunftspekulation bringen und irgendwie, wohin die Technik auf jeden Fall laufen muss und wann das sein wird und keine Prognosen. Es ist logisch vorstellbar. Es ist denkbar. Also, du würdest nicht sagen, dass der Mensch irgendwas hat, dass die Roboter nie erreichen können. Also, es sind die These da drüben gewesen. Es ist eine Maschine, egal wie Intelligenz sie ist, sie bleibt eine Maschine und sie wird immer grundsätzlich... Ich habe mich egal wie Intelligenz sie ist gesagt. Okay, aber... Vielleicht werden wir... Wir werden niemals Menschen aus Robotern machen. Und wir werden selber auch nie in dem Sinne zu Robotern werden. Wir sollten das nicht machen. Was sollten wir machen? Wir sollten es nicht machen, ja. Also, aber ich glaube, dass die Frage nach Verantwortungszuschreibung früher beginnt. Und es kann jemand... Ich kann mir vorstellen, dass in einem ja... Funktionaläquivalent eine Roboter Verantwortung tragen kann, obwohl er kein Mensch ist. Und ich muss gar nicht hergehen und sagen, er trägt dann in der gleichen Weise wie Menschen Verantwortung, weil er so ist wie ein Mensch. Er zeigt Funktionaläquivalente Zustände, die von außen sozusagen sehr, sehr ähnlich aussehen. Und dann muss ich auch hergehen und ihn ähnlich behandeln, ohne zu sagen, er ist wie ein Mensch. Wir sehen die Sanktionen aus, dann? Stromerist. Stromausschatten. So strafe eine Stunde. Batterie wegnehmen. Die Diskussion ist doch Subjekt-Objekt, oder? Es geht darum, es können Robotersubjekte sein. Das ist doch die Frage, oder nicht? Das Subjekt kann es doch nicht sein, anscheinend. Vielleicht ist tatsächlich... Es gibt ein sehr schönes Buch von David Gunkel, The Machine Question, dass genau versucht diese dichotomie, das, was ich vorher mit Moral Patient, Moral Agent aufgemacht habe, also diese Gegenüberstellung von Dingen, die wir moralisch behandeln müssen, mit denen wir irgendwie moralisch umgehen müssen und Dingen, Wesen, die moralisch handeln, dass diese Subjekt-Objekt-Dichotomie aufgehoben wird. Es wird da die Dezentralisierung des Subjekts genannt. Dass man versucht von diesem sehr starken, personifizierten, subjektzentrierten Bild der Gesellschaft abzulegen. Das ist, ja, wohin man dann kommt. Das ist eine plattenthektronische Verschiebung, oder? Um das Subjekt aufgeben ist Endegelände, würde ich sagen. Eine Kurzfassung. Und ich will nicht sagen, dass ich das gut finde oder dass ich das mir wünsche. Ich weiß noch nicht mal, was dann tatsächlich kommen würde. Es gibt sozusagen Versuche oder Ansätze, diese sehr starke Gegenüberstellung, einfach Argumentativen aufzuheben. So die Frage, was passieren würde, wenn die Maschine nicht Mensch, sondern Gott werden würde. Bei LEMM haben wir das schon. So wie du das mit der Gottemarsch, du bist der Gott, was da ist auf LEMM. Und was war das Ergebnis? Der Mensch hat, glaube ich, ich kenne nur ein, zwei Kurzgeschichten. Da ging es nicht viel um den Menschen. Da nicht mal wichtig. Nein, war ein Versuch. Gibt es noch roboter Menschfragen hier vorne? Also der Begriff Ethik, der geht mir hier zum Geist rum. Ihr habt von dem Regelwerk gesprochen und vor euch schien. Insgesamt so der Begriff Ethik, eine feststehende Größe zu sein. Für mich ist er das überhaupt nicht. Ich kenne Ethikräte, die sich um ganz begrenzte Gebiete um eine Gruppenethik kümmern. Dann gibt es Leute, die reden über die singuläre Ethik, also meine persönliche, wie ich mich verhalten könnte. Wenn wir Migranten denken und unterneutigen haben, dann gleiten wir aus mit dem Ethikbegriff, weil wir wieder nicht das Richtige jetzt getan haben. Oder wenn wir an Syrien denken oder was immer. Das heißt, ich glaube, bevor wir versuchen, etwas zu übertragen auf die Computer oder auf die Roboter, brauchen wir ein paar mehr Säulen, in dem was wir ethisch oder gut finden, in dem Sinne oder menschlich oder subjektiv oder wie immer. Und wir müssen es immer mit einem Kontext versehen, weil sonst kommen wir da auch nicht weiter. Denn auch die Diskussion ging sehr in die Breite, weil wir manchmal sagen, die Gesellschaft hat eine Ethik oder wir sagen, ein Mensch hat ein Gefühl, dass er sich richtig verhält. Da meine ich, brauchen wir mehr Klarheit in der Ausgangsfrage. Welche Ethik meinen wir jetzt? Vieles zu was du sagst, dass man Modelle sich bauen kann, die dann richtig sind. Weil man eben eine ganz bestimmte Ausprägung meint, die wir unter Ethik verkaufen. Aber schon die Auflösung in Gruppe und Einzel macht mir Riesenschwierigkeiten. Und dann auch das Problem, das auf die Technik zu übertragen, wie in der selbe Informatiker. Das heißt, ich habe Sensoren. Okay, da kann ich sagen, die dürfen nur bestimmte Sachen fühlen. Ich habe Akteuren. Okay, scharfe Sachen sind verboten. Diese Virtualität. Das heißt, mein Programm ist etwas virtuelles, Schwerdurchschaubares. Und es hat eine riesen Vielfalt, wo ich Dinge, die ethisch was bedeuten könnten, sozusagen regeln kann, unsichtbar regeln kann. Wir haben schon Scherzheitshalber gesagt, ein Beid ist 8 Bit. Das reicht nicht aus. Statt 8 Bit brauchen wir 16 Bit. Die anderen sind praktisch der Einsatz dieses Beids für grierische Zwecke, für unethische Zwecke, die immer mitgeführt werden. Das heißt, das Programm verweigert seinen Dienst, wenn eines dieser Bits in dem Beid, das moralische Beids-Bit zum Beispiel, es sperrt. Und dann merkt man schon, wo man hinkommt, bei der Art von Maschinen, die wir bauen. Das hat niemand von Anfang an gewollt, eingeplant oder geschweige denn kann es behandeln. Bei Security merken wir das sehr gut. Bei Security? Also alles, was virtuelle Sicherheit angeht. Nicht die Beidstoben durch Netz und die Algorithmen über den Beids richten hier einen Heil an. Aber wir haben keine Möglichkeit, quasi eine Polizei zu installieren, also jetzt wie Informatiker, um unseren Unsinn selbst zu kontrollieren, die wir da angerichtet haben, weil wir den Kontext nicht erfahren haben und weil wir, was das Programm geht, Auftragsgerichtet einen bestimmten Zweck erfolgt haben. Obwohl die Programme manchmal so heißen, als würden sie das Leben lösen. Also wie gesagt, erst Anfang war die Ethik. Wenn die dann klar ist, dann hätten die Techniker noch genug zu tun, das zu mapen auf irgendwelche virtuellen Gebilde. Umso schöner zeigt sich an dem, was du gesagt hast, dass die Roboterethik, die Robotik, die künstliche Intelligenz, Arbeitsbereiche sind, in denen Informatiker und Philosophen... Das würde ich nicht so laut sagen. Also die Informatiker haben halt versucht, das alleine zu lösen. Und wir haben dann den Gegenbegriff natürliche Dummheiten eingeführt, statt künstliche Intelligenz und sind mit dem Begriff natürliche Dummheit viel weitergekommen. Erinnern er leiser. Sehr gut. Also ich glaube, dass das genau in den Bereichen Informatiker oder andere... Wir üben uns da nicht mehr viel ein. Die künstliche Intelligenz hat in der Form, wie sie neu geplant war, eigentlich versagt. Kann sein. Kann sein. Aber ich glaube, wir haben genau, ein Beispiel in Philosophen Leute, die da in dem Gebiet bewandert sind und die da Ahnung von haben und die sehr gut mit Empirikern Hand in Hand arbeiten können. Das kann sein. Also ich glaube schon, dass es da immer noch Überschneidungsbereiche gibt. Das wäre schade, wenn nicht. Noch intelligente Fragen? Was denken denn die Maschinen im Raum? Androiden, jetzt? Zu Wort melden. Dann würde ich sagen Aufans Buffet. Falls ihr es nicht schon gelehrt habt. Wir gucken mal. Und gerne noch uns ansprechen, wenn ihr irgendwas loswerden wollt. Die Damen und Herren, die noch im Raum sind, sind ansprechbar. Schönen Abend noch.