 in die sehr nahe Zukunft, mein Damen und Herren. Herr Leonhardt ist für uns da und wir sind ja als Ärzte und Ärztinnen gewohnt, auch zu diskutieren und Fragen zu stellen und ich möchte Sie gerne einladen und auffordern. Ich bin sicher, dass die eine oder andere Frage Ihnen auf dem Herzen liegt und nehmen Sie den Mut und gehen Sie ans Mikrofon und wir, glaube ich, können noch ein paar Minuten hier zusammenbleiben und Fragen stellen und diskutieren. Das machen wir jetzt. Sie können auch gerne eine gegensätzliche Behauptung anführen, es muss nicht eine Frage sein. Das baue ich jetzt nicht, ansonsten können wir ja schon mal... Gibt es eine Frage im Publikum? Sonst können wir auch schon mal unter uns starten. Dieser Ethik-Rat, Herr Leonhardt, wie stellen sich das vor und werden sich da Chinesen oder ich sende irgendeine andere Nationen dran halten? Das wäre ja so eine Art ethische Weltpolizei, funktioniert das? Ja, sagen wir so, was wir jetzt erreicht haben, zum Beispiel nach Hiroshima und Nagasaki, ist, dass wir gesagt haben, okay, es wäre schlecht, wenn wir nochmal 2000 Atomwomben haben, weil dann gehen wir zu Ende. Und dann haben wir gesagt, okay, wir müssen uns gegenseitig kontrollieren, den Non-Pulliferation-Treaties. Und es gab das gleiche auch für Gehenanalyse bereits jetzt. Und ich glaube, dass diese Technologien, also künstliche Intelligenz, Gehenmanipulation und Geo-Engineering, die sind alle so potent, dass wir uns früher später an einem Punkt treffen müssen, um zu sagen, wie genau kultivieren wir das? Weil wir werden das nicht aufhören. Und vor allem im medizinischen Bereich, die ersten zwei Sachen treffen wir ja auf diesem Bereich VKOM zu. Also wenn künstliche Intelligenz Research machen kann, dann ist der, der die hat, natürlich meilen voraus mit Pharma. Also Sie müssen ja oft in der Pharma-Industrie zum Beispiel vier Jahre lang experimentieren und beweisen, jetzt können Sie es simulieren in der Cloud in vier Tagen. Also mit der gleichen künstliche Intelligenz. Wenn Sie Gene manipulieren können, dann können Sie nicht nur Mais manipulieren, sondern auch Dinge wie zum Beispiel Diabetes verhindern, theoretisch. Und dann kommen wir an die Grenze und sagen müssen, wir müssen ganz sicherlich zusammenarbeiten, was wir machen, warum wir es machen oder auch was es kostet. Zum Beispiel Sie wissen vielleicht Kymbria, die Medizin, die Late-Stage-Lukimia behandelt von Novartis. Das kriegen Sie verschrieben, wenn es absolut keine Chance mehr gibt, dass eine Gene-Manipulation kostet 470.000 Dollar. Und da kommen wir auch an den Punkt, wo wir sagen müssen, ja, was ist das jetzt normal, ist das öffentlich oder ethische Themen. Christian, wunderbar. Wenn Sie sagen, die Technologie wird Milliarden von Menschen zur Verfügung gestellt werden. Wer soll dann die Milliarden von Menschen in Zukunft ernähren? Denn das wird die Technologie nicht so einfach lösen, oder? Ja, also es ist die Faktor so, dass die ganz praktischen Probleme von Technologie eigentlich gelöst werden können, wenn wir sie in die richtige Richtung leiten, zum Beispiel Food, ja. Also Vertical Farming, zum Beispiel, das heißt, Sie haben einen Hochhaus, wo gezüchtet wird, also Gemüse und so. Es gibt es auch jetzt schon, es ist halt extrem teuer. Dann haben Sie auch schon bereits Fleisch, was im Labor hergestellt wird. Artificial Meat, ich habe es neulich probiert. Da kostet 1 Kilo 2000 Euro. Aber Bill Gates hat darin investiert und er sagt, in zehn Jahren ist es ein Zehntel der Kosten von normalen Fleisch. Also bei Food bin ich mir relativ sicher, dass wir das durch bessere Landwirtschaft, Agriculture lösen können, Wasser auch, Energie. Das Problem bei Technologie ist halt immer nur darin, dass wir den Nutzen ja regeln müssen und auch bezahlen müssen natürlich. Das heißt, wir müssen halt diese Prioritäten setzen. Also ich sehe es so, dass wir technisch gesehen an den Punkt sind, wo es geht in der Zukunft. Aber auch bei den Willen dazu haben, das durchzusetzen, das ist eine andere Frage. Wird die Zeit dafür ausreichen? Ja, also für Klimawandel ist es ein bisschen spät. Dort werden wir in den nächsten 20 Jahren die Rechnung zahlen müssen. Aber dann wird es vielleicht auch wieder besser. Ich denke, das Timing ist nicht unbedingt schlecht. Es ist ein bisschen spät, aber wir haben noch diese 10, 20 Jahre, wo wir dort die Dinge entwickeln können. Was jetzt Medizin betrifft, das ist unheimlich schwer zu sagen. Ich glaube, dass wir eher an den Punkt kommen, wo Technologie und Medizin sich verknüpfen und andere Seiteneffekte bieten, außer jetzt irgendwie diese Magic Box da. Tina. Ich sehe einen Widerspruch darin, dass sie sagen, genau die menschlichen Eigenschaften sind wichtig für die kommenden Generationen. Auf der anderen Seite spricht der Spitze von einer digitalen Demenz, die jetzt schon durch den Einsatz der aktuell in den Schulen schon durchgeführt von dieser Technologie her vorgerufen wird. Haben Sie eine Idee, wie man diese digitale Demenz irgendwie vorbeigen kann, wie man die Kreativität fördern kann? Ja, super Frage. Also ich denke, wir brauchen auch neue Regeln. Also ich an meinem Buch die sogenannten digitalen Menschenrechte aufgezählt, also neue Rechte, die wir haben müssen wegen Technologie. Zum Beispiel, das Recht, nicht online zu sein. Also es ist komisch, weil vor zehn Jahren haben wir da geredet, dass ein Recht gibt online zu gehen. Und jetzt ist es so, dass wir sagen, ja, das wäre gut, wenn wir das Recht haben, nicht online, drive to be offline oder das Recht haben, nicht zu augmentieren, dass wir sagen, ich will diesen Job, aber ich ziehe nicht das Ding an. Das sind neue Dinge, die wir einfach brauchen, glaube ich. So wie wir auch neue Regeln wie in Frankreich vielleicht brauchen, wo man Smartphone nicht mit in die Klasse nehmen darf. Ob das der richtige Ansatz ist, weiß ich nicht. Ich glaube, das ist immer so ein bisschen so auch eine kulturelle Frage. Also in Amerika sagt man ja eigentlich grundsätzlich, dass Mensch und Maschine konvergieren. Von daher, desto mehr Konvergenz, desto besser. Das ist halt nicht unser Ding in Europa. Wir wollen das schon auseinanderhalten. Und ich glaube, es ist auch eine einfache Frage von Humanismus, ob wir das so wollen oder nicht. Unser Problem ist, dass wir nicht einfach sagen können, wir können nicht einfach sagen, nein, machen wir nicht. Weil das wird unser ganzes Leben in gewisser Weise in einer Art von Isolation schaffen. Und wenn wir nur Ja sagen, werden wir zum Maschine. Das heißt, wir müssen also immer einen guten Kompromiss finden. Ich finde, Ihr Vortrag hat ein sehr, sehr schönes Ende. Und das stimmt auch so ein bisschen optimistisch. Sie haben den israelitischen Autor zitiert mit seinem dicken Buch. Bei dem geht das ja anders. Homo Deus. Homo Deus. Da rationalisieren wir uns ja weg und die künstliche Intelligenz ist nur noch für sich alleine da. Woher nehmen Sie die Sicherheit, dass das nicht so kommt? Ich habe keine Sicherheit darüber. Mein Ansatz dahinter ist zu sagen, es ist durchaus möglich zu sehen, dass Technologie an dem Punkt, wo sie die Singularität erreicht, also 2050 ungefähr, also wo eine Maschine mit einem IQ ähnlich wie uns existiert, also auch ein IQ, der vielleicht eine Million ist. Und da könnte es schon sein, dass Maschinen auch ihre eigene Möglichkeiten entfalten und wir quasi als eine Art von Haustier gehalten werden. Dafür brauchen wir diese Ethik komisch. Ja, genau. Also, aber die Frage ist nicht, es ist keine technische Frage, sondern ich glaube, technisch gesehen geht das. Die Frage ist, was wir wollen. Tim guckt, dass sie auch von Apple hat in Brüssel gesagt, Technologie kann große Dinge tun, aber sie will keine großen Dinge tun. Sie will gar nichts. Und das ist ein wichtiger Satz. Wenn wir wollen, dass Technologie gute Dinge tut, dann müssen wir das tun. Das heißt, wir müssen entscheiden, was sie tun sollte, nichts, was sie tun kann. Und das ist, glaube ich, in der Wissenschaft und der Medizin ein riesen Thema jetzt, weil wir kommen in zehn Jahren dahin, das will sagen, ja, wir könnten das tun. Wir könnten das. Also, wir müssen es kontrollieren. Organisieren, kontrollieren, ja. Wir haben noch eine Frage und dann kommen wir zum Ende. Ja, vielen Dank für den tollen Vortrag. Sie haben viele Videos gezeigt und was auffällt ist. Sie zeigen, sage ich jetzt mal, als Wissenschaftler, kommt kaum eines dieser Videos von einer Universität oder einer wissenschaftlichen Institution, sondern diese Videos mit destruktiven Technologien, die sie zeigen, kommen alle von Unternehmen. Und das ist ja vielleicht auch so ein Trend, den man sieht in diesem Bereich, in Tech-Bereich, passiert was, was die ganze Zeit nicht war, dass die Innovation von den Universitäten ausgegründet in die Unternehmen kommt, sondern da findet Innovation statt in einem Bereich, der ein kommerzielles Interesse hat, wo sozusagen wissenschaftlich gesehen, vielleicht ein ganz, also gar kein Interesse schon mal da ist und wo Wissenschaftler auch einen nicht dominierenden Einfluss haben. Wie ist ja da Ihr Statement? Also, das ist was, was mir eher Angst macht, weil gerade der ethische Aspekt in einem wissenschaftlich universitären Setting natürlich ein anderer ist, als in diesem Bereich, aus dem die meisten Technologien jetzt kommen. Ja, also das ist auch ein Thema, was mich bewegt. Wenn man sich umschaut und sagt, wer erzählt die Geschichte der Zukunft, dann ist es einfach der Hollywood, das endet immer schlecht. Oder es sind die Tech-Firmen. Also, wenn Sie über die Zukunft von Medizin hören wollen, dann ist die Story von IBM. Und viele von diesen Firmen sind meine Klienten, von meinen Speaking-Engagements und so weiter. Von daher weiß ich genau, wie das abläuft. Diese Firmen sind gut in Storytelling und sie erzählen die Geschichte der Zukunft. Und das muss sich unbedingt ändern. Aber auf der anderen Seite kann man natürlich die Wissenschaft nicht ganz fernhalten von der Industrie. Sie wissen, dass Facebook sehr, sehr viele Wissenschaftler anstellt. Also bis vor neuestem Stand waren 400 Leute angestellt bei Facebook, die nichts anderes machen, außer Facebook süchtig machend zu machen. Also, denn ihr Job war wie früher in der Tabakindustrie, zu sagen, wenn du Facebook nutzt, bauen wir diesen Mechanismus ein, von dem wir wissen, dass er funktioniert für Menschen. Also, es gibt sehr viel Aberlappung von Industrie und Wissenschaft in diesen Bereichen, vor allen Dingen bei KI. Ja, das ist sicherlich eine wichtige Frage. Die Verantwortung wird immer größer, wie wir sehen. Und ich glaube, da müssen wir auch wieder zurückkommen und sagen, wer erzählt eigentlich die Geschichte der Zukunft? Ist das dann die Firmen, die an der Börse notiert sind, die das halt in den Produkt umwandeln wollen? Das fragen wir auch bei Elon Musk. Wenn das funktioniert, dass wir Supermenschen werden können mit Brain-Computer-Interface, dann verdient er vielleicht 100 Trillionen dabei. Von daher ist das eine gute Story. Also für uns ist sicherlich auch das Fragestellen und auch kritisch zu hinterfragen, warum ist das so? Welche Interessen stehen dahinter? Ganz wichtige Frage. Werden Maschinen nicht doch menschliche Eigenschaften übernehmen, Gefühle entwickeln, Emotionalität, das, was sie uns gezeigt haben, was für den Menschen übrig bleibt. Computer können doch mittlerweile Emotionen von Menschen wahrnehmen, Pflegeroboter in Japan erkennen, wenn der Patient, den sie vom Bett in die Badewanne tragen, traurig ist oder lacht und können darauf reagieren. Also ist da wirklich keine Grenze in diese Richtung, die uns Menschen dann besonders ausmacht und was in Maschine dann angeblich doch nicht kann? Gut, das ist eine philosophische Frage, aber auch eine Frage natürlich der Entwicklung von Maschinen. Also im Endeffekt ist es so eine gute Simulation, ist für manche Menschen genauso gut wie die Realität. Also zu welcher mein Sohn wollte eigentlich schon seit 10 Jahren unbedingt durch Indien mit dem Motorrad fahren und er hat mindestens 500 Stunden von Videos auf YouTube geguckt über Indien. Und dann, als er in Indien war, hat er mir eine Message geschickt, und er hat gesagt, ich bin hier 3 Minuten in dem Bazaar, ich habe mehr bei Indien gelernt als die 500 Stunden von YouTube. Und warum ist das so? Weil wir sehen die Welt so, weil wir existieren. Also lange ein Maschinen nicht existiert, würde ich sagen, dass sie simuliert. Und selbst die beste Simulation ist nicht Realität. Es sei denn, sie sind Anhänger der Simulationstheorie. Und da würde ich sagen, wenn Maschinen existieren können, also bewusst sind, dann wäre das möglich. Und das ist genau der Punkt, wo ich sage, ich glaube nicht, dass wir darauf hinarbeiten sollten, dass sie bewusst werden. Das wäre keine gute Lösung für uns. Herr Leonhard, Sie sollten in diesen Ethikrad eintreten oder in Gründen, und dann können wir beruhigt sein, dass das alles in die richtige Richtung geht. Vielleicht enden wir auf einer positiven Note, noch mal plus Publikum. Ich habe im Vortrag schon gesagt, die Zukunft ist besser, als wir denken. Wir sollten uns nicht zu sehr darauf konzentrieren, dass wir die Angstaspekte der Zukunft in den Mittelpunkt drücken, was alles schiefgehen könnte. Das war eigentlich immer das Problem bei Technologie, was schiefgehen könnte. Ich meine, wir töten eine Million Menschen durch Auto fahren pro Jahr. Wir fahren ja trotzdem noch Auto. Also wir sollten auch sagen, okay, wir nehmen das in Kauf, das Dinge falsch gehen, aber wir sollten gleichzeitig auch natürlich vorsichthalten lassen und das in der Größenordnung, wie wir es annehmen. Also das nennt man proactive or precautionary auf Englisch. Das heißt, wir sollten vorsichtig sein, aber nicht zu Angst erfüllt. Und das ist ja auch unser Problem in Europa, dass wir oft, auch in der Schweiz, wo ich lebe, sagen, und das ist zu viel Risiko, wir warten lieber ab. Das ist auch schwierig. Ich glaube, dass wir dann einen guten Kompromiss finden müssen und den müssen wir auch zusammenfinden. Den muss auch die Politik finden, nicht nur immer Nein zu sagen, sondern wir müssen ja bei Ethik an Nein sagen. Also wenn ich mit Leuten über Ethik rede, dann sagen sie immer, das sind die Leute, die Nein sagen. Das geht nicht, das verboten. So dürfen wir das nicht sehen. Sondern wir müssen proaktiv in die Zukunft gehen, ohne jetzt stupid zu sein. Ich finde ein gutes Schlusswort, meine Damen und Herren. Ich möchte Herrn Leonhard noch mal danken, bitte einen großen Applaus an diese wunderbare Lesung. Herr Leonhard wird noch ein bisschen bei uns sein. Draußen ist sein Buch zu kaufen.