 Herzlich willkommen zum Digitalen Salon hier im Alexander von Humboldt-Institut für Internet und Gesellschaft. Heute ist natürlich ein ganz besonderer Tag, nicht nur weil wir tatsächlich mal ein bisschen Sommer in Berlin haben, sondern weil heute auch unser fünfjähriger Geburtstag gefeiert wird vom Digitalen Salon. Und genau. Und fünf Jahre, also das, in manchen Fällen ist das ja relativ wenig, aber gerade bei so digitalen Produkten ist das ja schon so eine Halbwärtszeit und ein halbes Leben. Von daher ist das ganz besonders toll. Ich habe auch noch ein paar Zahlen mitgebracht. Jetzt heute haben wir hier wieder drei Gäste vorne sitzen, plus die wunderbare Moderatorin natürlich. Wir hatten aber auch schon 150 Leute, Experten und Expertin hier vorne sitzen in unseren ganzen digitalen Salons, 55 an der Zahl übrigens, und über 3.000 Menschen waren schon hier in diesem Raum und in unserem alten Ort am Bebelplatz. Also auch das schon ganz schön beeindruckend finde ich und ganz schön beeindruckend für die Organisatoren hinter dem digitalen Salon. Heute geht es aber um ein Thema, das sehr kontemporär ist. Also wir blicken nicht nach hinten, sondern jetzt nach vorne, nämlich wie künstliche Intelligenz eigentlich mit Medizin zusammenhängt. Und da habe ich mir vorhin ein paar Gedanken gemacht, wie man das vielleicht so einführen könnte. Deshalb einfach mal ganz kurz Hand hoch. Wer weiß denn eigentlich, was künstliche Intelligenz ist? Es gibt so ein paar wackeln der Hände. Genau, also es geht darum, dass der Mensch, also wir versuchen Intelligenz, unsere, was wir denken, was Intelligenz ist, irgendwie künstlich zu erschaffen, zu emulieren, zu kopieren und vielleicht in Zukunft sogar auch noch besser als unsere eigene zu machen. Da gibt es dann verschiedene Methoden, verschiedene Schulen, es gibt Teuristiker, die sagen, naja, wir machen irgendwie so ein paar Regeln und daran kann man so pimal Daumen ungefähr alles abschätzen, so als Intelligenz. Andere sagen, und das habt ihr bestimmt schon auch in den Nachrichten gelesen, nee, wir müssen Deep Learning machen, Machine Learning, wir müssen neuronale Netzwerke aufbauen, die eine besonders hohe Robustheit haben, also die man besonders gut von einem Anwendungsfall auf den anderen Anwendungsfall transferieren kann. Das läuft gerade, dieser Kampf zwischen den verschiedenen Schulen der künstlichen Intelligenzentwicklung, der läuft auch gerade. Kommen wir mal ein bisschen zu Anwendungen, auch Anwendungen in der Medizin, die wir heute schon sehen. Es gibt Start-ups und Berosheutika zum Beispiel, die sitzen hier in Berlin, die simulieren mit sogenannten Deep Learning-Algorithmen, biochemische Wirkungsfade und können so Wirkstoffe, die dann in Medikamente gehen, wesentlich schneller und günstiger entwickeln. Dann gibt es andere Teams, wie zum Beispiel Anastand AI oder Fuse AI, die Bilderkennung und Analyse machen können. Da kann man dann kurz mal extrapolieren. In Medizinbereich, CT Scans, das ist alles immer ganz schön teuer und dann steht da irgendwie ein unglaublich hoch bezahlter Radiologe oder Radiologin und die hat natürlich seine oder ihre Erfahrung, aber so ein Algorithmus, der nicht nur hunderte oder tausende, sondern Millionen, vielleicht sogar Milliarden von Bildern schon gesehen hat, der kann vielleicht nochmal bessere Erkenntnisse daraus ziehen, ganz spannend. Und letztlich gibt es natürlich auch Anwendungsfälle, die ganz schnell pur profitorientierte und kapitalistische Interessen haben. Bei Versicherungen zum Beispiel, das passiert jetzt schon ganz gut, das passiert jetzt schon ganz gut bei so Versicherungen wie der Ergo. Also die erhebt immer mehr Daten, auch von Wearables zum Beispiel, von Patienten und Patientinnen und kann natürlich dann in Zukunft vielleicht die Versicherungsprodukte ganz genau und ganz präzise auf dich zuschneiden und ein ganz anderes auf dich. Vollkommende Intransparenz, wunderbar für Versicherungen, weniger gut vielleicht für uns. Der Harvard-Professor Adam Tanner ist sich aber ganz sicher, der digitale Zwilling wird kommen. Das kann für Versicherungen sinnvoll sein, das kann vielleicht aber auch für Ärzte natürlich sinnvoll sein. Also wir sehen, künstliche Intelligenz und Medizin, das ist gar keine Zukunftsmusik, das ist heute schon Realität zum Teil. Das kann Leben retten oder zumindest die Behandlung von Krankheiten erleichtern, kann aber auch Profite von Unternehmen erhöhen und zur Benachteiligung bestimmter Menschen oder Personengruppen führen. Die großen Fragen, vielleicht welche auch die wir heute Abend stellen werden und im Idealfall sogar beantworten werden, ist, wie wollen wir damit eigentlich umgehen, wie sollen wir damit umgehen und natürlich auch ganz wichtig, wie können wir damit überhaupt umgehen. Ich bin gespannt, danke schön. Danke schön. Ja, auch von meiner Seite noch mal Konfetti, fünf Jahre digitaler Salon. Herzlichen Glückwunsch dem HIG und allen, die hier Monat für Monat ihr Hirnschmalz reinbuttern. Genauso den Kollegen von der Kooperativ, wie die da redaktionell reinarbeiten, die technisch alles umsetzen. Vielen Dank euch. Wir feiern das heute, indem es nicht nur wie gewohnt Wein und Brezeln gibt im Anschluss, sondern ich habe gehört, es gibt auch Oliven und Bier, also stay tuned. Das haben wir nicht jedes Mal. Möglich macht das auch die Kooperation mit der Scheringen Stiftung, diesen unfassbar glamourösen Luxus. Vielen Dank dafür. Klar, Medizineras Thema, da bietet sich das stark an. Der Rest bleibt beim Alten, wie es streamen, das machen die vorhin genannten Kollegen dort hinten. Ihr könnt hier im Saal nach vorne kommen und Platz nehmen, zahlreich, enthousiastisch und aufgeschlossen. Das wäre zauberhaft. Oder aber reintwittern unter dem Hashtag Dicksal. Zum Einstieg, ich habe mir natürlich auch überlegt, wie fange ich an. Ich dachte, ich erzähle mal eine Geschichte aus dem hessischen Dorf, aus dem ich komme, von einem Landwirt, der dort lebte und schon in seinen, ich glaube, hohen Achtzigern war und mit seiner Frau auf den Kartoffelacker ging, um Kartoffeln auszumachen. Und zu seiner Gattin sprach, Puh, ich habe Kopfwehe, auf einmal, ich setz mich mal und dann Tod vom Stein kippte. Ist dramatisch, aber ist auch, finde ich, ein traumhafter Tod, also nichts mit sanft entschlafen, sondern der ist gesund alt geworden, hat gearbeitet das gemacht, was er offenbar gerne macht, schon lange macht und gut macht und ist mitten in der Tätigkeit tot umgekippt. Davon kann man nur träumen, die wenigsten von uns befürchtigt werden das so erleben. Klar, alle wollen alt werden, aber keiner will dabei krank sein oder vielleicht sogar leiden, das ist ja ganz schrecklich. Nur kriegt man beide Sachen oftmals schlecht unter einen Hut. Insofern gut, dass sich die Medizin weiterentwickelt, so wie Robin das vorhin auch schon skizziert hat. Ich glaube, wir hören auch gleich noch ein paar Anwendungsfälle. Natürlich ein Riesenschritt, die Molekularbiologie, also Sachen, die seit ein paar Jahren jahrzehnten forciert stattfinden, gehen Sequenzierung und dann natürlich Big Data. Das alles zusammen macht Sachen möglich. Da konnten frühere Generationen nur von Träumen. Das war Seins Fiction, das war Star Trek mit dem Tree Coder zum Beispiel. Also Sachen, wo man dachte, total schrill und gibt es nur in Fernsehen. So, jetzt verlangen diese Technologien von uns als aktuell bereits Patienten, Patientinnen oder zukünftigen Patienten einiges ab von den Ärzten, denke ich auch. Wie weit gehen wir mit? Was brauchen wir? Was brauchen wir nicht? Und was wollen wir auch nicht? Das besprechen wir mit unseren Gästen. Und wie schon gesagt, ganz, ganz gerne auch mit euch. Also Fragen, Kritik, eigene Erlebnisse, Beobachtungen sind wie immer im Salon hoch willkommen. Und dafür gibt es ja auch seit einiger Zeit dieses feine Stühlchen, auf dem Herplatz nehmen könnt. Hat den Vorteil, dass ihr dann neben Maximilian Waschka zu sitzen kommt. Ach so, Stichwort sitzen. Da draußen sehe ich noch Leute, die stehen. Hier vorne sehe ich aber auch noch leere Stühle und Hocker und Sitzgelegenheiten. Also wenn die Trombose zu stark drückt, dann kommt und setzt euch zu uns. Okay, das ist jetzt nicht als personalisierte Medizin zu begreifen. Okay, ich stelle euch Maximilian Waschka vor. Ich wollte dich so ankündigen, dass du Medien- und Kulturwissenschaft studiert hast. Stimmt aber gar nicht, wie ich gerade erfahren habe. Er studiert noch, hat aber auch gegründet, nämlich das Hamburger Unternehmen Fuse AI. Vorhin schon angesprochen, AI steht für künstliche Intelligenz-Logen. Und das, was ihr macht, soll in diesem Fall Radiologen unterstützen. Ich vermute, wie eben schon gehört, das Programm hat im Rücken einen riesigen Datenberg. Vergleicht die dann, erkennt Muster, erkennt Strukturen, erkennt Abweichungen und macht dann aus den bildgebenden Verfahren, die wir alle so kennen, Röhre und so weiter, Röntgen, Befunde. Wolfgang Schulz, habe ich gerade eben noch gehört, du warst ja sogar bei der Premiere dabei. Bei Masse und Macht Ende August vor fünf Jahren, da war ich noch nicht dabei. Hat Jura und Journalistik studiert, ist Direktor des Hans-Bredo-Instituts. Hier am Haus auch wohl bekannt als Forschungsdirektor mit den Schwerpunkten Internet und Medienregulierung. Und wenn Daten und Diagnosen hin und her gereicht werden, geht es, ich habe es gerade schon gesagt, um Datenberge, um die Frage der Datensparsamkeit und immer natürlich auch, ist da implizit um ethische Fragen. In dieser Hinsicht versprechen wir uns Aufschluss von dir. Und Mirjam Jenny sitzt neben mir, hat Psychologie studiert mit Fokus, ich sage es mal lapidar, auf die Frage, wie Menschen abwägen, Optionen wählen, sich vielleicht auch anders entscheiden, als ihre Intuition gewesen wäre. Jetzt arbeitest du am Harding-Zentrum für Risikokompetenz. Das gehört zum Max-Planck-Institut für Bildungsforschung hier in Berlin. An der Schnittstelle Psychologie, Computerwissenschaft und Medizin. Und ich habe gelesen, dass du aktuell oder schon seit Längerem an Entscheidungshilfen für Mediziner arbeitest, die ja oft unter Zeitdruck stehen, haben nicht viel Zeit, vielleicht ist es sogar ein Notfall, müssen aber eine Diagnose abliefern. Und ich las über einen Schnelltest, der schon ein paar Jahre alt ist, der helfen soll, depressive Krankheiten bei Frauen zu erkennen. Das fand ich extrem beeindruckend. Kannst du uns das nochmal erklären, was da wie abgefragt wird? Genau. Und ihr hört mich auch alle? Ja. Das ist ein einfacher Entscheidungsbaum. Sprich eine hierarchisch strukturierte Liste von in dem Falle vier Fragen. Also vier Fragen, die beispielsweise ein Allgemeinmediziner den Frauen stellen könnte, um abzuklären, ob die Frau an depressive Verstimmung leidet oder nicht, um sie dann weiter zu leiten an einen Psychiater oder einen psychotherapeutischen Psychologen. Das sind Fragen, wie haben Sie in den letzten zwei Wochen häufiger geweint als früher? Fühlen Sie sich aus Versager in Ihrem Leben? Schauen Sie negativ in die Zukunft? Die Fragen haben wir nicht erfunden. Die bestehen schon im Rahmen von einem viel längeren Fragenkatalog, der hat 20 Fragen besteht. Die haben wir lediglich reduziert in den einfachen Entscheidungsbaum. Und jetzt ist ja das Spannende. Das ist ein Entscheidungsbaum, wie du sagst, für Frauen. Warum wird damit nicht diagnostiziert, ob man depressiv erkrankt ist? Das liegt schlicht und einfach an der Datenlage, die wir hatten. Wir hatten Daten über Frauen. Das war eine große klinische Studie aus Dresden ursprünglich zur psychischen Gesundheit von Frauen. Und deswegen ist der Baum auf Frauen zugeschnitten. Entscheidungsbaum, du hast schon mehrfach gesagt, aktuell arbeitest du an Entscheidungsbäumen für die Notfallmedizin. Also das, wo man üblicherweise abends um 10 Uhr hinkommt, weil irgendein Knochen raus stark, jemand stark blutet oder heftige Schmerzen hat. Wie sieht da diese Verknappung oder diese Entscheidungshilfe aus, die ihr geben könnt? Auch das sollen einfache Entscheidungsbaum werden. Aber da kommen ja ganz, ganz viele unterschiedliche Krankheitsbilder zusammen. Genau. Die Entscheidung, die als erstes gefällt wird allerdings, ist einfach nur, ist es jetzt ein schlimmer Fall, muss die Person sofort Aufmerksamkeit kriegen oder kann sie Notfalls auch warten, wenn der Notfall sehr voll ist und die Notaufnahmestation sehr voll ist. Und beim Entscheidungsbaum handelt es sich um einen Baum für bestimmte Patienten und nämlich nicht die Patienten mit dem rausstehenden Knochen, weil bei denen sehe ich als Arzt sehr schnell, okay, ich sehe, was das Problem ist und plus, minus, wie wir es jetzt lösen müssen. Aber auf den Notfall kommen auch viele Patienten mit sehr, sehr diffusen Symptomen, wie unglaublicher Müdigkeit. Auch ältere Patienten, beispielsweise, die sich plötzlich sehr schwach und sehr dumm fühlen, so Symptome, die einfach unglaublich breit sind und die es den Ersten sehr schwer macht, schon nur abzuschätzen, ob das jetzt ein ernster Fall ist oder nicht. Ein ziemlich komischer Fall am Universitätsspital in Basel, den die erste erlebt hat, in Basel ist eine Stadt in der Schweiz, in der Karneval sehr wichtig ist, war, dass eine Patientin reinkommt in die Schicht und einfach gesagt hat, sie hat unglaubliche Angst, weil sie hat dieses Jahr keine Lust auf Karneval. Das war eher ein Symptom, was natürlich ein bisschen ein komisches Symptom ist. Der Frau war es allerdings sehr ernst. Und glücklicherweise wurde sie auch ernst genommen von den Ärzten, denn es stellte sich danach aus, dass sie effektiv eine Lungenentzündung liegt und behandelt werden musste, aber einfach nicht besser artikulieren konnte, warum sie jetzt in die Notfallstation kam. Aha, okay. Mein Bruder ist Notfallmediziner, mit dem habe ich natürlich hier vor dem Salon telefoniert und der sagte, tja, also irgendwelche Patientenströme lenken, hat er sich schon längst abgeschminkt. Die haben halt auch Leute, die haben entzündeten Pickel oder irgendwie dolles Kopfweh, könnten auch am Montag zum Arzt gehen, passt ihnen aber nicht so gut, weil da haben sie einen Termin oder was anderes Schönes vor. Und der sagt, da hat er regelmäßig mit Experten zu tun, die vorne an der Aufnahme sagen, ich habe so Schmerzen in der linken Brust und wenn sie beim Arzt auf der Liege sind, sagen sie, nee, das muss die Schwester falsch notiert haben, ich komme hier wegen meinem entzündeten Pickel, können sie mir da einen Rat geben. Also, wird das nicht unterlaufen von den Patienten, die halt in der Situation dringend den Arzt sehen wollen, weil das in ihrer persönliche Lebensplanung gut passt? Ich denke, und daraufhin kann man als Patient das System immer, wenn man will, das ist jetzt unabhängig davon, wie reagiert wird, ob das mit, also das heißt, wie abgeschätzt wird, ob es jetzt ein schlimmer Fall ist oder nicht. Können Patienten das vorspielen? Also, wenn Patienten vorspielen wollen, können sie in den März aus vorspielen, dem Entscheidungsbaum oder auch dem komplizierten Algorithmus. Ich denke, das, also mit so wirklich bewusst Zerträuschung, umzugehen ist immer schwierig. So, jetzt reden wir aber ja heute über Personalisierte, über vernetzte Medizin und vielleicht fragt sich die Geneigte Hörerinnen, der Geneigte Hörer, was haben jetzt deine Entscheidungsbäume damit zu tun? Mit Algorithmen. Ach so, yes, okay. Mit Algorithmen sehr viel. Es ist eine ganz einfache Form von Algorithmus, so ein Entscheidungsbaum und in der Entwicklung des Entscheidungsbaum fließen ganz viele Analysen und Algorithmen aus dem Machine Learning mit einem Wurf vergleichen. Die Entscheidungsbäume immer mit sehr, sehr komplexen Modellen aus der künstlichen Intelligenz, um zu schauen, wie gut sind die komplexen Modelle und ist es möglich, die wirklich zu vereinfachen in ein einfaches Modell, das trotzdem noch sehr gute Entscheidungen macht. Das ist so der Link zum Algorithmus. Also, der Baum selber ein Algorithmus wird aber auch mit verschiedenen Algorithmen immer verglichen. Das heißt, der Algorithmus manifestiert sich jetzt hier nicht in einer Maschine. Das kann auch ein Zettel auf dem Klemmbrett sein, wo ich diesen Depressions-Schnelltest einfach abhake. Ja, nein, ja, nein. Auf jeden Fall genau. Und in irgendeine Maschine reingebe oder eine Maschine brauche. Es ist beides möglich. Der Entscheidungsbaum kann auch auf dem Post raushängen, auf der Notfallstation beispielsweise. Kann aber natürlich, wenn wir jetzt an eine Klinik denken, die wirklich die ganzen Akten schon elektronisch hat, auch früher Akten von Patienten beispielsweise, als sogenannte Software Agent implementiert sein in der App, die effektiv dann gewisse Fragen schon von selber beantworten würde, basierend auf den Daten, die die App schon zur Verfügung hatten. Daher müsste dann nur noch die noch offenen Fragen abklappen. Okay, dann gehen wir mal auf die andere Seite rüber zu Maximilian. Ich habe ja eben kursorisch erklärt, was ihr macht oder was das Gebiet ist, auf dem ihr euch tummelt. Aber vielleicht kannst du mir mal einen konkreten Anwendungsfall nennen, in dem ein Radiologe euer System nutzen könnte, um mich zu diagnostizieren. Ja, ich würde noch ganz kurz gerne einmal was zu der Frage davor erbieten. Na, das geht ja schon gut los. Es gibt ja auch schon viele Apps, die mit so Entscheidungsbäumen arbeiten, also die auch tatsächlich behaupten, mit dem Learning zu funktionieren. Das zum Beispiel Babylon Health, das ist von Alipasa gegründet, der vorher, glaube ich, ein Bankenunternehmen hatte. Also da muss man sich ja auch fragen, was steht so dahinter, wenn so eine App veröffentlicht wird, was passiert mit den Daten, wenn das so ein eindeutiger Unternehmer, die das Unternehmen gründet, also vielleicht nicht unbedingt so, dass den medizinischen Fortschritt oder Nutzen an erster Stelle sieht. Da kommen wir mit Sicherheit auch noch drauf, aber jetzt sagt uns mal ein Anwendungsfall. So wie ich nicht vollhin verstanden habe, seid ihr ja noch im Frickeln und Zertifizieren etc. pp. Sprich, es gibt noch keine radiologische Praxis, die euer System nutzt. Wenn es aber eine solche Praxis gibt, was inwiefern hilft die meinem Radiologen? Ja, genau. Also wir entwickeln gerade unser erstes Produkt zusammen mit der Radiologie Praxis Radpraxis in Wuppertal, die sich auf Prostata-Krebs konzentriert haben. Und die stellen multiparametrische MRTs der Prostata her. Was ist das denn? Das heißt, bei MRTs sind quasi einzelne Schnitte, 2000 Stück, die von der Prostata durchgeführt werden, wie so Durchmesser sozusagen. Und multiparametrisch bedeutet, dass quasi verschiedene Darstellungsformen dafür gefunden werden. Das heißt, ich habe nicht nur diese 2000 Schnitte durch die Prostata, sondern ich habe auch vier verschiedene Darstellungsformen für diese Schnitte. Und wenn man sich jetzt vorstellt der Radiologe, muss diese Schnitte alle durchsehen, um eben das maligende Gewebe eben zu finden. Und unsere Software, die wir dafür erstellen, ist eben eine Software, die die Segmentierung vornimmt. Das heißt, sie kennzeichnet das Areal, in dem der Krebs quasi sitzt. Und gibt allerdings keine Diagnose. Das ist ein wichtiger Punkt bei unserer Software. Es ist eben nur eine Segmentierung. Dadurch ist es ein Medizinprodukt der Klasse 1, also CE-Zertifiziert. Und ist deswegen auch rechtlich eine ganz andere Nummer, als eine Diagnose-Software. Aber soll das jetzt bedeuten, dass der Radiologe ohne euer System sich 2.000 Ansichten anschaut, um die eine zu finden, auf der was zu sehen ist? Oder wird das nicht auch schon von irgendeinem System geklastet und auf die Abweichungen hingewiesen? Also in Wuppertal ist es tatsächlich so, dass er sie alle durchschaut. Okay. Es gibt natürlich Software, schon die Segmentierung vornimmt. Das sind wir nicht die Allerersten, aber Deep Learning ist eben ein sehr potenter Ansatz, um das zu erreichen, mit einer ruhen Präzision, mit einer geringen Fehlerrate in der Segmentierung. Du, das Wort jetzt einführst Deep Learning. Wo ist denn der lernende Aspekt? Also jetzt, so wie du es beschrieben hast, würde ich annehmen, da gibt es ein Programm. Das ist so, wie es ist. Das ist in gewisser Weise statisch und erkennt Abweichungen, verändertere Strukturen oder Muster, verändert das Gewebe. Aber wo wird da gelernt? Ja, also der Lernprozess ist also tatsächlich heutzutage meistens nur in der Entwicklung. Okay. Es gibt vielleicht Ausnahme, aber das ist ziemlich schwer zu realisieren, dass der Algorithmus quasi in der Anwendung weiter lernt. Das wäre dann quasi so, dass die Datenbank, die hinter dem Algorithmus sitzt, permanent aufgestockt werden müsste und der Algorithmus immer wieder neu trainiert werden müsste. Das ist ein sehr hoher Aufwand und ist auch datenschutzrechtlich eine andere Sache. Deswegen planen wir unsere Software zumindest so, dass wir eben die Software mit etwa 1200 Bildern trainieren. Eine möglichst geringe Fehlerrate dadurch erreichen. Und dann eben in Form von Iteration, also monatlichen zum Beispiel, die Software zu verbessern. Jetzt habe ich online gelesen, da schreibt ihr, Radiologen erhalten durch euer System eine qualifizierte zweite Meinung, aber de facto vermutlich wird es in der Anwendung so sein, dass der Radiologe abwartet, welchen Befund die Maschine ausspuckt. Und das ist es dann, oder? Was ist das, was du für eine andere Ansicht gelangst? Ich vermute auch, dass die Software weniger Fehler machen wird. Ich hoffe es zumindest, aber eigentlich ist es ja optimal, wenn die Software Fehler macht und der Arzt dann wiederum eine Korrektur vornimmt. Weil dann bedeutet das für uns, dass der Algorithmus im nächsten Monat auch wirklich verbessert werden kann und das Wissen der Radiologen wandert in die Software tatsächlich. Und eine wichtige Sache, die mir noch am Herzen liegt, es geht uns nicht darum, den Radiologen quasi zu ersetzen, sondern eben langfristig eine Hilfe für ihn darzustellen, sodass die Ärzte, oder in dem Fall die Radiologen mehr Zeit haben, sich tatsächlich mit den Patienten direkt auseinanderzusetzen. Woher bekommt ihr die Daten? Du hast gerade die Datenbank dahinter angesprochen. Von der Radiologiepraxis, mit der wir arbeiten. Das sind anonymisierte Daten, die wir dann eben theoretisch auch nur für das Training benutzen und dann auch nicht mehr brauchen, das ist eben der Vorteil bei Deep Learning. Wenn ich als Patientin in diese Praxis komme, gebe ich dann mit meiner Unterschrift schon die Zustimmung, dass die Daten so genutzt werden? Genau. Ja, im Prinzip schon. Also, das ist eben das Problem, was wir in der, oder eigentlich ist es sehr gut in der deutschen Gesundheitswirtschaft oder in der Gesundheitsbranche ist es nun mal so, dass Daten nicht einfach so weitergeben werden können von Patienten. Deswegen gibt es eben nur wenige Kliniken, die das wirklich schon seit vielen Jahren machen, die Daten sammeln und eben auch die Zustimmung der Patienten einholen, diese Daten weiterverarbeiten zu können. Dann geht es halt darum, dass man sich darum kümmert, dass es auch verantwortlich geschieht. Okay, da kommt dann Wolfgang ins Spiel und ich glaube, das ist ja auch das Problem, dass die Daten, die man in dieser Praxis hat, die Daten, oder ethischen und oder ethischen Perspektive, hast du Bedenken, was jetzt in diesem konkreten Fall oder vielleicht auch darüber hinaus allgemein das Nutzen dieser Patientendaten betrifft? Also, eigentlich ist man ja als Jurist beruflicher Bedenkenträger, was solche Entwicklungen angeht. Ich habe aber schon mal mit Freude gehört, weil Max ja eben schon sagte, man könnte das auch anders machen, aber das machen wir nicht, weil wir dann ein anderes datenschutzrechtliches Problem hätten. Das ist, glaube ich, nicht überall so um. Ich wurde ja schon erwähnt, dass in Deutschland insgesamt das Datenschutzniveau vergleichsweise hoch ist, dass viele Leute sensibel sind, was das angeht, sicherlich auch die Leute im medizinischen Bereich, die hier entwickeln. Beispielsweise gab es mindestens einen Fall, wo ganze Patienten Daten übergeben wurden und dann nachher festgestellt wurde, da reichen ja die Einwilligungen eigentlich nicht aus für das, was man da im Bereich Deep Learning machen wollte. Also solche Sachen geht es an die Tochterfirma, genau. Das war zumindest nach Auffassung der Watch Dogs in Großbritannien nicht hinreichend gesichert und dementsprechend, glaube ich, ist es wichtig, dass man von vornherein in dieser Art und Weise agiert, wie das hier gemacht wird. Also grundsätzlich, glaube ich, ist das herangehen, mit diesen anonymisierten Daten zu arbeiten, wenn die Dämpfe die Mechanismen ausreichen, sicherlich gut. Wir haben insgesamt im Datenschutzrecht im Augenblick das Problem, dass so viele Daten da sind, dass man gar nicht genau sagen kann, welche Arten von Anonymisierung eigentlich ausreichen. Wir haben in diesem Unternehmen das jetzt zufällig nochmal wieder aus anderen Bereichen von ähnlichen Datensätzen bekommen, wo zum Teil Überschneidungen in den Personen gibt, auf einmal wieder in Bezug herstellen können, obwohl die eigentlich nach allen Regeln der Kunst anonymisiert waren. Das gilt jetzt nicht nur für die Medizin, aber auch für andere Bereiche. Das stellt uns im Datenschutzrecht vor eine große Herausforderung, wo man früher eigentlich gedacht hat, einmal anonymisiert nach dem Stand der Technik, ohne dass es ein Datenschutzproblem gibt, dass es heute nicht mehr so. Jetzt hat Maximilian, wenn ich dich recht verstanden habe, gesagt, da habe ich als Patientin meine Einwilligung schon gegeben, wobei ich auch sagen muss, ich unterschreib das auch immer, alles, was mir hingehalten wird, ich will ja behandelt werden. Wie ist es mit den Krankenkassen, wie ist das in Deutschland gesetzlich geregelt? Die sitzen natürlich auf unglaublichen Datenbergen. Ich glaube, da weiß man noch gar nicht, welche Ideen man dazu alle entwickeln könnte. Wie ist das gesetzlich geregelt? Bin ich, weil ich Mitglied bin in der oder der Krankenkasse, habe ich damit auch schon die Rechte der Datennutzung abgetreten an die Krankenkasse? Bestimmte, ja. Das hängt natürlich von den Verträgen ab, die gemacht werden. Die Krankenkassen sind, soweit ich das überblicke, sehr unterschiedlich, was ihre Konzepte angeht. Es gibt welche, die sehr stark schon auf Big Data Analysen setzen und versuchen, entsprechende Produkte anzubieten, die starker personalisiert sind. Es gibt andere, die da deutlich zurückhaltender sind. Aber der Datenschatz, der da ist, der ist natürlich riesig für die Unternehmen. Und dementsprechend das Risiko auch nicht so klein, dass wir vielleicht nicht heute oder morgen mit einer starken Differenzierung konfrontiert werden, die vielleicht auch das Solidaritätsprinzip der Krankenversicherung infrage stellt. Das reagiert ja darauf, dass wir eigentlich nicht wissen, wie es mit einer Erkrankung und dementsprechend solidarisch alle einzahlen, aber wenn man auf einmal besser wissen kann, zumindest oder auch besser weiß, wie es trifft, der kann natürlich der eine oder andere die Solidarität infrage stellen und stärker in Richtung verursacher Prinzip argumentieren. Da kommen wir auch noch darauf zu sprechen. Ich würde jetzt aber gerne nochmal einfach bei den rechtlichen Rahmenbedingungen bleiben. Das klingt ja für mich ein bisschen nach Wildwest. Also so die andere anders. Würdet ihr nach deutschlandweiten, EU weiten utopisch globalen rechtlichen Regelungen das Wort reden? Würdet ihr sagen, da braucht es Standards, die viel mehr Menschen erfassen, die für viel mehr Organisationseinheiten, Unternehmen, Praxen, Krankenkassen bindend sind? Also man kann ja sagen, ab Mitte nächsten Jahres eine Daten-Schutz-Grundverordnung. Die ist erstmal in allen EU-Staaten gleich und setzt einen gleichen Standard. Die gilt für alle Arten von personenbezogenen Daten und auch Gesundheitsdaten, also insofern gibt es da einen Grundstandard. Aber das große Aber, was die Juristen dann häufig haben, die lässt auch viele Ausnahmen zu, sodass also auch etwa landesgesetzliche Regelungen, die in Gesundheitsgesetze in Deutschland beispielsweise Erlaubnisse für bestimmte Datennutzung und Forschung zulassen, die gelten zum Teil jedenfalls trotzdem weiter. Das heißt also, es gibt einen Grundstandard, aber die Zersplitterung ist damit nicht vorbei. Miriam, jetzt hast du 2015 habe ich gelesen, als Data Scientist gearbeitet bei der Kassenärztlichen Bundesvereinigung hier in Berlin. Was machen die denn mit den Daten? Jetzt komme ich leider nicht so mit Detail hier aus. Da geht es natürlich um Versorgungsplanung schlussendlich, also effektiv auch langfristige Versorgungsplanung in Bezug auf unterschiedliche Regionen in Deutschland, z.B. Ärzte, Mangelisten, Stichwort, dass vielleicht ein Begriff ist, dass Spiele ländlich gegen den darunter leiden, dass es zu wenige Ärzte gibt, die die Leute betreuen können. Und da ist der Datenschatz jetzt in der KBV natürlich auch enorm groß. Das sind schliessendlich die Daten von, natürlich anonymisierten Dates, aber die Daten von sämtlichen öffentlichversicherten Leuten. Okay, das heißt, da wird geguckt, wo brauchen wir keine Ahnung einen allgemeinen Mediziner, wo brauchen wir einen Kinderarzt, wo brauchen wir eine Radiologin, um z.B. die Lizenzen zu erteilen für eine fachärztliche Behandlung? Auf dem kleineren Niveau haben wir es gar nicht gearbeitet, sind wir ja noch einmal nachher länger, für sich welche Bereiche, welche ähzlichen Bereiche wir zwar in wo geben oder benötigen. Okay, also demografisch z.B. wie viel Palliativmediziner brauchen wir in 30 Jahren in Berlin, wenn die ganzen jungen Leute, alte Leute sind? In die Richtung z.B. Okay, jetzt ist uns allen klar und wir sind da schon tausendmal drauf gestoßen. Daten sind die neue Währung und letztlich verursache ich dir selber die Daten mit einem, was ich tue beim Arztbesuch oder wenn ich online unterwegs bin, der Gesundheitsbereich boomt, da passiert eine Menge und ich habe im Netz gelesen, es gibt eine Schweizer Datenkooperative, die das konsequent weitergedacht hat. MiData heißt, da kann ich Mitglied werden und sage, ihr dürft meine Gesundheitsdaten verwalten, quasi genossenschaftlich in gewisser Weise. Ich kann dann mitbestimmen, wem diese Daten freigegeben werden, wer die nutzen darf, gegen Geld natürlich und die Erlöse, die da erwirtschaftet werden, werden dann wieder von den Mitgliedern in bestimmte Forschungsvorhaben geschickt, also finanzieren weitere Forschungsvorhaben. Klingt für mich wahnsinnig konsequent, also diese kleine Idee, die Daten sind die Währung umgesetzt in dem Modell, seht ihr das auch so oder ist das euren Interessen zu wieder laufend? Ich finde das genau das Richtige, ich habe auch von einem ähnlichen Ansatz gehört von einem Professor aus Sheffield, Neil Lawrence, der eben einen Data Trust vorgeschlagen hat, was ein ganz ähnliches Modell ist und ich finde, weil es eigentlich im Prinzip das Problem wirklich am Kern sozusagen ansetzt, weil die richtigen etischen Probleme, die wir mit künstlicher Intelligenz haben, gehen nur mal um Daten und nicht darum, ob man jetzt eine künstliche Intelligenz mit einem Bewusstsein oder irgendwelche anderen Mystifizierungen entwickelt. Okay, bevor du antwortest, Wolfgang, möchte ich euch noch mal sagen, falls ihr es nicht gemerkt habt, Max, rechter, rechter Platz ist frei, ich glaube, da war doch jetzt schon Diskussionswürdiges dabei und wenn ihr reinkretchen wollt oder ergänzen wollt, randpuzzeln wollt, dann macht es bitte, würde sich jemand einen Herz fassen wollen oder wartet ihr alle auf Bier und Oliven? Man kann auch einfach eine Frage stellen. Ja, wartest du vielleicht, ich weiß nicht, haben wir noch ein Saalmikro? Ach, du hast schon eins, okay, alles klar. Gut, dann wird es sicher auch gleich hochgezogen. Verstanden, habe ich das. Wärst du so nett und stellt sich kurz vor, damit wir wissen, woher dieser Zwischenruf kommt? Okay, Thomas Senkel ist mein Name und ich bin Oologe hier in Berlin. Ich würde gerne wissen, die Segmentierung soll ja vorteilhaft sein, das hat, ich glaube, Andreas gesagt für die Radiologen, aber gleichzeitig gesagt, dass es keine Diagnose-Software ist. Wie lange wird es in Dauern bis es in Diagnose-Software wird? Oder vielleicht noch nachgeschoben, ist es nicht doch schon eine Diagnose-Software und ihr spart dem Arzt den nazistischen Schmerz die Kränkung? In dem ihr das so hübsch formuliert. Also, wir planen tatsächlich Software zur Segmentierung zu konzipieren. Eben, der nächste Schritt ist nicht eine Diagnose-Software, sondern sind andere vergleichbare Kollektive. Das heißt, wir gehen dann von der Prost-Sata über zu Brust und Lunge, was die beiden häufigsten Krebserkrankungen sind in Deutschland. Aber ich glaube, die Frage war ja dann eben doch, wird mein Job überflüssig? Entschuldigung, etwas popularisiert, vielleicht. Natürlich besteht die Gefahr, keine Frage, aber ich habe gerade schon das Wort Mystifizierung verwendet und Demystifizierung in dem Zusammenhang, nur weil wir jetzt das ganze künstliche Intelligenz nennen oder weil das ja im Prinzip ein Sammelbegriff für verschiedene Berechnungsformen heißt das ja nicht, dass wir damit eigentlich was ganz Neues machen. Im Grunde macht die Software genau das Gleiche, wie es vorher auch schon war, sondern sie macht es eben ein bisschen besser. Wir planen jetzt aber nicht eine Software zu entwickeln, die eventuell noch auf eine digitale Krankenakte zurückgreifen kann. Das sind natürlich faszinierende Ideen, aber für mich, ich persönlich bin da einfach vorsichtig, also für mich hat das nicht so. Entschuldigung, finde ich auch in dem Bereich künstliche Intelligenz in der Medizin ein wichtiger Stichwort, denn ich finde ehrlich gesagt das Wort künstliche Intelligenz schon irre für und dann die Maschinen oder die Algorithmen, die ich entwickeln, sind nicht in dem Sinne intelligent, die können berühmt auf Daten Schlussfolgerungen ziehen und Zusammenhänge lernen, die können aber nicht reflektieren, die können nicht flexibel reagieren, wenn man was unvorhergesehenes kommt. Viele Algorithmen, wie soll ich sagen, die können schon nicht mehr weiterarbeiten, wenn ein, zwei Informationspunkte fehlen, also in der Patientenakte beispielsweise eine gewisse Information fehlen. Und auch wenn Algorithmen etwas lernen können sie nicht, hatten sie nicht irgendwie Weltwissen oder Allgemeinwissen, dass ihnen hilft, zu realisieren, dass sie jetzt was gelernt haben, was Murks ist. Zum Beispiel gab es in den 90er Jahren eine Studie, das war schon länger her, in dem regelentwickelt wurden, Algorithmus entwickelt wurde, um verheiratet zu sagen, ob jemand mit Lungenentzündung ein hohes Risiko hat zu sterben und dann wurde halt überlegt, wo der Patient als nächstes hin. Und aus den Algorithmus gelernt, dass wenn jemand Asthma hat, hat er eine geringere Wahrscheinlichkeit, dass er stirbt bei einer Lungenentzündung. Da haben dann die Ärztin die Entwickler drüber geguckt und gedacht, das kann ja überhaupt nicht wahr sein. Das ist einfach, da muss was falsch sein. Und dann halt mit dem Weltwissen und dem Kontextwissen, dass die Ärztin die Entwickler hatten, realisiert, dass das daran lag, dass die Patienten mit Asthma, die mit einer Lungenentzündung kamen, ein Risiko hatten. Aber so was muss man als Arzt oder als Entwickler halt wissen und solche Kontextinformationen können Algorithmen eben genau nicht berücksichtigen, sie können nicht reflektieren. Deswegen Entmistifizierung finde ich immer gut. Das heißt, um es vielleicht für die Ärztin oder die angehenden Mediziner im Publikum noch mal runterzubrechen, die können ihr Studium ruhig fortsetzen und ihren Beruf weiter ausüben oder müssen die sich so machen. Das ist das, was ich vorhin an der Stelle Datatrust hatte. Da würde ich gerne noch mal, und du zucktest auch schon, die Forschungsministerin Frau Wanker sagt, in der nächsten Legislaturperiode, und da ist sie und ihre Partei hat ja gute Aussichten, da wieder mitzuwirken, sagt, es soll einen Vorschlag geben für eine unbestächtliche Einrichtung. Das ist das Wort in dem Zusammenhang, eine Einrichtung, die diese sensiblen Daten hüten soll, die sie in einem anderen Land oder man entweder auch nur auf irgendeinem Paper so was wie minimal Anforderungen an diese Einrichtung. Vielleicht noch mal, wenn ich darf, ganz kurz zu dem Punkt von eben, dann komme ich darauf gleich zurück, weil das ein extrem spannender Punkt ist, mit dem wir uns im Bereich Ethik und Recht sehr auseinandersetzen, wenn es um künstliche Intelligenz in Anführungsstrichen geht. Wenn man sich fragt, wir sind rechtlichen Folgerungen daraus ziehen, wollen und Vorschläge machen, und einer der Vorschläge, die da im Raum stand in dieser Europaratsarbeitsgruppe war, wir schlagen auf jeden Fall vor, es muss immer letztlich ein Mensch entscheiden. Das klingt auf den ersten Blick gut, aber auf den zweiten Blick, wenn man sich die Entscheidungssituation anguckt, ist das wirklich der entscheidende Unterschied. Also wenn die Systeme so gut sind, kann sich ein Arzt erlauben, davon abzuweichen. Da haben wir als Juristinnen und Juristen auch wieder gesagt, wenn die Haftungsregeln so sind, dass man dann sagt, du hast von diesem Experten-System den Vorschlag nicht aufgegriffen, sondern eine andere Diagnose gestellt und therapiert auf der Grundlage deiner abweichenden Diagnose, begebe ich mich denn nicht in ein Haftungsrisiko. Und dann ist diese Unterscheidung zu sagen, Algorithmus entscheidet gar nicht, die Systeme entscheiden gar nicht, das macht doch letztlich der Arzt, denn vielleicht gar nicht mehr so valide, das stimmt zwar formal, aber praktisch ist es gar nicht so. Das haben wir in anderen Bereichen genauso. Das ist bei Smart Weapons und anderen, wo alle fordern, das muss aber letztlich noch ein Mensch entscheiden. Denn die Entscheidungssituation so ist, dass ich als Mensch gar nicht mehr so richtig davon abweichen kann. Aus Haftungsfragen, aus Zeitgründen oder was auch immer, denn entscheidet möglicherweise die, das System, das dahinter steht, doch letztverbindlich. Und das finde ich ist eine Sache, über die man Entmystifizierung teilig voll die Entscheidungssituation anguckt und so auf wie kriegen wir das hin, dass die entscheidenden Menschen wirklich noch eine Entscheidung frei treffen können. Und da spielen so was wie Haftung eine Frage, eine Rolle. Aber zurück zu dem Punkt mit dem... Die sensible Einrichtung, die unbestätigte Einrichtung. Ja, also ich fand dieses Beispiel, was du gebracht hast aus der Schweiz in Dreierlei Hinsichten interessant. Das eine ist das Thema Geld. Also kann ich für meine Daten Geld bekommen? Das ist, glaube ich, tendenziell übertrieben. Ich finde die Idee recht, also nicht nur hier, aber auch in anderen Bereichen, sich das zu überlegen. Da darf man sich aber keine übertriebenen Hoffnungen machen, was jetzt das einzelne Datum letztlich maglich wert ist, also dass man da viel rausholen kann. Der zweite Punkt ist der, und den finde ich hochgradig interessant, dass man Institutionen schafft, also dass man nicht nur die individuelle Einwilligung hat, es ist irreal zu glauben, dass irgendjemand, der einmal eine Gewebeprobe abgibt, die vielleicht immer wieder nutzbringend ist in der Forschung, zu jeder neuen Forschungsfragestellung, die da eine informierte Einwilligung gibt und sich anguckt, was machen die dann da und will ich das oder will ich das nicht und zu sagen, da hat man Institutionen, da hat man solche Trustcenter oder sowas, die ich das delegieren kann und dir sage, den traue ich und deren Entscheidung soll für meine personenbezogenen Daten gelten. Wem würden wir denn trauen, dem Gesundheitsministerium? Wem trauen wir? Im Raunen hier entnehm ich, dass das dafür jetzt keinen breiten Konsens gibt, was das angeht. Es gibt Überlegungen oder vielleicht auch schon Umsetzung, das weiß ich nicht genau in den USA. Da ist es eigentlich mehr so eine Mischung aus Experten und gesellschaftlichen relevanten Gruppen, Watchdogs, die sich mit diesem Bereich auseinandersetzen, Datenschutzaktivisten, die das machen, Leute, die sich in der Medizin Folgenabschätzung auskennen und solche Leute. Aber da gibt es jetzt noch keinen soweit, ich weiß kein festes System. Die würde ich mal zu den Experten zählen, die Charité Ethikrat, sicher? Sicher? Gut, aber der Ethikrat berät, der entscheidet nicht. Ja, bei dem kann ja eine weitere Funktion zukommen oder Mitglieder des Ethikrates in so einem Trustcenter. Also ich finde diesen Gedanken interessant und der zeigt noch einmal, dass nach meiner Auffassung unser Datenschutzkonzept eine Ergänzung braucht. Ich würde nicht sagen, dass das nicht mehr geht komplett, aber diese Vorstellung jetzt jeder könnte seinen Datum, seinen Gesundheitsdatum komplett kontrollieren in allen Wegen. Das wird nicht gelingen. Man braucht wahrscheinlich ein zweites Sicherungsnetz und das kann in solchen Mechanismen liegen wie hier in diesem Trust-Bereich. Das redet auch schon mal kurz über die Rolle der Behandelten Ärzte. Ich würde gerne noch mal auf die Patientenperspektive kommen. Welchen Unterschied macht es denn aus Patientensicht, ob der Arzt oder eine intelligente Maschine mich diagnostiziert? Lassen wir die Gewichtung, wer da das letzte Wort hat, mal offen. Wer von euch möchte antworten, ich habe es gar nicht für jemanden speziell vorgesehen. Ich kann da auch nicht direkt antworten, dass unsere Software eben nicht so planen, dass sie eine Diagnose gibt eigentlich in der Form. Bei uns ist es tatsächlich so gedacht, dass der Arzt eher mehr Kapazitäten haben soll, um die Diagnose selber geben zu können. Die Befundung, die durch unsere Software gemacht wird, ist eben höchstwahrscheinlich präziser als die, die er angefertigt hätte. Er hat einfach nur eine bessere Grundlage, eine bessere Datengrundlage um die richtige Entscheidung zu treffen und mehr Zeit mit den Patienten. Das heißt, ist dieses Bild, das ich jetzt in der Vorbereitung vielfach gelesen habe vom Piloten durchaus 1, wo ihr sagen würdet, der Vergleich hinkt nicht. Vielleicht fliege ich nach Mallorca und vielleicht werde ich zu 98 % vom Autopiloten geflogen. Aber wenn es nottut, greift der Flugkapitän ein. Findet ihr dieses Bild zulässig? Oder sagen wir mal, das ist so, das ist so, das ist so. Findet ihr dieses Bild zulässig? Oder sagt ihr, nee, das backelt und quetscht? Ich finde es wackelt und quetscht. Denn ein wichtiger Punkt in der Medizin finde ich den, dass klar die Diagnose kann unterstützt werden durch künstliche Intelligenz, durch gute Entscheidungshilfen. Nur ein ganz wichtiger Punkt ist auch die Therapie. Und wenn ich jetzt als Patient eine Behandlung brauche, dann wissen wir auch aus der psychologischen Forschung, wie wichtig das Verhältnis zwischen Arzt und Patient ist und auch diese persönliche Beziehung damit es den Leuten schneller besser geht. Wenn ich aber ins Flugzeug sitze, habe ich mit dem Kulut nichts zu tun, außer dass er mal was über die Sprechanlage saubt. Hattest du auch immer ein Leben an? Das ja, und dem Arzt auch. Also da passt schon. Aber ich finde, dass man das in der ganzen Diskussion nicht vergessen darf, die menschliche Komponentin zwischen Arzt und Patient. Wenn man jetzt immer sagt, Maschinen werden näher zersetzen, die menschliche Komponentin sei es jetzt mit Ausrufpflege. Also die Autopilot-Meta verhinkt natürlich sicherlich. Aber ein Punkt ist, glaube ich, ein Bedeutsamer, nämlich dass man sich in den Ausbildungssystemen, wo jetzt künftig Systeme künstliche Intelligenz eine zunehmende Rolle spielen. Die Leute fit macht dafür, dass sie sich nicht hundertprozentig darauf verlassen. Also der Pilot muss viele Landungen auch nochmal selber machen und das System überlassen, damit er das nicht verlernt. Solche Mechanismen mit einzupreisen ist, glaube ich, bedeutsam. Und ich vermute mal, dass das auch getan wird, je mehr solche Diagnose-Hilfen eingesetzt werden. Aber das scheint mir wichtig zu sein, vor allen Dingen, wenn wir das Ziel haben, und das haben wir ja hier offenbar alle, dass man sagen, der autonom entscheidende Arzt muss das Zentrum bleiben. Und der kann Hilfsmittel bekommen, aber dessen Entscheidung darf nicht sein. Deshalb ist es wichtig, dass wir diese Themen breit diskutieren, gerade in diesem Bereich Gesundheit, dass der Arzt mehr Freiheit bekommt dadurch, dass er die Hilfen hat. Das ist nicht gesetzt, sondern es kann auch sein, dass die Systeme, Krankenversicherung, kassenärztliche Vereinigung dann sagen, dann kriegt er ja wieder einen kleineren Slot, um diese Diagnose zu machen. Da kann das System insgesamt Geld sparen. Das ist das, was die Ärzte natürlich sind. Und die Wünschenswert sind natürlich, dass er erlastet wird, dass man jetzt auch in Wuppertal nicht mehr Tausende von einzelnen Bildern angucken muss, sondern das viel schneller machen kann. Aber dass dieser Gewinn tatsächlich der Arzt-Patienten-Beziehung zugutekommt, das ist etwas, was erstritten werden muss, glaube ich, was nicht von selbst kommt. Dann würde ich da tatsächlich mehr Zeit für seine Patienten durch diesen Assistenten investern, vielleicht lieber. Da habe ich mich gefragt, die Radiologen zählen nun zu den bestverdiensten Ärzten überhaupt. Wenn du eine gut laufende radiologische Praxis hast, dann hast du die Lizenz zum Geld drucken. Wäre dann also für mich als Radiologin der Anreiz euer System zu buchen, ich schleuse mehr Leute durch und verdiene mehr Geld? Nein, ne? Das, was er gesagt hat. Nein, also natürlich, natürlich besteht die Gefahr und weiß nicht, wer das Maschinenfragment von Marx gelesen hat, der wird natürlich behaupten, dass zur Kürzung von Stellen führen wird. Vielleicht nicht alle Radiologen, ich weiß es nicht, wenn jemand um zu nahe treten. Ja, das ist natürlich ein Problem. Man muss sich halt fragen, welche Probleme, also was ist das Problem, das dem zugrunde liegt und ist das ein Problem, dass ich in meiner Situation, ich bin ja hier jetzt tatsächlich als Unternehmer, ich kann daran nicht wirklich was ändern so in der Form, wie die Radiologie Praxis jetzt damit umgeht. Das ist vielleicht ein Problem, das aus einem anderen Diskurs heraus gelöst werden muss. Wenn man sagt, dass die Krankenkassen sagen, so Freundchen, dann wird der Behandlungssatz gekürzt. Ja, oder man muss sich fragen, gibt es Radiologiepraxen, die vielleicht weniger auf Profit sich konzentrieren wollen und mehr auf Marx. Okay, die Hoffnung stirbt zuletzt. So, ja, gerne. Also, wie nehme ich aus Patientensicht ein Arzt wahr, deren Entscheidungshilfe in Algorithmus benutzt und da, glaube ich, gibt es auch bei der Allgemeinheit noch einen gewissen Wernweg, den wir alle gehen können, denn viele Leute, viele Patienten nehmen Ärzte weniger ernst, wenn sie realisieren, dass Ärzte Hilfe, Entscheidungshilfe in Algorithmus benutzen und da, denke ich, gibt es auch noch Aufklärungsbedarf unter der Algorithmusbevölkerung. Das ist eine künstliche Intelligenz und was bedeutet das Zusammenspiel von Arzt und Maschinenreben von Arzt und Entscheidungshilfe in dem Moment und auch eine gewisse Umbewertung, wenn Arzt gute Entscheidungshilfen benutzt, die gut natürlich hier groß getestet wurden, bei denen getestet wurde, ob sie in der Praxis wirklich zu einer Verbesserung für die Patienten führen, dann ist es ein besserer Arzt, nicht ein schlechterer Arzt. Und da schlussendlich auch ein bisschen vor den Maschinen. Ja, tatsächlich ist das ja in gewisser Weise sehr widersprüchlich. Ich las über eine Studie, gute Studien gibt es zu einem möglichen, diese besagte, dass ich glaube, der Mehrteil von befragten Menschen sagt, ich möchte meine Daten nicht hergeben für solche Programme, selbst wenn ich damit eine bessere Diagnose bekommen würde, was mich sehr überrascht hat, war in der Frage formuliert offenbar. Und zum anderen ist es ja so, wenn ich jetzt zu einem Arzt gehe oder zu einer Ärztin und die sind hoffentlich fit und halten sich fit und sind auf dem Laufenden dann konsumieren, die entsprechende Fachzeitschriften in gewisser Weise Daten. Also Studien sind ja nichts weiter als gesammelte, bewertete Daten, die ja auch nicht jeder Arzt selbst erhoben hat und den Befund von meiner Gewebeprobe macht auch wieder ein Labor und nicht der Arzt, bei dem ich da bin. Kannst du vielleicht als Psychologin erklären, woher dieser Widerspruch kommt, also diese Widerständigkeit oder Zurückhaltung, obwohl ja ein klarer Eignutz da ist und das im Grunde ja kein radikaler Bruch ist mit dem System, wie wir es kennen. Nie hatten Arzt alles selbst erforscht und alle Daten zusammengesammelt. Er guckt notfalls auch im Psyremble, was irgendwas bedeutet. Da würde ich mir jetzt vorstellen, dass sie nicht wohnen, dass irgendjemand weiß, welche Diagnose oder Behandlungen sie schon gekriegt haben und dann sagen sie, nein, will ich nicht. Häufig ist es aber so, dass wenn Patienten wirklich ernsthafte Krankheiten kriegen, dass sie dann sehr motiviert sind, ein Studienteil zu nehmen, um die Situation zu verbessern für Leute wie sie für sich selber und auch durch Therapien, die es erst innerhalb von Studien gibt, sich eine Verbesserung ihrer eigenen Gesundheit erhoffen. Ich glaube, das ist auch eine Frage der Perspektive, die die Person einnimmt, wie verrückt ihr definitiv auch. Ich kann mir vorstellen, dass ihr vielleicht noch Fragen habt oder sagt, redet doch mal über diesen Aspekt, weil das natürlich wie immer ein Universum ist. Da sehe ich zwei Handzeichen und ich weiß, es gibt ein Seil Mikro. Pass auf, es kommt schon zu dir gewandert. Und gerne auch eine Vorstellung kurz, damit wir wissen, aus welcher Perspektive ihr sprecht. Ihnen ist Heinrich von Konilsens Verlag hier. Ich würde mich interessieren, ob es vielleicht nicht morgen, aber vielleicht übermorgen auf eine Zwei-Klassengesellschaft bei der Untersuchung rausläuft. Also der eine bekommt dann die Untersuchung mit der Maschine und wenn er noch will, dass dann Arzt drauf guckt, muss er leider noch mal was drauflegen. Das wird vielleicht so nicht gesagt, aber es läuft vielleicht darauf hinaus. Also, dass die Maschinen immer schneller lernen, sehr wohl Diagnosen entwickeln und wenn ich jetzt auch noch möchte, dann wird es halt teurer. Könnte das passieren? Ist das eine Frage an eine bestimmte Person oder an die Wunder? Wahrscheinlich noch an den Herrn für den Datenschutz, dass der halt sagt, nee, das ist eigentlich nicht vorstellbar, dass das rechtlich dahin läuft, dass das zulässig ist. Wolfgang, du bist der Herr mit dem Datenschutz. Ja, er sich unbedingt, dass das aus den datenschutzrechtlichen Gesichtspunkten heraus erklärt werden kann, dass er eher medizinpolitische Frage, ob das tatsächlich dazu kommen kann oder nicht, das ist schwer zu sagen. Dass es einen Druck dahin geben kann, zu sagen, die Standardleistung ist hier bei einer bestimmten Standarddiagnose eigentlich eine, die maschinell gemacht werden kann. Das kann ich mir persönlich schon vorstellen, ohne dass ich das jetzt durch Studien stützen könnte. Das haben wir bei anderen Sachen ja auch, dass man sagt, eine bestimmte Sache ist der Standard der allen Versicherten zur Verfügung gestellt werden. Und das, dass der Standard-Gestand ist, nachdem man hier etwa diagnostisch vorgehen kann und dass wenn man was Zusätzliches haben will, das ist dafür bezahlt. Aber solange man medizinisch sagen würde, es muss auch ein Arzt oder eine Ärztin da drauf schauen, damit vernünftig entschieden werden kann, wäre das doch eine extreme Abkehr von dem Grundsatz, den wir im Augenblick in der Medizin haben. Und die zweite Frage. Und was mir von rechts außen etwas anklang, und dafür bin ich sehr damper, es war so eine Art romantischer Medizin. Die ist völlig vergessen und verlassen. Wir leben heute in einer Gesundheitsindustrie und wenn sie Entscheidungshilfen anbieten, werden die Kollegen sicherlich gerne annehmen. Auch die Radiologen werden schnellere Diagnosen fertigen, vielleicht auch besser, aber sie werden sich nicht im Patienten mehr zuwenden, sondern längst vergessen haben, das war die letzte Generation, sondern sie werden mehr Diagnosen produzieren oder in einem engeren Zeitfenster gehalten, wenn sie in einer Gesundheitsindustrie beschäftigt sind, die man heute Krankenhaus nennt. Und die Produktionsmittel, die dort angeschafft sind, nicht von dem Radiologen in der Burrportaler Praxis, sondern von den großen Versorgungshäusern, der haben sie sich längst entfremdet. Das heißt also, die Karl Marxische Theorie ist richtig und die Medizin mehr, sondern wir haben eine entfremdete Medizin und glauben sie nicht, dass der Radiologe mehr mit den Patienten sprechen wird, sondern er wird nach dem nächsten Patienten rufen, weil davon seine Verdienste abhängen. Was kann man denn dagegen tun? Sie müssen eine ganze Generation zurückdrehen und die jungen Leute auch fordern, umzudenken. Heute ist Versorgung Zuwendung immer noch oder sollte so sein und in Wirklichkeit ist es Entfremdung. Die gehen immer mehr weg von den Patienten. Ist das wirklich der Fall, dass man quasi die Generation zurückdrehen muss oder ist es nicht doch, wie Sie eingangs dachten, die Frage der Fallpauschale, unser Gesundheitssystem, funktioniert jetzt nicht mehr damit, dass ich mir dich und dich und dich angucke, sondern dass ich Ziffern finde, mit denen ich abrechne und da sind Zeiten und die Zuwendung, in welchen Maße die Stadt findet, eingepreist. Das ist eine Frage von intelligenter oder smarter oder technologischer Assistenz als vielmehr eine gesundheitspolitische Frage. Ja, das ist so. Mein Nachbrenner hat gerade gesagt, das ist richtig. Was hat sie gesagt? Diagnose-related groups. Okay, gut. Das widerspricht mir gar nicht. Das ist völlig richtig. Im Gegenteil, das führt zusammen. Wenn ich das so sagen darf, ich will es nun jetzt! Vielen Dank. Danke für die Blumen auch, sehr schön. Danke sehr. Was machen wir damit? Das Tudest mild das du entwickelst als Baustein in einem Entfremdungs-Szenario gesehen, wo jetzt gar nicht Vernetzung oder Ausschlag geben dafür ist, sondern einfach die Art, wie wir den kranken Menschen in die Praxis kommt, angucken. Der Arzt ist gehalten, ihn so anzugucken. Ja, also Sie haben absolut recht, das ist ein sehr romantisches Bild von einer Medizin, das ich hier gemalt habe, die dadurch möglich wird. Allerdings kann ich natürlich jetzt auch nicht eine gesamtpolitische oder gesamtgesellschaftliche Entwicklung der Entfremdung quasi aufhalten in der Form. Also ich denke, dass unsere Software in erster Linie eine ganz normale Befundungssoftware ist, die jetzt nicht das gesamte Gesundheitssystem umkrempeln wird in die eine oder andere Richtung. Wolfgang, du regst dich, du regst dich auch mehr. Ich denke, die Frau hat nicht wahnsinnig viel mit Entscheidungshilfen oder künstlicher Intelligenz zu tun, sondern damit auch, womit können Ärzte ihre Geld verdienen. Und sie können es auch leider vor allem mit Tests verdienen. Das heißt, jetzt eine Entscheidungshilfe benutzen in der Zukunft oder aktuellen medizinischen Tests und wenig mit Gesprächsführung. Das heißt, was sich im System ändern müsste, wäre, dass die Gesprächsführung, die Diagnosestellung der Gesprächsführung zwischen Außenpatient besser bezahlt wird. Das heißt, damit haben wir dann vielleicht auch ein anderes Problem gelöst, das du vorhin angesprochen hast. Landärzte in Mecklenburg-Vorpommern oder so gibt es dann auch wieder mehr, wenn allein die Zuwendung mit einer Ziffer belegt ist und nicht nur die Behandlung und der Einsatz eines Apparates? Das wäre zumindest zu hoffen. Ich würde gerne noch, weil uns wie immer hier im Saalung die Zeit davon rennt, noch mal ein ganz anderes Szenario aufmachen. Im Grunde bräuchten wir hier in der Runde noch einen Onkologen aus Heidelberg oder so, weil die Sperrspitze der Bewegung, über die wir jetzt diskutieren, ist die Krebsforschung. Alles, was da möglich geworden ist, ist molekularbiologisch tatsächlich den Tumor, den dieser Patient hat, zu behandeln. Jeder Patient, jede Patientin hat einen anderen. Man kann zwar sagen, das ist Leukämie, aber wie die dann aussieht bei einer 17-Jährigen oder einem 58-Jährigen mit denen und den Lebensumständen, ist halt sehr, sehr unterschiedlich. Früher hat man, also ich vereinfache stark Chemo draufgekippt und geguckt, was passiert, vielleicht hilft es ja. Dem Menschen hilft dies und kann das sehr genau nachhalten und kontrollieren. Jetzt hat die NZZ, das fand ich ganz spannend, in diesem Sommer folgendes Szenario entworfen, im Artikel für das Jahr 2050, nicht mehr so langehin. Wir alle haben, ich glaube, du sprachst das, das wollen wir auch schon mal kurz an, medizinische Avatare, also virtuelle Doppelgänger und alles, was an Genanalyse bei uns stattfindet, Blutwerte, diverse Scans und so weiter, wird da eingespeist. Meine Lebensumstände auch, rauche ich, rauche ich nicht und so weiter mache ich Sport, mache ich Kein. Das alles fließt ein in meine virtuelle Doppelgängerin und ich bekomme auch Prognosen. Also bei dir ist eine Wahrscheinlichkeit für Brustkrebs in dem und dem Alter. Das kann dann unter Umständen ziemlich genau vorhergesagt werden, dann gibt es verschiedene Behandlungsoptionen, auch die werden durchgespielt und geguckt, welche funktioniert denn an der virtuellen Doppelgängerin und wie man sich das besten. Und das Programm gibt natürlich auch Tipps zur guten Lebensführung. Was passiert denn, mal angenommen, das alles stimmt, so Masse und Menos. Was passiert denn, wenn ich diesen Empfehlungen nicht folge, einfach weiter rauche und Pommes schranke essen, statt Yoga zu machen und Chiasamen zu knabbern. Schmeißt mich meine Krankenkasse raus? Ja, aber wenn tatsächlich diese Daten erhoben werden, ich hoffe, dass meine Krankenkasse nicht im Detail weiß, dass ich sie zu und lasse. Wenn diese Daten alle erhoben werden, was bedeutet das für mich? Ich zahl mehr, ich fliege raus, ich muss mich privat versichern mit einem viel höheren Satz, in den mein Risiko eingespeist wird. Ich hatte ja vorhin schon mal angedeutet, wenn ich anfangen darf, dass der Druck auf das Solidaritätssystem kommt, ist nachvollziehbar. Das wird nicht dahin gehen, dass das vollständig ausgehebelt wird, weil Versicherungen leben ja davon. Insofern gibt es wahrscheinlich nur Tendenzen dazu zu sagen, ich will dir andere Produkte anbieten, teurere, du kriegst diesen günstigen Tarif nicht, weil wir festgestellt haben bei Betrachtung deines Avatars, dass die Lebensführung die Wahrscheinlichkeit gegenüber dem Durchschnitt umso viel erhöht, dass du diese oder jene Erkrankung bekommst und dementsprechend musst du in den Solidar-Topf mehr einzahlen. Dass der Druck in diese Richtung geht, ist nachvollziehbar. Es gibt Länder, in denen das schon stärker von Krankenversicherung getan wird, als das in Deutschland der Fall ist. Damit werden wir rechnen müssen. Eine zweite Frage, die auch diskutiert werden sollte, in dem Zusammenhang ist, das eine ist, die Krankenkasse weiß das, aber will ich das wissen? Muss ich das wissen? Es gibt ein Forschungsprojekt, das ich sehr interessant finde, das ich mit dem Recht auf Nichtwissen auseinandersetzt. Das ist die Wahrscheinlichkeit, dass Ihnen etwas passiert, etwa im gesundheitlichen Bereich nicht wissen wollen und ein Leben führen wollen, ohne das mit für sich reflektieren zu wollen. Das ist vielleicht für den einen oder den anderen ungewöhnlich, der eher sagen würde, ich will das wissen, ich will gerne selber denn auch etwas tun können und die Wahrscheinlichkeit wieder zu senken, dass mir das passiert, aber das andere ist auch eine völlig legitime Art und Weise da sein zu setzen. Und ich glaube, mit der Frage muss man sich auseinandersetzen. Das ist meine fulminante Schlussfrage, die du jetzt schon schön anmoderiert hast. Vorher würde ich aber gerne noch mal auf etwas anderes kommen. Vor drei Jahren gab es großen Alarm, um Google, die da sagten, genau solche Vorhersage, Instrumente entwickeln zu können per Nanomedizin, also die entsprechenden Beobachter oder dann auch Medikamente in meinen Körper zu schicken, die feststellen, oh Achtung, in acht Monaten wird bei dir irgendeine Form von Krebsmanifest oder so. Man hört nichts mehr davon. Wisst ihr, wieso? Also, fanden es die Medien langweilig? Stockt die Entwicklung? Wir nehmen auch Vermutung. Ich würde raten, dass die Entwicklung gestockt, das ist doch schwieriger als gedacht, aber ich weiß es nicht. Wir machen von unserem Recht auf Nichtwissen gebraucht. Ich kann mir auch vorstellen, dass sich niemand dafür bereit erklärt für solche Tests. Das ist doch auch sehr schwer vorstellbar, dass sowas gesellschaftlich angenommen wird. Ich glaube, in dem Moment, wo du mit dem utilitaristischen Nutzen argumentierst und sagst, was du vorhin sagst, in einer bestimmten Situation, ist das für dich gut? Für dich genau ist das, du stehst jetzt unter so einem Leidensdruck, was dich selbst dein Kind eine liebe Person betrifft. Bist du vielleicht doch bereit? Weil sterben wirst du so und so, vielleicht hilft es dir. Ich glaube aber nicht, dass Leute, die in diesen Notsituationen für die Tests, also zur Entwicklung dieser so einer Software bzw. Hardware, gefragt werden würden. Aber ich begebe mich da auch auf glatt als, wenn ich da jetzt. Wolltest du noch einen Antwortversuch starten? Nope. Macht ihr auch von eurem Recht auf Nichtwissen und einem lauen Sommerabend gebraucht oder habt ihr noch Fragen? Bitte schön. Ich würde es vielleicht noch mal in der Blickin sagen, gibt es noch mehr oder wäre das die letzte Frage? Gibt es noch weitere? Gib mal ein markantes Zeichen, damit ich das gegen das Licht auch sehen kann. Okay, da sehe ich noch zwei weitere. Dann sammeln wir vielleicht mal die drei Fragen und geben die dann geballt ans Podium. Bitte schön. Ja, du haben als Wegland auch schon IT-Geschäftsbereich IT, also ein bisschen IT-Affin. Ich sehe bei dir, ich habe die Vornahme jetzt vergessen. Max. Ein Problem, das sehe ich das Problem, eure Software klassert ja vor und übergibt dem behandelnden Arzt so eine Art Vorschlag. Das mag in 1000 Fällen richtig sein. In 1001 nicht. Und soweit ich mich richtig entsinnere, ich komme so ein bisschen aus dem KI-Gebiet, lässt sich das ja nicht nachvollziehen, warum bei 1001 es nicht funktioniert hat. Aber der Arzt hat auf 1000 Richtige jetzt getippt und hat gesagt, das wird schon stimmen. Ja, das ist ein wichtiger Einwand auf jeden Fall. Also von der rechtlichen Seite kann ich dazu sagen, es ist eben ein Medizinprodukt der Klasse 1. Das heißt, keine Diagnose-Software. Das heißt, sie ist nicht entworfen als etwas, worauf sich der Arzt quasi berufen kann in der Form. Wird ihr aber mit der Zeit? Also ich meine, es ist jetzt in dem Fall wirklich ein Beispiel, wo Sie müssen sich das ja so vorstellen, die Software müsste dann tatsächlich ein komplett falsches Areal, wo sie das mal liegt, eine Gewebe vermutet, kennzeichnen. Das würde einem Arzt auffallen, weil ein Arzt weiß, wie ein Tumor aussieht. Also er bekommt ja die Slides, die Schnitte und sieht darauf die markierte Region. Bitte, jetzt sind wir gerade dran. Also wir diskutieren letztlich über die Haftungsfragen und über die Nachvollziehung. Das ist eine typische IT-Frage. Tausendmal richtig und beim 1001 mal nicht. Ärztliche Diagnosen sind immer Wahrscheinlichkeitsdiagnosen und wir erreichen die Tausend nie. Deshalb ist der Begriff Fehldiagnose auch eingeführt und ist viel häufiger als die Tausend Einste. Also seine Entscheidungshilfe kann man schon akzeptieren und muss man begrüßen. Sie machen uns sicherer diese Entscheidungshilfen. Aber Ihr theoretisches Beispiel mag richtig sein, aber es ist eben arg aus der Theorie gekriffen. Also die Wahrscheinlichkeit wird wahrscheinlicher, was ich mal so zu sagen. Ja, okay, okay. Gut, dann gab es da noch zwei Handzeichen, bitte schön. Kim Klee wollte selber mal psychologisch studiert, jetzt in der Politikberatung mit dem Hintergrund auch meine Frage, weil das ja jetzt gerade vor dem Plenum Leute mit ganz unterschiedlichen Hintergründen sind. Gibt es von Eurer Seite konkrete Forderungen, wo man sagt, das muss Politik tun oder vielleicht auch die Selbstverwaltung jetzt mit Blick aus einer ärztlichen Perspektive, um da vielleicht Problematiken auszuschließen oder Dinge einfach klarer geregelt zu haben? Ja, ich glaube der Data Trust und die Richtlinien waren ja durchaus schon angesprochen, aber keine Ahnung, gibt es da konkrete Vorhaben oder Forderungen für die nächste Legislaturperiode zum Beispiel? Ich meine, ein Punkt, den wir hier für nicht herausgearbeitet haben, ist, dass wir sagen, man darf das nicht einfach als Effizienzgewinne in das Medizinsystem einpreisen, sondern man muss versuchen, die Freiräume, die man gewinnen kann, an Zeit von Ärztinnen und Ärzten, dass man die dafür nutzt, dass die sich den Patienten zuwenden können. Das ist, wie eben gesagt, jetzt keine spezifische KI-Frage, sondern das ist eine Frage, die immer dann, wenn sich solche Effizienzgewinne stellen, glaube ich, beantwortet werden muss. Und das fährt eigentlich gut, wenn die Leute, die sich da in der Gesundheitspolitik verdingen, das sehen. Okay, da wäre jetzt natürlich die konsequente Nachfrage, welche Partei vertritt noch mal diese Forderung? Gut, Fragezeichen, okay. Es taucht im Valo Mart nicht auf, soweit ich. So, bitte schön. Genau, zusätzlich, also dieser Punkt, dass das Arzt-Patientengespräch mehr Zeit benötigt, das finde ich auf jeden Fall unglaublich wichtig in die Richtung, soll das gehen, politisch, aber auch informiertere Patienten, die sich auch gerne selber auf Dr. Google rumwühlen und schon mit einer gewissen Vorstellung von medizinischen Risiken reinkommen, die dann noch medizinische Risiken von verschiedenen Tests kommuniziert kriegen, die müssen auch die Möglichkeit haben, effektiv Risiko kompetenter zu werden. Aber auch im Zuge von künstlicher Intergrenz in der Medizin wird nicht vernachlässigt werden. Aber wie werde ich kompetenter und Risikokompetenter? Wo ist dieser VHS-Kurs, den ich belege, um dieses Zertifikat zu kriegen? Da können Sie mal auf Harding-Zentrum für Risikokompetenz gehen, online und sich dazu ein bisschen informieren in unterschiedlichen Bereichen. In der Schule muss das Thema größer werden, wir brauchen aber auch bessere Gesundheitsinformation, die die Patienten transparent über Risiken aufklärt und Ärzte, die darin geschult sind, Risiken zu kommunizieren. Sprich, an unterschiedlichsten Dingen kann man da ansetzen in der Schule, im Medizinstudium, aber auch in der Information, die verschiedene Spiele, ich denke auch ans Ichweg beispielsweise, entwickeln können und dann Patienten effektiv sinnvoll informieren können und eben auch die Situation, dass bei Dr. Google man auch schnell mal abdriftet, in ich sage mal komische Foren und Gefühle, wissen aufhängt in dem Deutschland auch einfach als Staat, beispielsweise eine zentrale Instanz effektiv hätte, die gute Gesundheitsinformation entwickelt und verbreitet. Okay, ich glaube, du wolltest auch noch auf die Frage antworten. Also erstmal vielen Dank für die Frage und ich finde es vor allem wichtig, dass sich die Politik ein bisschen innovativer und mit der Zeit mit Daten auseinandersetzt. Also wenn man sich anschaut, ich kann eigentlich meinen Smartphone heutzutage nicht benutzen, um eigentlich die Rechte an meinen Daten abzugeben. Und also zumindest die meisten Funktionen werden immer schwieriger zu nutzbar und gleichzeitig bin ich abhängig davon, dass mein Smartphone funktioniert. Und so verhält es sich auch so ein bisschen mit Daten im medizinischen Kontext. Ich glaube, dass grundsätzlich, dass Menschen das Recht haben müssen, ihre Daten zurückzubekommen, wenn sie sie haben wollen, zum Beispiel. Das wäre schon mal ein Anfang. Und die ganzen großen Unternehmen wie Google haben ihre Schlupflöcher gefunden, die von der Politik jetzt auch langsam gestopft werden müssen, denke ich. Okay, und dann bitte noch deine Frage. Noch einmal eine ganz praktische Frage, und zwar vor allem an Frau Jenny und Herrn Waschka. Wie testen Sie denn Ihre Entscheidungshilfen? Wie zeigen Sie also, dass Ihre Entscheidungshilfen tatsächlich Hilfen sind und nicht vielleicht doch öfter daneben liegen, als ein Arzt es individuell machen würde? Also wir sind noch in der Entwicklung. Kann das so noch gar nicht sagen. Bei dir? Ist es dann geplant vielleicht, sorry, dass ich noch mal reingredet habe, gibt es, also muss ja irgendeinen Plan geben, um zu zeigen, es ist tatsächlich... Ja, wie gesagt, wir arbeiten mit der Praxis da zusammen und da wird das Produkt dann erst mal für ein Jahr testet, um zu sehen, ob es angenommen wird, ob es funktioniert. Und dann wird es eben als eine Art Plug-and-Play-Lösung entwickelt und kann dann verfielfältigt werden. Also es ist ja im Grunde die Frage nach dieser Blackbox. Also diese unglaublichen Daten, mit der kann ich als einzelne Person überhaupt nichts anfangen. Vielleicht der Arzt, der mich dann behandelt, auch nicht, weil irgendein Programmierer hat gesagt, was da abgegriffen und verglichen und akkumuliert werden soll. Also wie könnt ihr nachvollziehen jetzt bei diesem Entscheidungsbaum, das ist mal eine sehr plastische Beispiele von dir Eingangs, wie könnt ihr nachhalten, dass dies auch bringen im Sinne der Patientin? Also die einfachen Entscheidungen, die wir entwickeln, sind gerade eben nicht Blackboxes, in dem Sinne, dass es Algorithmen sind, die so kompliziert sind, dass man die nicht verstehen kann, sondern das sind ziemlich transparent, die kann ich ja erstmal grafisch aufarbeiten und darstellen, wie wir grundsätzlich in der Entwicklung von den Entscheidungshilfen arbeiten, wie man in der Forschung eigentlich immer arbeitet. Wir arbeiten erstmal mit Krankenhäusern, mit Universitätsspitalern, Charité, Universitätsspital Basel beispielsweise und arbeiten mit denen zusammen, erarbeiten mit Entscheidungshilfen mit klinischen Datensätzen effektiv, also Studiendaten, jetzt nicht mal Routine-Daten, sondern Studiendaten, vergleichen die einfachen Entscheidungsbäume mit verschiedenen Standards, auch damit, was sowieso die Ärzte aktuell machen und gucken in den Daten, die wir zur Verfügung haben, wer die Entscheidungshilfe besser gewesen als der Arztentscheidung gefehlt hat und dann aber auch als verschiedene, ich sag mal, Standardstatistische und Maschinenlearningmodelle und im nächsten Schritt dann natürlich, wenn ich den einfachen Entscheidungsbaum hab oder auch verschiedene, dann wiederum klinische Studien, um den Entscheidungsbaum zu testen und zu gucken, ob er in der Klinik auch zieht. Das ist was, das wir erst planen, das sind für uns auch die nächsten Schritte mit dem Unspital Basel, ist auch was, was in der künstlichen Intelligenz in der Medizin viel zu wenig gemacht wird. Also werden häufig Entscheidungshilfen an Frauen-Daten getestet, an vorhandenen Studiendaten oder Routine-Daten, aber dann in der Praxis umgesetzt, ohne das auch wirklich zu begleiten, mit weiteren Studien, mit denen man dann auch zeigen kann, ob es den Patient flüssig was gebracht hat oder nicht, und in die Richtung wollen wir gehen und ich denke, werden auch viele andere gehen. Okay, vielen Dank. Ich hatte als letzte Frage auf dem Zettel, die ob man uns dieses Wissen überhaupt zumuten kann, was da möglicherweise demnächst möglich sein wird an Prognosen. Das hat aber Wolfgang freundlicherweise schon beantwortet oder zumindest ein Fingerzeig gegeben. Deswegen verlangt es jetzt die Schizophrenie unserer Alltagskultur von mir, dass ich euch auffordere, ungesunde Sachen zu tun, zum Beispiel Alkohol zu trinken oder Kohlenhydrate, völlig maßlos in euch reinzuschlingen. Es gibt allerdings auch Wasser für die, die das nicht tun möchten und dann anzustoßen auf fünf Jahre digitalen Salon. Auf unsere Gäste, vielen Dank. Ich finde, das war wieder so ein Beispiel für ein Salon, wo es jetzt nicht wahnsinnig viel Bief gibt und sich rechts außen und links außen irgendwie behakt, wo aber glaube ich doch eben drum viel Hintergrund und Sachen über die man nochmal weiter nachdenken kann, drinstecken, nicht nur Schlagzeilen, vielen Dank euch, dass ihr bei diesem Abend, wo man auch getrost im Biergarten sitzen könnte, hierher gekommen seid. Und ich hoffe, das tut ihr wieder. Am 27. September dann diskutieren wir nämlich völlig anderer Abteilung über das World Wide Web und über die Frage, wie kolonial, postkolonial oder ungerecht das Netz ist. Stay tuned. Tschüss.