 Guten Abend everybody. Einen schönen guten Abend Ihnen allen. Ich möchte Sie nun alle begrüßen im Namen der Bundeszentrale für Politische Bildung der BPP und des Alexander von Humboldt Instituts für Internet und Gesellschaft. Ich begrüße Sie zur dritten Vorlesung und Veranstaltung mit dem Titel Verangebung in der digitalen Gesellschaft. Das Ziel unserer Veranstaltungsreihe ist das Verständnis zu schärfen für die großen Veränderungen, die westliche Gesellschaften aktuell erleben. Was wir aktuell brauchen, meiner Meinung nach, ist eine gebildete und kritische Reflexion zu den sich sehr beschleunigt vorangehenden Veränderungen in der Struktur unserer Gesellschaft und auch zum öffentlichen Diskurs über diese Veränderungen. Zudem müssen wir uns auch über die Reaktion der Politik und der Einzelperson befassen, die damit einhergehen. Dabei sollten wir nicht vergessen, dass es unterschiedliche Art und Weisen gibt, Sinngebung in der Digitalisierung zu sehen. Und dass viele, wenn nicht alle dieser Art der Sinngebung heute überzeugend erscheinen, morgen schon ganz anders aussehen könnten und kurzfristig wirken könnten, kurzsichtig wirken könnten. Wenn wir uns ansehen, wie schnell die Themen Narrative und Thermologie sich verändern, dann wird es klar, dass, wenn wir unser Verständnis erweitern wollen von der Digitalisierung und ihrer Dynamik, dass wir dann einen Schritt zurücktreten sollten. Sie wissen vielleicht, dass die Sozialwissenschaft unterschiedliche Instrumente entwickelt hat, die diesen Schritt zurück, diese Reflexion, ermöglichen sollen. Aus diesem Grund konzentrieren wir uns bei diesen Veranstaltungen auf die Sozialwissenschaften, die einen theoretischen Ansatz vereinen mit empirischer Expertise im Hinblick auf unterschiedliche Aspekte der digitalen Gesellschaft. Elena Esposito, unser Gast heute Abend, befasst sich unter anderem mit dem Thema Zeit. Dazu gehören auch unterschiedliche Strategien der Gesellschaft voraus zu ahnen, zu antizipieren und die Zukunft zu steuern. Angesichts der vorhersagbaren Möglichkeiten, die wir haben, wir als Kritiker und Enthusiasten der Digitalisierung, verschreiben uns aktuell der neuen Generation von Algorithmen. Elena's Forschungsgebiet und ihre Herren ginsweise sind daher sehr aktuell. Aus diesem Grund sind wir unter anderem sehr froh, dass Elena unsere Einladung angenommen hat. Wir sind außerdem sehr froh, dass sie hier ist, da ihre Arbeit nicht nur originell und ganz erleuchten für uns ist, vor allem im Hinblick auf das Thema von heute, sondern wir finden ihre Forschungsergebnisse auch sogar amüsierend und unterhaltsam. Und nun möchte ich unserem Moderator Tobi Möller das Mikrofon übergeben, der Elena jetzt ganz ordentlich vorstellen wird. Vielen herzlichen Dank, Jeanette Hoffmann. Einer der Vorredner vom Humboldt Institut für Internet und Gesellschaft, du bist in dieser Position, danke ich dir für diese Einführung zu dieser Veranstaltungsreihe mit der BPB. Danke. Ich möchte heute etwas zur Struktur des Abends sagen, wir haben drei Teile für heute Abend. Zuerst gibt es die Einführung natürlich, dann haben wir ein Gespräch, ein Vortrag mit unserem Gast und danach gibt es etwa 30 Minuten lang eine Frage und Antwort, verzeigen eine Unterhaltung, die ich mit Elena führen würde und dann werden sie eingebunden. Sie können hier Teile haben auf zwei Arten und Weisen. Erstens können sie die Mikrofone im Publikum nutzen, wir reichen sie herum, denn dann können sie live Fragen stellen und außerdem können sie auf Twitter teilnehmen, das zeigen die hier nicht auf der Leinwand an, aber zwei Personen werden hier ihre Fragen über Twitter, die über Twitter Ankomfort lesen. Das heißt also wir können Fragen aus dem Twitterkonto benutzen, ebenso wie hier aus dem Publikum und ich denke, dass dies unseren Abend ganz unterhaltsam gestalten wird. Danach gibt es Getränke und ein paar kleine Snacks, beallen sie sich, denn das Essen ist meist immer sehr schnell weg. Das haben wir bei den letzten zwei Veranstaltungen dieser Reihe schon gesehen. Außerdem werden wir auch online sein bei AlexTV, einem lokalen Fernsehsender hier in Berlin. Wir werden auch auf ihrer Webseite und auf der Webseite der BPB höherbar sein und auch beim Humboldt-Institut für Internet und Gesellschaft. Also wir haben viel Überwachung hier heute Abend, wir sollten uns also gut benehmen. Heute werden wir uns mit vielen interessanten Gegenteilen befassen und Konzepten, die ideologisch aufgeladen sind und die vielleicht einander zu widersprechen scheinen. Systemtheorie und Transcendenz, Soziologie und Wirtschaft und göttliche Aspekte. Es geht also um Wissenschaft gegen Religion. Unsere Rednerin ist eine der bekannten Systemtheoretikerinnen von heute. Wenn Sie dieses Konzept kennen, wenn Sie einmal Soziologie studiert haben sollten oder auch Geschichte oder Literatur in den 90er Jahren oder später, wenn Sie sich also mit diesem Themen befassen, dann wissen Sie genau, wie aufregend das Thema von heute Abend wird. Niklas Luhmann und andere Personen haben sich mit der Demetigung der Systemtheorie befassen müssen, denn dieses Konzept ist auch dekonstruiert worden. Es geht aber nicht um das psychologische System, wie Sie wollen wissen, sondern auch um das soziale System. Es geht um die Analyse von Systemen, nicht um Ihre Interpretation. Es geht aber auch nicht um das Lesen der Bibeln. Es geht in der Systemtheorie darum, dass man sich mit dem Gegensatz von all dem befasst, was auf Glauben gegründet ist. So ist es oft mit der modernen Wissenschaft und dem Bereich Geistenswissenschaft. Wissenschaft ist es auch so. Das wird unser Gast heute Abend tun. Systemtheorie anwenden auf Vorhersagbarkeit. Vor allem, wenn es um göttliche Dinge geht, um die Weißsagen des Hellseins, sind Algorithmen keinen Ersatz für ein Gott. Was ist mit den Dingen, die Menschen nicht wissen können, aber ist Wissen das richtige Wort dafür? Wissen Algorithmen tatsächlich Dinge, können Sie lernen? So viel kann ich Ihnen sagen. Unser Gast wird heute oftmals diese Frage mit Nein beantworten, denke ich, aber sie wird ein bisschen Lichtaufwerfen auf, dass Konzept KI-Künstliche in den Intelligenz und Algorithmen und welche Rolle diese beiden Dinge spielen können bei der Vorhersagbarkeit der Zukunft und bei der Produktion von Zukunft. Die Priester der künstlichen Intelligenz werden natürlich auch kurz erwähnt werden. Sie kommt aus der schönen Stadt Bologna und eine weitere schönen Stadt liegt in der Nähe von Bologna. Das ist Modena. An der Universität von Modena hat sie nämlich studiert. Sie ist dort Professorin der Fakultät in Modena. Ich glaube, das haben Sie sicherlich alle verstanden, obwohl es ein italienischer Universitätstitel ist. Jetzt ist sie an der Universität in Bielefeld und befasst sich mit der Systemtheorie und forscht am Herzen der Systemtheorie, obwohl das vielleicht nicht ganz so passend ist. Sie hat ihre Doktorarbeit über Luhmann geschrieben, nachdem er damals bereits früh verstorben war. Sie hat ihre Habilitation in Bielefeld absolviert. Sie hat in verschiedenen Universitäten gesprochen, in New York und Japan. Sie hat unterschiedliche Forschungsthemen beackert. Das ist natürlich auch sehr gut für unsere Veranstaltung. Sie hat über Mode gesprochen. Heute wollen wir darüber nicht sprechen, aber Sie haben über Mode recherchiert. Die Verbindlichkeit des Verrübergehenden, Paradoxien der Mode im Jahr 2004 und dem Urkampferlag ist das Erschienen. Ein Buch befasst sich mit Erinnerung. Heute geht es um das Recht, vergessen zu werden. Vor allem ist dies ein geflügeltes Wort geworden, nach dem Eugier Urteils über Google. Sozialist vergessen ist auch in Japan. Erschienen, Formen und Medien des Gedächtnisses der Gesellschaft. Das ist der Untertitel des Buches. Ein weiteres Buch haben Sie veröffentlicht im Jahr 2007. Die Fiktion der wahrscheinlichen Realität war auch beim Urkampferlag erschienen. Ich bin mir sicher, dass wir heute Abend auch etwas über die unterschiede probabilistischer Tradition und der Präsenz algorithmischer Verhersagbarkeit lernen werden. Elena Esposito hat über Erinnerung, Mode, Verhersagbarkeit, das Göttliche und anderes gesprochen. Es gibt einen roten Faden, den wir bereits gehört haben von meiner Vorrednerin. Das ist das Konzept der Zeit. Die Zeit ist der rote Faden, der sich durch alle ihre Forschungsprojekte zieht. Das ist das Konzept der Zukunft. Es ist 2010 erschienen, kurz nach der Finanzkrise im Jahr 2008. Dann hat sich Elena Esposito auch mit weiteren Themen befasst. Nicht mit den Brokern, sondern mit den Algorithmen, die hinter den Brokern stehen. Heute sprechen wir über Zukunft und Unsicherheit in der digitalen Gesellschaft. Ich befreue mich nun aus Bielefeld und moderner Elena Esposito hier. Wir begrüßen zu dürfen. Vielen Dank. Die Bühne gehört ganz in. Vielen herzlichen Dank. Vielen Dank für die freundliche Einladung, für die wunderbare Vorstellung. Ich freue mich und es ist meine große Ehre, heute hier Teil dieser großen Veranstaltungsreihe zu sein. Das ist nämlich ein ganz faszinierendes Thema. Nochmals Danke für die Einladung. Worüber reden wir heute Abend? Nun, wir haben bereits gehört, worüber es heute Abend gehen könnte. Wir reden über die digitale Gesellschaft, über Zeitaspekte der digitalen Gesellschaft und über die Zukunft. Und wenn wir über das digitale Zeitalter sprechen, dann reden wir nicht nur über Menschen, sondern über Algorithmen. Was möchte ich mit Ihnen heute Abend besprechen? Es geht um die Zukunft von Algorithmen und wie sie die Zukunft vorher sagen können. Es scheint eine neue Entwicklung im Bereich Algorithmen zu sein, dass Google und auch andere Suchmaschinen und weitverbreitete Algorithmen sich seit einigen Jahren mehr mit der Vorhersagbarkeit der Zukunft befassen als mit der Verwaltung von Informationen. Das hat sich geändert. Es ist ein neuer Fokus dazu gekommen für Suchmaschinen. Es ist eine sehr subtil vor sich gegangen, aber in den letzten Jahren ist das sehr klar geworden. Besonders seit der Revitalisierung der künstlichen Intelligenz, wo Maschinen, Maschinen als Lernen und Big Data und Deep Learning miteinander kombiniert worden sind. Seitdem habe ich eine Revitalisierung dieses Konzeptes gesehen. Das wissen Sie alle hier. Aber in den letzten zehn Jahren ist dieses Konzept wiederbelebt worden. Und das Konzept und die Fähigkeiten von Algorithmen bringen ganz neue Ergebnisse hervor. Es gibt eine Kombination dieser Entwicklungen, Deep Learning und Big Data und das hat zu diesen Entwicklungen geführt. Künstliche Intelligenz ist auch sehr vielversprechend, besonders wenn es um Vorhersagbarkeit geht, denn Algorithmen werden uns dabei helfen können, die Zukunft vorher zu sagen. Es gibt die Vorhersagpara-Analytik oder Analyse, das ist ein Forschungsfeld und dabei geht es darum, die Struktur der Zukunft voraus zu ahnen. Es geht darum, wie man Strukturen entdeckt und unterschiedliche Strukturen sich erschließt. Aber die Probleme, die damit an den Hergehen sind zahlreich und viele davon sind sehr komplex. Es geht zum Beispiel darum, die künftige Trends und Entwicklungen hervor zu sagen, das sollte dabei helfen, die Nutzung von Ressourcen zu verbessern. Zum Beispiel, es geht darum, gezielte Werbung durchzuführen, das ist ein Beispiel. Man muss herausfinden, ob bestimmte Menschen sich für bestimmte Produkte oder Dienstleistungen interessieren könnten. Dass man ihnen zum Beispiel bestimmte Artikel beim Einkaufen vorschlägt. Aber auch im sozialen Bereich ist das wichtig. Wenn es gibt es Möglichkeiten, Betrug zum Beispiel im Bankensektor zu ermitteln oder Krankheiten zu verhindern. Sie alle haben sicherlich gehört von Präzisionsmedizin. Mit Algorithmen kann man jetzt zum Beispiel Krankheiten verhindern. Jedenfalls versprechen Algorithmen das. Aber es gibt auch andere Versprechungen, die realistisch erscheinen. Aber bei denen wir Skepsis haben, es geht zum Beispiel um die Abschreckungen von Polizei und Kriminalität und Polizeiaktivität. Es gibt viele versprechende Aspekte, aber auch einige Skepsis, die mit Algorithmen einhergeht. Natürlich ist das alles aufregend, aber es führt auch zu großen Sorgen. Interessant hier ist, meiner Meinung nach, dass die Sorgen und Nöte zum Thema Algorithmen und Vorhersagbarkeit nicht nur zu tun haben, mit dem, was der Tatsache, dass Algorithmen nicht funktionieren könnten, sondern mit den Fällen, wo Algorithmen tatsächlich funktionieren. Denn einerseits fürchtet man, dass Algorithmische Vorhersagbarkeit falsch sein kann, dass es grundlegende Fehler gibt. Das ist nicht das Eintritt, was vorhergesagt wird, aber andererseits hat man auch Angst vor richtigen Vorhersagbarkeiten. Wenn ein Algorithmus sich an seine Richtlinien hält und effektiv ist, dann hat man die Angst, dass es zu politischen Maßnahmen geben führen könnte, die dann dazu führen, dass es Maßnahmen gibt, die alle Menschen betreffen und auch die Entscheidungsfindeträger betreffen, die dann vorausgehende Maßnahmen ergreifen. Ich möchte mit Ihnen heute besprechen, wie diese beiden Aspekte interagieren. Nehmen wir eine neue Perspektive ein. Die grundlegende Idee, dass der Enthusiasmus über die Vorhersagbare Macht von Algorithmen und die Sorgen über die Folgen dieser Vorhersagbarkeit existieren, sind legitim und nicht legitim gleichzeitig. Enthusiasmus und Erwartungen schließen einander nicht nötigerweise aus. Ob das nun gut ist oder schlecht ist, die Vorhersagbarkeit von Algorithmen ist ganz anders als die Vorhersagbarkeitskonzepte, die wir kennen. Es geht darum, etwas vorherzusagen mit einer neuen Technologie, dass sich das erst in der modernen Gesellschaft des 21. Jahrhunderts funktioniert. Es geht um eine ideale Vorhersagbarkeit, die geleitet ist und vorausgeahnt werden kann. Und es geht vor allem auch um Wahrscheinlichkeit. Ein Algorithmus ist kein menschliches Wesen, wie Vorhersagen früher getroffen worden sind und so ergeben sich natürlich auch neue Probleme. Algorithmus Vorhersagen erlauben uns Dinge, die unmöglich werden für Menschen, auch wenn wir die Maßnahmen der Statistik an der Hand haben. Es ist gleichzeitig eine große Chance, aber führt zu neuen konzeptuellen Problemen, die wir uns auch ansehen müssen. Das ist eine allgemeine Bemerkung. Worüber spreche ich hier? Wie funktionieren Algorithmen? Ein wichtiger Schlüsselwort ist Big Data. Alle reden nur über alle Wissen, was das ist. Big Data sollte eine Iera der grenzenlosen Daten einleiten. Es geht aber auch um unbegrenzte Rechenkapazitäten von Computern. Dann sind Algorithmen in der Lage, diese Daten auch zu verwalten und verarbeiten. Die Idee dahinter ist, dass Algorithmen Daten nutzen und sammeln können über ein bestimmtes Phänomen, über das Statistische Universum. In Bereich Big Data benutzt man also das ganze Wissen des Universums und zu einem bestimmten Thema. Und dann muss man keine Stichproben nehmen. Algorithmen führen keine Stichproben durch. Sie sammeln lediglich alle Daten. Deswegen, weil Algorithmen alle Daten sammeln, behauptet man, dass einige Informationen gesammelt werden, die nicht nur subjektiv sind. Algorithmen, so behauptet man, sammeln alle Informationen. Sie müssen nicht auf Modelle zurückgreifen, um diese Informationen zu interpretieren. Sie nutzen keine Modelle. Sie entdecken nur Dinge. Sie schauen Daten an, sie schauen sich Strukturen an und entdecken Korrelationen. Korrelationen sind ein großes, wichtiges Thema hier im Bereich Big Data. Denn Korrelationen sollten die Bedeutung eines Phänomens unabhängig von der zugrunde legenden Theorie darstellen. Chris Anderson hat im Jahr 2008 gesagt, dass mit genug Daten die Zahlen für sich selbst sprechen. Man muss sich nur an sehen, welche Muster die Computer herausfinden können in diesem Meer an Daten, dieser große Ozean-Daten. Da kann man angucken, was sich da passiert. Man findet die Korrelationen, die Muster. Und die sind einfach nur da. Man muss sie nur finden, man muss sie nur sehen. Deswegen in diesem Diskurs ist es so, dass das Ergebnis einfach eigentlich nur eine Beschreibung ist. Keine Ursachen und Folgen, Erklärung oder Begründung, sondern einfach nur Beschreibung des Zustands. Also man muss nicht wissen, warum ein bestimmtes Ergebnis passiert. Man muss nur wissen, was passiert. Warum, sondern nur was. Wir Korrelationen ersetzt die Causation. Das heißt, wir sehen nur und wissen nur, was passiert, aber es ist egal weshalb. Das ist natürlich sehr kontrovers. Wie Sie das immer schon in meinen Vorträgen gehört haben, es gibt eine große Debatte darüber. Jeder diskutiert das. Aber was ich sagen möchte hier, ist etwas anderes. Ich möchte hier sagen, dass das meist gar nicht wirklich passiert, auch wenn es dann halb gibt. Auch wenn die Technik sehr fortgeschritten ist, also wirklich auf erstaunliche Art und Weise, ist es doch so, dass die Haltung, die dieser ganzen Diskursion über Big Data zugrunde liegt, die ist nicht so weit entwickelt. Also wenn man Leute sich anhört, was sie sagen, was man mit Big Data machen kann, scheint es mir so, dass diese Vorhersage durch Algorithmen, wie das von Big Data-Theoristen erklärt wird, dass das eigentlich nichts etwas sehr Neues ist, sondern dass es einfach nur eine Wiederholung, eine Wiederaufleben der sogenannten Weissagung ist, wie es in der Antike gab, vor allem in Griechenland. Vor allem auch in der alten chinesischen Welt war Weissagung ein ganz wichtiger Bezugspunkt für die Leute. Also in der Antike erschien es so, dass die Zukunft den Menschen nicht offensichtlich war, aber den Gott dann schon. Und heute ist es fast so, dass es den Menschen immer noch nicht offen steht, aber den Algorithmen schon, dass diese Ansicht besteht, dass Algorithmen die Zukunft vorher sagen können. Es gibt also sehr viele Ähnlichkeiten hierzu der antiken Weissagung. Zum Beispiel Algo, diese weissagenden Prozesse der Algorithmen sind von bestimmten Bedürfnissen geleitet und bestimmte Schritte müssen dafür unternommen werden und in beiden Fällen, also bei der Weissagung, wie auch bei den Algorithmen gibt es bestimmte Programme, und zum Beispiel diese weissagenden Praktiken, die so ein bisschen wie wissenschaftliche Praktiken sind, aber eigentlich gar nicht Phänomene erklären oder begründen möchten, sondern einfach nur sich mit ihnen befassen können. Also in der Antike wäre es herätisch gewesen, kezerisch gewesen, eine bestimmte Prozesse verstehen zu wollen, nur die Götter konnten das verstehen und die Menschen mussten das nicht verstehen. Und dasselbe ist heute mit Algorithmen, dass Leute einfach denken, dass sie das nicht verstehen müssen. Und das macht Sinn, denn die alten Gesellschaften waren davon überzeugt, dass es eine grundlegende Ordnung gab und das Ganze geleitet und geführt wurde, aber dass die Menschen, dass es eine kosmische Logik gab und dass die Menschen das nicht alles verstehen müssen oder dasselbe haben wir heute mit diesem Deep Learning und den Algorithmen, da können wir dasselbe beobachten und in Bezug auf die Algorithmen, da war das Raten des Ziels, da geht es nicht darum, das Phänomen zu verstehen, sondern nur eine praktische Richtungsweisung zu bekommen, damit die Person sich in dieser Ordnung zurechtfinden kann. Also die Vorstellung war, dass das gesamte Universum in einem Netzwerk von Korrespondenzen ausgedrückt ist, also diese Korrespondenzen, die wir jetzt auch in diesem Algorithmus des Kurs finden, also eine Welt, in der alles mit allem korrelierte und dies, da konnten bestimmte Muster und Konfigurationen entdeckt und gefunden werden. Und in der Antike war es so, das war die Vorstellung so, dass die Walnuss derselbe Form hat, wie das menschlichen Gehirns. Und die Vorstellung war, dass das nicht zufällig war, sondern dass es einen Grund dafür gab, dass es eine Bedeutung gab, dass dieses Muster gleich war von dem Inneren der Walnuss und dem menschlichen Hirn und das ist deswegen eine Korrelation gehabt. Und daraus leitete man bestimmte Ableitungen ab für bestimmte zukünftige Ereignisse. Und wenn man sich die Muster in der Welt anschaut, dann meinte man, dass man davon für die Welt und für die Zukunft daraus lernen konnte und so Anleitung dafür bekommen konnte, wie man entscheiden oder wie man handeln sollte. Es geht darum, dass wenn man sich das anschaut in dieser antiken Weltsicht und da versuchte man, die Zukunft vorherzusagen und das war völlig plausibel, denn diese Vermutung, diese Annahme war, dass die Zukunft bereits bestand und die Herausforderung bestand, oder würde nur darin bestehen, diese Zukunft vorherzusehen und das Verhältnis zur Zeit war damals sehr anders als das Verhältnis, was wir heute in unserer Gesellschaft oder in unserer Zeit zur Zeit haben. In der antiken Weltsicht waren die Hauptzeitunterscheidungen zwischen der Zeit Gottes und der Zeit des Menschen, zwischen der Ewigkeit und dem Tempus, internitas und Tempus. Ewigkeit war die dimension, die göttliche Dimension aus der Sicht der Ewigkeit, kann man die Gegenwart der Vergangenheit in Zukunft kennen. Aus dieser Sicht gibt es eigentlich keine große Unterscheidung mehr zwischen Gegenwart der Vergangenheit und Zukunft, die Unterscheidung löst sich auf, denn für Gott sind ja alle drei Zeiten sozusagen gleichzeitig, sich finden ja für Gott gleichzeitig statt. Der Unterschied zwischen Vergangenheit, Gegenwart und Zukunft war keine göttliche Unterscheidung, sondern nur beschränkt auf die begrenzte Weltsicht des Menschen. Und der Mensch unterscheidet bei Zeit zwischen Gegenwart, Zukunft und Vergangenheit. Aber die Vorstellung war in der antologischen Sicht nicht, dass diese Zukunft genau so vorherbestimmt war, wie auch schon die Vergangenheit eigentlich bekannt war, dass eben der Mensch nicht wissen konnte, was in der Zukunft passieren würde, aber dass die Zukunft eigentlich schon vorherbestimmt war. Und diese Weißsagung war die Möglichkeit der Weißsagung, war deswegen komplett rational. Es erforderte nur eine bestimmte Art von Techniken, um gewinnen zu können. Die Zukunft war ja in der Ansicht der Antike schon längst da. Man konnte nur eben nicht da reinschauen, aber man meinte, dass man doch ein paar Anzeichen sehen konnte, um zu verstehen, was in der Zukunft passieren würde. Und das ist eine gewisse Rationalität. Es ist nicht irrational. Das ist wirklich gar nicht sehr plausibel. Es ist eine Art von Rationalität, die aus der Antike heraus verständlich war, dass die Zukunft in der Antike in der Antike-Gesellschaft eben nicht rational erscheint. Unser Zeitverständnis ist sehr anders. Zeit im Allgemeinen, aber insbesondere unserer Sicht auf die Zukunft. Was für uns sehr wichtig ist und was wir nicht aufgeben möchten, ist, dass die Zukunft für uns offen ist. Die Zukunft ist ein offenes Feld. Und heute im Präsens können wir Menschen die Zukunft nicht wissen, aber selbst Gott sagt, denn die Zukunft gibt es für uns im Prinzip noch nicht. Die Zukunft gibt es im Vorfeld nicht, denn die Zukunft wird geschaffen durch unsere Handlungen und also aus grundlegenden Riesen gründen kann die Zukunft deswegen nicht bekannt sein. Die Zukunft ist nicht gegeben, ist nicht eine Serie von Ereignissen, die schon beschlossen sind, sondern wie Juman Kozel das beschreibt, die Zukunft liegt noch jeden, was das Horizont ist. Wir versuchen uns zu nähern, aber wir können sie nie erreichen. Wir versuchen es wie ein Horizont, also wenn wir uns im Horizont nähern können, dann nicht erreichen, sondern er bewegt sich weiter von uns weg. Das heißt nicht, dass wir uns nicht auf die Zukunft vorbereiten können. Wir können sogar sehr viel machen, um uns auf die Zukunft zu bereiten. Aber das kann nicht im Vorfeld gewusst sein, was wir über die Zukunft wissen können, ist nicht die Zukunft selbst, sondern wir können mehr und mehr Informationen über die Erwartungen über die Zukunft erhalten. Das sind Daten, Daten, die es schon gibt, die beobachtbar sind und die man deswegen erforschen kann, um eine zuverlässigere und detailliertere Sicht von der Zukunft zu bekommen. Das ist so wie sich Vorhersagen entwickelt. Vorhersage ist nicht möglich aus grundlegenden Gründen, aber Vorhersage oder Prädiktion nimmt jetzt die Form des Planens an. Wir planen, um die Zukunft auf kontrollierte Art und Weise anzugehen. Die Zukunft ist allerdings noch nicht sicher, denn sie ist ja offen. Eine offene Zukunft kann nicht sicher oder bestimmt sein. Das heißt, die Instrumente, die wir nutzen, um uns die Zukunft vorzubereiten, um die Erwartung sondern Wahrscheinlichkeitsrechnung. Damit versuchen wir, die Unsicherheit der Zukunft anzugehen. Aber diese Unsicherheit kann nicht beseitigt werden. Und diese Wahrscheinlichkeitsrechnung verspricht nicht uns heute schon zu zeigen, was morgen passieren wird, sondern einfach nur zu kalkulieren, welche Wissenslücken wir über die Zukunft haben. 40 % oder 20 % ist rechnet nur aus, was wir nicht haben. Und dass es ein bisschen was gibt, was wir vorher sagen können oder wissen können und dass wir uns darauf vorbereiten können. Und es geht darum, dass wir in der Zukunft natürlich nicht ausweichen können, aber doch so vorbereitet sein können, dass wir damit umgehen können und dass das dann rational ist und auf gutem Grund beruht. Dieser Ansatz, das ist der Ansatz der Wahrscheinlichkeitsrechnung folgt, für diese Unsicherheit der Zukunft vorzubeugen, war und ist immer noch die Grundlage für das wissenschaftliche Edikt der Moderne. Also das ist die Grundlage der wissenschaftlichen Forschung eigentlich sogar. Nein, das ist sozusagen die Grundlage für die selbe ethnische oder ethische Entwicklung, die auch dazu führte, dass wir diese künstliche Intelligenz entwickelt haben. Das ist diese Techniken, die Maschinen lernen und so weiter, die benutzen ja statistische Instrumente, also die Wahrscheinlichkeitsrechnung. Also in der Vorhersage an Analytik versucht man jetzt damit die Zukunft, vorher zu sagen, was eigentlich noch unvorhersehbar und offen ist. Das ist ein Merkwidersatz, Widerspruch, den ich heute Abend hier kurz besprechen möchte. Wie können wir die Zukunft vorhersagen in dieser Welt? Wie können algorithmische Vorhersage und probabilistische Traditionen miteinander verbunden und wie unterscheiden sie sich? Wenn Algorithmen statistische Instrumente nutzen, aber dann etwas versprechen, dass sie das daraus ergibt, was aber eigentlich nicht um Einklang ist mit der probabilistischen Tradition, wie passt das zusammen? Also diese beiden Dinge sind eigentlich sehr unterschiedlich, auch wenn sie selber Instrumente verwenden, Maschinen lernen. Das ist eigentlich sehr klar, dass das etwas anderes ist, was die Leute machen, die im selben Raum sitzen und sich mit Statistiken befassen. Das sind die selben Instrumente. Statistiken sollten dazu beitragen, dass bestimmte Verfahren aktiviert werden sollen, die eigentlich wissenschaftliche Forschungsmethoden sind. Man nimmt, wie schon Galilei das gemacht hat, man entwickelt ein Modell und überprüft es an der Realität. Dann stellt man fest, ob das Modell der Realität entspricht, mit welcher Akkuranz und dann passt man das Modell wieder an und wenn man das mit der Statistik macht, wenn man Statistik verbindet, dann möchte man die Welt damit erklären mit diesen Mitteln. Und beim Maschinen lernen dazu ist der Zweck sehr anders. Der Zweck des Maschinenlernens besteht nicht darin zu verstehen, wie ein bestimmtes Phänomen entstanden ist. Es geht auch nicht irgendein Modell zu erarbeiten. Wenn man mit Algorithmen arbeitet, dann weiß man oft nicht mal, ob es so ein Modell geben kann. Und die Maschine arbeitet auch ohne Modell und diese algorithmischen Prozesse. Da geht es nicht um die Wahrheit, sondern es geht einfach nur um eine Vorhersage machen. Es geht gar nicht um Wahrheit. Diese Haltung gegenüber der Zukunft zeigt große Unterschiede auf zwischen den Algorithmischen Vorhersage und der probabilistischen Tradition. Die Statistiken produzieren Vorhersagen auf Grundlage eines Durchschnitts von den beteiligten Elementen. Das heißt, bei der Statistik schafft man Ergebnisse, die einfach ein allgemeines Phänomen verstehen, helfen sollten. Niemand hat 1,4 Schildkinder. Aber das ist das Ergebnis der Statistik. Da wird auch viel gesprochen. Es gibt auch viele Witze über diese statistische Ergebnisse, die irgendwie nicht plausibel sind, die uns nützlich sind. Algorithmische Verfahren sind sehr anders. Sie nehmen keine Probeln. Sie nehmen alle Daten. Sie sammeln Big Data. Also alle Daten. Aber sie schaffen keine allgemeinen Ergebnisse. Und Sie schaffen keinen Durchschnittswert bei der Algorithmen. Werden alle Daten gesammelt. Sie berechnen aber keinen Durchschnittswert, sondern einfach alles sammeln. Sie beschreiben, was es zu einem bestimmten Thema zu einer bestimmten Zeit gefunden werden kann. Nichts ist spezifisch darin. Es ist alles sehr allgemein und sehr viel Daten. Wenn man sich diese Aspekte anschaut, dann sieht man, dass Algorithmische Verfahren ein weißsagendes Modell im Prinzip wieder schaffen. Denn die Weissagung befasst sich auch mit sehr praktischen Fragen. Also wenn man eine weißsagende Antwort haben möchte, dann ist ja die Frage, wie soll ich, also ich speziell nicht irgendjemand in einer bestimmten Situation entscheiden, wie sollte ich mich heute verhalten um morgen eine günstige Situation zu haben. Was ist der beste Zeitpunkt, um einen Kampf zu beginnen? Wird meine Heirat erfolgreich sein? Sehr fokussierte persönliche Fragen werden dem Oracle gestellt und diese Weissagungen wurden dann auch genutzt um punktuelle, individuelle Entscheidungen zu treffen. Diese Weissagung ging immer an Einzelpersonen. Und in der prädiktiven Analyse vorhersagen an Analyse geht es nicht darum, etwas Allgemeines zu beschreiben, sondern an Anleitungen zu geben, die so akkurat wie möglich sein sollten. Zum Beispiel ein Zitat hier von einem Buch über eine Lüse die Schätzung der Zahl der Eishörnchen, die im nächsten Monat in Nebraska verkauft werden sollte. Das mit einem nicht sagen, welcher jeweilige Einwohner von Nebraska im nächsten Monat mit einem Eishörnchen in der Hand gesehen wird. Und das ist der Unterschied zwischen Maschinenlernen und Analythik. Und der durch die vorhersagen Analyse Analythik bezieht sich auf den Durchschnittsmenschen das heißt, dass im Durchschnitt jeder Mensch eine bestimmte Bevölkerung diesen Modell mehr oder weniger entsprechen sollte und von die neue Grenze, der neue Horizont in der Vorhersage ist sehr anders in einer Bewegung wo es die Suche nach dem Universum darum kümmert sich niemand. Mehr, das interessiert niemand mehr in der medizinischen Forschung, was wir jetzt wissen wie Krebs funktioniert ist die Individualisierung das interessiert jetzt nicht mehr wie Krebs sich insgesamt entwickelt sondern es geht nur um da ein oder meinen Krebs also es geht nicht mehr um universelle Angaben, sondern nur um das von einzelnen Personen. Hier geht es bei dem Beispiel um Krebs aber die erstaunlichsten Fälle kommen von der hervorhersagenden Medizin, das funktioniert tatsächlich sogar in solchen Fällen aber wenn es funktioniert, dann funktioniert das Walago Rütschmann Teil dieser Operationen sind. Sie beobachten die Welt und befassen sich mit der Welt von innen und nicht von außen her, nicht mit Hilfe eines Modells Sie sind innerhalb der Daten innerhalb dieses Feldes und das ändert die Meinung der Vorhersagepartei. Wenn Algorithmen Vorhersagen machen dann sehen sie nicht vorher welche Struktur gegeben ist, welche Zukunft der Algorithmus vor sich sieht dass sie sehen eine Zukunft die noch nicht da ist, die nicht möglich ist. Algorithmen stellen die Zukunft her mit ihren Berechnungen Deswegen sind Algorithmen nicht in der Lage etwas zu antizipieren, was noch nicht da ist, aber Algorithmen können die Zukunft vorhersehen, die als Ergebnis dessen da sein könnte, was sie selbst berechnen aufgrund ihrer eigenen Erfahrung. Ich werde Ihnen einige Beispiele geben Die Vorhersagepartei von Algorithmen ist immer kontextuell zu sehen Sie beziehen sich nur auf ein besonderes Thema zum Beispiel welche Person aus Nebraska dann irgendwann mit einem Eis in der Hand über die Straße gehen wird zum Beispiel ein Algorithmus beim sogenannten predictive Shopping sagt nicht, wie sich die Verbraucher trends in der nächsten Saison entwickeln oder wie sich die Marktanteile verändern werden. Sie gehen nicht auf Algorithmen Trends ein, sondern auf spezielle Phänomen Sie anvoraus, welche besonderen Produkte bestimmten Produkte ein bestimmter Verbraucher kaufen werden würde und meistens sagen Sie das voraus bevor der Verbraucher überhaupt von diesem Produkt gehört hat und es gekauft hat oder sich dafür interessiert hat die Person weiß vielleicht noch gar nicht dass sie dieses Produkt brauchen wird aber der Algorithmus berechnet das und schlägt dies dann vor und so funktioniert es dann das wissen Sie ich weiß vielleicht jetzt noch nicht von einem Produkt das es bereits gibt, aber der Algorithmus Identifiziert und ich übertreibe jetzt hier der Algorithmus identifiziert dass dieses Projekt zu meinen vergangen Entkaufentscheidungen und den Entscheidungen anderer berühmte Personen passen könnte und es gibt ganz viele Daten über mich im Internet und aus irgendeinem Grund denkt der Algorithmus dass ein Produkt ex zu mir passen könnte. Auf Grundlage dieser Kriterien entscheidet er dann und diese Kriterien kennen wir gar nicht welche Information der Algorithmus benutzt, wissen wir gar nicht um zu dieser Entscheidung zu gelangen. Wir wissen nicht wie die Algorithmen die Entscheidung fällen, aber oftmals funktioniert es Algorithmen funktionieren nicht so wie wir es denken wie Amazon zum Beispiel es geht nicht nur darum ein Buch zu bekommen dass ähnlich ist wie das was man schon liest nein es gibt viel überraschendere Ergebnisse die informativ sind zum Beispiel ein Nutzer hat eine Barbiepuppe gebraucht und als nächstes kommt eine Reise nach Marokko auf der Tagesordnung stehen könnte aber wenn der Algorithmus korrekt vorhersagt dann kauft diese Person dann ein Flugticket für eine Reise nach Marokko und wenn die Vorhersage richtig ist dann ist das nicht der Fall weil der Algorithmus die Zukunft vorher gesehen hätte, sondern weil die Person gar nicht wusste dass diese Reise anstehen könnte und in der Zukunft diese Person einmal nach Marokko reisen würden und ohne die Intervention des Algorithmus ist gar nicht zu dieser Version der Zukunft gekommen die Verbraucher kaufen also etwas was der Algorithmus produziert hat und der Algorithmus hat also recht da er eine Zukunft schafft die seiner Vorhersage entspricht oder auch nicht, denn manche Personen gehen vielleicht nicht auf die Angebote des Algorithmus ein aber dann lernt der Algorithmus aber wenn man einen Vorschlag des Algorithmus annimmt dann hat der Algorithmus recht ich ein Angebot des Algorithmus nicht annehmen dann lernt der Algorithmus aus der Erfahrung und ändert vielleicht seine Ressourcen etc und die Vorstellung dahinter ist dass es nicht nur beim Predictive Shopping funktioniert also beim Einkaufen sondern auch in vielen anderen Bereichen besonders im Bereich der Verhinderung von Straftaten die Vorhersage, wie Sie aus Filmen kennen zum Beispiel sollte funktionieren bevor eine Person kriminell wird denn zum Beispiel könnte man Algorithmen beim Profiling bei der Erstellung von Verbrecherprofilmen benutzen und zur Vorbeugung anwenden die Forscher ist also dass Algorithmen richtig oder falsch schliegen können aber oft liegen sie richtig egal ob sie richtig oder falsch schliegen sollten sie aber immer effektiv sein Hauptsache effektiv, denn auch mit vorhersagbaren Algorithmen wenn sich Menschen an die Vorsage halten dann sollten Algorithmen die bestmögliche Vorhersagbarkeit auf Grundlage der verfügbaren Daten haben so sollte Algorithmus dann einen Beitrag leisten zur Verbesserung seiner eigenen Leistungen in der Zukunft Algorithmen haben vielleicht nicht immer recht aber sie sind immer effektiv und so behauptet man es zumindest über Algorithmen aber eigentlich ist es so es klingt faszinierend oder nicht aber der Punkt ist, dass dies nicht immer der Fall ist wir haben viele Forschung die zeigt dass dies nicht unbedingt passiert dass Algorithmen nicht immer effektiv sind Katie und Neil zum Beispiel hat in einem Buch dass sie vielleicht bereits gelesen haben denn das ist bis sehr weitgehend besprochen worden zeigt wie in vielen Fällen Algorithmen so nicht funktionieren Algorithmen sind manchmal nicht effektiv nicht nur weil sie falsch liegen und auch nicht wenn sie richtig liegen denn wenn Algorithmen korrekt sind dann können die Vorhersagen von Algorithmen immer noch ineffektiv sein das hat nämlich ein Einfluss auf die Effektivität der Vorhersagbarkeit und das kann dann zu zirkulären Entwicklung führen zum Beispiel ich kaufe ein Produkt weil der Algorithmus das mir vorgeschlagen hat aber gleichzeitig ist es auch so und das ist die negative Seite das ist die future possibility vorbeugene Maßnahmen gibt die Möglichkeit für die Zukunft einschränken der Grund ist ganz klar denn unabhängig davon wie gut die Instrumente sind man kann nicht vorhersagen genau wie die Zukunft aussehen wird dahingehend wie die Zukunft aussehen die sie produzieren dahingehend sind Algorithmen blind und das ist der Punkt hier dies führt zu einem weiteren Problem nämlich dem Problem der Zäkularität im hell sehr tun so wie wir Algorithmen benutzen kann dies zu weiteren Schwierigkeiten und Risiken bei den Nutzen Nutzung von Algorithmen führen schauen wir uns das hell sehr tun noch einmal an wir haben gesehen dass oftmals Datenantworten sich selbst erfüllen das weiß sagen muss ich selbst erfüllen werden auch wenn man versucht etwas das vorher gesagt worden ist nicht zu erfüllen dann ist es meist doch so dass es sich trotzdem erfüllt in der Antike hat das Sinn ergeben denn man kann der Vorhersage nicht entkommen man wird bestätigt dass man durch eine höhere Ordnung vorher bestimmt wird so hat man es in der Antike gesehen es ist nicht an mir was passiert in der Zukunft sondern etwas übergeordnet das entscheidet und dann wird sich etwas bestätigen die wir nicht entkommen können weil es dieser höheren Ordnung obliegt die Zukunft ist bereits vorentschieden auch wenn wir Menschen es nicht wissen weil die Zukunft ja ungewiss ist wir leben immer noch mit einer offenen Zukunft in unserer semanischen Zeit ist es so dass dies zu großen Problemen führt vor allem für das dazu, dass wir manchmal nicht lernen können das ist das größte Problem für Algorithmen Katie O'Neill hat gesagt, dass Algorithmen ein Instrument sind zur Veränderung von Verhalten und sie haben einen Einfluss auf die Realität die sie schaffen das heißt die Algorithmen sind nur die Realität in die sie eingreifen und das Problem ist dass sie nicht von dem lernen was sie nicht erleben können die Algorithmen können die Welt ohne ihre eigene Inferenzion nicht erkennen und ich werde ihnen Beispiele geben die Nutzung von Algorithmen führt zu einer Art Blindheit die ein Einfluss auf das hat was wir hier erleben und auch auf die Instrumente die wir nutzen aus diesem Grund und das ist der Hauptgrund ist es schwierig Vorhersagen zu treffen und es sind ganz andere Schwierigkeiten als bei der statistischen Vorhersage die Probleme von Algorithmen hängen nicht von Stichproben ab oder Mangel von Daten oder falscher Nutzung von Modellen wie im Bereich Statistik Algorithmen befassen sich damit nicht sie haben diese Sorgen einfach nicht immer genug Daten, sie haben Big Data so behauptet man es zumindest und man macht keine Stichproben in Algorithmen und Algorithmen nutzen keine Modelle falschen Modelle sie benutzen alle Modelle die es gibt und so weiter und das ist nicht unbedingt unberuhigend aber beim Maschinenlernen gibt es Probleme denn und das ist Folgendes es geht um die Beziehung zwischen Vergangenheit Gegenwart und Zukunft im Zusammenhang mit Algorithmen Algorithmen wie alle wissen haben das maschinelle Lernen befeuert es ging darum ein Trainingsdaten zu nutzen von denen die Algorithmen lernen Daten aus der Vergangenheit und aus Grundlage derer entwickeln sie dann die Zukunft aber was sie vorher sagen also die Effektivität von Algorithmen hängen von anderen Dingen ab sondern ist nämlich davon eine gute Performance zu leisten und das wahre Problem der vorher sagen will ich darin dass diese Trainingsdaten gut sind für das Lernen eines Algorithmus aber die Warndaten sind etwas anders da nämlich die Vergangenheit anders ist als die Zukunft und die realen versus die Trainingsdaten und der Unterschied zwischen ihm führt zu Schwierigkeiten die wir oft ignorieren das ist das grundlegende Problem und das ist ganz ernsthafte Problem wenn es um vorher sagen geht zum Beispiel Algorithmen lernen die Ausgangs- und Trainingsdaten so gut dass sie blind werden für andere Daten zum Beispiel der Algorithmus und das wirkliche Beispiel werde ich später bringen ein Algorithmus lernt sehr gut mit Rechtshändern zu arbeiten dass er gar nicht erkennt dass ein Linkshänder auch ein möglicher Nutzer sein könnte das ist ein übliches Problem für Algorithmen und das nennt man Overfitting dieses Problem und das ist ein ganz großes Problem im maschinen Lernen es ist ein großes Problem dass wirklich alle angehen müssen denn das taucht immer wieder auf wie wie können wir damit umgehen wie können kann diese Bedingung dass die Vergangenheit anders ist als die Zukunft und dass man dass die Algorithmen blind werden vor allem bei der eigenen Effektivität wie können wir diese Dinge angehen wie können wir das theoretisch angehen es geht nicht nur um Lösungen sondern um mögliche Wege das Problem bei Selbstlernenden und Dieblernenden Algorithmen ist, dass sie nicht lernen zu lernen und dieses Lernen zu lernen ist eine wichtige Komponente des empirischen Lernens und die Grundlage für unsere menschliche Fichtigkeit zu generalisieren und das zu einem konkreten Problem zum Beispiel zum Thema Polizeiarbeit es gab einen konkreten Fall wo Polizeikräfte sich der Profilerstellung bedient haben um in Chicago in den USA Straftaten zu verhindern Akur der Forscher dazu sagt dass wenn Personen die von einem Algorithmus gefunden werden sich nicht entsprechend verhalten dann kann die Algorithmusvorhersage kontraproduktiv sein es gibt eine Person die Gefahr läuft auf der Verbrechen zu begehen die durch eine Algorithmus gefunden wird und stellen sie sich nun vor dass der Algorithmus dann eine Person entdeckt dass selbst wenn sie eine Straftat begehen könnte dass sie trotzdem trotz der Vorhersage und der Versuchtenverhindernung der Straftat begeht denn manchmal erfüllt sich ja eine Vorhersage und gleichzeitig ist es auch so wenn man also diese Person verfolgt dass dann andere Personen wo eine Überwachung sinnvoll sein könnte dass die dann Straftaten begehen das zeigt also der Algorithmus hatte quasi recht und hat eine Person gefunden die eine Straftat begehen könnte und dann hat man aber nicht andere verfolgt wir haben uns in der Forschung auf nun weiter entwickelt und haben daran gesehen dass der Algorithmus nicht aus der Erfahrung lernen kann wenn man die Erfahrung ansieht, die man gemacht hat geht es nicht nur darum Hypothesen zu stärken für Menschen die etwas über Probabilität wissen sondern wir nutzen Erfahrungen und Hypothesen aus der Vergangenheit um die Hypothesen für die Zukunft zu verbessern aber die Algorithmen können das nicht sie können keine unterschiedlichen Hypothesen selbst entwickeln und anwenden die vorbeigende Aspekte der Polizeiarbeit mit Algorithmen führt dazu, dass man sich schon ein Ziel zurecht setzt und man versucht Kriminalität auszurotten als Polizist aber dann wird man blind für eine andere Aufgabe man könnte zum Beispiel in Formationen der Polizeikraft nutzen, um die Nachbarschaft zu bessern um zum Beispiel eine Zielperson in einen anderen Kontext zu setzen und das könnten Algorithmen auch tun aber dazu sind sie eigentlich gar nicht in der Lage das heißt also was sollten wir hier einführen als Aspekte für die Algorithmen nun, Erfahrung aus der Vergangenheit führt nicht notwendigerweise zu einer erwartbaren Zukunft Reina Koselek hat das zum Beispiel gesagt in seinen Studien das hat er ganz klar gezeigt er hat eine Studie durchgeführt zum Verständnis von Zeit und offener Zukunft da haben wir gesehen, dass unser modernes Verständnis von Zeit anders ist im Teil von dem passiert was wir von der Zukunft erwarten denn je mehr man über die Vergangenheit weiß desto mehr weiß man und besser weiß man, dass die Zukunft anders sein wird die Geschichtsschreibung hat sich zusammen mit dem Gedanken über die offene Zukunft entwickelt zum Wissen zur Vergangenheit kann ich sagen, dass sich die Zukunft oftmals anders entwickelt als vorher gesehen wir können Erfahrungen zum Beispiel nutzen um auch Überraschungen zu antizipieren aber wir antizipieren dann nicht Dinge, die wir bereits kennen dieses Problem führt dann auch zum Gegensatz zwischen Weissagungen, Algorithmen digitale Vorhersagbarkeit ist nämlich komplexer vor allem in sozialen Umfelden in der Antike hat man gedacht dass eine determinierte Zukunft durchaus möglich ist dabei in unserer Gesellschaft und in der Moderne in unserer digitale Gesellschaft sieht es so aus die Intensität der Kommunikation ist so, dass selbst wenn wir in die Zukunft sehen wollen dass wir durch diese neue Kommunikation zu mehr und Vorhersagbarkeit und Komplexität führen das kann man gar nicht vorher wissen deswegen glaube ich dass auch intelligente Algorithmen theoretische Arbeit brauchen alles was passiert verstehen Sie mich nicht falsch immer schnell lernen ist ganz toll und Soziologen können ganz viel davon lernen Philosophen auch, aber trotzdem brauchen wir eine theoretische Vorhersage eine theoretische Reflexion wir brauchen dies um diese Entwicklungen angehen und können auch die Konsequenz und Folge abschätzen vielen Dank für diesen einsichtsreichenden wunderbaren Vortrag über die Unterschiede zwischen dem was Algorithmen tun und was die probabilistische Vorhersage in der Vergangenheit üblicherweise gemacht hat also in den 30 nächsten 30 Minuten sprechen wir wahrscheinlich die Nachteile der Algorithmischen Vorhersagen ob sie so gut funktionieren wie sie funktionieren sollten das meiste haben Sie ja schon Ihrem Vortrag gesagt Sie haben gesagt dass Sie das große Wort Wahrheit benutzt haben Sie haben gesagt Algorithmische Vorhersage da geht es nicht um die Wahrheit sondern es geht mehr um Effizienz also vielleicht sollten wir ein bisschen über das Vokabular der Systems Systemtheorie wechseln es geht weniger um Intelligenz es geht hier um Kommunikation Algorithmen sind nicht wie Menschen aber sie bewegen sich innerhalb von Systemen das heißt ist es vielleicht so, dass das ganze Konzept diesen Rahmen bietet für künstliche Intelligenz ein Begriff ist den wir überarbeiten müssen müssen wir eigentlich über AC sprechen sondern über künstliche Kommunikation ist es Zeit, dass wir einen neuen Begriff einführen ja, es ist ganz entschieden Zeit für einen neuen Begriff und ich würde mich sehr freuen über künstliche Kommunikation zu sprechen eben weil ich ja soziologin bin ich habe etwas in diese Richtung schon vorgeschlagen und ich habe festgestellt dass sie dem auch zuhören und dass sie das nicht bedeutungslos finden aber ich kommunikation interpretieren also ich bin dann eine Systemtheoretikerin eine Systemtheorie nach Niklas Luhmann selbst in der Soziologie selbst in der Kommunikationstheorie ist das noch nicht Mainstream also selbst bei Maschinenlernen denke ich gibt es viele Leute die das in diese Begriffe von der Soziologie noch nicht akzeptieren aber das hat, glaube ich, ihre Fragen noch nicht erschöpfend beantwortet ich glaube ich wäre ganz begeistert dass ich die künstliche Kommunikation sprechen könnte aber der erste Schritt den jeder in diesem Bereich akzeptiert ist, dass künstliche Intelligenz nicht funktioniert also jemand hat vorgeschlagen Maschinenlernen das zu nennen, das klingt nicht so toll nicht so effektiv, es ist nicht so sexy es ist schwierig eine Metapher dafür zu finden aber wenn wir uns das merkwürdige aber auch das Faszinierende daran anschauen ist, wenn wir über künstliche Intelligenz in den letzten zehn Jahren sprechen dann geht es nicht nur um Intelligenz sondern auch um eine klare Analogie zu der menschlichen Art Informationen zu verarbeiten das ist bei Maschinenlernen sind die Verfahren einfach effektiver mit diesem neuronalen Netzwerk also nicht nur diese Vorstellung des Bewusstseins aber auch die also auch die Hardware des Gehirn selbst sollte so ähnlich sein Analog zu dem menschlichen Verarbeiten aber die Menschen sagen, dass auch die Verfahren der Maschinen werden immer anders, immer mehr anders von menschlichen Verarbeiten und Prozessen, vielleicht weiß ich nicht wie das noch ein bisschen ausführen soll ich weiß nicht ob Leute hier irgendwelche maschinelle Übersetzungsprogramme nutzen Google Translate oder andere die sind jetzt ziemlich gut für die Gefäle aber sie sind oft auch ganz nützlich und das war vor zehn Jahren nicht der Fall und jeder sagt, dass diese Übersetzungsprogramme jetzt effektiv geworden sind dass sie jetzt diese guten Ergebnisse erzielen und zwar vor allem dann wenn sie werden dann gut wenn die Maschinen nicht mehr die Menschen verwenden also Algorithmen, die ich englisch ins chinesisch übersetzen können weder chinesisch noch englisch, aber trotzdem können sie das so besetzen also weder das Programm noch die Maschine kennen die Sprachen aber diese sie erzielen die Ergebnisse folgendermaßen nämlich durch Algorithmen durch Texte kommunizieren mithilfe dieser Algorithmen die Maschinen produzieren etwas das sehr nah dem Ergebnis der menschlichen Alligenz kommt und nämlich sie beschaffen das so bald sie anfangen nicht mehr wie menschliche Herne zu arbeiten wenn sie diese menschlichen Verfahren aufgeben und das ist die Blumenberg Vorstellung also Menschen die Menschen haben gelernt zu fliegen als sie aufgegeben haben wie die Vögel mit den Flügeln zu flattern also Flugzeuge flattern ja nicht mit den Flügeln anders als mit den Vögel also Algorithmen werden besser je weniger sie wissen kann man das so ausdrücken? Ja das ist ganz interessant es gibt noch andere Bereiche wo algorithmische Vorhersagen wir können es auch direkt sagen wie das genommen es geht um kollaboratives Filtern wie Amazon das jetzt seit mehr als 10 Jahren macht und das was ziemlich weit verbreitet ist auch auf Plattformen wie Spotify geworden ist das schafft diese beliebten Listen das ist ein Dein Mix der Woche zum Beispiel das basiert auf gemischten Algorithmen und trotzdem schafft für das so ziemlich viel Ähnlichkeit und das kann bestimmte Töne ähnlich machen wie Fahrstuhltöne zum Beispiel aber jedes mal wenn ich mir das anhöre und ich höre mir das jede Woche an und das ähnelt für mich dann immer mehr einer Musik die ich schon kenne ich kenne diese Musik dann nicht mit dem Namen, aber es verschafft doch eine gewisse Ähnlichkeit und es führt dann dazu dass ich anders als früher mit einem guten Radio DJ nicht mehr überrascht bin und diese Überraschung diese Überraschungsmomente das ist doch wichtig für Innovation es geht hier nicht um ein ästhetisches Problem der Künste sondern es könnte auch zu einem wirtschaftlichen Problem führen was würden Sie dazu sagen dieses Ähnlichkeitsinstrument als Konzept und das führt vielleicht zu einem gewissen Verlust an Algorithmischer Vorhersage ich glaube das ist ein gutes Beispiel wir denke ich sollten also wir sollten nicht mehr Algorithmen tun wunderbare Dinge auch wenn wir es nicht mögen aber es ist oft auch sehr erstaunlich was Maschinen alles können selbst wenn wir das nicht so toll finden die sind also doch schon auch sehr effektiv ich möchte etwas sagen das vermeiden eine Maschine muss nicht intelligent sein und sie arbeiten besser je weniger sie versuchen die menschliche Intelligenz zu emittieren aber das heißt nicht das also zum Beispiel das Beispiel was sie genannt haben das funktioniert so gut weil das in den letzten Jahren möglich wurde wurde auf parasitäre Weise die Intelligenz der Nutzer verwendet also so wie Crowdsourcing ist ein gutes Beispiel dafür aber zum Beispiel das erste Beispiel was wir hier denken ist Google war und ist immer noch die beste Suchmaschine für alles und es war in der Lage effektiver zu sein als andere Suchmaschinen wie Jehoh oder Alter, Wister und andere die ich mich schon gar mehr erinnere weil Google es gelernt hat diese Idee diese Vorstellungsveränderung ist nicht intelligent also ich habe jeder weiß wie page um seine Worte page rank wie das Seitenranking funktioniert also die Seiten tauchen oben auf die mehr gelingt sind mehr Verbindungen haben zu anderen das heißt der Algorithmus an sich ist nicht intelligent aber er lernt von dem was die anderen Leuten machen und erzählt so die besten Ergebnisse also die alten Suchmaschinen basierten auf semanthischen Bäumen das heißt die Maschine versuchte zu verstehen was passierte und hat auf dieser Grundlage auf der Grundlage des semanthischen Bedeutungs des Inhaltes Vorschläge gemacht aber Google hat das komplett abgestoßen und es gibt keine semanthische Analyse nichts dergleichen die Maschine ist also nicht intelligent sie ist dumm aber sie ist irgendwie dann wieder doch sehr intelligent weil sie gelernt hat sie hat gelernt von dem Verhalten der Nutzer was die irrelevanten Punkte sind und deswegen braucht man eben Big Data man braucht dass damit diese Maschine im Web Hinweise bekommt über Unterschiede die von Menschen produziert werden da passiert immer was aber hier steht immer die Gefahr dass ein gewisser Widerstand entsteht dass Leute etwas mögen oder was nicht mögen dass sie vorgeben etwas einzukaufen was sie nicht möchten wie zum Beispiel auf Facebook dass sie hier in die AfD in Deutschland behaupten zu mögen aber in Wettbewerden mögen sie nicht also sie spielen irgendwie mit der Maschine rum das ist jetzt kein Massenphänomen aber es ist immer noch eine Option die möglich ist dass Leute vielleicht ihr Profil manipulieren oder ändern damit die großen Big Data Maschinen nicht so viel von ihnen wissen also das sind glaube ich bekannte Beispiele wie gehen Algorithmen damit um mit dieser subjunktiven Änderung also die Maschinen sind ja nicht daran interessiert aber es ist doch immer die Möglichkeit dass man sich dem widersetzt dass man wahre Spuren hinterlässt also die Systemtheorie ist durchaus daran interessiert wenn man erkennen möchte was die wichtigste Rolle der psychischen Systeme von Einzelpersonen ist dann ist das ja nicht außerhalb der Gesellschaft das ist ja dann sind ja auch die Punkte außerhalb der Gesellschaft relevant die sind so relevant dass die Programme auf die die Leute reagieren wenn er nicht vor den Algorithmen erzeugt sondern zum Beispiel diese Themen im Bereich Datenschutz das sind große Probleme niemand weiß wie man damit umgehen soll Schutz der Privatsphäre Datenschutz wie können Algorithmen Informationen sammeln zum Beispiel aus Daten die keine Bedeutung für irgendjemanden haben also für Algorithmen ist nicht nur wichtig was ich im Netz geschrieben habe und wo ich Zustimmung suche sondern das Problem ist, dass der Algorithmus sehr viel über mich weiß was ich selbst gar nicht weiß weil er das noch aus dem GPS System gesammelt hat und so weiter also dieser Daten schuppen über den jeder im Netz verfügt und das ist es eigentlich genutzt wird aber es war so eine Verdunkelung eine Verschleierung ist gut aber um um dem zu vermeiden, dass man ein Profil im Netz von sich erstellen lassen kann für so Leute sich zu verstecken also man wird von der Maschine wieder ein Profil erstellt ich weiß nicht ob es einen Sinn macht um Spuren zu verbergen die Maschine wird sowieso überall sein also wir müssen nach der Logik der Maschine gehen, das ist nicht die Logik der Menschen und diese die Möglichkeit diesem zu entgehen ist nicht, dass man jedes Mal wenn man was im Netz macht um also um einen Profil zu entgehen ist eigentlich wichtig oder besser möglichst viele Daten und Spuren im Netz zu unterlassen denn dann wird es so verschieden und dann kann die Maschine nicht mehr genau entscheiden was zusammen gehört und wir müssen uns Algorithmen eben anders vorstellen anders über sie denken Sie haben diese sehr schöne, sehr klare sofort verständliche Unterscheidung getroffen von der Algorithmischen probabilistischer Vorhersage und der Algorithmischen Weißsagung und probabilistische Modelle wollen versuchen den allgemeinen Durchschnitt zu sagen und die Algorithmische Vorhersage möchte über die Einzelperson wissen also die Algorithmische Vorhersage möchte etwas über deinen Krebs und meinen Krebs morgen in der Braskaneis essen für die Andersen Sie haben ein berühmtes Zitat gebracht der sagte, dass es keine Theorie gibt dass die Zahlen für sich sprechen wir wissen von einzelnen Fällen dass es in der Tat vielleicht keine Theorie gibt aber doch Voreingenommenheiten und dass sie vielleicht in den Algorithmen enthalten sind also das Beispiel weiße Männer waren Erfolgreiche in bestimmten Berufsfeldern in der Vergangenheit und deswegen kann man auch sagen dass sie auch in der Zukunft erfolgreicher sein werden und das können sein, dass manchmal Algorithmen um das ganze Platt auszudrücken vielleicht diese Voreingenommenheiten weiter verbreiten wie gehen sie gegen solche Voreingenommenheiten vor wie kann man das machen ja das ist ein praktisches Problem diese Voreingenommenheit natürlich sind Algorithmen komplett vor eingenommen, nicht neutral sie sind nicht intelligent und jeder hat von diesem Beispiel gehört über dieser Algorithmus und das wurde von Microsoft vor einem Jahr erzeugt und das wurde dann nach einem Tag gelöscht weil das wirklich schrecklich sexistisch und rassistisch war aber aber diese Programmierer waren alle eigentlich Liberale sie waren selbst schockiert über den eigenen Algorithmus den sie geschaffen haben und die der Entwurf oder Design des Algorithmus nicht vor eingenommen ist dann kann trotzdem der Algorithmus vor eingenommen sein wie ich schon sagte der Algorithmus ist nicht intelligent und im Laufe der Zeit nutzen die Intelligenz des Nutzers wir Menschen sind ja auch eingenommen das Web ist vor eingenommen Fake News gibt es und auch Haftrede ist erfolgreicher im Netz das heißt dieser Diskurs im Web ist nicht nur vor eingenommen ist wahrscheinlich sogar noch vor eingenommen als außerhalb des Web wie können Sie erwarten dass diese Algorithmen diese Diskursion im Web nicht vor eingenommen ist es gibt nicht Google zum Beispiel kann nur weil die Algorithmen nicht intelligent sind heißt das nicht, dass sie nicht kontrolliert werden können Google kann zum Beispiel durchaus pornografische Inhalte kontrollieren und diese Vorstellung dass Algorithmen vor eingenommen sind das muss einfach als gegeben angenommen werden und wir müssen dafür eine Lösung finden das ist schwierig, denn wir sind ja auch vor eingenommen Sie haben Google genannt und Sie haben dort auch den Page Rank Algorithmus genannt der wird ja täglich genutzt der wird nicht von einem Engine geändert, sondern von Millionen von Software-Engineuren man kann kann man als Engineer da eingreifen als Software-Schreiber soweit ich weiß wird dieser Algorithmen jeden Tag von Google geändert wird und der Quellcode ist geheim eine Art von Katz und Maus Spiel damit das nicht entdeckt wird aber diese grundlegende Logik dahinter nämlich dass der Algorithmus von Google aus dem Verhalten der Nutzer des Webs lernt, das ändert sich nicht natürlich kann man sehr viel machen um die fürchterlichsten Konsequenzen davon zu vermeiden, aber das alles ist sehr logisch man kann dem Algorithmus beibringen zwischen verschiedenen Arten von Verständnissen zu unterscheiden das ist das Problem das kann funktionieren aber der Algorithmus lernt nur das was der Mensch entschieden hat was der Algorithmus lernen soll der lernt sehr gut also diese Unterschwelligkeit das ist etwas was der Algorithmus nicht selbst schafft aber zum Beispiel sie produzieren sehr viele sinnvolle Dinge, aber auch sehr viel Müll aus den Sachen die sie im Netz finden also diese Vorstellung von Zeit ist auch ein Punkt, da haben wir ja schon ziemlich viel von gesprochen heute Abend und diese Annahme dass Algorithmen sozialen Wandel nicht mögen es ist schwierig für den Algorithmus das zu berücksichtigen das es sozialen Wandel gibt also die Zukunft ist sozusagen die vergangene Zukunft so wie der Algorithmus meinte wie die Zukunft aussehen wird in der Vergangenheit in diesem Modell sind wir ja gefangen in der Art von Teufelskreis zwischen der Vergangenheit und der Gegenwart zwischen etwas was das das machen wir ja jetzt im künstlerischen Bereich ist das eine wichtige Sache da haben wir sehr viele Retrophänomene auch im sozialen Bereich im künstlerischen Bereich sehr viel Bezuge bei der Vergangenheit die so vielleicht nie bestanden hat sozusagen ein Retrovahn also Algorithmen sind ein anderer Antriebsfaktor für diese Retromanie die wir ja jetzt in den sozialen und gesellschaftlichen Bereichen finden diese Sehnsucht nach der Vergangenheit sie haben Mode erwähnt und Vintage ist ein ganz wichtiges Element der Mode aber an Mode ist interessant dass Mode immer neu sein muss das Interessante ist ist wenn man sich Vintage anschaut dass Vintage immer etwas ist dass man das daraus besteht dass man etwas altes neu entdeckt das ist etwas das wir tun aber Algorithmen können damit nicht umgehen das Problem ist also etwas grundlegender für Algorithmen ist es so sie sagen in der Zukunft voraus als eine Art Projektion der Vergangenheit und das können sie sehr sehr gut aber mehr als das können sie aktuell nicht ich habe mich unterhalten mit Personen im Bereich Maschinelles Lernen und sie wissen das davon das Problem Overfitting habe ich bereits erwähnt das kennt man in der Community und man lernt sehr viel damit in Algorithmen die Algorithmen lernen viel mit Overfitting und es gibt ein Unterschied im Bereich Maschinelles Lernen denn da ist man an einem anderen Punkt im Moment immer schnell lernen weiß man nicht wie man mit solchen Vorurteilen zum Beispiel umgeht ein guter Algorithmus ist nach wie vor vor eingenommen und funktioniert nicht gut das heißt also wenn wir dem Algorithmus viele Dinge beibringen dann vergisst er auch Dinge und dann hat man einen dummen Algorithmus und das wollen wir ja nicht dann kann man nämlich gar nichts mehr kontrollieren aber man weiß das in der Community das Maschinelles Lernen eine Diskussion in dem Bereich dreht sich darum wie man ein Balance zwischen Nutzung und Nutzung der Daten findet der Daten die man hat aber gleichzeitig auch Varianz einzubringen je mehr man zu Experten wird desto näher ist man an dieser Lösung und das ist etwas was man mit Algorithmen Algorithmen beibringen kann ist besteht da ein Zusammenhang zu dem was sie gesagt haben über vorbeigende Polizei Kraft gesagt haben zum Beispiel über Rechtshänder Tendenz also dass die Maschine eher ein Rechtshänder entdeckt oder ein Linkshänder nicht oder ein wenn es darum geht die so oder so eine Straftat begehen würden wo das ganz klar vorhergesagt werden kann und wo man gleichzeitig die Instabilität die Instabilitätsfaktor ignoriert also heißt also diejenigen Personen die fast ein Straftat begehen könnten kann ein Algorithmus also über solche ethnischen Fragen vielleicht auch etwas lernen wollen wir einen perfekten Algorithmus der vorher sagen kann was in der Zukunft einer Person passiert ich weiß nicht ob das möglich ist aber man könnte die Algorithmen nicht verbessern sondern flexibler gestalten das Problem bei dieser Polizeiarbeit ist dass der Algorithmus nicht falsch da richtig liegen muss denn die Personen die als wie sie gefasst werden die haben das Risiko Straftat zu werden denn es gibt da Muster das heißt der Algorithmus ist effektiv weil er die richtigen Zielpersonen identifizieren kann aber der Algorithmus ist nicht effektiv aus dem Grund dass der Algorithmus etwas nicht wissen kann denn der Algorithmus weiß nicht was als Folge seines Wissens produziert wird um Personen die Straftäter werden können aber und dann befasst man sich mit denen und ignoriert andere die auch zu Straftätern werden könnten und es gibt keine wirkliche Vorsorge oder Verhinderung deswegen gestalten die Anzahl der Straftaten doch wir sollten stattdessen daran arbeiten den Algorithmus flexibler zu machen man muss also den Algorithmus lernen lassen ob er richtig liegt oder nicht und das muss man dann integrieren damit der Algorithmus von dem was passiert nochmal selbst lernen kann und nicht nur sehen kann ob er richtig oder falsch liegt sondern damit der Algorithmus auch lernen kann was auf der Welt passiert um ihn herum vor man Algorithmen entwickelt hat also es ist eine Frage ob Algorithmen in der Zukunft einmal ihre Vorurteile verlieren werden um flexibler zu werden um zum Beispiel mehr Offenheit zu ermöglichen das war einmal ein wichtiger Teil dessen was die Zukunft in der Vergangenheit ausmachte das war eine große Frage aber es gibt da noch eine weitere Frage die sich ganz gegenteilig wirkt wie kann man eine andere Art das Problem anzugehen, falls das nicht passiert es geht um eine herangehensweise dahingehend, dass man sagt man weiß nicht was in der Zukunft passiert man will den Algorithmus nicht vorher sagen lassen oder eine Zukunft produzieren lassen und zum Beispiel den Algorithmus nicht entscheiden lassen was man einkaufen wird wäre da seine Option dass sie die Algorithmen besser programmieren damit sie diese Fehler nicht mehr haben das weiß ich nicht aber wenn eine Lösung schließt die andere nicht aus es gibt zum Beispiel einen rechtlichen Filter und es gibt einen Unterschied zwischen den USA und der EU in der EU verbieten wir gewisse Dinge also es gibt hier einen rechtlichen juristischen Filter aber wir tun das in vielen Dingen in der EU dass wir einen rechtlichen Filter haben aber und bei Algorithmen auch, warum auch nicht man muss sehen, dass einige Dinge richtigerweise verboten werden, während es um Algorithmen geht aber das wirkliche Problem ist welche Dinge sollten wir verbieten und wie ich habe schon über das Recht auf Google vergessen zu werden gesprochen sehr schlechte Ergebnisse denn das funktioniert nicht das Konzept es funktioniert einfach nicht denn die europäische Gesetzgebung wird geleitet durch Prinzipien die richtig sind aber die Welt ist so komplex dass also es ist also nicht so einfach aber ich möchte nur eines dazu sagen also das Ergebnis die ersten Ergebnisse vergessen zu werden im Internet, da sollte man wissen dass sie trotzdem erinnert werden dass man sich trotzdem man sie erinnert versuchen sie mal etwas zu vergessen ganz absichtlich das heißt sie werden es auf jeden Fall behalten also es funktioniert gar nicht und im Internet ist es noch schlimmer versuchen sie einmal da vergessen zu werden ja wenn man eine aktive Rolle beim Vergessen spielt dann ja das meine ich mit diesem eschatologischen eschatologischen eschatologischen herangehensweise das ist nicht Teil der Gleichung ich weiß nicht ob so ein eschatischer Ansatz eine Ascheese bei der Notion das Internet überhaupt umsetzbar ist aber am Ende geht es doch um Themen wie Privatsphäre und Datenschutz viele Europäerinnen und Europäer haben eine ganz andere Meinung dazu zu diesem Thema wie zum Beispiel der Rest der Welt so würde ich es zumindest sagen sie haben auch die europäische Perspektive und wir versuchen hier immer diese Dinge in den Vordergrund zurück zu rücken also wird Europa Mitspracherecht haben wenn es um die Zukunft von Algorithmen und ihrer Promokramierung geht ich glaube ja wir diskutieren diese Themen und ich habe den Eindruck dass wir dies bereits sehen es gibt aktuell schon eine neue Entwicklung in der herangehensweise der Europäer an Persönlichkeitsrechte im Unterschied zu den USA da geht es oftmals um Redefreiheit die Redefreiheit ist das höchste Gut dort schauen sie sich auch noch China an da ist alles ganz anders da gibt es ganz andere Sorgen und Maßnahmen wie man das Problem umgeht aber ich habe den Eindruck das aktuell mit diesen neuen Entwicklungen immer schnell lernen dass es dort und so ist mein Gefühl dass es dort den Gedanken gibt, dass man mehr Theorie braucht Theorie als Allgemeine Theorie die über die allgemeine europäische Tradition hinausgeht und das ist etwas alle reden heutzutage über Fake News das ist ein großes Problem ein interessantes Problem zugleich aber nicht nur in Europa es ist ein Problem in Europa geht nämlich alles in eine Richtung die sie erwähnt haben diese Nachrichten sind falsch aber was ist denn tatsächlich wahr was stimmt denn alle die im Bereich Soziologie und Kommunikationszüge arbeiten wissen und falsch nicht an dem festgemacht werden kann was in den Medien passiert denn die Medien sind immer falsch auf gewisse Art und Weise die Medien berichten nicht unbedingt die Wahrheit oder sind die Wahrheit und Fake News nun ja Fake heißt Fake bringt eine Tradition mit einen Traditionsaspekten mit sich denn wir alle wissen den Unterschied kennen den Unterschied zwischen Fiktion und Lüge wie zum Beispiel ein Buch oder ein Film Fiktion ist auch nicht wahr aber Fiktion ist auch keine Lüge und diese Debatte über das Wort Fake bringt alle diese Unterschiede die Traditionsgeladen sind in ein sehr praktisches Feld wo wir in Europa gut ausgestattet sind dies anzugehen vielen herzlichen Dank für diese ersten 30 Minuten unserer Unterhaltung nun Elena kann eine Publikum-Frage stellen ich möchte nun beginnen mit einem Kommentar und einer Frage aus dem Publikum einer Live-Frage wo sind die Mikrofone sind schon unterwegs hier in der Mitte sitzt jemand rechts von mir Sie haben das Wort vielen Dank für diesen interessanten Vortrag mein Name ist Isabella Hermann ich bin unter anderem im Bereich Science Fiction und Weltpolitik das ist interessant für mich denn aktuell sind wir in diesem Genre nun angelangt im Bereich Science Fiction mich interessieren ihre Gedanken zum Thema Künstliche Intelligenz KI und Demokratie denn es gibt Personen die sagen und das ist vielleicht auch der Geist der Silicon Valley das mit genug Daten KI, dass man dann die Demokratie optimieren kann in dem Sinne dass es der Gesellschaft zugutekommt und das steht im Widerspruch zu unserer Idee von Demokratie da geht es nämlich eher um Kompromisse um den Schutz von Minderheiten und nicht um diesen utilitaristischen Ansatz es interessiert mich nun ihre Gedanken zu diesem Thema zu hören vielen Dank super, danke Sie haben sehr wichtige Aspekte angesprochen Sie haben implizit wenn ich es nicht falsch verstanden habe ein Chaos in diesem Feld angesprochen es gibt unterschiedliche Interpretationen von Demokratie und das stimmt, da haben Sie Recht und das Wohl der Gesellschaft das ist nicht gleichbedeutend mit Demokratieeffizienz ist nicht gleichbedeutend mit Freiheit zum Beispiel aber die Demokratie-Debatte geht in eine andere Richtung und da sind auch die USA mit Einbegriffen das ist ein Beispiel Verzeihung, es geht nicht nur um das Wohl der Gesellschaft wenn Sie sich zum Beispiel die Diskussion um die Filterblase angucken wenn die Nutzung von Algorithmen in öffentlicher Kommunikation sich verbreitet und die Algorithmen funktionieren dann werden Algorithmen immer Personalisierter und dann könnte es zum Ergebnis haben dass wir alle in einer personalisierten Welt leben aber isoliert sind wenn die Algorithmen effektiv sind dann geben sie mir als Nutzer was sie wollen und sie gestalten meine Medienwelt meine digitale Welt gemäß meiner Ansichten und das ist nicht gut aber wenn ich alleine bin in meiner personalisierten Welt wenn ich dann bin ich allein in meiner personalisierten Welt die Bedeutung der Demokratie würde sich das ändern nun hat Jeanette Hofmann eine Frage in der ersten Reihe Sie haben gesagt, dass wenn Algorithmen erfolgreich sind dass sie teilweise die Zukunft generieren, die sie vorher sagen und sie haben das Beispiel Shopping und vorher sagbare Polizeiebeit genutzt ich habe ein weiteres Beispiel im Kopf das eine weitere Frage aufwirft wie würden sie es erklären was passiert, wenn Algorithmen nicht erfolgreich sind ich habe über Mikrotargeting nachgedacht eine neue Technik wie man Wähler identifiziert die Sozialgruppe von Wahlkämpfern werden im Jahr 2008 haben Beobachter gesagt dass Präsident Obama die Wahl gewonnen hat weil er solche neuen Techniken genutzt hat und wir alle waren ganz beeindruckt von der Verheersagbarkeit dessen was Wähler am Ende tun würden sie mit Ja oder Nein stimmen für wen würden sie stimmen und wir haben gesagt diese Techniken sind wunderbar um die Zukunft hervor zu sagen aber in der letzten Wahl haben sie diese Techniken nicht mehr den Erfolg hervorgebracht und wenn sie also sagen sie produzieren die Zukunft die sie vorher sagen dann sind die Algorithmen vielleicht doch nicht mehr dazu in der Lage die Zukunft vorher zu sagen die sie bei der letzten Wahl vorher gesagt haben oder gibt es deine andere Erklärung das ist eine tolle Frage ein tolles Thema Obama hat 2008 etwas genutzt dass man micro targeting nennt aber das stützt sie sich nicht auf Algorithmen die in der letzten Wahl wurden Algorithmen allerdings genutzt und micro targeting wurde erfolgreich genutzt Ted Cruz hat sie benutzt in den primary elections in den Vorwahlen und war damit erfolgreich und er hat eine zeitlang viel mehr Erfolg gehabt als man gedacht hat denn er hat sich das micro targeting bedient es gibt also Techniken wie diese die immer noch nützlich sind aber wie sie gesagt haben Algorithmen funktionieren aber selbst wenn sie richtig liegen dann determinieren sie nicht aufgrund des Hintergrundes mich fasziniert wie wir mit den Daten die wir heute haben über die Nutzung zum micro targeting wie micro targeting mit guten Ergebnissen erfolgreich war oder wie die Menschen darauf reagiert haben wie wir das heute lesen können aber auch wenn wir uns die neuerlichen politischen Debatten ansehen da gibt es Unterschiede zu 2008 ich denke zum Beispiel über Philipp Hoffmann er hat sich mit chatbots befasst 2008 gab es keine chatbots und viel Wahlkampf wurde durch chatbots betrieben in der letzten Wahl in den USA und wir wissen aber auch nicht wie effektiv diese chatbots waren und das gilt auch für den Brexit und den Trump-Wahl aber da können wir es wir wissen nicht genau wie effektiv aber sie waren definitiv effektiv diese chatbots einen Moment bitte ich habe sie gesehen schauen sie doch mal ins Twitter-Konto vielleicht gibt es Fragen von Twitter vielleicht gibt es da interessante Fragen die über den Hashtag Digital Society angekommen sind mein Kollege in der ersten Reihe braucht nun das Mikrofon um das vorzulesen die erste Frage die wir in der Diskussion von Facebook und Twitter gesehen haben gibt es eine Verbindung zwischen der Vorhersagbarkeit und der Quantmechanik aus theoretischer Sicht das ist eine interessante Frage und eine andere Person stellt eine weitere Frage wie werden sich unsere persönlichen sozialen Medienblasen entwickeln wenn Algorithmen nicht lernen zu lernen und dann ist künstliche Intelligenz immer zielorientiert und wenn nicht haben sie etwas mit Algorithmischer Vorhersage zu tun und welche Rolle spielt Algorithmen bei dieser Intelligenz das sind drei große Fragen ich denke, dass wir sie möglicherweise in eine Frage zusammenführen können also einige dieser Fragen können auch ziemlich schnell geantwortet werden also Quantenmechanik und Algorithmen das weiß ich jetzt nicht wie die Modi gesprochen aber wie weit die die Vorhersagen Algorithmen beeinflussen das weiß ich nicht wahrscheinlich gibt es Leute, die dazu sagen können aber ich nicht was war das andere können Sie das zweite nochmal wiederholen das war das dritte mit der persönlichen Filterblase die zweite Frage bezosierte soziale Medienblase und wie sie sich in Zukunft entwickeln werden Sie sagten ja, dass Algorithmen ja nicht in der Lage sind wie man lernt also diese Filterblase das war ja schon vorher dran also die Filterblase also jetzt wird versucht das haben wir gehört, zum Beispiel der Facebook versucht jetzt Algorithmen zu verwenden um diesen Filterblaseneffekt zu nutzen das heißt viel besser um ihn zu umgehen das nicht nur dass man immer nur das hört, was man vorher auch schon gehört hat sondern dass auch ein bisschen ein Überraschungsmoment eingebaut wird also ob das jetzt funktionieren wird oder nicht, keine Ahnung aber Facebook hat offensichtlich vor seinen Algorithmen entsprechend zu ändern und die dritte Frage, da ging es third question ist die Intelligenz immer zielorientiert nein ich glaube, diese Frage hatte doch noch etwas mehr Inhalt etwas mehr Kontext wir sprachen ja über dieses Zufallselement diese Überraschungselement und dass wir von der Randomisierung lernen ich weiß nicht, ob diese Frage sich darauf bezieht also Algorithmen wir sind tendenziell zielorientiert Algorithmen lernen von Fokushippen sich auf Aufgaben zu konzentrieren und da gibt es noch einen Herr hier auf meiner linken Seite ja, vielen Dank für diese interessante Diskussion ich arbeite im Bereich Maschin eines Lernen als Forscher und ich habe interessiert, einigen Ihrer Punkte zu gehört der erste Bezug sich auf Overfitting der erste Bezug sich auf Overfitting der erste Bezug sich auf Overfitting Overfitting also zumindest für Praktika ist es typischerweise so dass man ein das Computer hat und einen Training Computer und dadurch vermeidet man Overfitting also so dass man eben die Leistung beobachten kann in Bezug auf Daten die man vorher noch nicht gesehen hat, also das vermeidet dieses Overfitting und bei dieser Predictive vorher sagen einer Lütik kein Praktika würde sagen ich sage das vorher oder so weiter, sondern es ist immer das Ergebnis einer Interpretation einer Deutung der Wahrscheinlichkeit also man würde mal sagen, also diese Person mit einer 90% Wahrscheinlichkeit ein Eis essen in der Brasca also deswegen verstehe ich Ihre Sicht dieser Nachteile der vorher sagen einer Lütik nicht und ich denke man sollte man kann man kann keine vorher sagen Zukunft machen und wenn man vorher sagen über die Zukunft macht auf der Grundlage von Daten aus der Vergangenheit, dann macht man keine vorher sagen, sondern es ist einfach eine statistische Interpretation eine Wahrscheinlichkeitsrechnung auf der Grundlage von Statistik ja, Overfitting da haben sie völlig recht, Leute wissen das auch und sie versuchen das auch anzugehen es ging mir nicht darum zu sagen, dass das nicht möglich ist sondern es ging mir nur darum zu sagen, dass die Probleme und die allgemeine Haltung der Maschinellen beim Maschinellen lernen was anderes ist als bei der Wahrscheinlichkeitsrechnung und denn wir sind uns dessen bewusst dass sie hier nicht Wahrscheinlichkeitsrechnung machen sondern es um Maschinellen lernen gibt sie versuchen mit Teillösungen umzugehen und sie wissen auch dass es fast unmöglich ist die eine Lösung zu finden mit der man dann das Problem des Overfitting vermeiden kann Overfitting ist immer ein Problem des Maschinellen lernen man versucht es zu vermeiden und man kann es nicht völlig beseitigen und der andere Punkt dass sie behaupten, dass sie mit einer gewissen Wahrscheinlichkeit die Zukunft vorhersagen können haben sie auch recht aber der Unterschied ist nicht dass sie Leute behaupten, dass sie vorhersagen können so 100% was passieren wird sondern sie das Problem besteht darin, dass sie Leute behaupten dass sie in eine gewisse Vorhersagen zu einer Einzelperson machen können das ist eine Einzelperson zu 90% Wahrscheinlichkeit eine Straftat begehen wird oder ein Produkt kaufen wird oder sich so und so verhalten wird und dass man darauf dann bestimmte Maßnahmen ergreifen wird und das würde man nicht machen wenn man einen Durchschnitt berechnen wird eine spezielle Person wird mit 90% dieser Wahrscheinlichkeit dieses Produkt kaufen das hat dann performative Konsequenzen und zwar viel größere Konsequenzen und Maßnahmen Konsequenzen als wenn man nur vorhersagen zu einer Durchschnittwert machen würde zum Durchschnitt der Bevölkerung sie sagen überhaupt nicht, dass sie 100% etwas vorhersagen können sondern das Problem besteht darin dass sie sich fokussieren auf eine spezielle Person wir haben noch 10 Minuten und ich möchte jetzt vorher sagen dass wir auch pünktlich schließen da war jemand hier auf der linken Seite und dann haben sie auf der in der zweiten Reihe rechts auch noch das Wort eine Frage Sie haben zu Beginn die Geschichte von Ölibus erzählt und die griechische oder antike Idee der Zukunft die schon vorher bestimmend war und es ist keine Möglichkeit geben würde diese Zukunft zu ändern dass die Zukunft schon beschlossen war und wir haben jetzt die moderne Vorstellung der Zukunft ich weiß, Sie können morgen millionär sein und ich habe mich gefragt in Ihrer Forschung Sie haben sehr oft die fantastischen Ergebnisse des Maschinenerns genannt und ich möchte Ihnen etwas persönlicher Frage stellen es ist Ihre Meinung in Bezug auf die Offenheit der Zukunft wo sie sich doch geändert hat ist die Zukunft Ihre Ansicht nach radikal offen oder ist sie nicht so ganz offen Sie zeigen uns diese Algorithmen dass die Zukunft weniger offen ist als wir Menschen der moderne dachten und das sind wieder gute Fragen diese Vorstellung der offenen Zukunft, dass es alles möglich ist diese Vorstellung ist eigentlich eine Fantasie es ist nicht die Vorstellung was diese offene Zukunft eigentlich besagt man kann die Zukunft nicht vorher sagen weil die Zukunft abhängt von dem was wir heute machen das heißt alles was in der Zukunft passiert, hekt davon ab was wir heute tun es gibt eine Verbindung zwischen der Zukunft und dem was wir machen es gibt also klare Zwinge von daher ist nicht völlig offen das heißt im Gegenteil die Zukunft ist offen gerade deswegen weil sie das Ergebnis unserer heutigen Aktionen ist also das ist also nicht komplette Fantasie sondern das gewisse Checkers hat eine Theorie die da steht im Gegensatz zwischen Vorstellung Kraft und Fantasie also man kann etwas für die Zukunft schaffen also die Zukunft ist nicht komplett willkürlich sondern sie ist zwar überraschend aber entsteht aus dem was heute passiert und da ist noch jemand in der dritten Reihe vielen Dank für diesen Vortrag der Russen Philosophischen Inhalt hatte ich bin Alexander Schmes von der Piratenpartei und ich habe eine spezielle politische Frage wir haben drei Politiker in Berlin Herrn Heimann und Herrn Buschkowski die eine komplette Überwachung von Berlin planen mit 24.000 Kameras und auch die entsprechende Software die vorher sagen kann berichten kann wann immer eine Straftat passiert und das direkt an die Polizei meldet was wäre Ihr Rat für diese Leute Vorsicht ich würde nicht sagen dass diese Dinge komplett nutzlos sind was wir schon hier gesagt haben es gibt sehr viele Versprechungen und manchmal sind diese Versprechungen selbst der fühlende Versprechungen ich kenne die politische Situation hier nicht und die politischen Entscheidungen die politischen Entscheidungen hängen ja auch nur so viel was man immer in dieser Hinsicht entscheidet seien Sie vorsichtig wir sprechen für eine digitale Gesellschaft und ich und wäre mehr menschlichen Aspekt dieses Thema interessiert wie diese ganze algorithmische Landschaft uns betrifft als Menschen die Auswirkungen hat das Auswirkungen darauf wie wir denken das Auswirkungen darauf wie wir uns entwickeln werden als Gesellschaft unsere Intaktion mit der Maschine wird das Auswirkungen haben und auch auf tiefen psychologischer Ebene wie diese Algorithmen uns da betreffen werden oder beeinflussen werden und wir schließen eben einer wirklich großen Frage ich möchte nur ein bisschen was dazu sagen wir werden Algorithmen als neue Medien unsere Art des Menschseins beeinflussen natürlich wir sind immer Einfuss gewesen von den Medien, unserer Gesellschaft wir hängen immer sehr ab nicht nur von der Sprache die Sozialist sondern auch von dem Schreiben, der Schrift die Schrift war eine große Revolution die Druckerpresse, Massenmedien und so weiter das hat immer Auswirkungen darauf wie wir denken wie wir über uns selbst nachdenken das hängen immer schon von den Medien ab und das ist die einfache Grundlegende Antwort natürlich werden Algorithmen uns ändern aber das ist nun natürlich und etwas fokussierter mit Algorithmen da gibt es diese ganze Diskussion über diese Touring-Tests und die Ähnlichkeit oder Ähnliches und dass wir uns bewegen in einer posthumaren Gesellschaft denn zum ersten Mal ist das das Privileg der Menschen bisher war es immer nur das Privileg der Menschen die Informationen zu sammeln und zu analysieren und zu verstehen und jetzt übernimmt diese Aufgabe auch die Maschinen und dass das aus Auswirkungen tiefgreifende Auswirkungen auf unser Mensch sein hat als früherer Medien das haben konnten und meine meine ich interessiere mich nicht für Touring-Tests wenn Maschinen das ist eine Maschine Maschinen schaffen immer den Touring-Tests die bestehen das immer und Maschinen kommunizieren oft mit Bots wenn wir zum Beispiel Menschen kommunizieren oft mit Bots ohne das zu merken zum Beispiel wenn wir Flugtickets buchen oder ein Video spielen machen wir stellen es nicht fest und ich denke mal so digital natives den ist er sogar egal und das wird weiter so gehen und das macht mir keine große Sorge zu der Rolle des Menschen ich hatte den Eindruck die Diskussion zeigt das auch dass die Rolle der Menschen anders aber grundlegender bleibt ich hatte nie das Gefühl dass bei Hybriden Menschen mit Algorithmen gemischt werden das war mal bisher getrennt Algorithmen sind intelligent nicht weil sie ähnlich wie wir sind sondern weil sie im Gegenteil eher anders sind als wir und deswegen mache ich mir keine große Sorge darüber, dass Menschen ihre menschliche Identität verlieren aber die Beziehungen zwischen den Menschen die ändern sich ist eine sehr kleine kleine Abschlussfragen das ist vielleicht etwas persönliches wenn ich glaube, eine Frage ist etwas allgemeiner die andere ist sehr persönlich wenn ich sagte dass wir heute Abend um 10 hier schließen dann wusste ich, dass das nicht richtig sein würde ich habe hier mal eine Nachlässigkeit berücksichtigt ich bin Schweizer und 3 Minuten Verspätung ist ein großes Problem für mich aber ich habe jetzt gelernt damit umzugehen mein eigener biologischer Algorithmus hat hier eine richtige Vorhersage gemacht obwohl ich hier in der Öffentlichkeit darüber gelogen habe müssen wir den Algorithmen etwas leeren was sie selbst gut nicht können nämlich unpräzise zu sein nachlässig zu sein und Fehler zu machen schlampig zu sein sicher, aber das ist ein altes Problem und das ist das was unsere neue Internetwelt entstanden ist ich will keine Expertinnen programmieren aber da gab es früher so randomisierte Generatoren wie Maschinen wir erwarten nicht, dass eine Maschine eine Überraschung macht eine Maschine und sie überrascht dann sagen wir, dass diese Maschine kaputt ist also wenn Maschinen anfangen sich intelligent zu verhalten dann gehen wir davon aus, dass sie kaputt sind aber eine Maschine sollte komplett zuverlässig sein und uns nicht überraschen also wenn mein Auto nicht gestartet morgens dann ist es nicht kreativ dann ist es kaputt und wir versuchen jetzt Maschinen das beizubringen also ich hätte es nicht gesagt dass es eine Verzögerung hier ein kreativer Aktiv sondern dass ich das einfach berücksigen sollte für zukünftige Veranstaltungen zum Beispiel und bei der Kommunikation der Theorie Christoph Neuenberger da haben wir sehr viel auch am letzten mal haben wir auch sehr viel über soziale Medien gesprochen und wir haben gefragt ja du bist ja offensichtlich nicht sehr aktiv im sozialen Medien weder bei Facebook noch nur anders eine ganz interessante abschließende Diskussion darüber Sie haben auch über Mode geschrieben und deswegen möchte ich Sie fragen machen Sie ganzes Einkaufen online oder kaufen Sie auch noch tatsächlich dort real in der realen Welt im Laden und verdunken Sie Ihre Spuren wenn Sie einkaufen oder wie machen Sie das persönliche Frage ich bin sehr fasziniert ich bin sehr fasziniert vom Thema Mode also ich habe geforscht zum Thema Mode im 17. Jahrhundert also ich weiß jetzt nicht was heute passiert also ich kann nur beobachten was in der Mode in der Vergangenheit passiert aber ich glaube das war nicht Ihre Frage ich bin ziemlich beschämend ich bin nicht bei Facebook aber das ist eine allgemeine Regel die die Sociologen bestätigen und die Sociologie hat den großen Vorteil und die große Pflicht die große Aufgabe auch dass wir eigentlich alles in der Gesellschaft untersuchen können und die Leute wählen aus in denen sie besonders schwach auf der Brust sind also ich sitze jeden Tag vom Computer aber ich bin nicht bei Facebook ich bin bei keinen anderen sozialen Medien und ich bin nicht wirklich sehr interessiert an Mode und wenn ich etwas kaufe dann mache ich es im Laden also Sie weißen im Grunde Ihre Einkaufsentscheidung nicht auf kollaboratives Filtern also meine Modeentscheidung sind keine großen Entscheidungen ich glaube bin ich sicher ob ich Ihnen hier total glaube aber das denke ich ist vielleicht eine persönliche Abschlussbemerkung es war für mich eine Ehre hier den Moderator zu machen in Zusammenarbeit mit diesen beiden Behörden der Bundesentrafikpolitische Bildung und dem Homeboard-Institut für Internet und Gesellschaft vielen Dank für Ihre Teilnahme hier auf das Befehl und ein paar Getränke und vielen Dank dass Sie das von Kolonia angereist sind Elena Esposito