 So, sehr schön, nachdem sich jetzt alles wieder ein bisschen beruhigt hat. Cordula crop. Ne, Cordula. Guten Morgen. Also ich habe in meiner Kindheit Mickey-Maus gelesen und daher Gundula ist ja die Ente. Sehr schön. Okay, dann übergebe ich dir gleich. Herzlich willkommen von der Hochschule München. Nein. Auch nicht mehr. Von der Universität Stuttgart. Okay. Ich bin seit drei Jahren an der Universität Stuttgart. Das ist ein... Das ist ein Matter. Vielen herzlichen Dank. Ich freue mich sehr, dass ich hier bin und ich habe hier auch schon unglaublich Interessantes gehört und würde mit allen gerne noch viel mehr diskutieren. Schade, dass wir so viel frontal haben. Ein nächstes Mal. Tatsächlich interessiere ich mich auch für algorithmische Sozialität. Ganz am Schluss, bevor Robert Seifert weggegangen ist, hat er noch gesagt, die Verhältnisse seien ja aber asymmetrisch. Man könnte sozusagen sagen, ich interessiere mich besonders für asymmetrische, algorithmische Sozialität. Und zwar vor dem Hintergrund, wir haben gerade einen Vortrag gehört, würde ich sagen, über das Anthropomorphisierungsparadox. Es gibt viele solcher Paradoxen. Oder Paradoxe. Paradox sagen genau genommen, wenn wir aus dem griechischen denken, ja. Aber trotzdem haben all diese als Versprechungen oder als Erwartungsüberschüsse eine ungeheure Legitimität und mich interessiert, woher kommt das? Also ich bin sozusagen an der Rolle und Bedeutung einer vor allem automatisierten Steuerung in der reflexiven Moderne interessiert. Was heißt reflexive Moderne? Wenn ich das jetzt ganz kurz mache, nach Ulrich Beck heißt das, eine Moderne, die sich selbst immer stärker zum Thema und zum Problem wird und dadurch teils reflektiert, teils reflexiv darauf reagiert, also reflexartig, indem sie versucht, irgendwie die nicht intendierten Neben- und Folgengewirkungen eigentlich ihrer Errungenschaften doch noch in den Griff zu bekommen. Also eine legitime Geltung aufrecht zu erhalten. Schauen wir uns mal das an, das ist vielleicht ganz interessant. Das ist die Heatmap von Bikern, die, sie wird erzeugt über GPS basierte Sensoren, die bewusst genutzt werden in dem Fahrradfahrer ihre Wege tracken und das ergibt dann eine ganz andere Karte, eine ganz andere Infrastruktur als üblicherweise. Also das ist jetzt eine Karte aus München und man sieht das auf einmal die ISA-Achse und auch die Schlossachse, also quasi grüne Achsen werden ganz dominant, ganz wichtig während Gesonstkarten haben, die immer die Runden quasi Stadtautobahnen, also die Verkehrs-, durch die Autos dargestellten Verkehrsrouten zentral stellen. Jetzt ist das aber nichts, wie man denken könnte, was irgendwie einfach eine datenbasierte, also Abbildung oder Erkenntnis wäre. Es ist auch keine digitale Spur, sondern es ist eine politische Praxis unter Bedingungen digitalisierter Gesellschaften und das ist, was ich in das Zentrum rücken möchte. Denn die Fahrradfahrer, die diese Spuren produzieren, müssen dafür vorher ihre Handys aufladen, sie müssen ganz bewusst ihre Wege tracken und aus Interviews wissen wir auch, dass sie Umwege fahren, dass sie andere Wege fahren, als sie normalerweise fahren würden, um eine gewisse Sichtbarkeit zu erlangen und sie tun das nicht von ungefähr, sondern sie tun das, weil sie wissen, dass immer stärker sogenannte Nutzerströme herangezogen werden, um bestimmte Infrastrukturentwicklungen zu legitimieren und auch zu privilegieren. Und das ist vielleicht ganz interessant. Also worüber spreche ich nicht generell über die Digitalisierung, sondern eigentlich über automatisierte Steuerungssysteme, insbesondere algorithmenbasierte Systeme, das kann man sagen, das sind stochastisch optimierte elektronische Datenverarbeitungssysteme. Also eigentlich nicht so viel Neues. Das Neue daran ist, dass man die menschliche Intervention reduzieren kann und dann auch unklassifizierte Inputdaten eben in Output überführen kann. Die sind unglaublich weit verbreitet. Sie sind heute schon in Actu. Also das gestern angesprochene große Auto, das Kollege Armin so gerne fährt, hat schon einen Großteil dieser Steuerungssysteme. Sie sind typisch für Infrastrukturversorgungssysteme überall, wo Smart Grid oder Smart Mobility oder Shared Mobility eingesetzt wird. Sind Sie schon lange etabliert an vielen Stellen, wo Verteilungsprozesse organisiert werden, beispielsweise, das ist sicherlich bekannt, hat das Österreichische Arbeitsministerium ein System eingesetzt, um eben Fördermaßnahmen, Algorithmen basiert zu vergeben. Und Sie werden auch als Automated Decision Making Systems immer stärker in verschiedenen Governance-Konsolationen eingesetzt. Für Sie gilt, was Joffi Barker und Susan Lister schon vor vielen Jahren formuliert haben. Also sie sind großunsichtbar, aber trotzdem mit einer eindeutigen Steuerungs- und Kontrollwirkung verknüpft. Also es ändert sich durch Hutenevorschläge, durch Spotify ändert sich die Musik, die produziert wird. Es ändert sich die Idee von Rangzuweisung, von Kredibilität, das ist auch ein ganz schönes, wichtiges Beispiel generell, von Aufmerksamkeit, von Verhersage. Talten-Gillespie spricht deshalb von kalkulierter Öffentlichkeit. Also es ändert sich eigentlich der Gegenstand auch der Gesellschaftstheorie. Steffen Mau hat schon gefragt, wieso haben die Valorisationsagenten in diesen Repräsentationsregime so eine Benennungsmacht und Definitionshoheit, woher kommt das? Und das ist, was ich ins Zentrum rücken möchte. Also was legitimiert diese Mechanismen, die mit einer ganz erheblichen Umkodierung dessen einhergehen, was zählt, in den verschiedensten Perspektiven? Ich würde gerne einen Schwerpunkt setzen auf Rechtfertigungsordnungen und eben auch auf Legitimität, aber man kann auch andere Dinge anschauen. Jetzt findest du, dass eigentlich für die Techniksoziologie nichts Neues, sondern sozutechnische Konstellationen oder sozutechnisch grob produzierte Systeme untersuchen wir ja schon seit 30 Jahren mindestens. Und man sagt dann immer, aus welchen Komponenten bestehen die eigentlich? Also was wird da in eine Interrelation, in eine sich wechselseitig beeinflussende Beziehung gesetzt und seit langer, langer Zeit ist Madeleine Akrisch mit ihrem Skript immer eine Referenz. Also dem liegt ein Modell zugrunde, Technisierung überführt Erwartungen, macht sie stabil, erhärtet sie, verdinglicht sie. Dazu gehört dann eben der Algorithmus, der das Modell in eine schrittweise Übersetzung und Verarbeitung übersetzt. Die Algorithmen kommen nicht aus dem Nichts, auch wenn sie sehr viel über Copy-Paste verbreitet werden, kollaborativ entstehen, sind doch an ihrer Optimierung immer wieder ganze Legionen von Menschen beteiligt. Es ist unglaublich schön, eine Studie von Cardoso Lach, der zeigt, also wie bei MIT, als man die Fräse ersetzt hat und Maschinenführer, die diese Fräsen bedient haben nach dem Zweiten Weltkrieg, wie man eigentlich alles erhöht hat und sich sehr stark an der Materialität orientiert hat, der Ausgangspunkte und letztlich Blukaller Maschinenführer in geringerer Zahl durch sehr viel mehr White-Color-Software-Engineers ersetzt hat in dieser Steuerung von Fräsen. Ja, dann gehören dazu natürlich große Datenmengen, das sind teilweise Echtzeitdaten, Sensordaten, über die wir gesprochen haben, aber tricky ist, dass es auch sehr viel Daten sind, die überhaupt nur zu dem Zweck des Trainings produziert werden, also eine hohe Rekursivität haben, Simulationen, die genutzt werden, um eben Systeme zu trainieren, gerade wo ich in die Zukunft gehe und eigentlich ja keine Sensordaten haben kann. Ja, dann stecken dahinter immer Interessen, meistens politische oder ökonomische. Ich liebe diesen Bericht von Algorithm Watch, von diesem Jahr Taking Stop of European Digitalization, wo sie die 28 Nationen daraufhin vergleichen, mit was eigentlich begründet wird, wohin die Entwicklung geht und was man da für Akteurskonstellationen vorfindet. Und es gehören auch dazu, das zeigt besonders schön Andreas Rekwitz in seinem fünften Kapitel da, oder das ist der vierte, sorry, so eine co-evoluierende und co-produzierende Form der Nutzung. Also ich kann mich da jetzt auch schnell auf meinen Vorredner beziehen, der das ja gezeigt hat, wie da neue digitale Identitäten entstehen. Der Witz ist allerdings, dass diese Durchsetzung bestimmten Erwartungen folgt und diese Erwartungen sich auch merkwürdigerweise stabilisieren, kontrafaktisch würde ich sagen. Zu den klassischen, ich nehme jetzt mal den Begriff auf, Verkaufsversprechungen gehört eigentlich, dass es eine erhöhte Objektivität liefert. Also diese Daten basierten Modelle seien präziser objektiver, würden nicht durch solche individuellen Synkrasien oder irgendwie Interessen oder individuelle Willkür verzerrt. Aber sobald wir uns das näher anschauen, sehen wir, dass diese numerische Neutralität natürlich äußerst selektiv ist. Sowieso nur stochastisch wahrscheinlich.