 Wie dem auch sei. Bevor wir quasi weitere Zeit verlieren, freue ich mich jetzt heute morgen als ersten Redner Robert Seifert ankündigen zu dürfen. Jetzt die Doppelrolle als Vorstandsmitglied und Mitglied des Arbeitskreises und eine dritte Rolle als Referenz hier erfüllt. Und wir freuen uns, dass er von der Uni Duisburg Essen zu uns gestoßen ist und uns etwas über die algorithmische Sozialität erzählt. Ja, vielen Dank, vielen Dank für die schöne Einladung und es freut mich, dass ich hier vortragen darf. Was ich heute vortrage, ist theoretisch in erster Linie und der Hintergrund, ich habe viele Jahre lang im algorithmischen Börsenhandel zu dem Hochfrequenzhandel geforscht. Und das sind sozusagen jetzt die theoretischen Versuche, die daraus entstehen. Der Vortrag hat zwei Teile, einerseits in den theoretischen Teil, da geht es um die relative Soziologie. Der Sound ist tatsächlich nachhaltig. Soll ich das... Hallo? Ist sie da hinten? Der Sound ist nicht gut. Bestimmt irgendwas im Sound nicht? Im Saalsound. Im Saalsound. Ich rede trotzdem mal weiter. Aber ich bin es auch cool. Ich kann weiterreden, kann ich, inhaltlich? Ja, alles gut jetzt? Nein. Also einerseits die relative Theorie, mit der ich beginnen möchte und dann auf dem zweiten Teil das ein bisschen exemplifizieren an einem empirischen Fall an des autonomen Farns, was auch aktuell mein Forschungsfeld ist. Jetzt wird es im nächsten Slide ein bisschen komplexer. Das ist jetzt das, was wir gestern in der Diskussion mit Sascha schon angekündigt hat, das berühmte Vier-Felter-Schema, was Soziologen so gerne mögen. Da habe ich mir selbst eine kleine Bediedungsanleitung mitgebracht, um das zu erklären. Also wir hatten die Diskussion ja gestern schon, dass man einerseits sagen kann, es gibt eben diese digitalen Systeme und es gibt analoge Umwelt und wir hatten in der Diskussion schon angedeutet, dass es vielleicht ganz klug sein könnte, das noch zu komplexer zu gestalten, weil eben digitale Systeme eigentlich in analogen Umwelt nicht operieren und heuristisch oder scheide ich jetzt hier von Analogsysteme, das ist vielleicht jetzt nicht ein besonders glücklicher Griff, das Besseres ist mir nicht eingefallen. Das soll natürlich Menschen, Tiere, Pflanzen und sowas bezeichnen. Und das sind eben diese Elemente, die man vielleicht in einer Theorie der digitalen Soziologie unterscheiden könnte und was viel wichtiger ist, in der Relationalen Theorie sind die Beziehungen, aber in der Relationalen Theorie davon ausgeht, dass die Relationen den Relater gegenüber primär sind, wie die Individuen, wenn sie so wollen. Das ist das eine, worauf ich eingehen will, ist, dass diese Beziehungen natürlich nicht einfach nur Beziehungen sind, sondern die sind eben extrem heterogen und vielfältig und das ist vielleicht gerade eigentlich das Anspruchsvollste in einer digitalen Soziologie, die verschiedenen Formen der Beziehung zu unterscheiden. Da kann man also ganz klassischerweise sagen, was macht die Soziologie? Die Soziologie erforscht dominant intersubjektive Beziehungen, Interaktions-, Handlungstheorien zum Beispiel, also Menschen, Kommunikation mit Menschen. Und dann haben wir natürlich auch noch, was man, ob es ein bisschen zu zweit, interobjektive Beziehungen nennen kann. Es ist ein bisschen falscher Begriff, weil der interobjektive Beziehung natürlich von Latourkommentier soll eigentlich bezeichnen, der Umgang eben mit nicht belebten analogen Dingen. Und diese Sachen gibt es natürlich immer noch auf der anderen Seite. Also die digitalen Systeme selbst stehen in der Größe Verhältnis zu ihrer analogen Umwelt. Das ist jetzt das Argument, dass das eigentlich nur vermittelt über die digitale Umwelt geht. Also das habe ich ja jetzt, algorithmische Beziehungen genannt. Nicht auch so klassisches Beispiel wäre natürlich der Umfelderkennung beim autonomen Fahren. Das Auto muss irgendwie erkennen, ob es sich in einem Baum oder ein Mensch handelt und danach Entscheidungen treffen. Und wie gesagt, diese Entscheidungen, diese Erkennen funktioniert eigentlich nur in der digitalen Umwelt, sozusagen schon durch bestimmte Bilderkennungsverfahren präformiert sind. Und dann die vielleicht interessantesten Formen, interalgorithmische Beziehungen, das hatte ich gestern schon angedeutet, da gibt es einerseits in der Finanzmarktsoziologie Karin Knocitina und Donald McKenzie interessieren sich also nicht. Donald McKenzie, Karin Knocitina, hat den Versuch gemacht, den Begriff der Interaktion, den golf-männischen Interaktionsbegriff auf die Beziehung von Algorithmen zu übertragen. Algorithmen interagieren mit Algorithmen und das kann man jetzt sozusagen so weit treiben. Die Relationale Soziologie kann man so weit treiben zu sagen, eigentlich sind in der Beziehung, in der Sozialbeziehung eigentlich keine Menschen mehr anwesend. Das sind letztlich Algorithmen, die miteinander in den Aktionsverhältnissen stehen. Also einerseits natürlich interagorithmische Beziehungen könnten dann sein digitale Systeme, die mit digitalen Systemen kommunizieren, also Preisbildungen zum Beispiel nicht. Also gegenseitig Preis bestimmt werden. Und natürlich auch interagorithmische Beziehungen bezieht sich eben auch auf den Umstand, dass die digitalen Systeme mit ihrer digitalen Umwelt kommunizieren. Beispiel wäre, wenn wir die Frage, was ist die digitale Umwelt nochmal spezifizieren wollen, einerseits natürlich technische Infrastrukturen, Netzwerke, Surfer mit großen und kleinen Daten. Und letztlich könnte man sagen, die digitalen Systeme sind eigentlich genauer genommen, nicht zweiter als algorithmische Systeme. Insofern Sie die existierenden Elemente, die Relata, also Daten in Relation setzen. Also ein Algorithmus ist eigentlich, wenn Sie so wollen, eine Relationsmaschine, die bestimmte Datenströme und Daten in Relation miteinander setzt. Die in Farb bringt oder teilt oder verteilt und so weiter und so fort. Also hat man die interagorithischen Beziehungen eben auf zweifacher Seite, einerseits in die digitale Umwelt hinein und auf der anderen Seite natürlich innerhalb der digitalen, zwischen digitalen Systemen selbst. Und für Sie zur Zoologie natürlich, Entschuldigung, wenn das immer ein bisschen diese Unterbrechen gibt, interessant ist natürlich jetzt, dass was ich hier subjektalgorithmische Beziehungen genannt habe, ist auch noch kein superglücklicher Begriff, weil wir ja auf der einen Seite analoge Systeme haben und jetzt haben wir irgendwie Subjekte, aber das Subjekt steht irgendwie in Form von Individualität. Das Subjekt kann sich auch auf ein tierisches Subjekt beziehen. Es hat die Beziehung zwischen einem analogen Individuum, analogen System, an einem analogen Subjekt mit dem digitalen System. Hier von das jetzt immer doppelt, eine doppelte wechselseitliche Beobachtung, das digitale System beobachtet das analoge System oder eben das Subjekt schafft sozusagen eine digitale Identität, die findet hinter unserem Rücken statt, von der wissen wir nichts. Andreas Reckwitz hat ja diese zwei Formen der digitalen Subjektivität unterschieden. Auf der einen Seite die, die wir selbst inszenieren, auf sozialen Plattformen zum Beispiel, in denen wir uns besondere Weise präsentieren, das ist unsere digitale Subjektivität 1. Und dann eben die algorithmische Systeme hinter unseren Rücken errichten, von denen wir eigentlich nichts wissen über Verhaltens-, sozusagen Erkennungsalgorithmen, die eine subjektive digitale Identität hinter unseren Rücken erstellen. Also man hat man sozusagen diese wechselseitige Beobachtung, auf die ich noch zurückkommen werde. Das kann man jetzt noch weniger abstrakt übersetzen. Das ist mir jetzt eigentlich am wichtigsten, die Folie. Also man kann sagen, es gibt eben diese zwei Systeme und diese Systeme haben verschiedene Formen, ihre Umwelt zu erkennen und diese zu steuern. Bei dem analogen System würde man sagen, gut, wir haben es mit Praktiken zu tun und eine Form von Verstehen. Die digitale Systeme erkennen irgendwas in Steuern. Beginnen wir einfach mal hier, sagen wir in digitales System, mit einem relativ einfachen, behavioristischen Programm, versucht uns zu steuern. Ich sage mir eben, eine Verkaufsplattform versucht uns zu erkennen, welche Wünsche wir haben und versucht uns sozusagen, in den Buch zu verkaufen. Es hat mit einem relativ einfachem behavioristischen Modell vorher gesehen, was wir gerne kaufen wollten und macht die, wenn wir Twitter oder Instagram verwenden. Wir wissen nicht, wie der Algorithmus formiert. Wir versuchen aber unsere Post zu posten, dass es irgendwie attraktiv ist. Instagram verwenden wir irgendwie ein Filter, das uns besonders attraktiv erscheinen lässt. Das können wir sozusagen nur durch eine Praxis, durch so ein vernukulares Wissen eigentlich herausfinden. Das hat jetzt letztlich, wenn Sie sagen, eine digitale Praxis, die jetzt hier zurückspielt und wieder in diese behavioristischen Verhaltenserkennungssysteme eingespeist werden, die erkennen sozusagen, wieder uns natürlich nicht eins zu eins, aber zu machen aus dem, was wir da machen, irgendwie wieder Sinn und versuchen, das sozusagen wieder auf uns einzuwirken, nicht? Also haben wir diesen Kreislauf, der mir jetzt eigentlich am wichtigsten ist. Man könnte jetzt noch über die Umfelderkennung und über die Rede der Roboter hier sprechen. Das ist sozusagen noch die, das ist die Sphäre, wo wir über autonome Fahrzeuge zum Beispiel sprechen. Also Fahrzeuge, die unabhängig von Analogensystemen in digitalen Umwelten operieren. Das andere, das Analogensystem die das lasse ich jetzt erstmal aus Zeitgründen weg. Und komme jetzt, wozu komme ich eigentlich? Ja, jetzt komme ich zu der nächsten Folie, dass die aktuelle sozialwissenschaftliche, kulturwissenschaftliche, wissenschaftliche Forschung eigentlich nicht ausschließlich, könnte man sagen, oder die Dominant eigentlich in diesem Feld befindet. Alles, was sozusagen erforscht oder über die Digitalität erzählt wird, oder häufig, also nicht alles ist gelogen. Es gibt viele Arbeiten, die das nicht machen, aber viel findet eigentlich hier in diesem Bereich statt das sozusagen, was diese Verhaltensalgorithmen oder diese Verhaltenserkennungssysteme über uns erfahren, tatsächlich eben das ist, was wir machen. Und dass diese Versuche, unsere Verhaltensbeinflusungen, die sie vornehmen, in irgendeiner Weise dann mit dem zu tun hat, was tatsächlich die Praxis ist. Also es wird sozusagen mehr oder weniger das Verkaufsversprechen derjenige, die digitalen Systeme produzieren für die empirische Realität genommen. Das können Sie in Büchern, z. B. surveillance capitalism von Zuboff sehen. Das ist sozusagen so ein Blubrenn davon. Ich lese einfach jetzt die Versprechen der Produzenten und sage dann, dass ich ja ganz furchtbar war und weil das eben tatsächlich eins zu eins der Realität entspricht, was eben faktisch nicht der Fall ist. Und jetzt kommt mein Argument, dass es viel interessanter wäre, sich eigentlich eine ganz andere Zone anzuschauen, eben nicht diese, sondern eigentlich die hier in der Mitte, in der die tatsächliche algorithmische Satz-Sozialität stattfindet, also in dieser Zwischenzone, die man auch in der Zone der Unbestimmtheit nennen kann, weil ich, wie ich angedeutet habe, es eben zu diesen ständigen Missverständnissen und so eine Form von Bedeutungen aus dem, ja, nicht sozusagen impliziten Wissen und in hochgradigen intransparenten Sozialbeziehungen sich befindet. Das als eilig durch die Theorie durchgeeilt. Und jetzt, wie viel Zeit habe ich noch? Gut. Dann komme ich jetzt zum Beispiel. Ich möchte eben jetzt zeigen, was man am autonomen Fahren vielleicht mit so einer Umstellung auf so ein relationales Modell und den Fokus auf algorithmische Systeme vielleicht besser sehen kann, als was man bisher sieht. Was wir viel erfahren, das hatten wir jetzt schon diskutiert gestern. Das ist eben der allgemeine Diskurs, den wir über das autonome Fahren hören. Also nicht. Wir können gerade für uns Intellektuelle ist, dass natürlich interessant diese Vorstellung, da im Auto zu sitzen und Bücher zu lesen wird, faktisch für uns. Das ist so ein bisschen eben diese Fiktion, nicht die Fiktion des autonomen Fahrens, wie sie ihr ja oder sie auch wahrscheinlich permanent überall in der Presse und in den Medien sehen. Da stellt sich natürlich die Frage, was heißt eigentlich autonomes Fahren? Da kann man sich dann die Definition der Industrie anschauen. Gibt es dann festgelegte Definition, fünf Stufen der Automatisierung, also wenn man mal davon abzieht, dass die Stufe 0, also vollständig keine Automatisierung ist, sind diese Stufen der Automatisierung letztlich zunehmende Einbauten von Assistenzsystemen. Und streng genommen ist es eben so, dass man sagen würde, eigentlich sind diese Stufen 4 und 5 die Formen dessen, was man eigentlich als autonomes Fahren bezeichnen würde. Ich lese das mal kurz vor. Also die Stufe 4 High Automation. The Vehicle is capable of performing all driving functions under certain conditions. Und Level 5, Full Automation. The Vehicle is capable of performing all driving functions under all conditions. Also einerseits, das Auto kann autonom fahren ohne menschlichen Eingriff, wenn es in einer bestimmten artificiellen technischen Umweltsicht befindet, weil es z.B. verletztes Fahren ist. Und die Stufe 5 wäre sozusagen Autonomiefoktion. Insofern, als man sagen könnte, jetzt kann das Auto überall fahren im Wald, es kann auf den Mund fahren, es ist sozusagen vollständig autonom. Das ist die Definition. Und dann stellt man eben empirisch fest, dass es eigentlich die Stufe 4 und 5 nicht gibt, sondern alles, was es gibt, sind eigentlich Stufe 3 oder 2 und 3. Also auch Tesla, also die großen Ansprüche, die Tesla immer hat, autonomes Fahren auf uns zu haben, sind faktisch sozusagen komplexere Assistenzsysteme. Autonomisch Fahren, Stufe 4 und 5 gibt es technisch nicht. Es ist nicht marktreif, es ist auch nicht erfunden. Es ist nicht mal ansatzweise da. Das Argument ist jetzt nicht, dass wir uns die Diskussion anlassen, ob das möglich ist oder nicht. Das interessiert mich nicht. Mich interessiert empirisch, dass es nicht so ist. Und dass man sich dafür interessieren kann, was das eigentlich bedeutet für die Gegenwart. Was bedeutet das? Da könnte man sich in anderen öffentlichen Diskurs heranziehen. Hier ist ein Zeitschrift, ein Artikel der FAZ. Da geht es um Assistenzsysteme und autonomes Fahren. Das ist ein ganz interessantes Zitat hier. Also da geht es um Assistenzsysteme, genannt Road and Driver, der sozusagen das Assistenzsystem beobachtet, den Fahrer oder die Fahrerin dabei, ob sich das einschläft, ob die Augen auf der Straße sendet und so weiter und so fort. Das ist insofern interessant, weil es hier heißt, eine Road and Driver genannte Kamera erkennt, in welcher Position sich der Fahrer befindet, wohin sein Pluget und wo seine Hände sind. Auf diese Weise soll autonomes Fahren sicherer werden. Das ist ja irgendwie eine paradoxe Formulierung. Insofern man sich natürlich fragt, ob ein Fahrzeug überhaupt jemandem braucht, der da aufpasst. Warum das sicher ist, dass autonomes Fahren nicht sowieso schon unabhängig vom Fahrer ist. Hier sieht man, dass es eine merkwürdige, das ist sozusagen eigentlich der klassische Diskurs der Industrie. Wir haben Assistenzsysteme und wir bauen zunehmend Assistenzsysteme und irgendwann kommen wir sozusagen zu autonomem Fahrzeugen. Was für klassischerweise für Assistenzsysteme gibt es oder was für Assistenzsysteme sind interessant, dass man auf eine Entwurf für eine neue Regulierung der Europäischen Union verweisen, die vorschlägt im Jahr 2020 verpflichtend für jeden Neuwagen, der in der Europäischen Union verkauft wird, die folgende Reihe von Assistenzsystemen verpflichtend einzubauen. Also jeder Fahrzeugverkäufer muss diese Assistenzsysteme ab 2022 einbauen. Man kann kurz durchgehen, viele gibt es ja schon nicht. Also das, was ich hier, diesen Aufmerksamkeitsassistent das gibt, wenn jemand von ihr viel Geld hat und so der Autos hat, der kennt das wahrscheinlich, oder wenn er sich mal in ein Auto ausgeliehen hat in der Mietwagenverleih, dann gibt es sowas. Kann man kurz durchgehen, Aufmerksamkeitsassistent, also das ist eben das nicht. Die Kamera erkennt, dass die Augen zugehen und dann schläft man ein und dann sagt der Assistent, gibt ein Wahnsinnial und sagt jetzt aber bitte mal kurz eine Pause machen. Fortgeschrittene Ablenkungserkennung bezieht sich auf ein Problem, dass mittlerweile empirisch es wohl so ist, dass die Ablenkung durch elektronische Geräte zu größerem Unfallrisiko führt als die Alkoholisierung. Das ist ein interessantes empirischer Fakt. Also die Leute spielen an ihrem Handy rum oder werden durch die Displays ihres Assistenzsystems abgelenkt oder stellen irgendwie Navigationsgeräte ein und das führt ironischerweise sozusagen das Assistenzsystem, führt ironischerweise dazu, dass eigentlich die Unfallzahlen sich gerade wieder erhöhen. Das macht man sozusagen nicht das Gegenteil dessen, was sie machen sollen. Und die fortgeschrittene Ablenkungserkennung versucht sozusagen jetzt dialektlich dieses Problem wieder einzuholen, indem sie sagt, sie haben ja jetzt ihre Augen auf dem Handy oder auf dem Display des Assistenzsystems und die Augen gehören aber auf die Straße. Alkoholische Weckversprache ist selbst erklären, das geht also darum, dass man bevor man einsteigendes Auto losfährt eine Alkoholkontrolle machen soll und schauen soll, ob man tatsächlich jetzt nüchtern ist. Der intelligente Geschwindigkeitsassistent bezieht sich jetzt nicht auf Hoch- und Niedriggeschwindigkeit, sondern es bezieht sich darauf, dieses Geschwindigkeitsfahrzeuges optimal in die Struktur der Infrastruktur einzupassen. Also wenn man sehen kann, dass davon ein Steuer kommt, braucht man nicht aufs Gas gehen. Das Notbremslicht geht jetzt darum, gerade Assistenzsysteme haben eben die Einigenschaften schneller zu bremsen als der Mensch und da kommen es dann, also Auffahrunfälle, sind mit Assistenzsystemen autonom fahren, die größten Unfälle. Das Auto geht also voll sozusagen in die Eisen und dahinter menschliche Akteurs nicht in der Lage sind, abzubremsen. Und das dient dazu, dient sozusagen das Notbremslicht, den nachfolgenden Fahrern zu signalisieren, dass jetzt da eine Gefahr trot. Erkennung beim Rückwärtsfahren, nicht auch, dass sie eben nicht die alte Frau oder die Kindergruppe umfahren, wenn sie Rückwärts fahren. Sporhalterassistent, auch das gibt es in vielen Autos schon. Sie fahren auf der Autobahn und schlafen ein und verlassen die Spor. Das ist da eben ein Wahnsignal lieb. Und dann Unfalldatensprecher, Blackbox, wie sie auch aus Flugzeugen kennen. Wenn man sich das anschaut, wenn man sich diese sieben verflichenden Assistenzsysteme anschaut, die eingebaut werden sollen, fällt auf, dass eigentlich alle, außer dem Unfalldatensprecher, sich eigentlich auf die Regulierung der Beziehung von Fahrer und Fahrzeug beziehen. Alle diese Formen managen in gewisser Weise die Menschmaschinebeziehung. Nichts von diesem Assistenzsystem hat irgendwas mit autonomem Fahren zu tun. Sondern alle diese Assistenzsysteme sorgen eigentlich dafür, dass die Beziehung zwischen Fahrzeug und Fahrer intensiviert wird. Die eigentlich sogar noch schlimmer intensiviert wird als vorher, weil ich jetzt nicht mehr aus dem Fenster gucken darf und einfach mir den schönen Baum anschauen darf oder den schönen Berg der Karte vorbeikommt. Und weil ich auch nicht mit zwei Bier fahren darf, sondern ich eben jetzt Nüchtern fahren muss. Das heißt, die Beziehung zwischen Fahrzeug und Fahrer wird eigentlich auf eine gewisse Weise intensiviert und ist viel intensiver als paradoxerweise die Beziehung ist zu einem Fahrzeug, was ohne irgendeine Art Assistenzsysteme verkauft wird. Das ist also die zentrale Argumentation dieses Vortrages, dass wir es eigentlich nicht mit Autonomie zu tun haben, dass es keine Autonomiefoktionen gibt, sondern was man mit dem, was man derzeitig an der technischen Entwicklung beobachten kann, ist gerade eigentlich eben eine relative, eine neue Relationierung der Konstellation der Elemente von Fahrerinnen und Fahrzeug. Das Fahrzeug wird in keinster Weise Autonom, sondern im Gegenteil kommt es hier zu Intensivierung, ich habe es angedeutet, man kann nicht einfach rausschauen auf dem Berg und die Landschaft genießen, sondern man muss die Auge auf der Straße halten. Und es gibt natürlich eine neue Formen der Subjektivierung, das nüchterner aufmerksames Subjekt, das da drinsitzt und dem nichts entgeht. Ja, das ist, wenn Sie sowohl mit der Beitrag einer Relationalen Soziologie, das habe ich jetzt mit Koalitorinnen und Koalitoren in einem anderen Aussatz zum Hochfrequenzhandel anders beschrieben, oder wir haben da versucht, um das zu beschreiben, was eine Relationalen Soziologie eigentlich sich anschaut, empirisch. The blurring and distribution of cognition and agency of being active or passive of endorsing the role of a subject or an object, where humans and algorithms can also endorse the role of a causal object or a causal subject. Also die Idee hier ist, dass man an diesen Assistenzsystem oder an diesen algorithmischen Formen der Sozialisierung, also Sozialität der Immersion, sehen kann, wie Rollen ständig wechseln. Ich habe jetzt in meinem Vortrag sehr diese Rolle stark gemacht, dass das Fahrzeug dem Menschen assistiert. Aber in der algorithmischen Sozialität ist es eben gerade so, dass natürlich auch, auch beim assistierten Fahrtermensch, dem Fahrzeug assistiert, also es ist sozusagen eine ständige wechselseitige Rolle in die man assistieren und assistiert werden. Und diese Rollen, die können sozusagen von algorithmischem System zu algorithmischem System sich verändern, also bei algorithmischem Bürsenhändler kann man das auch beobachten, dass sie bestimmte Formen der kognitiven Verantwortlichkeit oder Entscheidungen abgeben an die Algorithmen bewusst, eben eher die Rolle eines passiven Auffüllungsgehilfen übernehmen und auf der anderen Seite eben eher die Rolle eines aktiven Subjektes annehmen, um das als Werkzeug unter Kontrolle zu halten. Und das empiere ich einfach immer unterschiedlich und ist, glaube ich, für so eine Art Touristik eigentlich interessant, sich anzuschauen, wie diese Beziehung sich eigentlich in konkreten Beziehungen ständig ändern, welche Formen von Kognitionen, von Handlungsfähigkeit, von Verantwortlichkeit, man in welchen Situationen dem abgibt, wann man, und es ist jetzt nicht nur so, dass das eigentlich so eine Art Entfremdung ist, dass jetzt die menschlichen Subjekte, die sich darin befinden, jetzt irgendwie vergewaltigt oder entfremdet fühlen, sondern man kann eben empiris sehen, dass es klassischerweise eben so ist, dass man ganz bewusst auch die Rolle des passiven Subjekts einnimmt und sich gut und gerne natürlich auch mal von den algorithmischen Systemen bestimmte Entscheidungen abnehmen lässt. Das wäre das Pleitodie. Die Umstellung der empirischen Forschung oder auch der Theorisierung von dieser Fick autonomie Funktion, die nebenbei bemerkt eigentlich vollständig der Vorstellung eines autonomen, suggerären Subjekts entspricht. Nicht, wenn man jetzt die Frage nach der Individualität stellen, kann man sehen, dass sozusagen diese Idee der Vorstellung des autonomen Subjektivität vollständig in die technischen Systeme eine ähnliche Autonomie unterstellt wird, wie den menschlichen Subjekten. Nicht, dass das sozusagen eigentlich das Spiegelbild der beiden Formen und empirisch, oder ist es eben tatsächlich viel interessanter, sich diese Zwischenzone anzuschauen. Und da komme ich jetzt zu meinem Eingangsbild zurück. Die empirische Realität in Zukunft wahrscheinlich nicht so aussieht wie rechts, sondern eher so aussieht wie links, weil man es zu einer zunehmenden Verknüpfung und Immersion mit dem Fahrzeug kommt. Also, das ist jetzt hier ein bisschen natürlich ironisch, aber eine Direktabgreifung von Informationen aus dem Gehirn, wo das Fahrzeug direkt zugreifen kann auf das, was der Fahrer die Fahrerin denkt. Und das hier wird sich vermutlich in der Zukunft als eine genauso Fiktion und reines imaginäres Bild erweisen, wie wir es von anderen Zukunftsfiktionen kennen. Ja, und jetzt kommt abschließend noch ein kleiner, scharmenlöse Bewerbung meiner eigenen Schriften. Und damit danke ich Ihnen für die Aufmerksamkeit. Okay, ja vielen Dank für den Vortrag. Ich finde das total plausibel, dass man da in diese Mitte geht, in diese rhythmische Sozialität. Und ich hatte mich dann aber bei dem Vortrag gefragt, ob man da nicht sozusagen die Sozialität noch stärker reinbringen könnte in die Analyse. Also, Sie hatten jetzt ja eigentlich das Verhältnis zwischen dem Fahrer und diesem Fahrzeug angeschaut. Aber das Fahrzeug, das ist ja nicht nur so ein Algorithmus im Prinzip, also als Subjekt, der Algorithmus als Subjekt, sondern da sind ja also mit Naturgesprochenen Regeln eingeschrieben. Also der Algorithmus hat sich das ja nicht aus seiner eigenen Subjektivität heraus ausgedacht, dass man vielleicht nicht alkoholisiert fahren sollte. Sondern das kommt ja irgendwie dann doch auch wieder aus dem Sozialen. Vielleicht könnte man das noch ein bisschen komplexer machen. Also die Sozialität der Algorithmen, also welche Akteure, welche gesellschaftlichen Strukturen sind das denn wiederum diesen Algorithmus einbetten und so? Also ich glaube, man kommt dann vielleicht über diese Interaktion zwischen Fahrer und Algorithmus noch hinaus und so ein bisschen weiter. Ja, absolut. Also das soll ich jetzt gleich, oder? Also das ist natürlich jetzt aufgrund der Zeit ein sehr eingeschränktes Bild. Interessanter, weil wenn man sich das autonome Fahren anschaut, gibt es eben auch verschiedene Formen, sozusagen Kultursozialik gesprochen, Formen des Imaginären. Es gibt eigentlich zwei verschiedene konkurrierende Formen. Es gibt das sogenannte Vernetztefahren. Das wird eigentlich von Düsseldorf, zum Beispiel habe ich das mir untersucht. Also das sind Städte, die interessieren sich eigentlich nicht für das autonome Fahrzeug, die interessieren sich eigentlich für die Optimierung des Verkehrs und betrachten das Fahrzeug von Anfang an als eine soziale Entität. Und dann gibt es, und das kommt eigentlich aus Amerika, interessanterweise wirklich aus libertären Thinktanks, die das Auto imaginieren als ein autonome Agenten. Das Cato Institute hat also ein libertärer Thinktank, hat dann ein Schrift, so eine Art Pumpflit oder Manifest veröffentlicht und sich explizit dagegen ausgesprochen, dass der Gesetzgeber verpflichtet, die Fahrzeuge sich mit der Infrastruktur zu vernetzen. Das Auto soll autonome sein. Also da findet sich diese Autonomiefuktion eingeschrieben, sozusagen in die zukünftige Technologie. Also Sozialität einerseits natürlich in diese verschiedenen Vorstellungen, was ist ein Objekt, was ist ein Subjekt, was ist ein Gegenstand. Und zusätzlich natürlich jetzt die Sozialität einfacher auch. Das ist natürlich nicht nur Fahrer-Fahrzeug, sondern auch Fahrer-Fahrzeug-Infrastruktur. Das heißt, das Fahrzeug ist in der Regel auch einen Infrastruktur eingebaut, die jetzt auch künstlich zubereitet wird. Das heißt, wir haben massiven Einbau von technischen Infrastrukturen mit Sensoren, Kameras, wo man auch sagen könnte, der soziale Raum. Es gibt technische Strukturwandel des sozialen Raumes als Antwort auf diese Art von Technologie. Also die Sozialität, also das kann man phänomenologisch, wenn man das sehr nachfroferaktisch bohnt, sozusagen in die Unendlichkeit weiterziehen, inklusive der verschiedenen Formen des Immaginären und auf verschiedene Formen der Ausweitung der sozialen Beziehung in den sozialen Raum hinein. Ich weiß nicht, ob das darauf antwortet. Ja, vielen herzlichen Dank für den tollen Vortrag. Also mich echt begeistert. Danke auch. Ich denke, wir kommen jetzt auch wirklich, was ich wichtig finde, noch stärker dahin tatsächlich zu schauen, was es denn heißt, wenn wir mit digitalisierten oder automatisierten Systemen interagieren. Und auch Danke für Annas Frage. Da kann ich in die Tiefe gehen, weil es gab zwei, drei Punkte an dem Vortrag, wo ich trotzdem irgendwie dachte, hm, das eine ist, die Umwelteinflüsse sind wie immer jenseits der Systeme. Also irgendwie die stehen da völlig. Halt zwar schon die Darstellung mit den Blasen. Die stehen ganz draußen. Und Sie haben auch zweimal gesagt, Automation, das ist dann unabhängig von analogen Systemen. Und das ist glaube ich auch ein bisschen den Verkaufsversprechen auf den Leim gegangen, weil das ist ja eigentlich, mein Plädoyer ist quasi jetzt noch diese Analyse von der Mikroebene ein bisschen höher zu heben und zu gucken, in welche Konstellationen sind denn eigentlich analoge und digitale Systeme eingebunden, um das mitzudenken. Genau, also ich hab, es gibt halt noch eine Folie, die habe ich dann aufgrund der Komplexität dann weggelassen. Eigentlich müsste man, müsste man diese digitale Umwelt, ein Argument der digitalen Soziologie, wäre ja, dass man die digitale Umwelt eigentlich so weit ausweidet, dass sie eigentlich alle analoge Systeme mit umfasst, insofern das Argument ist, dass man sagt, es gibt in der menschlichen Erfahrung, es gibt keine menschlichen Erfahrungen mehr, die nicht durch Algorithmen oder Formen von Digitalität angefasst wird. Also das eine würde ich sagen, das ist eben verleihend nicht noch viel getrennt. Also selbst wenn man in den Wald geht, macht man das vermutlich mit dem Navigation so ein GPS-Gerät, also irgendeine Art und das mit der Autonomie war eigentlich gemeint, ich weiß nicht, ob ich das jetzt falsch ausgedrückt habe, das Argument war eigentlich, dass das autonome Fahrzeug keine Beziehung zu analogen Umwelt hat. Das war das Argument. Weiß ich nicht, ob das... Also weil man... Also ein Argument wäre nicht, also wenn wir sagen immer, das Verkaufsversprechen ist ja, wir haben künstliche Intellienz, dann fährt das Auto durch die Gegend, erkennt Wälder, erkennt Bäume und so ist es ja faktisch nicht, vor wenig Geld klassifizieren Bilder und sagen, das ist ein Baum, das ist eine Fahrrad, und damit würde ich sagen, die künstliche Intelligenz gespeichert und da steckt natürlich unheimlich viele Vorbereitungen drin. Das Auto fährt nicht durch die analoge Umwelt, sondern es fährt eigentlich durch eine extrem digitale Vorbereitung, die digitale Welt, das wäre das Argument. Deswegen die digitale Welt und nicht die analoge Umwelt. Aber ich weiß nicht... Also es gibt viel Muster-Training zuvor, aber merkst du, es gibt ja auch Fahrsysteme permanent, eine Einbettung beispielsweise in Wettardatensysteme, in übergreifende Kartensysteme, in Navigationssysteme. Aber die Offsets sind auch digital? Nein, natürlich sind die digital. Aber was als Datum berücksichtigt wird und wie es berücksichtigt wird, dem unterliegen doch Modelle. Also es ist immer ein Skript dahinter, würde ich sagen, werde ich auch gleich argumentieren. Und diese Modelle kommen ja nicht aus dem digitalen Raum, die kommen nicht von ungefähr. Das sind Theorien, oder wie? Nein, das sind Bewertungen, Gewichtungen. Ah, okay. Okay. Spannend, müssen wir noch mal... Ja, vielen Dank für den Vortrag. Ich wollte sagen, dass es ja tatsächlich auch ein bisschen anschließt. Und ich würde sagen, es wird eigentlich erst interessant, wenn es 2022 eingesetzt wird. Dann wird ja dieses Feld dieser algoritmischen Sozialität erst interessant, weil dann können die Leute ja mit ihren Praktiken darauf reagieren, wie das ist. Ich bin erst mal gespannt, ob die Leute überhaupt so ein Auto kaufen oder ob Autos, die diese Systeme nicht haben, vielleicht an Wert gewinnen. Weil das sind ja tatsächlich keine Assistenzsysteme, sondern Kontrollsysteme. Das sind ja Systeme, die pathetalistisch sagen, du darfst jetzt nicht mehr fahren, weil du hast ein Bier getrunken. Und da bin ich mal gespannt, wie das hier in Deutschland so ankommt, ob die Leute da Bock drauf haben. Also es ist ja so ein konstantes Policing. Da können Sie mir gut vorstellen, dass man darauf keine Lust hat. Und dass sich das 2023 schon wieder ändert, diese Gesetzgebung. Weil man sieht, das schadet dem Verkaufsmarkt, weil die ganzen alten Autos, die diese Systeme nicht haben, beliebter werden. Das ist letztlich noch komplizierter, als Sie das schon sagen, weil das selbst schon eine Antwort auf ein Problem ist. Ich habe mich jetzt eine Weile mit dem autonomen Fahren beschäftigt, und es gibt sozusagen drei zentrale Probleme mit dem Assistenzsystem. Das erste ist, Tesla-Fahrer glauben, dass ihr Fahrzeug autonom ist. Diese bunten Videos, da schläft jemand, und dann lässt er das Tesla-Auto fahren, wo alle sagen, das ist ja absoluter Wahnsinn. Das macht das Assistenzsystem. Das Assistenz, es gibt es auch, dass das Auto immer nach paar Sekunden ein Signal gibt und sagt, aufwachen. Ich bin hier, und die müssen also aufwachen. Das System gibt sozusagen eine ständige Kontrolle. Überschätzung der autonome System ist das eine Problem. Das andere Problem ist Überlastung. Es gibt Fahrschulen, die für ältere Bürger Training für Assistenzsysteme anbilden. Das ist ein klassisches Phänomen. Wenn Sie jetzt zum Beispiel sagen, ich leime jetzt mal ein Wagen aus, da ist das Ding drin, das sind da zehn Assistenzsysteme eingebaut. Sie waren aber eigentlich nur hier von Berlin und mobilisiert mich damit zu beschäftigen. Sie ignorieren das einfach. Das ist auch meine eigene Feldforschung. Ich habe in Düsseldorf mit Busfahrern, die so Assistenzsysteme eingebaut bekommen haben. Das sollte deren Fahrt-Rhythmus optimieren im Verkehr. Also dann können Sie halt noch ein bisschen länger am Bushalte stehen, wenn sowieso rot ist und so weiter. Und in den Interviews stellt sich raus, ich gucke da nicht hin, das ist mir völlig egal. Ich fahr 30 Jahre Bus, ich brauche die Kiste nicht. Also das ist eigentlich das Problem. Und Sie verstehen Sie nicht. Okay. Und die Antworten sind sozusagen eigentlich die Fahrerassistenzsysteme antwortend darauf, indem Sie eigentlich die Leute zwingen, aufmerksam zu sein. Also das ist sozusagen schon eine Antwort auf Assistenzsysteme, also die Frage, die Sie stellen, das ist sozusagen schon die Antwort auf das Problem, was Sie formulieren. Wir haben fünf Minuten drei Fragen. Sascha Geser-Hilmer. Ja, danke. Also finde ich wirklich sehr einleuchtend und gestern hatten wir ja die Frage, an was man sowas erkennen würde, ob sich irgendwas grundlegend wandelt. Also ich frage nach nächster Gesellschaft oder Kontinuität, Diskontinuität. Und mein Vorschlag war ja im Prinzip, die Prüfstelle wäre, ob sich eigentlich Sozialität, gerade an dieser Schnittstelle analog und digital grundlegend redifiniert. Das würde ich jetzt sozusagen als Bestätigung dessen lesen. Und ich frage mich, ob das Fallbeispiel, also quasi so eine Projektion, was 2022 ist, eigentlich uns dazu auffordern würde, uns mehr solche Dinge anzuschauen, wie so Szenarien und Projektionen, und die dann quasi abzugleichen mit dem, was sozusagen technisch installiert wird. Weil da werden ja quasi Sozialitätsformen entworfen in der bestimmten Art und Weise, die diese Komplexität natürlich nur vermündert einfangen können. Was ist jetzt die Frage? Okay, genau. Ob wir sowas brauchen, wie eine spekulative Soziologie, die solche Spekulationen der Zukunft empirisch anschaut und was über die gegenwertige Sozialität zu lernen? Das finde ich auf jeden Fall wichtig. Ich hatte mal ein interessantes Gespräch mit dem Ingenieur zum autonomen Fahren und ich habe gesagt, das prinzipielle Problem bei einem autonomen Fahren besteht eigentlich in der Interaktion zwischen Menschen und Fahrzeugen. Menschen sind sozusagen Normbrecher. Wir halten uns nicht. Wir trinken ein Bier. Wir halten uns nicht an die Sicherheitsabstände. Algorithmen können nicht Normbrechen. Das Problem ist die Interaktion von Normbrechern und nicht Normbrechern ist völlig unmöglich. Man kann nicht auf der Autobahn ein autonomes Fahrzeug haben, wenn Menschen fahren. Die gemeint, dass wir in fünf Jahren möglich, habe ich gesagt, wie das Problem zu lösen ist. Dann hat er sozusagen völlig unvorholen gesagt, dann wird es den Menschen eben verboten. Und das sind diese Szenaren. Also das heißt, die technische Entwicklung wird es irgendwann von den Menschen aus verboten, denen wird es verboten zu fahren, weil das sonst nicht möglich ist sozusagen zu interagieren. Man kann nicht, Algorithmen und Menschen können nicht interagieren im Verkehr. Das fand ich jetzt ein ganz wunderbares Statement, weil das schließt direkt an das, was ich gestern gesagt habe, mit der Überführung von einer normorientierten Sozialsteuerung, wo man, was daran gebunden ist, dass man Normen auch übertreten kann. Was auf Seiten derjenigen die Norm übertreten, eine offene Zukunft voraussetzt. Genau, das funktioniert bei den Algorithmen nicht der Fall. Deswegen ist es so lange schwierig, autonomes Fahren zu haben, solange Menschen und Algorithmen beide gleichermaßen steuern. Und das Problem wird ja mit dem, was Sie auch gesagt haben, mit den Smart-Cities im Prinzip gelösten, dass man sich das autonomes Fahren eigentlich heißt, dass sich ein Auto in ein Verkehrsleitsystem einklingt und von dort aus, den gesamten Verkehr in der Stadt steuert. Das ist im Prinzip das, was mit autonomem Fahren gemeint ist. Und dann kann man in der Tat ein Buch lesen dabei. Das ist nämlich wie ein Zug, weil es automatisch gesteuert wird. Und dann wurde das vielleicht auch wegfallen mit der algorithmischen Sozialität beziehungsweise. Das wurde sich verschieben hin auf diejenigen, die die Verkehrsleitzentrale steuern. Also da gibt es noch die Menschen in der Kontrollschleife. Ich würde noch etwas anderes sagen zudem im Verhältnis von der digitalen Umwelt und der analogen Umwelt. Ich weiß nicht, ob da nicht das Konzept der digitalen Raumzeit sinnvoll wäre. Das heißt, dass alles, was es gibt, darauf reduziert wird, was an ihm messbar in einem Raumzeitlichen Ausdienung mit der Produktion Raumzeitlich erfassbarer Phänomene gegeben ist. Das hieße, dass die Welt so angeschaut wird, als würde sie nur noch so existieren, als gäbe es Raumzeitlich messbar ausgedehntes bzw. die Phänomene, die sie produzieren. Dann kann man die Wahrnehmung der Umwelt komplett auf eine sensorielle Wahrnehmung reduzieren. Und die sensorielle Wahrnehmung ist dann das, was sie als digitale Umwelt bezeichnet. Der sensorielle Input ist dann das, was die digitale Umwelt Apparate ist. Das heißt, es würde dann nicht von digitaler Umwelt sprechen, sondern von der Überführung aller Phänomene in das System der digitalen Raumzeit und der Verdopplung der Welt, im Sinne von Signalen, die dann aus der Einwelt in die andere Welt sinken. Es gibt Ereignisse in der Einwelt, die in einem irgendwie geregelten Zusammenhang mit den Ereignissen in der anderen Welt stehen. Und dann hätte man eine Art von Verdopplung der Welt. Und das wäre dann die komplette Überlagerung von dem, was die digitale Umwelt mit einer Loganumwelt brennt. Das erste Punkt, ich glaube, das würde sich nur so ändern, wenn man dieses Mercedes hat, dann ist eben das Argument, da verschiebt sich die algorithmische Sozialität vom Verhältnis zwischen Fahrerin und Fahrzeug zur Kultur. Man hat diese algorithmische Sozialität dann einfach auf einer anderen Seite. Das heißt, was ich ja sozusagen kritisiert habe, ist die Vorstellung, dass das Auto allein fährt. Das heißt, einfach verschiebt sich sozusagen die Relationalität von der Beziehung von Fahrzeug, Mensch, eben in die Infrastruktur beziehungsweise in die Leitzentrale, wie Sie das angedeutet haben. Das andere digitale Umwelt habe ich jetzt gar nicht so komplex bisher mir durchdacht. Da ging es eigentlich eher darum, um diese Idee, dass eben jeder Algorithmus bereit gemacht werden muss. Also irgendwie der Algorithmus muss in der Umwelt haben, mit der überhaupt operieren kann. Insofern hatte ich das gar nicht so mit Signalen und aktiv gedacht, sondern digitale Umwelt ist eben tatsächlich eher so eine Art Infrastruktur. Da gibt es Datensätze, auf die kann ich zugreifen und der Algorithmus ist eigentlich sozusagen der bewegende Mechanismus, der Dinge in Beziehung setzt. Das heißt, die Umwelt ist für mich tatsächlich eben erstmal nur ganz einfach Kabel, Satelliten und Datensätze und dann ist das die gesetzliche System, und auf bestimmte Datensätze zugreift und entscheidet, welche Art, welche Satelliten greif ich zu, welche Daten spiele ich ihnen zu, dass sie jetzt ihre Navigationsgerät benutzen kann und so weiter und so fort. Ich weiß nicht, ob sich das jetzt wieder sprecht. Ich habe wahrscheinlich einfach in die Richtung noch gar nicht gedacht. Für mich war das eher so ein bisschen eben der passive Dingbezug. Also mittlerweile würde man eben tatsächlich sagen, dass es die Frage ist, ob es sozusagen diesen Bereich, der außerhalb der digitalen Umwelt den würde man jetzt wahrscheinlich sagen und den gibt es eben nicht. Man würde diese Große den Kreis eben hier rumziehen müssen, so ist es, glaube ich. Okay, Anne. Also kurze Ergänzung, die glaube ich im Anschluss an sagt, vielleicht müsste man analoge Umwelt auch noch so ein Kreis machen wie bei der digitalen Umwelt und dann eine algorithmische Umwelt noch anschauen. Was sie eben gesagt hatten, war ja, naja, dann wird den Menschen das halt verboten, also ein Kontrollsystem im Prinzip digital gemacht. Das ist ja nicht nur eine digitale Umwelt, sondern das hat ja dann auch Auswirkungen auf. Also die Smart City ist ja nicht nur eine digitale Umwelt, sondern da wird das Analoge der Umwelt ja auch angepasst. Das ist eigentlich sowas ähnliches, wie die algorithmische Sozialität. Ich weiß nicht, ob ich das jetzt klar formulieren kann, aber ich glaube, man müsste bei der analogen Umwelt auch noch mal so ein Kreis drumrum machen und da ähnlich dann dieses Ding in der Mitte angucken. Vielleicht wäre dann sogar die Interaktion zwischen der algorithmischen Sozialität und der algorithmischen Umwelt interessant. Also inwieweit muss man die Umwelt, die analoge Umwelt anpassen, dass die sich der digitalisierten Umwelt, dass die der irgendwie entspricht, damit das dann überhaupt funktionieren kann. Das könnte man, ja, das ist auf jeden Fall richtig. Ich habe das jetzt einfach nur so gedacht, weil man natürlich sagen kann, die digitale Umwelt mag analoge Umwelt existieren, aber umgekehrt kann eine analoge Umwelt natürlich ohne digitale Umwelt leben. Deswegen ist dieses Verhältnis jetzt so, vielleicht ist das mit Luhmann gesprochen, analoge Umwelt einfach ein Antrag für Welt, über den man eigentlich nichts sagen kann und die digitale Umwelt würde, oder auch das Analogesystem der Mensch, würde sozusagen in sich selbst die Unterscheidung zwischen analoge Welt und in sich sozusagen selbst. Das könnte man ja auch sagen, ein Fahrzeug trifft intern die Unterscheidung, und tatsächlich wissen wir eben, die als Beobachter 2. oder 3. Ordnung da stehen, wir können sagen, das was die Beobachten sind, nicht Bäume, die Beobachten ihrer eigenen Bilder, nicht so mehr oder weniger. Würde ich aber Welt und Umwelt, also gerade mit Luhmann nochmal unterscheiden, denn Umwelt ist ja im Prinzip das, was in dem System selbst als Umwelt erzeugt wird. Und Welt wäre, oder könnte man jedenfalls so fassen, im Prinzip das undifferenzierte Chaos, aus dem dann Welt und Umwelt erst entsteht, wenn sich ein System bildet. Da könnte man Welt dann... Das ist dann auch der Komplexitätsredaktion geschuldet. Man müsste das wahrscheinlich noch komplizierter machen, in dem in jedem System sozusagen diese Differenz miedern selbst nochmal preposiert. Das wird dann aber noch unverständlicher, als es Asian ist. Ich werde das auf jeden Fall berücksichtigen. Da muss die Folie einfach noch größer werden. Da brauche ich aber auch einen größeren Wettergrund. Genau. Ich habe nur ein ganz, ganz minikelter Nachfrage. Robert, kannst du mir ganz kurz sagen oder beantworten, an wen du anschließt, an welcher Autor innen du anschließt bei deinem meteorologischen Relationalismus? An welcher Autor innen du anschließt? Bei welcher Beziehung? Bei deinem Relationalismus. Das ist ja eine relationale Soziologie. Da würde man sich natürlich in Ersterlinie selbst nennen und dann... Aber du hast es ja nicht ex nihilo quasi... Und dann gibt es die digitale Soziologie mit Maris und Lübden und die haben natürlich eigentlich die Digital Sociology. Da gibt es ja nun seit fünf Jahren relativ viel dazu. Das sind eigentlich in Ersterlinie relationale Interaktionsmodelle. Die operieren eigentlich ganz explizit. Maris Lübden, aber auch Sophie Mitzel, Jan Fuse, Sophie Mitzel, die hat ja auch dazu gearbeitet, die in gewissen Formen betonen, die eigentlich diese ganze Digital Sociology, die Ersterlinie aus Großbritannien kommt, betont eigentlich... Da kenne ich keine, die sozusagen nicht relational wäre. Die sind alle relational. Es steckt kein Plasma bei dir drin, es steckt kein... Also bei Latour sage ich immer, ich zitiere den Originalautor, den er immer sozusagen verwendet, de Løs. Das ist sozusagen de Løsianisch inspiriert, weil Latour eben alles bei de Løs abgeschrieben hat. Insofern bin ich natürlich... Bitte? Ich habe auch Durgheim abgeschrieben bei TART und so weiter. Mit Latour habe ich natürlich sehr viel gemeinsam, weil ich das natürlich auch interessant finde. Ich habe vielleicht was Frau Linde an angesprochen habe. Diese Symmetrie überzeugt mich auch nicht. Das hatte ich jetzt versucht, mit dem letzten TART anzudeuten, was mich eigentlich empirisch eher interessiert. Das sind keine symmetrischen Beziehungen, sondern das sind eigentlich immer asymmetrische Beziehungen, die sich eigentlich in empirischen Situationen ständig verändern. Dann vielen Dank, Robert.