 Genau, dann haben wir jetzt kurz Zeit, mit dem Mikrofon umzubauen quasi, aber jetzt nicht, also drei Minuten, genau. Und dann möchte ich als nächsten Vortrag Martina Franzen vorstellen. Und zwar kommt Martina Franzen vom Kulturwissenschaftlichen Institut Essen. Und wird uns in den Dritten, also man sagt ja mal, alle guten Dinge sind drei, quasi den Dritten Vortrag systemtheoretischer Provenienz, Vortragen der erfreulicherweise den Titel der Tagung benommen hat und heißt Digitalisierung als Herausforderung für die systemtheoretische Differenzierungstheorie. Wir haben tatsächlich, ja, die dritte Fassung vorzustellen dessen und wir haben jetzt am Schluss in einer ganz schönen Abdeckation hier, dass wir tatsächlich über die Herausforderung Digitalisierung anvertreten, die wir hier sprechen können. Dann muss man, wenn ich dankbar bin, dies jetzt normal anbieten können. Und wir haben jetzt schon von der Schiener-Deutung ein Gebot in Ruhe, die wir haben. Und wenn wir am Schluss die Samstagstuhe, dann haben wir die Gruppe zu sagen, die bei einem Herausforderung des sozialen Wandels vielleicht zwei Deutungangebote, eines genau ist das aktuell von Amnassee, das haben wir gehört. Sein Standpunkt ist, dass die Digitalisierung sich einfügt in die fortschreitende Differenzierung der Gesellschaft, quasi im Einklang steht mit dem, was wir ja auch schon vorliegen haben, nämlich die moderne Gesellschaft, die als Funktional differenziert gilt und insofern schon immer digital war. Und eine zweite Lesart liegt vor mit der nächsten Gesellschaft. Dickel hat es schon benannt, die eben von Dirk Becker am 2007 als Studie zur nächsten Gesellschaft und jetzt 2008, 2010 nochmal angereichert worden ist, in dem Merveband 4.0 oder die Lücke, die der Rechner lässt und seine Theorie der digitalen Gesellschaft postuliert, eben genau das Gegenteil, ein Strukturbruch. Das Argument übernimmt davon Luhmann und er nennt diese Gesellschaftsform erst mal nur die nächste Gesellschaft und sie wartet quasi auf Ausformulierungen. Beiden am Lesarten ist jedoch die Ansicht gemein, dass die Digitalisierung zumindest einen Anlass bietet und eine Notwendigkeit, tatsächlich die Luhmannsche Systemtheorie, vorzuschreiben. Und während Nassé nun aus der Retrospective heraus die digitalen Konturen der modernen Gesellschaft rekonstruiert, blickt Becker nach vorne, um das neue quasi zu charakterisieren, vorzugsweise abstrakt und notwendigerweise spekulativ. Und damit sind eben auch die Herausforderungen bereits angesprochen, die sich für die sociologische Theorie und für die Soziologie als solches ergeben, wenn man sich quasi auf einen Traum begibt, was mitten in einer Entwicklung steht. Und so wird der Soziologie öfter vorgeworfen und den Sozialwissenschaften schlechthin, dass sie entweder blind sind für radikale Veränderungen, das war zum Beispiel der Vorwurf der Sensierungstheorie, dass sie den Zusammenbruch des Ostblocks nicht vorher gesehen hat oder den Zusammenbruch der Finanzmärkte oder sie handelt sich eben den Versuch ein, tatsächlich der Spekulation, der Simplifizierung und hierfür kennen wir das etablierte Differenz zwischen Gesellschaftstheorie und Zeitdiagnose. Letzteres eben stets mit Abwertung versehen. Und nun sehen wir auf den Öffentlichen des Kurs um Digitalisierung. Was kann die Soziologie der Digitalisierung und dem Diskurs bieten? Wir hören von einem disruptiven Wandel, die Politik benutzt Phasenmodelle und arbeitet in Versionierungsementiken. Industrie 4.0 ist in aller Munde, Japan ging schon weiter und baut inzwischen an der Society 5.0. Und die Soziologie ist dann eigentlich besonders stark, wenn es ihr gelingt, sich dem Zeitgeist insofern zu entziehen und kontraintuitiver Einsichten liefern. Ein solches Beispiel dafür ist meiner Ansicht nach das Buchmuster von Aminasi, das eben auf Kontinuität statt auf Diskontinuität setzt und genau deswegen eigentlich den Blick auf den soziotechnischen Wandel subkotan als schleichenden Prozess offenlegt, der uns nicht überfällt, wofür wir als Soziologen eigentlich auch nicht subito die neue Gesellschaft ausrufen müssen. Aber gleichzeitig gibt es meiner Meinung nach sehr gute Gründe tatsächlich in Bezug auf das, was wir derzeit beobachten, von einem epochalem Wandel zu sprechen. Denn mit der Umstellung vom Buchdruck auf digitale Kommunikation wird mithilfe der Luhmann-Schulsystemtheorie nicht nur dieser Bruch wahrscheinlich, sondern auch gesellschaftstheoretisch fassbar. Das ist deswegen der Ansatz, den ich jetzt auch hier in dem Vortrag noch mal motivieren möchte, tatsächlich also für den Strukturbruch, aber vor allem auch für die Frage, wie sich dann so etwas wie die nächste Gesellschaft eigentlich operationalisieren lässt. Wie kann man sich damit theoretisch arbeiten? Bleibt es mehr als ein Schlagwort? Und wie kann man also diese These auch noch theoretisch unterfüttern? Und um das quasi auch plastisch zu machen, was wir jetzt hier abstrakt und sehr facettenreich bereits gehört haben, möchte ich das Ganze an einem speziellen Funktionssystem, mit dem ich mich am besten auskenne, nämlich dem Wissenschaftssystem nochmal illustrieren, was dann eigentlich eine digitale Transformation sein kann. Also was ist die nächste Wissenschaft eigentlich? Um diesen Blick freizusetzen, kommt hier nochmal die Ausgangsthese, die vielleicht ja die Mehrheit der Teilnehmer hier schon kennt, was besagt quasi die These einer nächsten Gesellschaft, die Einführung der Sprache konstituiert zu der Stammesgesellschaft, die Einführung der Schrift, die Antikogokultur, die Einführung des Buchdrucks, die moderne Gesellschaft und die Einführung des Computers, die nächste Gesellschaft, so background. Also was man hier erkennt, ist eben schon, dass die Transformation der Gesellschaftsstrukturen quasi an die evolutionären Errungenschaften der Verbreitungsmedien gekoppelt ist, das ist eine Figur, die von Luhmann direkt übernommen worden ist. Und ich glaube, hier liegt auch der besondere Clou eigentlich von Luhmanns Evolutionstheorie. Nur um diese These tatsächlich zu unterfüttern, lohnt eben deshalb auch ein Blick in die Evolutionstheorie, also nicht so sehr allein in die Differenzierungstheorie oder in die Kommunikationstheorie, sondern um diesen Wandel tatsächlich zu plausibilisieren, müssen wir eben auch in diese Evolutionstheorie hineingucken. Denn es ist quasi ja mit Luhmann plausibel gemacht, dass sich, wenn man auch gleichzeitig auf Kommunikation setzt, dass dieses Phasenmodell, was Becker hier, sozusagen, rezipiert, eben an Kommunikationsweisen in eine historische Abfolge gestellt ist, ohne von Substitutionsprozessen auszugehen. Vielmehr erweitern sich stets die Kommunikationsmöglichkeiten. Und was dann eigentlich Kommunikation heißen kann, also unter dem Einfluss des Computers oder auch der Digitalisierung, ist insofern die Schwierigkeit überhaupt also diesen Wandel plausibel zu machen. Das heißt, wenn wir hier dieses Zitat uns vornehmen, dann sehen wir, dass hier als neues Verbreitungsmedium noch der Computer angesetzt ist, später spricht Becker dann selbst von Digitalisierung. Aber diese Frage ist dann nicht nur alleine eine techniksoziologische Frage, um quasi das neue Ding festzumachen, sondern auch eine medientheoretische Frage. Und um damit umzugehen, braucht es natürlich eine Vorstellung dessen, was dann Digitalisierung, Digitalität oder die Einführung des Computers heißt, um tatsächlich auch damit arbeiten zu können, um überhaupt also der digitalen Gesellschaft auf die Spur zu kommen. Und da hat Becker jetzt eine weitere Arbeitsdefinition vorgelegt, die jetzt eben auch nochmal das aufgreift, was auch schon genannt worden ist. Es hat einen engen Begriff von Digitalisierung einerseits, das analog im Digitales verwandelt wird. Sascha hat es gerade schon gesagt. Aber zusätzlich eben mit der Information, dass diese digitalen Formate eben auch ausgelesen werden können, eben nicht mehr nur alleine von Menschen, sondern auch von Computern. Und entsprechend ist in der beiden Definition auch die Kommunikation von und mit Maschinen mit gemeint. Das heißt, hier sieht man etwas, was dann auch bei Nassé tatsächlich mit dem Datenbegriff auftaucht und insofern auch hier, wenn von den miteinander verbundenen Datenpunkten die Rede ist, natürlich auch die maschinelle Prozessierung der Daten mit einschließt. Um aber tatsächlich jetzt nicht weiter in die Schwierigkeiten zu geraten, diesen Digitalisierungsbegriff zu klären, können wir uns vielleicht also mit dieser Arbeitsdefinition erstmal zurückziehen und sagen, Digitalisierung ist ein Verbreitungsmedium, das eine Veränderung mitführt durch eine socio-kulturelle Entwicklung, auf die dann auch Digitalisierung reagieren kann. Aber die eigentliche Frage ist ja, wie kommen wir überhaupt dann von einer funktional differenzierten Gesellschaft in die nächste Gesellschaft? Also die Problematik des Übergangs, die noch nicht geklärt ist. Und zu dieser Lehrstelle des Übergangs hat Barbara Kuchler 2003 bereits einen sehr instruktiven Beitrag vorgelegt, der sich genau diesem Problem widmet. Wenn Luhmann davon spricht, es handelt sich in seiner Evolutionstheorie, meine Evolution der Evolution bleibt immer noch relativ unklar, ob es sich bei seiner Evolutionstheorie tatsächlich nur um einen Stufenmodell handelt, also um eine Typologie von Differenzierungsform, oder ob die Evolutionstheorie selbst klären kann, wie sich eine Evolution vollzieht. Und hier sollten wir uns nochmal vor Augen halten, was der Ansatz ist der Luhmannischen Evolutionstheorie, die Differenzierungsform, die unterscheidet segmentär stratifikatorisch funktional, zeichnen sich durch ihre eigene Konfiguration evolutionärer Mechanismen aus. Und diese evolutionären Funktionen, und das hat Barbara Kuchler meiner Ansicht nach einfach nochmal präzisiert, dass man eben dann von diesen drei evolutionären Mechanismen, Variationen, Selektion, Restabilisierung, auch die Systemdifferenzierung und die Differenzierungstheorie selbst mitdenken muss. Das heißt, wenn wir von einer, von Übergängen sprechen, dann sprechen wir immer davon, dass sich von einer Gesellschaftsformation zunächst die Konfiguration der evolutionären Mechanismen veräppern. Und um das abzukürzen, es findet eine fortstreiten Enkoplung der evolutionären Mechanismen statt. Und was die funktional differenzierte Gesellschaft auszeichnet, ist die Enkoplung von Variationen und Selektionen. Und das bringt erst überhaupt Systembildung in Gang in dem Sinne, dass wir es mit einer funktional differenzierten Gesellschaft zu tun haben auf der Ebene der Gesellschaft teilzuspielen, dass symbolisch generalisierte Medien überhaupt erst die Funktionssysteme in ihren Reproduktionsmechanismen in Gang setzen. Und wenn wir dann also davon sprechen, dass die funktional differenzierte Gesellschaft sich über symbolisch generalisierte Medien reproduziert und restabilisiert, die eben Wissenschaft, Politik, Recht oder Kunst heißen, dann müsste ja die nächste Gesellschaft tatsächlich genau hier ansetzen. Dann müsste ja die nächste Gesellschaft vielleicht eine Struktur aufweisen, die nicht mehr alleine aus der Restabilisierung der Funktionssysteme ihre Identität speist. Und da ist genau die Frage, wie man also dieses Feld zu operationalisieren kann, dass man dann eben auch eine Tee formulieren kann, die vielleicht über die etwas blumig daherkommende Tee der nächsten Gesellschaft hinausgeht. Wir haben den Ansatzpunkt, die Restabilisierung. Ich habe jetzt mal versucht, das eben auf meinen Paradefall zu beziehen. Die Wissenschaft, denn das Hauptproblem ist ja, den Elementbegriff dann erstmal dingfest zu machen in einer solchen gesellschaftstheoretischen Beschreibung dessen. Und für die Wissenschaft hat eben Stichweh das Element insofern geklärt, dass es sich hier um die Publikation handelt. Also wenn die Kommunikationsweisen quasi systemspezifisch sind, ist es in dem Falle der Wissenschaft die Publikation. Als Selektionsmechanismus, auf der Ebene auch der Organisation, das Peer-Review-Systeme-Anschlag und erst genau über diese Differenzierung und der Entkopplung von Variationen und Selektionen kann im positiven Anschlussfall überhaupt erst Wissenschaft über den Wahrheitscode lanciert werden und sich autopäätisch fortsetzen. Das ist die Idee von Wissenschaft. Und wenn jetzt die nächste Gesellschaft quasi im Raum steht, die sich mithilfe der Digitalisierung quasi herausbildet, müsste es, also der Theorie nach, der Evolutionstheorie nach, eben zu einer Rekonfiguration dieser evolutionären Mechanismen kommen. Und die Frage ist, welchen Form wird diese Gesellschaft dann gepresst? Und um das nachzuvollziehen und zu illustrieren, lohnt es nochmal historisch, den letzten Übergang in den Blick zu nehmen, um darauf aufbauend eigentlich zu sehen, was sich eigentlich aktuell abzeichnet. Und da ist auch an die evolutionäre Errungenschaft des Buchdrucks zu erinnern, die für die Ausdifferenzierung des Wissenschaftssystems eben den Ausgangspunkt bildet, also wie für alle anderen Funktionssysteme auch. Hier bekommt der Buchdruck eben noch seine besondere Form. Insofern, wie Luhmann es auch beschreibt, dass die Gründung der wissenschaftlichen Zeitschrift selbst quasi ein Katalysator war für die Ausdifferenzierung der Wissenschaft. Denn die Wissenschaft hatte auf einmal von einem adressaten beschränkten Briefverkehr nun die Möglichkeit einer Verbreitung von Erkenntnissen. Das wurde ja die Motivationsstruktur angekurbelt über die Sicherung von Entdeckungspriorität, quasi Name. Das erste oder die Anfängen des Peal Reviews lassen sich schon in der Gründung am der ersten wissenschaftlichen Zeitschriften zumindest Ansätzen erkennen, die am 17. Jahrhundert stattfanden. Und man konnte eben zugleich eine Form am Sehen, der Wissen, und zwar nicht mehr zusammengetragenes Wissen, sondern neues Wissen archiviert wurde. Das dauerte noch bis zum 19. Jahrhundert, bis sich tatsächlich dann auch die standardisierte Form wissenschaftlicher Kommunikation etablierte. Das heißt, wenn wir Wissenschaft in den Blick nehmen, dann handelt es sich bei dem Letztelement um die Publikation, die Ausdifferenzierung überhaupt erst ermöglicht oder Wissenschaft und erst mithilfe dieser Publikation konnte sich überhaupt eine Selektionschance ergeben, nicht nur für die Publikation, sondern auch für die Autoren dahinter. Was man sich klarmachen muss, ist dann ideal gesprochen, dass von der Publikation auf einmal eine enorme Wirkung ausgeht, in der Form, dass nun alle wissenschaftlichen Verstehensgrundlagen im Text in Schriftformen gefasst werden müssen und face-to-face Interaktion oder auch eine unmittelbare Betrachtung, dessen ob etwas funktioniert, eben wegfallen durch die Verschriftlichung dieser Art von Kommunikation. Was den Selektionsmechanismus angeht, des peer-reviews, ist auch noch mal dran zu erinnern, dass in der Buchdruckgesellschaft peer-review als Prototyp, wir haben peer-review inzwischen auf ganz verschiedenen Ebenen in der Wissenschaft, aber das peer-review eben tatsächlich dazu diente, also auch als Zensur, aber als Zensur eben vor allem auch den Platz im Limitation des Buchdrucks und der Zeitschriften geschuldet, dass quasi peers über die Veröffentlichungswürdigkeit von Manuskripten entschieden haben und insofern sich hier auf Basis Wissenschaftskriterien Norm des organisierten Skeptizismus dann eben eine Form der Leistungskontrolle etabliert hat, die eben keine externalisierte Leistungskontrolle ist, sondern peer-review durch peers. Und das ist sozusagen der Fall, mit dem wir es zu tun haben. Die Wissenschaft hat sich im 19. Jahrhundert quasi als solches etabliert dieser Selektionsmechanismus und blicken wir aber also in die Gegenwarte, nein, ist von Krise die Rede. Wir haben es mit einer Reproduzibilitätskrise zu tun, sagt zumindest die Mehrheit der Wissenschaftler. Es sind Publikationen, die zwar einem Qualitätsprüfmechanismus unterworfen waren, die aber am Ende nicht halten, was sie versprechen. Also tatsächlich, die Wissenschaft irritieren auch, wenn sie in sehr hochrangigen Journalen erschienen sind, lässt sich quasi ja am Ende nicht daran anschließen an diese wissenschaftlichen Erkenntnisse. Das heißt, wir haben es mit einer Irritation, so könnte man formulieren, der Restabilisierung zu tun, wo am Ende gar nicht mehr so ganz klar ist, gehört jetzt eben noch zur Wissenschaft. Was gehört da nicht rein? Denn die Fälle, das sozusagen etwas als falsch betrachtet wird, sind unproblematische Fälle. Problematisch ist es dann, wenn eigentlich diese Frage gar nicht mehr beantwortet werden kann, sodass wir hier mit einem Folgeproblem, der funktionale Differenzierung zu tun haben, meiner Ansicht nach, der sich vor allem auch durch die Beschleunigung des Evolutionsprozesses ergibt und hier vor allem durch die Beschleunigung an Variationsmöglichkeiten. Wir haben nicht seit gestern aber weiterhin enorm, als mit einer Wachstumsrate, mit einem steigenden Wachstum an wissenschaftlichen Publikationen zu tun, derzeit von 3,6 Prozent. Und eine neue Studie zeigt uns nochmal die Zahlen, dass wir zwar mehr Publikationen haben, peer review breitet sich sozusagen als Mechanismus in aller Bereiche der Wissenschaft aus, aber die Bereitschaft, Gutachten zu übernehmen, sinkt. Das heißt, es gibt eine zunehmende Schiere dessen. Wir haben eine hohe Thematisierung der Fehleranfälligkeit des peer reviews, die Dimensionen sind aus der Wissenschaftsforschung relativ gut belegt, mangelnde Predictivvalidität, ungenügend Reliabilität der Gutachten, fehlende Fairness der Gutachter und wir haben am großen Diskurs die Grenzen des peer reviews und hier bietet die Digitalisierung eine Lösung an. Die Lösung wird als open peer review benannt. Wenn wir die Kritik hier zusammengefasst sehen auf einer Abbildung, dann sind die Kritikpunkte vor allem, dass wir es hier mit einer Akkarnpraxis zu tun haben, seek with peer review, also Geschlossenheit der Kommunikation. Dem Fall wird nichts über die Inhalte der Gutachten gesagt, sie sind nicht veröffentlicht, das was veröffentlicht ist, sind nur die Ergebnisse, die akzeptierten Publikationen, bis es dann zur Rezeption und womöglich zur Zitation kommt, also vergehen Jahre und auch die Gutachtungszeiten sind selbstverständlich viel zu lang und hängen dann vor allem auch mit dem Journalprästisch zusätzlich zusammen und dieses Prästisch der Journal führt dann auch dazu, dass Extrakriterien mit einbezogen werden, also tatsächlich die Publikation in einem der High Class im Journal unterzubringen. Und ein Ausweg, der sich jetzt verbreitet im wissenschaftlichen Publikationssystem, ist das Prinzip Publish First Filter Later, macht sich der digitalen Kommunikation und den unbeschränkten Platzmöglichkeiten zu Nutzer und bedeutet hier nochmal Abseits, also der selektiven, reputationssträchtigen Publikationsorte, um Publikationsorte zu wählen, bei der am Ende der Rezipient entscheidet, ob es wissenschaftlich, hilfreich, nützlich und tierbar ist. Ein solches Beispiel ist die Public Library of Science, mit einem Journal Plus One 2006 bereits aufgetretenes, macht sich, also dem Geschäftsmodell eines autorfinanzierten Zugangs zu Nutze, in dem Publikationsgebühren auftauchen, aber die Ergebnisse zumindest Open Access zugänglich sind und damit steigt nochmal enorm, also das Volumen an Variationen. Es wurden in einem Jahr über 30.000 Artikel veröffentlicht, man kann nicht mehr von einem Journal, sondern von einer Plattform, Publikationsplattform sprechen, und entsprechend hoch sind dann auch die Akzeptanzraten, wenn eben auf ein Peer Review Light System umgestellt wird und eine Abkehr vom Neuen. Also die Frage, ob das Wissen originell ist, neu, spielt in dem Falle keine Rolle mehr, sondern nur, ob es methodisch sauber und solide durchgeführt ist. Da könnte man sagen, dass das eigentlich für die Wissenschaft, die ja auf Neuheit gegründet ist, eigentlich ein irriger Weg darstellt und so wurde es auch kritisiert, aber es stellt eben als Publikationsform eine Erfolgsgeschichte dar, auch viele andere Verlage sind dazu übergegangen, ein solches nicht selektives Journal oder Mega-Journal zu gründen. Also das heißt, wir haben es mit einer Beschleunigung und auch mit einer Weiterung der Variation zu tun. Der zweite Trend, auf den ich aufmerksam mache, ist, dass man sich von der Qualitätsprüfung vor einer Veröffentlichung um Publikationsentscheidung zu treffen, auf eine Post-Hoc-Bewertung zurückzieht, im Digitalen, das heißt, manche Plattformen wiederum folgen noch dem Modell des zertifizierten Expertens, im Sinne der Faculty of 1000, wo tatsächlich Expertinnen des Feldes eingeladen werden, um nachträglich die besonderen Juwelen eines Faches für die Rezipienten zu bestimmen. Im anderen Falle Papier, und da gibt es noch sehr viele andere, funktionale Qualitäten, da geht es darum, ja, ungefragt und uneingeladen, auch anonym quasi die Artikel, die bereits erschienen sind, zu bewerten, was nicht selten zu einem Bashing von Autoren führt und mit sehr vielen Verleumdungsklagen überhäuft wird. Und wir kennen natürlich alle, also die Plattformen, denen wir selber unsere Artikel hochladen können, die auch wiederum bestimmte Mittel der Kritik und des Peer Reviews bereithalten. Das heißt, wer quasi jetzt begutachtet wird, gewissermaßen crowd-resourced an einer anonymen Masse in einem Fall oder eben von einem singulären Urteil zumindest auf mehrere Experten ausgeweitet. Wir haben drittens mit der Umstellung auf digitale Kommunikation im Publikationswesens mit einer Extension des Schriftmediums zu tun. Daten, das Stichwort viel ja schon, es geht eben im Sinne von Open Science, Science, die sich mit der Publikation reproduziert, eben nicht mehr nur um das dargestellte Wissen, sondern vor allem auch darum, die dunkle Seite der Publikationen sichtbar zu machen, also sämtlich die Herstellung von Wissentransparenz zu machen. Und da ist es eben inzwischen in einigen Fächern in Naturwissenschaften obligatorisch geworden, die Forschungsdaten mitzuliefern, all das unter dem Diktum der Replikationskrise zu tun, am einerseits aber auch, und so sagt es die Europäische Kommission, um Daten auch weiter maschinell auszuwirken. Also sekundär Datennutzung durch andere, nicht zuletzt durch Maschinen. Und wir haben es hier dann entsprechend mit einer Pluralisierung der Publikationsformate zu tun. Das sage ich, also um kurz eine Zusammenfassung des Istands klarzumachen in Bezug auf die Evolutionstheorie, die ich angelegt habe, wir haben derzeit scheinbar mit einer Irritation, also der Restabilisierung von Wissen zu tun, also die Debatten sind in allen Fächern am derzeitig, virulent und ist das sozusagen nur eine punktueller, temporäre Erscheinungsform oder ist da nicht doch ein Strukturproblem, um das jetzt verschiedene Lösungsoptionen gebaut werden. Wir haben es gleichzeitig eben mit einer Variationsbeschleunigung zu tun, quasi Digitalisierung, der auf einmal neue Formen der Publikation und der Formate auf den Planen getreten sind und wir haben es mit einer weitergehenden Differenzierung von Pealview zu tun, und zwar wie, wer, wann, wo, was begutachtet wird. Also es lassen sich auch Datensets begutachten und die Frage, ob es vor einer Veröffentlichung oder danach passiert ist, ist eben auch der entsprechenden Plattform oder des Journals vorbehalten. Das heißt, wenn wir das zusammenziehen, dann sehen wir gerade im Pealview-Bereich, dass sich das wissenschaftliche Bewertungshandeln eben zunehmend datafiziert und das möchte ich noch an einer anderen Stelle verdeutlichen. Es gibt seit den 70er Jahren eben auch den Versuch quasi neben der qualitativen Beurteilung von wissenschaftlichen Leistungen eben auch mit Daten zu arbeiten und zwar derart, dass man eben auf Resonanz setzt und bibliometrische Indikaturen als Proxy für wissenschaftliche Qualität laufen lässt. Hier sehen wir der Journal Impact Factor, der H-Index und so weiter, sind eigentlich Vorläufer dessen, was wir jetzt über Google Analytics und den Nutzungsbereich überhaupt online Plattformen eigentlich auf allen Ebenen sehen, nämlich die automatische Erfassung von Nutzungsstatistiken in Echtzeit. Das sehen wir sobald wir auf Amazon gehen, aber wir sehen es natürlich auch, sobald wir die Publikationsplattform nutzen und dass das wiederum als Bewertungsmaßstab auf die Wissenschaft geworfen wird und die Online Attention quasi als Qualitätssiegel läuft, sieht man an diesem Batch, dem sogenannten Altmetric Donut, der eben sich durch das gesamte Publikationswesen von Nature to Science zu den Großverlagen zieht und damit eben genau diese digitalen Nutzungsstatistiken auslöst. Das heißt, spätestens hier sollte deutlich werden, dass es in der Summe gar keine Rolle mehr spielt, wer tatsächlich wissenschaftliche Artikel rezipiert, ob es sozusagen der hochrangigen Gewissenschaftler ist oder meine Oma oder ein Robot. Am Ende zählt es sozusagen ein in diesen Online Attention Score. Das heißt, hier sehen wir etwas, was sich auch auf anderen Ebenen im digitalen System der Wissenschaft durchsetzt, nämlich die Generierung von Big Data, in der alles das, was wir sozusagen als wissenschaftliches Handeln fassen, datafiziert wird, diejenigen, die als Gutachterinnen arbeiten, sind wahrscheinlich auf diese Online-Editoral-Management-Systeme schon längst gestoßen und entsprechend genervt als über die automatisierten Kommunikation und Korrespondenzen. Interessanter wird es dann, wenn diese Daten natürlich auch auskunftsfähig werden über das, was Wissenschaft ist. Genau, das, was Wissenschaft ist und das, was wir quasi als solches bewerten, die nutzergenerierten Daten über das, was die Grenze ausmacht zwischen Wissenschaft und Nichtwissenschaft. Und da sollten wir das im Kopf halten, dass es diese Sammlungen gibt über Big Data Analytics und diesen Bereich über steige ich jetzt, um Ihnen klarzumachen, es gibt sozusagen genau an dieser Big Data Analytics Frage Anwendungsfälle, die ökonomisch jetzt angelegt sind. Es ist die Ersetzung, Automatisierung des Peer Reviews über Text-Mining, über die Mustererkennung. Und die Frage ist, ob sich solche automatisierten Bewertungssysteme durchsetzen, bis hin eben zur wissenschaftlichen Wissensproduktion. Insofern wollte ich mit diesem kleinen Ausflug in die Wissenschaft klarmachen, dass eine Evolutionstheorie eigentlich der Standort ist, um tatsächlich so eine These des nächsten Wandels und der nächsten Gesellschaft, glaube ich, präziser als andere, Versuche das allein über die Kommunikationstheorie zu regeln machen könnte. Das Ganze steht noch am Anfang, aber ich meine, dass diese kurzen Ausführungen klargemacht haben, dass wir eventuell in der funktional differenzierten Gesellschaft noch mit der Entkopplung von Selektionen und Variationen zu tun hatten. Aber wenn Maschinen mitmachen, ist die Frage, ob genau diese Entkopplung nicht teilweise wieder zurückgenommen wird. Das heißt, die entscheidende Frage, die ich an mir stelle für eine Gesellschaftstheorie zur nächsten Gesellschaft und die diese Antworten muss, ist, ob sich mit der Digitalisierung nicht die Zurechnungsadressen ändern. Wir haben schon darüber gesprochen. Und an welcher Stelle konkret die Maschine dann an der Systemevolution mitwirkt. Einige, ja, Impulse habe ich dazu gegeben. Und das heißt, die Herausforderung an die Soziologische und Systemtheorie ist groß. Wir müssen sie überhaupt in den Blick kriegen, die digitale Gesellschaft. Und ja, dass da viel Arbeit drinsteckt, vieles umzubauen, sollte uns nicht davon abhalten, es zu tun. Vielen Dank, Martina Franzen. Wir haben jetzt noch zwölf Minuten für die Diskussion und eins, zwei, drei, vier, fünf, sechs. Und damit war es das. Erst Anna. Ja, vielen Dank für den Vortrag. Ich fand das total toll, dass du diese Theorie-Entwicklung mit dieser dichten empirischen Analyse verbunden hast. Und ich möchte auf der Theorie-Entwicklungs-Ebene eine Frage stellen. Oder vielleicht ist es auch nur eine Ergänzung. Also Luhmann geht ja auf neue Verbreitungsmedien ein also neues Verbreitungsmedium, Komplexitätsteigerung, gesellschaftlicher Strukturwandel. Das ist das ja, was Becker auch aufgreift, um zu sagen, wir haben ja also neues Verbreitungsmedium, offensichtlich also gesellschaftlicher Wandel. Nur wenn man Luhmann ein bisschen genauer liest, dann steht er ja nicht Verbreitungsmedium, neuer Gesellschaftstyp, sondern er schreibt, das ist dann ein Komplexitätspotenzial. Und wenn sich neue Strukturen bilden, die diese Komplexität verarbeiten können, dann hat man den gesellschaftlichen Strukturwandel. Also die Änderung der gesellschaftlichen Primärstruktur setzt nicht nur Verbreitungsmedium, sondern auch Entwicklung neuer Strukturen voraus. Und also ich fand das bei Becker immer unbefriedigend und fand das auch in der neuen Fassung noch unbefriedigend. Und ich hatte mich jetzt bei deinem Vortrag gefragt, ob man nicht das noch hinzunehmen könnte. Also ich finde das sehr plausibel, dass diese Entkoplung von Variationen und Selektionen und die Frage, wie die Digitalisierung auch als Technik da eventuell eingreift. Aber vielleicht könnte man diese Frage noch dazustellen. Also ändert sich, also kommt funktionale Differenzierung an ihre Grenzen. Verändert sich sozusagen sukzessive die Struktur, mit der Komplexität verarbeitet wird. Ach so, habe ich auch ein Mikro? Ach so, ich bin ja verkabelt. Ja, vielen Dank Anna. Ja, in der Tat ist das eben ja die Tee so, dass also die nächste Gesellschaft über die funktional differenzierte Gesellschaft hinausgeht. Und die Frage ist dann, die ich am Anfang gestellt habe, Digitalisierung. Wir brauchen auch einen starken Begriff von Digitalisierung um tatsächlich zu fassen, was jetzt unter anderen blumigen Begriffen wie Netzwerkgesellschaft eigentlich ja diese Struktur ausmacht. Und das wollte ich plausibilisieren, um die Kommunikationstheorie, also fruchtbar zu machen. Und eine Frage, wie kommuniziert die Gesellschaft miteinander. Und da, glaube ich, ist es schon hilfreich, wenn man die Digitalisierung auch als solches fassen lernt. Da sind wir ja noch nicht so weit. Ja, danke. Ich hatte ja in meinem Vortrag so einen Kriterium formuliert. Wann, dann könnte man der nächsten Gesellschaft sein, weil Becker gibt es ja dafür kein eindeutiges Prüfkriterium. Und mein Vorschlag war, wenn sozusagen digitale Operationen, das sind, von dem man aus Gesellschaft denkt oder von dem Gesellschaft sich auch selbst denkt, bis zu dem Punkt, wo es für Gesellschaft eigentlich irrelevant würde. Ob das sozusagen jetzt menschlich oder maschinell produziert wird, ob da ein Körper dahinter steckt oder nicht. Und vielleicht auch im Anschluss am Armin, wenn eben diese Zurechnung automatisiertes Auto oder Auto-Mutfahrer symmetrisch behandelt werden würde. Dann würde ich sagen, sind wir in der nächsten Gesellschaft. Wie ist es jetzt bei deinem Fall? Also quasi bei diesen automatisierten, big data driven Bewertungssystemen. Also sind wir da schon an dem Punkt, wo die Quelle des Urteils oder des Selektions eigentlich keine Rolle mehr spielt. Mensch oder Maschine. Danke für die Frage, Sascha. Das ist eine interessante Frage. Empirisch müsste man ja prüfen, also ob nicht die Irritation, die eine automatische Prüfung bietet, nicht am Ende doch auch normativen Sinne zu einer besseren Wissenschaft führt, denn das suggerieren manche Versuche, die jetzt als Lotstudien gelaufen sind, dass die automatisch erzeugten Gutachten, sozusagen Fake-Gutachten, doch für mehr Relevanz, was die eigene Urteilsfindung betrifft, dienen können. Ja, also das heißt, es ist eine neue Form der Kooperation, also zwischen Mensch und Maschine. Ich glaube, hier liegt dann auch die Frage an die Sozialtheorie, also wie man das denken kann. Ja, vielen Dank. Also ich würde über Bäcker ähnlich urteilen, wie du das gerade gemacht hast. Also mich hat das nie wirklich überzeugt, weil es eigentlich nur eine hypothetische Frage ist. Und das ist vielleicht für eine empirische Wissenschaft eine schwierige Frage. Aber ich fand ihr empirisches Beispiel total super. Du stützt es eigentlich nicht, dass wir Sie sagen wollten. Also Ihr empirisches Beispiel zeigt wunderbar, dass natürlich der Einsatz eines neuen Verbreitungsmediums zu unglaublichen Irritationen innerhalb eines Funktionssystems führt. Man könnte ja parallel im politischen System und dem Rechtssystem und in anderen ganz ähnliche Dinge wahrscheinlich zeigen. Aber an der Grundstruktur des Systems, nämlich dass es sich am Ende doch an Wahrheitsfragen schließt, egal wie Sie die Wahrheitsfragen organisiert, selbst wenn es ein, was haben Sie gerade gesagt, ein Fake-Gutachten durch ein Apparat ist. Ich meine, ich kenne genug Fake-Gutachten von unglaublich erwartbaren Gutachtern aus Fleisch und Blut, bei denen ich vorher schon genau weiß, was die schreiben. Ich habe selbst lange eine Zeitschrift rausgegeben. So genau kriegt das kein Algorithmus hin, weil man dem immer eine Variationsgeschichte einbauen würde, damit es nicht so aussieht, als sei es eine Maschine. Also das ändert ja eigentlich nichts an der Struktur des Systems. Es bleibt an Wahrheitsfragen orientiert, sonst könnte man gar nicht über Wissenschaft reden. Und das ist jetzt gar nicht der Versuch, sozusagen Ihr Beispiel zu destruieren. Ganz im Gegenteil, ich würde sagen, könnten Sie nicht eigentlich Ihr Beispiel dafür verwenden, zu sagen, vielleicht wird uns heute diese Brutalität, das ist meine Formulierung der funktionalen Differenzierung, viel deutlicher, wo wir doch feststellen, dass dieses Wahrheits, das Wahrheitsmedium, aber auch das Machtmedium, das Mediumszahlen und so weiter, noch transparenter wird, das ist völlig unabhängig davon, über welches Verbreitungsmedium oder welches Medium das passiert, diese Geschichte scheint stabiler zu sein, als man denkt. Und das ist wirklich eine Frage. Daran müsste man weiterarbeiten. Ich glaube, Becker spielt Ihre Geschichte nicht in die Hände. Oder verstehe ich das falsch? Ja, vielen Dank, Herr Nassier, für diese wichtige Frage. Denn ich glaube, dass ich das sozusagen nur angedeutet habe, mein Argument wäre, tatsächlich, wenn wir davon ausgehen, dass auch auf der Selektionsebene nicht mehr nach wissenschaftlichen Kriterien entschieden wird. Das war mein Beispiel mit plus one, wo 75 Prozent aller Vorschläge, es gibt ja nicht nur Fake-Reviews, sondern auch Fake-Articles, also die den Anschein machen, dass sie wissenschaftlich sind. Wenn die alle durchgehen, dann hätte man ja normalerweise gesagt, das ist ein Journal, das wird sich am Markt nicht behaupten, weil es schlichtweg ignoriert wird. Es gäbe kein Abnehmer dafür. Nun gibt es aber gar nicht mehr die Notwendigkeit, Abnehmer zu finden, weil wir auf autorenfinanzierte Modelle setzen. Das heißt, der Autor zahlt, nicht der Abnehmer. Und wenn man dann davon ausgeht, dass es für die Maschine völlig irrelevant ist, wie viele Artikel sie verarbeitet. Den Rezeptionskapazitäten des Menschen ist das ja nicht ohne Weiteres möglich. Und all das, was sozusagen auch nur den Anschein hat und die Wissenschaft dann verarbeitet wird in den Maschinen, damit weitergearbeitet wird. Und die Anschlussfähigkeit eben nicht mehr alleine über die Frage der Relevanz entschieden wird oder war unbar, sondern über Resonanz vielleicht, über Topical Issues und so weiter. Dann würde ich vermuten, dass ich also mit all diesen kleinen Vignetten, die ich hier vorgestellt habe, die radikalere Transformation dessen ergibt, die dann mit den Mechanismen der funktional differenzierten Gesellschaft nicht mehr beschreibbar sind, wo auch Wissenschaft seine Gestalt ändert und vielleicht nicht mehr Trennschaft unterscheiden ist. Das war sozusagen die angelegte These, die ihm noch ausgearbeitet werden muss. Ganz kurz. Das gab es. Man konnte es immer ignorieren. Aber es wird eigentlich mehr ohne Weiteres ignoriert. Wir haben noch zwei Minuten und zwei Fragen. Und vielleicht könnt ihr wirklich kurz und zusammen diesmal. Ja, also ich habe das auch so verstanden, dass du, Martina, einerseits über die Evolution des Wissenschaftssystems redest und das verknüpft mit der These über die Evolution des Wissenschaftssystems. Und ich habe das auch so verstanden. Ich habe das über die Evolution von Gesellschaft. Dann habe ich glaube ich herausgehört, dass du eigentlich auch zwei Thesen hast, mit Blick auf deine empirischen Beispiele. Einerseits könnte man ja vermuten, dass gerade so diese Crowdsourcing Aspekte des Peer Reviews, also ich weiß nicht, ob das dann unbedingt Resonanz ist oder die Qualität der Artikel, die reviewed werden, bestimmen. Und das wäre dann ja quasi in Lein mit der These von Becker. Und das andere ist dann quasi diese Extension des Schriftmediums, wo es dann eigentlich wieder eine Verstärkung, eigentlich auch der Eigenlogik vielleicht des Wissenschaftssystems gibt. Das bin ich zu langen Punkt. Da Robert Seifert verzichtet, können Sie jetzt sozusagen einfach ein wunderschöner Schlusswort dazu geben? Ja, Thorsten, in der Tat, es sind vielleicht nicht zwei verschiedene Ansätze, die ich hier verfolgt habe, Evolution der Gesellschaft und Evolution der Wissenschaft, sondern Wissenschaft als Beispiel für die Evolution der Gesellschaft, denn die kriegen wir ja nicht insgesamt in den Blick. Und da ist tatsächlich die Frage, wenn du auf das Crowdsourcing abstellst in Bewertungshandeln, dann ist das für mich überhaupt erst die Möglichkeit aus diesem geschlossenen System, die einen selbstreferenziellen Kommunikationszusammenhang im Medium, also der wissenschaftlichen Zeitschrift eigentlich, ja, bedeutet hat, mit all seinen Rollen, die damit verknüpft sind, dass das aufgebrochen wird und Crowdsourcing würde ich dann weit aus größeren Kontext eben auch auf Maschinen ausweiten. Also da geht es dann nicht mehr nur um die Differenz zwischen Experten und Leinen, sondern eben auch auf Maschinen, die dann also in diesem letzten Beispiel tatsächlich auch das Bewertungshandeln delegiert bekommen können oder selbstständig eine alternative Lesart liefern auch als Service-Einheit und das macht ja eben Google Analytics ständig als Marketingberatung für alle Homepage-Betreiber eben auch. Nichts anderes wäre es, es wäre bloß nach anderen Maßstäben, dessen beispielsweise, ob sich ein Artikel da eingereicht ist, Mustererkennung, wohl hoch zitieren wird. Das sind sozusagen die Entscheidungsprämissen für dieses Text-Mining und insofern sehe ich, dass das Thema Diskussionswürdig ist und freu mich, wenn wir das fortsetzen können in der Pause. Vielen Dank.