 Sehr geehrte Damen und Herren, ich freue mich, Sie im Namen der Bundeszentrale für Politische Bildung und des Alexander von Humboldt Instituts für Internet und Gesellschaft zur letzten Ausgabe des Jahres unserer Reihe Making Sense of the Digital Society hier in Berlin, aber natürlich auch digital im Livestream begrüßen zu dürfen. Seit 2017 versuchen wir mit der Reihe eine europäische Perspektive auf Folgen digitaler Technologien für unser Zusammenleben zu entwickeln. Zentral sind hier bei Fragen rund um Macht und Ungleichheitsverhältnisse und wie wir als Bürgerinnen und Bürger mit digitalen Technologien leben und unseren Umgang mit diesen Technologien gestalten können. Ich freue mich daher sehr auf die heutige Rednerin Prof. Helen Kennedy, die uns Einblick in ihre Arbeit zur Auswirkung der Datafizierung auf unser alltägliches Leben gibt. An dieser Stelle schon einmal vielen Dank und herzlich willkommen. Bevor ich nun an unseren Moderator Tobi Müller weitergebe, möchte ich einerseits den Kolleginnen und Kollegen des Alexander von Humboldt Instituts für Internet und Gesellschaft für die Hintergrundarbeit und Organisation dieser Veranstaltung danken. Insbesondere die aktuelle Situation der Corona-Pandemie und die Durchführung der Veranstaltung unter 2G-Regelungen stellen noch einmal besondere Anforderungen an die Organisation. Vielen Dank. Andererseits danke ich aber auch unserem Publikum sowohl hier vor Ort als auch digital im Livestream. Wir sind froh, dass sie uns als Publikum treu geblieben sind und hoffen auch heute und im nächsten Jahr wieder regel mit ihnen diskutieren zu können. Vielen Dank. Und damit wünsche ich Ihnen einen spannenden Abend und gebe weiter an den sehr geschätzten Tobi Müller. Guten Tag. Ich kann Sie zwar nicht sehen, aber ich hoffe Sie sehen mich. Vielen Dank, dass Sie auch unter diesen Umständen hierhergekommen sind, die wir gerade in Deutschland haben. Ich weiß, was das bedeutet. Ich weiß, Sie ist wirklich sehr zu schätzen. Die meisten von Ihnen, vielleicht auch diejenigen, die zu Hause vor den Bildschirmen sitzen, wissen, dass wir eine kurze Einführung haben und dann werden wir einen Vortrag von Helen hören und danach werden wir eine Unterhaltung zwischen ihr und mir hören und dann haben Sie die Möglichkeit, Ihre Fragen zu stellen. Es gibt natürlich auch ein digitales Tool für Dienen, die an dieser Diskussion teilnehmen möchten. Heute Abend werde ich Englisch sprechen, wie schon so oft im Rahmen dieser Vortragsreihe. Sie können Ihre Fragen auf Deutsch oder auf Englisch stellen, ganz wie Sie möchten. Es gibt eine Verdolmetschung für Helen. Sie hat ein Headset auf. Das heißt, es ist gar kein Problem, Ihre Fragen werden verdolmetscht werden. Bevor ich nun mit der Einführung für heute Abend beginne, möchte ich Ihnen noch etwas ganz Neues vorstellen, das heute veröffentlicht worden ist und das sehr viel mit dieser Vortragsreihe zu tun hat. Und zwar haben wir das hier veröffentlicht. Vielleicht sehen Sie diese Folie. Es handelt sich hierbei um ein digitales Compendium, das vom HIIG, also dem Humboldt-Institut für Internet und Gesellschaft produziert wurde und vom BPB mitfinanziert wurde. Es kann genutzt werden für verschiedene Bildungsaktivitäten zur digitalen Gesellschaft. Es beruht auf diese Vortragsreihe, aber geht weit darüber hinaus. Wir haben die Aufnahmen der unterschiedlichen Vorträge in sieben verschiedene Themengebiete aufgeteilt. Hier zum Beispiel ein Themengebiet, digitale Gesellschaft. Und es gibt einen Podcast für jedes dieser Themengebiete. Es gibt so viele verschiedene Podcasts vom HIIG. Sie können die verschiedenen Podcasts gerne anhören. Das ist wirklich ein sehr gutes Portfolio der verschiedenen Themen. Wie gesagt, das wurde heute erst veröffentlicht. Und bitte probieren Sie es aus. Ich hoffe, Sie werden dies tun. Es wurden auch Quellen eingefügt von verschiedenen Blog-Einträgen, Zeitungsartikeln und verschiedenen Podcasten, um die aktuelle Diskussion zum digitalen Wandel vorzustellen. Probieren Sie es aus. Christiane Kraumvogel, Phylenia Vianz und Jürgen Bader haben die meiste Editing-Arbeit geleistet. Vielen herzlichen Dank. Ich habe nur meine Stimme diesen Projekt geliehen. Vielen herzlichen Dank. Probieren Sie es aus. Seit heute Nachmittag ist es online verfügbar. Ich glaube seit 15 Uhr ungefähr. Nun aber zum Vortrag von heute Abend. In dieser langen Vortragsreihe haben wir sehr viel über Algorithmen, über maschinelles Lernen, über künstliche Intelligenz, über Überwachungskapitalismus, Datafizierung, über die Ethik von Robotics und künstlicher Intelligenz gesprochen. Und fast immer haben wir über die Voreingenommenheit der Maschine oder diskriminierende Praktiken, die reproduziert oder manchmal sogar verstärkt wurden gesprochen. Wir haben aber noch nicht so häufig über die Menschen gesprochen, die von dieser Diskriminierung betroffen sind. Doch bei diesem Vortrag wird es auch darum gehen. Es geht darum, dass auch die benachteiligten Personen in ihren alltäglichen Interaktionen mit den Daten repräsentiert werden. Gibt es eine bestimmte Art der Agency, also eine Art Handlungsmacht, die Menschen haben, wie sie oder wir darüber nachdenken, wie ihre Leben von Datengewinnungen betroffen sind und welche Rolle als Nachklang zu der letzten Sitzung mit Judith Simon spielt Vertrauen hierin oder vielleicht auch Misstrauen. Wir haben gerade stark ansteigende Infektionszahlen in Deutschland. Deswegen ist dieses Treffen hier ein 2G-Treffen. Alle sind also entweder geimpft oder bereits von Covid-Genesen. Viele von ihnen sind sicherlich auch noch getestet. Doch zurück zum Thema. Unsere Rednerin ist aus Schaffield hergekommen. Helen Kennedy ist Professorin der Digitalen Gesellschaft an der University of Schaffield, wo sie das Living with Data Forschungsprogramm leitet. Gehen Sie gerne auf Ihre Webseite. Dort gibt es sehr viel Material. Ein Zitat daraus. Verfechter der Datafizierung behaupten, dass datengestützte Veränderungen viele Vorteile bringen. Kritikerinnen sind besorgt über die Schäden und Risiken, die von breiter Datafizierung resultieren. Doch was denken Bürgerinnen? Das ist der grundlegende Perspektivwechsel, der ihre Arbeit prägt, wie ich das sehe. Es ist ein Wechsel, der zumindest methodisch stark von Kulturwissenschaften geprägt ist, was keine Überraschung ist. Denn unser Gast hat an der Bekannten Birmingham Center for Contemporary Cultural Studies studiert. Sie hat dann an der University of East London elf Jahre lang gearbeitet und dann ist sie nach Leeds sieben Jahre gegangen, bevor sie nach Schaffield zog. Wir werden aus ihrer zuletzt veröffentlichen Monographie hören. Unter dem Titel Postmine Repeat Social Media Data Mining Becomes Ordinary. Hier ist sie herzlich willkommen Helen Kennedy. Vielen herzlichen Dank für diese freundlichen einführenden Worte und natürlich auch für die Einladung. Es ist mir wirklich eine Ehre hier, Teil dieser Vortragsreihe zu sein. Als eine von einer Sprecherin unter vielen Sprecher erinnere ich sehr bewundere und ich freue mich auch, dass es wirklich hier so viele Menschen direkt vor Ort gibt. Ich werde über das alltägliche Leben in Zeiten der Datafizierung sprechen. Wir leben in Zeiten der Datafizierung. Das ist ein schwieriges Wort, etwas sperrig, aber durchaus auch hilfreich. Es geht um die Quantifizierung von Dingen, die vorher qualitativ erfahren wurden. Also Arbeiten, Freizeit, Beziehungen, Freundschaften, Einkaufen. All diese Dinge werden quantifiziert, visualisiert, analysiert. Die Datafizierung ist überall in unserem täglichen Leben. Und viel daran sollte uns durchaus beunruhigen. Überwachung, Bedrohung, Gefährdung unserer Privatsphäre, algorithmische Kontrolle und neue Formen der Diskriminierung oder tiefere Diskriminierung. Das wurde ja auch schon in dieser Reihe diskutiert. Nicole, die spricht zum Beispiel von dem Begriff Datenkolojinalismus. Es geht um eine neue gesellschaftliche Ordnung, in der Daten sozusagen das gesellschaftliche Leben aushöhlen und es gibt immer mehr Ausbeutung und Manipulierung. Shoshana Subov nutzt dem Begriff Überwachungskapitalismus. Das bedeutet, dass die Menschen nur noch ein Anhängsel der digitalen Maschine sind. Ihre Daten sind eine Quelle der Wertschöpfung in neuen lukrativen Märkten. Diese ForscherInnen weisen darauf hin, dass die Datafizierung oft ein sehr technisches Phänomen ist. Aber dabei ist sie wirklich ganz zentral, auch für gesellschaftliche, politische und wirtschaftliche Kräfte. Denn die Datafizierung trifft Entscheidungen, die ganz zentral sind für unsere Fähigkeit zur gesellschaftlicher Teilhabe, zum Beispiel in der Wohlfahrt, im Arbeitsleben, in der Bildung. Die Politik der Datafizierung ist also auch überall und zwar jeden Tag und das bedeutet, dass wir wirklich uns die täglichen Erfahrungen im Leben mit dem Daten anschauen müssen, denn dann können wir die Politik der Datafizierung verstehen und ebenso Datenbezogene Ungleichheiten. Ich möchte also argumentieren, dass anscheinend apolitische, ganz normale tägliche Phänomene im Umgang mit Daten sehr wichtig sind, denn sie sind auch politische Phänomene. Und daher müssen wir sie anschauen, wenn wir hier die Mächte, das Mächtegleichgewicht angehen wollen. Das private und das ganz normale ist politisch, das wissen wir aus dem Feminismus schon sehr lange und wir verlieren sehr viel, wenn wir das ignorieren. Konzepte wie Überwachungskapitalismus und Datenkolonialismus schauen sich die mächtigen Akteure an und das ist wichtig, aber es ist auch wichtig zu fragen, wie die ganz normalen Menschen mit Daten leben und Daten erfahren in ihrem täglichen Leben. Einigen gefällt der Begriff normale Menschen vielleicht nicht und das Gegenteil Expertinnen, denn alle sind ja Expertinnen zu irgendetwas, zum Beispiel ihrem allgemeinen Leben, ihrem täglichen Leben und das gilt ja auch für ganz normale Menschen und das ist natürlich durchaus eine sinnvolle Herangehensweise, aber die Kulturwissenschaften haben auch etwas zum normalen zu sagen, in den 1990ern zum Beispiel. Da hieß es, dass ein Fokus auf normale Aktivitäten im täglichen Leben eine politische Geste ist. Das haben die Kulturwissenschaften also gemacht, Raymond Williams, die Kulturwissenschaften fragen, wie und wo sich Macht ausdrückt in der normalen allgemeinen Kultur und das ist die Frage, die mich interessiert, wie und wo drückt sich Macht aus in der täglichen Datafizierung, aber normale Menschen sind nicht alle gleich und das tägliche Leben der Menschen ist auch nicht gleich bei allen. Bereits sozial benachteiligte Gruppen werden mit größerer Wahrscheinlichkeit in Datenbasierten Systemen diskriminiert aufgrund struktureller Ungleichheit und das müssen wir uns anschauen, wenn wir uns normale tägliche Interaktion mit Daten anschauen und ich möchte argumentieren, dass wenn wir uns auf dieses tägliche Leben konzentrieren, wir dann sehen können, dass es durchaus handlungsfrei Räume gibt. Das mag vielleicht modern erscheinen manchmal, aber manchmal ist es eben auch durchaus signifikant. Datafizierung formt nämlich nicht nur das gesellschaftliche Leben, sondern sie wird auch geformt durch tägliche Praktiken und ich glaube, dass Konzepte wie Überwachungskapitalismus und Datenkolonialismus das oft nicht so im Blick haben und dieser Ansatz gibt uns auch einen Raum, wirklich die emotionalen Teile im Leben mit Daten anzuschauen und das hat ja auch eine politische Komponente. Wenn Sie das noch nicht klar haben, dann kann ich Ihnen jetzt noch mal sagen, dass ich natürlich Geschichten erzählen werde über das Leben von Menschen, ihr Alltagsleben mit Daten und Datafizierung und ich werde mich auf drei Beispiele konzentrieren aus drei ganz unterschiedlichen Projekten, an denen ich in den letzten zehn Jahren gearbeitet habe, immer unter diesem Schirm leben mit Daten. Darüber können Sie übrigens auch mehr auf dieser Webseite, die Sie hier sehen, erfahren. In der ersten Geschichte, die ich Ihnen erzählen möchte, geht es um den BBC Eye Player und dieser Eye Player online hat eine Zustimmung der Menschen erfordert und ein Login um die Dienste der BBC wahrzunehmen. 2018 wurde dieser Login eben gefordert. Warum? In ganz Europa waren dann diese öffentlichen Medien interessiert daran, Daten zu nutzen, um personalisierte Dienstleistungen bereit zu stellen und dafür musste man eben erst mal Daten sammeln. Das hat auch die BBC getan. Wir haben uns dann angeschaut, was benachteiligte Gruppen von dieser Entscheidung der BBC hielten. Es war wirklich ganz auffällig, dass Menschen, die in Armut lebten oder wie sie über diese Datenpraxis der BBC nachgedacht haben. Wir haben Fokusgruppen eingerichtet und einige Menschen konnten sehr viel sagen zu Mediennutzung im Allgemeinen, aber bei Datenbasierten Diensten wurden sie dann ganz still. Ein Beispiel ist Jason, ein weißer Brite zwischen 35 und 44. Er hat eine Behinderung und er ist arbeitslos. Der hatte keinen durchgängigen Zugang zu Computer, Tablet oder Smartphone und er hat also Medien anders konsumiert. Zum Beispiel hat er Zeitung gelesen und er war öfter an einem Zentrum für Arbeitslose, wo wir eine Fokusgruppe hatten und dort hat er den Computer genutzt. Er hat in der frühen Phase der Fokusgruppe viel beigetragen, als es um Mediennutzung ging, aber als es um Wahrnehmung von Datenpraxissen ging, dann nahm er nicht mehr an der Diskussion teil, denn er hatte kein Verständnis, ein Verständnis, das eben aus Erfahrung kommt und dementsprechend wurde er still und mit dieser Stille hingen sicherlich auch ein Gefühl des Scham zusammen, Scham über seinen Ausschluss hier. Chris in der Altersgruppe 55 bis 64 ist nicht benäher, gehört verschiedenen ethnischen Gruppen an, ist Breter, hat eine leichte Lernbehinderung und ist eben so arbeitslos. Chris liebt BBC Radio und hatte da sehr starke Meinungen, aber eben auch keine Meinung zu datengetriebenen Diensten, denn er hatte kein Computer und konnte dementsprechend nicht zugreifen. Er beschrieb sich als eine arme Kirchenmaus, weißt du, zu armen, um sich ein Fernseher zu leisten. Tobi sagt, dass sie wissen, wie das funktioniert, mit den Fernseh- Lizenzen in Großbritannien, daher muss ich das nicht erklären. Das System ist anscheinend in Deutschland ähnlich. Also, hier wurde eben über Armut gesprochen und das hing zusammen mit der Erfahrung von von Daten und von Zugang. In dieser Zeit gab es auch Online-Diskussions für Foren, Diskussion darüber, dass man eine Postleitzahl eingeben müsste für iPlayer und es gab Sorge, dass da neue Zahlungspraktiken daraus erwachsen würden. Diese Diskussion haben wir auch geführt. Und eine Frau, Brenda, in der Altersklasse 65 bis 74, diese Brenda sprach auch über ihre schlechte finanzielle Situation und sie sagte, dass nur die jungen Menschen diese Fernseh- Lizenzen bezahlen, obwohl sie keine Arbeits hatten. Wo sind denn die Arbeitsplätze? Und sie sprach also Ungleichheit an. Und diese Ungleichheit und ihr Bewusstsein für Ungleichheit hatte einen Einfluss auf ihre Wahrnehmung von Datenpraktiken und auch Virginia sah das so. Sie sagte, ich habe nichts dagegen, mich einzulocken, aber ich kann mir ja auch eine Fernseh-Lizenz leisten. Also kann mich niemand bestrafen, wenn ich es nicht tue. Und sie war also der Meinung, dass dieses Einloggen dazu führen würde, dass einige Menschen, die eben ausgeschlossen sind von den BBC-Diensten, weil sie sich nicht einloggen können, weil sie sich die Lizenzen nicht leisten können. Also gab es hier eine Intersektion zwischen diesem Einloggen und den Problemen von Menschen, die in Armut leben. Und dann kommen wir also von einer allgemeinen Diskussion zu einer breiteren Diskussion über Armut, denn wir sehen hier einen Zusammenhang zwischen Datenpraktiken und Ungleichheiten, selbst wenn diese nicht klar artikuliert wurde von den Befragten. Also es wird hier Überwahrnehmung von Datenpraktiken gesprochen und dabei werden Daten verbunden mit der sozialen und politischen Realität, in der sie erhoben werden. Und wir haben also gesehen, dass Daten aus unseren Diskussionen sozusagen dezentriert werden. Das haben wir auch schon in vorherigen Forschungsarbeiten gelesen. So etwas ist wichtig, um zu verstehen, welche Rolle Datifizierung in der Produktion von Ungleichheit spielt. Wir Forscherinnen müssen das Gleiche tun in unserer Forschungspraxis Daten dezentralisieren. Hier tun ja ganz normale Menschen so etwas. Sie erkennen an, dass die tägliche Datifizierung durchaus im Zusammenhang steht mit struktureller Ungleichheit. Und so etwas haben wir auch solche Einstellungen unter den Teilnehmerinnen unseres aktuellen Forschungsprojektes gesehen, Living with Data. Wir führen hier eine Befragung durch zu den Einstellungen der Menschen zu täglichen Datenpraktiken im öffentlichen Bereich, also Wohlfahrt, Gesundheitssektor und Medien. Und wir haben hier herausgefunden, dass schwarze Menschen und ednische Minderheiten der Polizei ihre weniger vertrauen mit ihren Daten als weiße Menschen, LGBTQ Menschen vertrauen dem Gesundheitssektor weniger als heterosexuelle Menschen. Und diejenigen, die zwar wenig, die zwar keine direkte Erfahrung mit Ungleichheit haben, haben deshalb haben darüber immer noch, machen sich darüber Sorgen, und zwar 86 Prozent von ihnen. Fair hat ja verschiedene Bedeutung und eine davon ist gleich oder ungleich. Und Ungleichheit findet sich in allen Teilen Bereichen der Datifizierung und das betrifft auch alle Menschen, sowohl die, die negativ betroffen sind, aber auch andere, die sich einfach nur darüber Gedanken machen. Und wir haben das ja auch schon in einer Befragung gehört, wir sollten mit denen Empathie haben, die schon die bereits Ausschlüsse erfahren, die am Rande der Gesellschaft leben. Und wie gesagt, 86 Prozent der Befragten machen sich Sorgen darüber, dass Daten unfair genutzt werden. So komme ich jetzt zum Thema Fairness. Fairness und Unfairness in Datenpraktiken. Wie hilft uns das mit der digitalen Gesellschaft umzugehen? Das Konzept Fairness ist ein Konzept, das auftauchte, als wir einen Raum geschaffen haben, in den Menschen wirklich sagen konnten, was sie halten von der Datifizierung in ihren eigenen Worten. Und das habe ich schon sehr früh, 2013, 2014, in meiner Forschung herausgefunden. Ich habe damals zum Data Managing von den sozialen Medien geforscht. Wir haben herausgefunden, dass die Art von Daten, die erhoben werden, der Zweck der Ehebung, ob diese Daten als öffentlich oder privat gesehen werden, Transparenz, Zustimmung, all diese Dinge haben dazu beigetragen, wie was Menschen von Data Managing durch soziale Medien hielten. Sie haben sich diese Praktiken angeschaut und sie haben sich gefragt, ist diese spezielle Data Managing fair? Wir sehen also Beispiele von Menschen, bei denen tatsächlich von Plattform zu Plattform sich die Einstellung ändert. Hier haben wir zum Beispiel Hugo, ein männlicher Befragungsteilnehmer aus Spanien, 32 Jahre alt und arbeitslos. Er sagte, wenn es um Facebook geht, dann mache ich mir Sorgen um Data Managing. Bei einem Forum ist es mir egal. Aber ein soziales Netzwerk ist ja persönlicher. Also die Plattform ist eben doch wichtig. Einige Menschen unterschieden zwischen den Arten der Daten, die die sozialen Medien sammelten. Also Data Managing schien okay bei Daten, die man eingibt, wenn man ein Facebook Account, ein Konto erstellt und weniger, wenn man einen persönlichen Post schreibt, das wurde als wirklich persönlicher, personenbezogene angesehen. Und die Nutzung dieser Daten war auch wichtig. Für einige war die Datennutzung für personalisierte Werbung in Ordnung für andere weniger. Hier haben wir eine Zitat von Francis, einer 49-jährigen Briten. Sie machte sich über sich selbst lustig und sie sagte, wenn sie etwas mit den Daten tun, was ich gut finde, dann ist das in Ordnung. Aber wenn ich es nicht gut finde, ist es ihm nicht in Ordnung. Also Menschen denken hier darüber nach, ob Datenpraktiken fair sind oder nicht und sie kommen dann zu unterschiedlichen Schlussfolgerungen. Das sind Unterschiede, die nicht unbedingt aus verschiedenen Konzepten der Fairness kommen, sondern einer unterschiedlichen Bewertung dessen, wie fair eine Datenpraxis ist. Eine Datenpraxis wird als fair wahrgenommen, wenn sie die Erwartungen der Nutzerinnen erfüllt, zum Umgang mit Daten und zur Erhebung der Daten. Ich denke, es wurde bereits vielfach diskutiert, dass datengestützte Systeme immer mit den Werten derjenigen, die diese Systeme gefüttert haben, einhergehen. Joy Blue-Weedy hat ein Gedicht veröffentlicht, Ain't I a Woman. Wenn Sie es nicht kennen, es dauert nur zwei bis drei Minuten. Schauen Sie es sich bitte gerne an. Sie zeigt in diesem Gedicht, dass die Technologie zur Gesichtserkennung nicht mit genügend weiblichen schwarzen Personen trainiert worden ist. Deswegen werden solche Frauen nicht als Frauen erkannt. Das ist nur ein Beispiel dieser datengestützten Systeme, die von den Werten derjenigen, die diese produzieren gefüttert sind. Rechtskeleerte, Ethikerinnen und andere arbeiten daran, um dieses Thema anzugehen. Ein Beispiel sind die sogenannten FACT-Initiativen, geschrieben wie hier oben auf der Folie. Fairness, Accountability, Entrancerancy, also Fairness, Rechenschaftspflicht und Transparenz. Diese Punkte werden angeschaut, um die Probleme hier zu beheben. Das sind Bemühungen, die wirklich gut gemeint sind, aber sie werden auch stark kritisiert. Es wird gesagt, dass ein Fokus, ob ein solches datengestütztes System fair ist, der falsche Fokus ist. Man sollte eigentlich hinterfragen, ob sie die Macht verschieben. Die Kritik besagt, dass solche Initiativen sich auf den Glauben stützen, dass jede Ungleichheit überwunden werden kann, wenn man nur mit dem Algorithmus herumspielt und ihnen leicht verändert. Das kann dann also wieder diese Vorurteile und Voreingenommenheiten vertuschen. Die Kritikerinnen sagen, dass tatsächlich diese strukturellen Ungleichheiten, die zu solchen Vorurteilen und zu Ungerechtigkeit führen, erkannt werden müssen. Das ist eine wichtige Kritik. Doch ich möchte vorschlagen, dass wir darüber sprechen sollten, ob Daten praktikend fair oder nicht, sind da. Dies bedeutet, dass Menschen, die weniger politisch interessiert sind oder vielleicht weniger das Vokabular zur Ungleichheit oder zum Machtlosigkeit haben, ihre politischen Sorgen dennoch äußern können. Die Beurteilung, ob etwas fair oder unfair ist, liegt bei den Menschen selbst und natürlich spielen darin Vorurteile eine Rolle. Hier kommt wieder diese Agency, die ich angesprochen hatte am Anfang. Denn wenn wir Agency, also vermutlich diese Machthandlung, verstehen, dann sollte man einerseits verstehen, was die Menschen glauben und andererseits was sie tatsächlich tun. Nick Holtry beispielsweise hat diese Agency folgendermaßen beschrieben. Es geht darum, sich von der Welt ein Bild zu machen und gleichzeitig aber auch darin zu leben und zu handeln. Jane Crane sagt, dass es hierbei um darum geht zu entscheiden, in eine bestimmte Art und Weise über etwas bestimmt nachzudenken und aber auch zu handeln. Wenn wir Agency also als solches verstehen, dann geht es bei der Bildung von Meinungen um das Fundamentale innerhalb dieser Agency. Nun mache ich weiter mit meiner dritten Geschichte. Diese möchte ich damit beginnen, indem ich sage, dass es bisher in meinen Geschichten sehr viel Emotionen zu hören gab, wenn Menschen zwischen Datengewinnung und Armut nachgedacht haben oder der Beurteilung der Menschen bei den Datenpraktiken. 2014-15 habe ich ein Forschungsprogramm unter dem Titel Seeing Data, also Datensehen, vollbracht. Es ging dabei darum, wie Menschen die Daten wirklich sehnen können durch Visualisierung und wie sie dann auch Dinge unterschiedlich bewerten. Emotionen und Werte wurden darin eingewickelt und dies ist oftmals ein guter Ausgangspunkt für die Vorstellungskraft. Diese Vorstellungskraft ist oftmals in der Agency begründet. Eine Visualisierung über die wir in Fokusgruppen gesprochen haben war beispielsweise die Migration in der Presse. Es ging also darum, wie die britische Presse die Migrantengruppen beschrieben hat. Welches Wort wurde wohl meistens vor dem Begriff Migrant in der britischen Presse verwendet? Hat jemand eine Idee? Nein, es ist nicht wirtschaftlich, nein kein Wirtschaftsflüchtling, sondern illegal, illegal. Also die britische Presse ist wirklich besessen davon, eine Verbindung zwischen illegal und Migrantin herzustellen. Hier sehen Sie eine interaktive Visualisierung. Es ist oftmals sehr schwer, einen Screenshot davon zu machen. Also es ist vielleicht nicht ganz so repräsentativ, aber es gibt Ihnen vermutlich eine ganz gute Idee davon. Diese Visualisierung zeigt uns, wie die britische Presse über Migrantinnen und Migrantengruppen spricht, eben immer in Verbindung mit dem Wort illegal. Dadurch werden starke Gefühle der Empathie in zwei Fokusgruppen, die für zivilgesellschaftliche Organisationen arbeiten, ausgibt Sally, 48 und Horace, 27, weiß und brite. Diese Visualisierung hat bei Ihnen folgendes ausgelöst. Sie haben sich die Erfahrungen derjenigen vorgestellt, die nach Großbritannien ausgewandert waren und sie haben sich ihrer Vorstellungskraftvoll und ganz hingegeben. Sally hat gesagt, dass sie sich sehr schlecht gefühlt hat, dass es so viel Negatives in der Presse über Flüchtlinge und Migrantinnern gibt. Man fühlt mit den Menschen, die Flüchtlingen sind und die dann vielleicht Zeitungen kaufen und dann all diese Artikel, diese negativen Artikel lesen, die sie als Verbrecher und so weiter darstellen. Das ist sehr unfair. Sally hat also dieses Gefühl beschrieben, dass sie sich schuldig fühlt, britisch zu sein und dass sie sich für die Medien allgemein schämt. Horace hat folgendes gesagt. Es ist mir peinlich in einem Land zu leben, in dem so viele Menschen, die ihr Leben geben würden, um hierher zu kommen, von uns nur fertig gemacht werden und klein geredet werden. Es ist mir wirklich peinlich in einem Land zu leben, dass eine solche Presse hat. Beide wussten also über die Gründe der Migration und der Gründe der Flüchtlinge Bescheid aufgrund ihrer Arbeit in diesen Organisationen und diese Visualisierung der Daten hat also ein Gefühl des Schams bei ihnen ausgelöst. Sie wussten, dass diese Migrantinnern sehr viel zurücklassen müssen und deswegen haben Sally und Horace ein Mitgefühl mit den Migrantinnern ausgelebt. Sally und Horace haben die Menschen dahinter gesehen und dadurch wurde die Visualisierung für sie wirklich bildlich. Sie haben diese Daten also wirklich gefühlt und haben emotionalen Sinn daraus gezogen. Es gibt also oft eine emotionale Komponente, um mit diesen Daten umzugehen. Emotionen sind also oftmals wichtig für die verschiedene Beurteilung der Datengewinnung, beispielsweise zu den TV-Lizenzen oder zu der britischen Presse. Diese Gefühle über die Daten führen auch dazu, wie andere durch die Daten repräsentiert betrachtet werden. Das heißt Horace und Sally haben wirklich ihr persönliches Leben in die Diskussion eingebracht. Sie haben Überlegungen angestellt und das bezeichne ich als kleine Taten innerhalb der Agency. Gehen wir zurück zu unserem Leben mit datengestützten Systemen. Im Forschungsprogramm haben wir gefragt, was sie sich wohl über die Corona-Zahlen im nationalen Gesundheitssystem Großbritanniens zusammen reimen, besonders wenn es also um die Reaktion auf Covid-19 geht. Wir haben herausgefunden, dass 78 Prozent unserer Befragten ganz zufrieden waren, dass ihre Patienten Daten eingefüttert werden bzw. sie waren nicht zufrieden damit. Das heißt sie hatten hier wirklich Sorgen, dass ihre Daten hier genutzt werden, ihre personengestützten Gesundheitsdaten. Sie hatten Sorge, dass Werbe- und kommerzielle Unternehmen wie beispielsweise Google, Amazon und so weiter diese Daten nutzen würden, da es nicht ganz klar war welcher Zugang zu diesen sensiblen Gesundheitsdaten gewährleistet werden würde. Das hat auch dazu geführt, dass sie sich folgendes vorgestellt haben, nämlich was wird wohl passieren, also negative Zukunftsszenarien. Oftmals ging es auch darum, dass kommerzielle Unternehmen Daten Lex ausnutzen würden und diese Daten dann in der Zukunft verkaufen würden. Daten könnten also mit Pharmaunternehmen geteilt werden, die Mitarbeiterinnen könnten Fehler machen, die Daten könnten in falsche Hände fallen, die Daten könnten mit anderen geteilt werden, wo es nicht mehr sicher, wo sie nicht mehr sicher sind. Diese Sorgen gab es also allgemein und diese Sorgen können allgemein auch zu Misstrauen führen. Misstrauen wird oftmals als Problem angesehen, denn Vertrauen wird ja oftmals als positive Emotion betrachtet. In Großbritannien besagt die Royal Statistical Society dass es ein Datenvertrauensdefizit gibt und das gilt als Problem, dass es zu lösen gilt. Wenn man also nun sagt, dass Vertrauen erstrebenswert ist, könnte dies aber das Misstrauen in Misskredit bringen. Vielleicht ist es ja manchmal auch angemessen Misstrauen zu haben, beispielsweise gegenüber der Daten Nutzung von Amazon, Google und so weiter, wenn man gar nicht genau weiß, welches Abkommen überhaupt getroffen worden ist. Diese Art des Misstrauens resultiert aus verschiedenen Gefühlen und der Bewertung und der Vorstellungskraft. Also dieses Misstrauen kann auch Teil der Agency sein, wie ich diese vorhin beschrieben habe. Misstrauen ist eine Wahl, die getroffen wird aufgrund der strukturellen Ungleichheit, hier beispielsweise Ungleichheit beim Zugang zur Technologie und zum Wissen, wie datengestützte Systeme funktionieren, hier beispielsweise zu den Covid-Zahlen. Dieser ist Konzept von Misstrauen als Wahl, hat dazu geführt, dass Rora Benjamin gesagt hat, dass das Problem der Misstrauenden, Bürgerinnen umformuliert werden müsste, nämlich als Thema der sozialen Gerechtigkeit. Ich werde einen Schluck Wasser zu mir nehmen. Ich muss leicht husten. Oh, ich glaube, ich kriege es gar nicht auf. Das tut mir leid. Ich brauche Hilfe für das Wasser, bitte. Oh, das tut mir leid. Ah, jetzt klappt's. Vielen Dank. Ich habe mir nicht gedacht, dass die Wasserpause so lang sein würde oder so kompliziert. Okay, so viel zu den Geschichten. Ich werde jetzt ein bisschen darüber sprechen, was mir diese Geschichten sagen und ich erinnere sie alle und mich selbst daran, dass ich diese Rede folgendermaßen begonnen habe. Der Fokus auf Datafizierung im alltäglichen Leben, mit der Agency und so weiter, waren sehr wichtig. Also jetzt noch mal zur Agency und hier sehen Sie die nächste Folie. Das ist mein Buch Cover. Die Art und Weise, wie die Teilnehmenden auf die Fragen geantwortet haben zu der Datennutzung beim iPlayer, sind so gestalt, dass sie selbst Kontrolle übernommen haben über ihre Antworten. Sie haben diese Ungleichheit angemerkt. Diese Art und Weise der Antworten werden oftmals als Dekression angesehen, also als Abweichung. Sie beantworten noch gar nicht auf die Frage, aber man kann sie tatsächlich auch als Teil der Agency anschauen, betrachten. Denn so haben die Menschen gelernt, welche Antworten wichtig für sie selbst sind im Rahmen dieser Forschung. Die Vorstellungskraft kann hier auch als Abweichung gelten. Doch was diese tut, ist, dass sie die Lücken fühlt, die Geschichten, die noch nicht erzählt worden sind, die Informationen, die fehlen. Wir wissen also nicht, was mit sensiblen Gesundheitsdaten passiert. Deswegen werden wir die Lücken selbstständig ausfüllen. Und das ist wichtig. Daten werden oft als Ausgangspunkt verwendet, um die schlechten Exzesse der britischen Medien zu stützen. Auch hier, Horace und Sally haben darauf fokussiert, was wichtig für sie sind, nämlich die Erfahrungen von Migrantinnen in Großbritannien. Und wenn es nicht genug Transparenz gibt, also beispielsweise bei den Daten und welchen Zugang Amazon, Google und so weiter haben, dann werden auch hier die Lücken gefüllt. Das führt oftmals dazu, dass sie das schlimmste sich vorstellen und oftmals zu misstrauen. Wie gesagt, das kann auch Teil der Agency sein. Wenn wir es ganz vereinfacht wollen, dann können wir sagen, dass wenn wir fragen, was Menschen von Datenpraktiken halten, dass es dann sozusagen ihre Agency, ihre Handlungsfreiheit fördert. Denn sie sind angehalten, nachzudenken. Und das argumentiere ich immer wieder so. Ich bin beeinflusst von Andrew Sayer. Er hat einen Buch geschrieben namens Why Things Matter to People, warum Menschen sich für Dinge interessieren. Und er sagt, dass Werte und Gefühle ernst genommen werden der Menschen. Und das versuche ich immer wieder zu tun. Er sagt, dass die Menschen die Welt wahrnehmen, dass sie ethisch im täglichen Leben handeln ist. Sie machen sich Gedanken darüber, wie sie gut leben, wie man gerecht lebt, wie eine gerechte Gesellschaft aussehen sollte. Und ich denke, das bestätigt nur, dass Agency etwas damit zu tun hat über Reflexion nachzudenken und dann ethisch zu handeln. Also ethische Reflexion ist ein Teil der Agency der Handlungsfreiheit. Ich möchte noch hinzufügen, dass methodisch es nicht so einfach ist, mit Menschen über diese Themen zu sprechen. Denn Menschen fühlen sich nicht sozusagen befähigt, wenn wir sie über Dinge zu Dingen interviewen, von denen sie nicht viel Ahnung haben und datenbasierte Prozesse gehören zu diesen Themen über die Menschen oft nicht viel wissen, weil sie oft auch oparks sind in ihrem Design. Die Menschen wissen also oft nicht viel über datengetriebene Systeme. Und das ist eine methodologische Herausforderung. Wie gehe ich damit um? Ich zeige Menschen, wie Daten genutzt werden. Ich möchte nicht, dass sie solche Prozesse bewerten, ohne sie zu verstehen. Also in diesem Beispiel der sozialen Medien haben wir den Teilnehmenden reale Beispiele von Data Mining in sozialen Medien gezeigt. Bei Living with Data geben wir den teilnehmenden Informationen über angebliche Vorteile und Nachteile von datenbasierten Systemen. Wir können nicht annehmen, dass Menschen ein datenbasiertes System egal ist, wenn sie nicht wissen, was die möglichen Risiken und Nebenwirkungen sind. Also bei der Datensammlung des NHS haben wir gesagt, dass es den nationalen Organisationen hilft, diese Datensammlung in der Koordination und Direktion auf die Pandemie. Aber wir haben auch gesagt, dass Daten eben ausgegeben werden an Partner. Und wir haben darüber gesprochen, zu welchen Zwecken und für wie lange diese Daten weitergegeben werden. Also Methoden sind wichtig und machen einen Unterschied. Jetzt kommen wir damit zurück zu der Politik des ganzen. Agency ist wichtig, wenn wir gerechtere Formeln der Datafizierung schaffen wollen. Die derzeitigen Datenpraktiken können Menschen schaden und einigen Personengruppen eben mehr als anderen, wie die Konzepte, Daten, Kolonialisierung und Überwachungskapitalismus zeigen. Dann brauchen wir neue Praktiken und wir brauchen Agency, um diese zu erreichen. Und es gibt ja durchaus Möglichkeiten der Handlungsfreiheit im Umgang mit Datenmöglichkeiten, sich zur Wehr zu setzen. Es gibt Agency, das sehe ich nicht nur in meiner Arbeit, sondern auch in vielen anderen Forschungsarbeiten. Gene Birdies und andere haben zum Beispiel ein Buch, das derzeit in der Publikation sich befindet und dort geht es eben um den Umgang mit datafizierten Technologien. Es gibt sehr viel Forschung zu Health Self Monitoring, also Gesundheits Apps beispielsweise. Es gibt Forschung dazu, wie Vloggers und Influencer mit Algorithmen auf Plattformen umgehen, auf denen sie aktiv sind. Und es gibt auch Arbeit zur digitalen Exklusion und selbst dort finden wir noch Beispiele für Handlungsmacht. Digital Exklusion, also Ausschlüsse werden normalerweise nicht als Beispiele für Handlungsmacht gesehen, sondern viel mehr als Konsequenz von begrenzten Zugang zu Technologien. Aber wir haben Forschung gesehen, die besagt, dass digitale Ausschlüsse auch eine Möglichkeit sind Technologien, sich Technologien zu verweigern, weil man eben den Schaden sieht, den diese Technologien bereits angerichtet haben. Das ist also eine affirmative Herangehensweise an solche Exklusionen und wir sehen also eine Selbstverweigung, einen Selbstausschluss, der durchaus eben ein Beispiel für Handlungsmacht ist. Dann kann man also argumentieren, wenn wir hier diese kleinen, mundänen Akte der Handlungsmacht der Agents sehen, können wir argumentieren, dass Konzepte wie Datenkonto und Lianismus durchaus empirisch inaccurate sind, da sie eben diese Momente der Handlungsfreiheit im Bezug auf Daten missachten oder nicht beachten. Ich habe 2016 eine Studie herausgebracht, oder hier mehr dieses Buch, was ihr hier sehen und da geht es darum, dass Data Mining wirklich Teil unseres alltäglichen Lebens wird und das bedeutet, dass sich neue sozusagen Beziehungen mit Daten oder Zu-Daten entwickeln, neue Umgang mit Daten. Das hat auch David Beer im übrigen argumentiert, ein exzellenter Soziologe. Ich habe gesagt, dass diese neuen Datenpraxen immer zentrale sind für unseren täglichen sozialen Beziehungen, aber diese neuen Datenpraxen sind unbestimmend, zu wenig bestimmt, also wir haben hier noch keine Stabilität. Das habe ich schon 2016 so argumentiert und ich glaube es ist durchaus immer noch der Fall. In meinem Buch paraphrasiere ich die Frage von Andrew Thienberg in seinem Buch Transforming Technology. Die meisten Menschen geben sich der harschen Logik der Maschine hin oder des Datenkolonialismus der Überwachungstechnologie. Müssen Menschen sich dieser harschen Logik unterordnen oder kann die Technologie fundamental neu designt werden, um ihren Schöpfern bessere Dienste zu leisten. Und ich würde sagen, nein, wir müssen uns der Technologie oder der Datafizierung oder dieser harschen Logik der digitalen Gesellschaft eben nicht unterordnen. Wir haben durchaus Handlungsmacht, aber diese kleinen Momente der Handlungsmacht, ich beschrieben habe, bedeutet natürlich nicht, dass die harsche Logik nicht mehr da ist oder dass die vorher machtlosen Jetztmacht haben. Diese Agency in Bezug auf Daten ist eben auch noch durchaus unbestimmt. Die Geschichten, die ich erzählt habe, zeigen, wie wir Ungleichheiten in Daten basierten Systemen sehen. Sie haben Einfluss auf die Gefühle von den strukturellen Benachteiligten und anderen, die Epatie haben. Ich möchte aber auch sagen, dass es wirklich viele Richtungen gibt, in die solche Forschung, wie ich sie mache, gehen kann. Also methodologische Entscheidungen sind wichtig. Welche oder wessen Geschichten hören wir und wie sprechen wir mit ihnen? Also wenn wir nur mit weißen Menschen ohne Behinderung sprechen, dann wird natürlich die Geschichte ganz anders aussehen, als die von den Menschen, die ich hier erzählt habe. Diese Geschichten zeigen auch, dass Emotionen im täglichen Umgang mit Daten durchaus wichtig sind. In den USA haben Akademiker und Aktivisten, Ignatio und Bagava, festgestellt, dass emotionale Ansatzpunkte durchaus auch Teilhabe an diesen Datenprojekten beeinflussen. Sie haben mit benachteiligten Gruppen in den USA zusammengearbeitet und sie sagen, dass ein emotionaler Zugang es eben leichter macht, teilzuhaben. Das heißt, dass es ein wichtiges Prinzip ist, dass man so eine emotionale Antwort durchaus auch legitimiert und ernst nimmt. Denn so kann man verschiedene Menschengruppen eben an Bord holen und somit kommen wir dann vielleicht zu inklusiveren datengetriebenen Gesellschaften. Sonja Livingston, eine ganz tolle Medienforscherin, hat gesagt, dass wir uns zu sehr auf die Macht konzentrieren und zu wenig auf individuelle Leben in der Forschung zu diesen Themen. Es geht immer um Strukturen, aber zu wenig um Handlungsfreiheit. Sie kritisiert diese theoretische Vorstellung von der Passivität der Menschen. Sie zitiert einen Artikel der Washington Post zu dem Film The Circle. In diesem Artikel wird gesagt, dass theoretische Vorstellungen die Agency ignorieren, die Menschen als etwas betrachten, die in die Idiotie sich ablenken lassen im Internet. Wo sind die Menschen in diesen Arten von Theorien, fragt Livingston? Und ich kann ihr nur zustimmen, wenn wir die digitale Gesellschaft verstehen wollen und das tägliche nehmen in Zeiten der Datafizierung, dann müssen wir die Menschen in den Mittelpunkt stellen, die Menschen mit ihren Erfahrungen, Gedanken, Gefühlen, Werten, ihren Ansichten und Werturteilen. Wir müssen die Geschichten der Menschen hören. Tobi hat schon darauf hingewiesen und ich würde sagen, dass wir in dieser Vorlesungsreihe hier noch gar nicht so viele individuelle Geschichten gehört haben. Zum Abschluss möchte ich sagen, dass ich einige Menschen hier in dieser, in meinem Vortrag zitiert habe, wenn auch nicht wörtlich, ich arbeite auch nicht alleine, sondern ich habe ganz viele tolle Forscher, InnenkollegInnen und auf meiner Website können Sie auch von Ihnen lesen. Ich verdanke Ihnen sehr viel. Vielen herzlichen Dank. Vielen Dank, Helen, für diesen wirklich inspirierenden, sehr klaren Vortrag. Es ist immer sehr schön, für Nicht-Motorsprachlerinnen so schönes Englisch zu hören und so klar, dann ist es einfacher zu folgen. Wir werden jetzt natürlich über Agency, über Handlungsfreiheit sprechen, wahrscheinlich so 10, 15 Minuten lang, zu zweit hier auf der Bühne und dann öffnen wir die Diskussion fürs Publikum. Wenn Sie digitale Tools nutzen, dann stellen Sie jetzt gerne schon Ihre Fragen. Helen, diese Idee der Agency, was bedeutet die denn für die Wissenschaft? Wäre es richtig zu sagen, dass die Agency der Interviewen sozusagen steigt, wenn die Forschenden ein bisschen Souveränität abgeben, müssen wir uns zurückziehen, wenn das Gegenüber Handlungsmacht haben soll. Und was bedeutet das dann? Ist das das Mikrofon an? Ja, in Ordnung. Nein, das glaube ich nicht. Ich glaube nicht, dass zuhören, die Geschichten von Menschen hören und in Raum zu geben, das zu sagen, was sie sagen wollen, der Forschenden einen Teil ihrer Handlungsfreiheit nimmt. Und vielmehr kann ich dazu gar nicht sagen. Ich arbeite in Teams und wir bereiten uns sehr, sehr gut vor, die Gespräche, die wir führen wollen. Wir suchen genau aus, mit wem wir sprechen wollen und wir schrauben immer an unseren Forschungsfragen. Wir widmen dem wirklich sehr, sehr viel Energie und Aufwand und dann sprechen wir eben mit Brenda und Virginia und Chris und die erzählen uns, was sie uns erzählen wollen. Aber das hat überhaupt nichts zu tun mit unserer Handlungsfreiheit, unserer Agency. Ich muss ja nicht interpretieren, was sie sagen. Also ich muss das nicht auf eine bestimmte Art und Weise interpretieren. Ich hätte auch zu anderen Schlussvorräumen können. Ich könnte sagen, ah, hier, das ist eine Abweichung, sie war ich schweifen, abschweifen, ab und das ist der Datensatz, der mich interessiert und nur das schaue ich mir an. Also es gibt ganz unterschiedliche Forschungsformen. Es gibt Formen von Forschung, die ich, die sehr valide sind und toll, die ich aber bislang noch nicht durchgeführt habe. Ich habe noch nie wirklich vor Ort von ganz unten ein Forschungsprojekt aufgebaut beispielsweise. Also das sind die Gedanken zu der Agency, der Forschenden. Darüber habe ich mir noch nicht so viele Gedanken gemacht, ehrlich gesagt, aber ich habe nicht das Gefühl, dass es mir an Agency fehlt bei meiner Forschung. Es ist wirklich einfach wichtig, den Menschen zuzuhören. Ja, natürlich. Es ging mir auch gar nicht so sehr darum, dass sich ihre Agency reduziert, sondern vielmehr Teil ihrer Souveränität. Das ist ja vielleicht etwas anderes. Ich glaube auch gar nicht, dass das schlecht ist im Gegenteil. Ja, was bedeutet es denn für sie, einen Teil der Souveränität abzugeben? Naja, weniger teleologische Arbeit in diesem Fall. Also man ist vielleicht offener, das Ergebnis ist offener, unsicherer, opaker. Das meine ich damit. Ja, also da bin ich absolut für. Gut, dann sprechen wir jetzt vielleicht noch ein bisschen mehr über das Konzept. Ich bin mir nicht ganz sicher, ob ich es schon genau verstanden habe. Daten dezentrieren oder dezentrierte Data. Was bedeutet das denn genau? Was ist dezentrierte Daten? Was sind da dezentrierte Daten? Also vielleicht bekommt man Unterschied, eine andere Antwort als die, die man erwartet hat. Es sind plötzlich Themen auf dem Tisch, die man davor nicht gesehen hat. So, so habe ich das versteht, nicht verstanden. Also was bedeutet das denn jetzt, wo, wo treten diese dezentrierten Daten in der Forschung auf und werden sie dann am Ende immer im Ergebnis auch mit präsentiert? Oder gibt es auch Themen, wo sie wirklich sagen, das ist jetzt wirklich Off-Topic, das ist eine Abschweifung, diese Daten nutzen wir nicht. Also dieses Konzept, dieses Daten dezentrieren, wie ich es nenne und wie es eben auch schon andere genannt haben, 2019 in einem Artikel Information Communication in Society. Lena Denzig schreibt beispielsweise auch darüber in einem Kapitel, in einem Buch zu Medienpraktiken von Bürgerinnen. Also die Argumentationslinie ist folgen und ich teile sie. Wenn sie herausfinden wollen, welche Rolle Daten spielen in der Reproduktion von strukturellen Ungleichheiten, beispielsweise bei Diskriminierung, Voreingenommenheit, Entscheidungsfindung durch die Polizei, durch Wohlfahrtdienste, Jugendämter und so weiter, wenn sie rausfinden wollen, welche Rolle Daten spielen, dann fangen sie nicht damit an, Fragen dazu zu stellen, welche Rolle Daten spielen. Denn wir können einfach nicht mit Menschen einfach über Dinge sprechen, über die sie kaum etwas wissen können. Die Rolle, die Daten spielen, ist auch nicht unbedingt das, was den Menschen am wichtigsten ist. Wenn man ihnen also Fragen dazu stellt, dann bekommt man vielleicht keine besonders interessante oder informative oder nützliche Antwort. Aber wenn man den Menschen die Frage stellt, was ist dir wichtig? Und dann sagen sie, mein Kind wurde mir weggenommen und dann sagen sie, dann fragt man, warum ist das passiert? Und dann sagen sie, es gab ein automatisierten Entscheidungsprozess und der hat Daten auf eine gewisse Art und Weise interpretiert aufgrund der Übungsdaten, die in den Algorithmus eingefüttert wurden. Und dann finden wir etwas Interessantes raus. Also es geht hier wirklich um einen methodologischen Ansatz, der ein anderer ist, diejenigen, die wirklich über die Rolle von Daten in der Gesellschaft etwas rausfinden sollten, nicht eben nach genau dieser Sache fragen, nach der Rolle von Daten in der Gesellschaft. Das haben wir in unserer Umfrage versucht. Wir haben Menschen befragt nach ihren Einstellungen zu verschiedenen Aspekten der Datennutzung. Und man fragt, die Menschen betrifft sie das? Und dann sagen die Menschen, ja, das betrifft mich absolut und dann gehen sie raus und denken in ihrem Leben nie mehr darüber nach. Also was betrifft denn Menschen wirklich? Wovon fühlen sie sich betroffen? Wir stellen also andere Fragen. Wir bitten Menschen verschiedene Sorgen und Nöte in eine Reihenfolge zu bringen, nach Wichtigkeit für sie. Und Datennutzung ist einer der Punkte. Wir haben eine ganze Liste von verschiedenen Themen, aber Datennutzung war einst davon. Das waren wir irgendwo in der Mitte und dann haben wir aber spezifischere Dinge, 15 Punkte und Daten, die unfair genutzt werden, das ist auf Platz 3 der Dinge, über die sich Menschen Sorgen machen. Davor war irgendwas mit noch Covid und dem NIS und den wirtschaftlichen Folgen von Brexit. Also das war wirklich sehr weit oben. Und sie haben sich relativ, also sehr wichtig war für sie auch die Nutzung meiner persönenbezogenen Daten in Bezug auf die Covid-Krise. Also hier können wir wirklich etwas Wichtiges lernen. Wenn wir wirklich etwas Relevantes herausfunden wollen, müssen wir uns auf das konzentrieren, worüber Menschen sich Gedanken machen. Das ist wirklich also da ansetzen, wo Menschen wirklich betroffen sind. Ja, damit verändert man sicherlich dem Blickpunkt. Wann kommt man denn zu einem Punkt, wo diese kleinen Moment oder Akte der Handlungsfreiheit wirklich den Menschen das Gefühl geben, Handlungsmacht zu haben. Also sie haben gesagt, die Menschen machen sich Sorgen darüber, dass ihre Daten unfair genutzt werden. Und ich denke, das geht uns ja allen so, ja, wir sind beunruhigt. Wir fragen uns, wie unsere Daten genutzt werden, wie sie verkauft werden an wen. Das wissen wir ja einfach nicht, denn diese Systeme sind, wie sie gesagt haben, von Anfang an strukturell Opaq. Und unsere Handlungsmacht, habe ich das Gefühl, hilft uns ja hier nicht allzu viel, oder? Ja, das ist eine gute Frage und ich weiß nicht, ob ich da unbedingt die Antwort habe. Die Frage ist eben, wann diese kleinen Akte der Agency, der Handlungsmacht, wirklich ermächtigend werden. Das ist natürlich wirklich interessant. Also ich glaube, wir führen hier durchaus eine empirische Diskussion, als das in den anderen Vorträgen aus dieser Reihe so usus war. Also und eben hier ist auch die Frage, wie wäre das empirisch möglich, so etwas rauszufinden. Aber Sie wissen, dass geforcht wird zu Datenaktivismus. Und ich spreche oft mit den Forscherinnen aus diesem Projekt und wir fragen uns, wo unsere Forschungsarbeiten, die sich irgendwie ineinander verzahnen lassen. Also wo stoßen wir im täglichen Leben auf Widerstand und Aktivismus? Ich glaube nicht, dass es eine ganz klare und einfache Antwort gibt, aber ich glaube, dass es vielmehr ein dialogisches Verhältnis gibt. Also die Frage ist, wann kommt ein Nachdenken darüber, dass man etwas nicht mag oder die Feststellung, dass einem etwas nicht gefällt, wann wird das ermächtigend? Ich kann ein Beispiel geben. In Großbritannien wurde vor kurzem versucht, ein Algorithmus zu nutzen, um Abiturnoten zu bestimmen und auf der Grundlage dieser Ergebnisse konnten sie eben zur Universität gehen oder nicht. Und Teil des Algorithmus waren die Ergebnisse an der Schule in vorangegangenen Jahrgängen. Und das heißt also in schlechteren Schulen, in ärmeren Gegenden waren die Ergebnisse schlechter. Und das haben sich die Menschen angeschaut und sie haben protestiert, ihre Demos hatten den Slogan Fuck the Algorithm und letztlich waren sie erfolgreich und diese Algorithmen basierten Ergebnisse wurden ersetzt durch von Lehrerinnen gegebenen Ergebnisse. Und ich denke, das ist das, was die Schülerinnen durchaus verdient haben. Sie haben diesen Algorithmus nicht verdient. Und ich glaube, dass wir die DSGVO zum Beispiel haben, weil es solche kleinen Akte des Widerstandes gab, Aktivismus, Netzaktivismus und also ich glaube, dass sie retrospectiv dann durchaus diese Verbindungen erkennen können zwischen solchen kleinen Akten und dann größeren Errungenschaften. Aber das bedeutet absolut nicht, dass Datafizierung kein Problem ist. Sie ist ein Problem, deshalb sitzen wir hier. Ich glaube, es war insbesondere spannend, als Sie über Fakten gesprochen haben, über Fakten, Rechenschaft, Transparenz. Das wäre ja ein Fall von dem, was hier schon einmal als Solutionism bezeichnet wurde, also dass sozusagen durch digitale Tools Ungleichheiten rausgeschrieben werden oder Ungerechtigkeiten aus dem System rausdesignt. Glauben Sie, dass man nicht irgendwie vielleicht etwas erreichen kann, indem man am Algorithmus herum schraubt, denn Sie sagen, das funktioniert vielleicht nicht, aber brauchen wir so etwas nicht, wenn wir wirklich Machtverhältnisse verschieben wollen? Wird es nicht doch ein Einfluss haben, wenn wir die Systeme sozusagen reparieren, wenn wir sie besser machen? Also ja, ich stimme zu. Ja, wir müssen am Algorithmus herum schrauben, aber das ist nicht das Einzige, was wir brauchen, aber sicherlich ist das ein Teil der notwendigen Arbeit. Ich habe in meinem Vortrag eben versucht, in gewisse Kreisläufe oder gewisse Debatten vorzustellen. Wir wissen jetzt, dass datenbasierte Systeme, automatisierte algorithmische Systeme diskriminatorisch sind, von Anfang an bei Design und Datenwissenschaftlerinnen reagieren darauf. Das ist gut, das tun sie nicht alleine, sie tun es als auch mit Ethikerinnen zusammen, mit kritischen Denkerinnen und ich denke, dass sich daraus durchaus positive Effekte ergeben werden. Die Absicht ist eine gute, aber sie werden oft eben kritisiert, weil sie nicht die richtigen Fragen stellen, weil sie nur auf eine bestimmte Art und Weise Ungleichheit conceptualisieren. Ich habe in meinem Vortrag mich da nicht klar positioniert, aber das kann ich jetzt tun. Ich habe versucht zu sagen, dass ich glaube, dass wir etwas verlieren, wenn wir nur diese kritische Position einnehmen, denn Fairness wird hier nicht als nützliches Konzept betrachtet von dieser Warte aus und ich denke, dass das nicht richtig ist. Ich weiß nicht, ob sie die Algorithmic Justice League kennen, aber diese gibt Ressourcen heraus für Datenwissenschaftlerinnen und Menschen, die mit der Technologie arbeiten, die sagen hier, schraubt am Algorithmus herum, damit kann man wirklich etwas verändern. Also selbst die Menschen, die kritisch sind, was dieses Rumschrauben und Algorithmen angeht, selbst die versuchen herauszufinden, was man tun kann, um eben technologisch Diskriminierung und Voreingenommenheit zu reduzieren. Einige halten sich daraus und sagen, das bringt überhaupt nichts, aber sehr viele versuchen eben auch auf dieser Ebene etwas zu machen. Gut, dann beginnen wir jetzt mit den Fragen vom Publikum. Gibt es ein Mikrofon hier im Saal? Ich sehe hier leider nicht allzu viel. Ich habe die falsche Brille auf. Da hinten ist das Mikrofon. Okay, wenn Sie jetzt eine Frage haben, dann melden Sie sich bitte gerne. Oder auch, wenn Sie einen Kommentar abgeben möchten. Es gibt immer die kurzen Pausen, die machen es immer ganz interessant. Hinten und dann vorne. Achso, Sie behält das Mikrofon. Okay, vielen Dank für Ihren Vortrag. Er war sehr informativ. Sie haben auch die DSGVO genannt und dass hier sehr viel Aktivismus involviert ist. Welche Einpläge haben Sie durch Ihre Forschung erhalten, wie dies wiederum die Handlungsfähigkeit beeinflusst oder auch die so gesehene Handlungsfähigkeit derjenigen? In vielen Ländern wurde die DSGVO als etwas angesehen, dass zusätzliche Arbeit verursacht, aber dass eigentlich kein Mehrwert hat. Welche Einpläge haben Sie dazu? Vielen Dank. Die Frage ist also, welche Ansicht die Menschen über die DSGVO haben, wo sie doch nicht an der Ausarbeitung der DSGVO teilgenommen haben. Na ja, weniger, wie sie sich dafür damit fühlen, sondern was das mit der eigenen Handlungsfähigkeit verursacht, ausmacht. Das heißt, die DSGVO wurde von anderen ausgearbeitet und wie dies die Sie selbst beeinflusst. Na ja, die DSGVO existiert ja und dadurch werden die Dinge aber für viele Menschen weniger transparent. Wie beeinflusst dies Ihre eigene Handlungsfähigkeit? Egal wie die Frage genau formuliert wird, ich habe hier rauf keine Antwort. Ich habe hier keine Forschung betrieben. Ich habe eigentlich gar keine Forschung zur DSGVO und zur Auswirkung der DSGVO betrieben. Ich denke aber, dass mit Ihrer Frage mit schwingt, dass die DSGVO nicht nur rein positiv ist, sondern dass ein ganz komplexes Paket damit einhergeht. Ich weiß, dass es jemanden gab, der die Auswirkungen der DSGVO auf die kleinen lokalen ländlichen Schulen hat. Ich denke, das ist ganz interessant und dies würde Ihre Frage vermutlich eher beantworten. Eine Schulrektor hat mir einmal gesagt, dass Eltern oftmals eine bestimmte Formular ausfüllen müssen, um ihre Unzufriedenheit mit der Schule zu äußern. Das ist also eine kleine Idee, wie so etwas gestaltet werden kann. Es gibt verschiedene Forschungen über die Auswirkungen der DSGVO. Und ich glaube, wir bräuchten hier mehrere Forschungen in diesem Bereich. Natürlich sollte dies nicht einfach durch ein automatisiertes System erfolgen, sondern wir bräuchten auch menschliche Eingriffe. Doch wie setzt man so etwas um? Welche Auswirkungen hat dies auch auf den Alltag der Menschen? Ich glaube, es gibt hier viel Forschungsbedarf zur DSGVO. Schadenheit, bitte. Vielen herzlichen Dank, Helen, für diesen sehr interessanten Vortrag. Was mich sehr beeindruckt hat, ist Ihr Ergebnis, dass die Menschen, die Sie zur Datafizierung interviewen wollten, eventuell gar nicht das nötige Vokabular haben und auch nicht die Erfahrung, um Ihre Fragen, die Sie interessieren, zu beantworten. Ich habe sehr viel empirische Forschung zu Daten gelesen und habe herausgefunden, dass es oftmals schwierig ist, dies auch praktisch zu verstehen. Das heißt, die Menschen, die dies nicht ständig lesen, haben gar nicht das nötige Vokabular, um die Fragen zu beantworten und vielleicht auch gar nicht erst die Fragen zu verstehen. Das heißt, dies ist wirklich ein Thema der Methode. Wie haben Sie dies noch gesagt? Zentralisierung von Daten. Ich frage mich, ob sich die Menschen da nicht manipuliert fühlen. Das heißt, sie gehen das Thema, das sie interessiert, durch den Blickpunkt von ihrer Seite aus an. Geht es wirklich darum, dass sie nur verstehen sollen, was sie meinen oder wird dann tatsächlich schon wieder die Antwort in eine bestimmte Richtung gelenkt und verlieren sie so nicht ihre Handlungsfähigkeit? Das ist eine sehr gute Frage. Ich würde das nicht als Verlust oder Lücke bezeichnen, denn das gibt dem Ganzen schon wieder einen negativen Anstrich, denn diese Menschen haben nicht unbedingt das gesamte Vokabular einfach nicht, sondern ich habe gesagt, dass sie ein anderes Vokabular nutzen, diese Menschen bringen aber ihr eigenes Wissen ein. Sie kennen ihr eigenes Leben natürlich am besten. Meine Antwort auf die zweite Frage ist folgendermaßen, es gibt eine Art persönlicher und politischer Orientierung in der Forschung, die wir ausrichten. Natürlich stellen wir sicher, dass weder ich noch irgendjemand in meinem Team, irgendjemand manipuliert. Es gibt verschiedene Arten, wie man dies tun kann. Es gibt natürlich Arten, entweder präsentiert man das Thema, an dem man selbst interessiert, oder man präsentiert das Thema, wo man weiß, das Thema ist wichtig für die Menschen. Wenn man damit anfängt, dann kann man Daten einbringen. Ja, es interessiert mich, was wichtig für die Menschen ist und wie die Daten damit einhergehen. Und ich glaube, gute Forschung bedeutet nicht, dass man nicht interessiert sein sollte an dem, was Menschen wichtig ist und dass man nur sich auf die Daten konzentrieren sollte. Nein, man muss ja auch erst mal an diese Daten gelangen. Ich glaube, es gibt ganz verschiedene Arten, wie man an diese Dinge herangehen kann. Wie gesagt, politisch, personell, ethisch. Ich denke, dies beantwortet die Frage. Eine Nachfrage dazu, Helen. Ich denke, es ist hoffentlich okay zu sagen, dass soziale Umstände einen Einfluss in die Daten nehmen, doch dass die Forschung daran sehr viel komplizierter geworden ist. Denn es handelt sich ja um ein modernes Projekt, richtig. Beispielsweise geht es oftmals um Straßennamen, um eine europäische Stadt, wo die Straßennamen geändert werden. Früher gab es ja andere Art und Weise der Datafizierung, beispielsweise Volkszählungen und Steuern usw. Doch das macht ja auch die Macht aus. Also eine Transformation des Lebens in Zahlen. Häuser wurden Hausnummern verpasst, dann wurden sie an ihre Haustür geklopft. Es wurde gefragt, wie viele Menschen leben hier, was arbeiten sie und so weiter. Das heißt, Volkszählungen waren von jeher sehr wichtig. Heute kann dies online eingesehen werden. Meine Frage wäre also folgendermaßen. Ist es heutzutage schwieriger geworden, solchen Praktiken zu widerstehen? Denn es sind ja ganz übliche Praktiken. Diese Praktiken sind ja recht übersichtlich und undurchsichtig geworden. Ich weiß eigentlich nicht mehr, was mit meinen Daten passiert und dabei halte ich solche Events wie heute ständig ab. Und trotzdem weiß ich nicht, was mit meinen Daten genau passiert. Ich müsste jetzt hier erst einmal ganz vorsichtig einen geschichtlichen Vergleich anziehen. Aber es stimmt schon, es ist undurchsichtig. Diese Undurchsichtigkeit war etwas, dass die Menschen in meinem Forschungsprogramm auch oft angesprochen haben. Ich habe das Video zwar noch nicht gesehen, aber ich glaube, dass Josef van Dijk darüber gesprochen hat, dass es undurchsichtlicher ist und auch breiter getreten wird, dass öffentliche Umstände in Daten einfließen. Doch dass ja solche datengestützte Plattformen auch das öffentliche Leben mit ausmachen. Das heißt, sie sind nicht undurchsichtiger, sondern sie haben auch eine stärkere Willkung. Deswegen ist es gleichzeitig sehr wichtig, einen Widerstand zu leisten und sich zu beschwerden, aber es wird immer schwieriger. Nun Fragen aus dem digitalen Raum. Gibt es Fragen dort? Ja, eine Frage aus Slido. Sie haben gesagt, dass wir uns auf die Sorgen der Menschen konzentrieren sollten und berücksichtigen sollten, was ihnen wichtig ist. Doch wie kann man das mit großen Konzepten verbinden und dies auch auf politische Ebene austragen, um solche Sorgen zu überwinden? Wie kann dies mit großen Konzepten verglichen werden und auf politische Ebene getragen werden, um solche Sorgen abzubauen? Das sind zwei verschiedene Dinge, würde ich sagen. Zuerst nun also den Übertrag auf die politische Ebene. Das ist eine Frage, also was sollen wir tun? Sie haben uns diesen Vorkantrag gesagt, was sollen wir jetzt tun? Das ist die Frage. Meine Projekte werden oft von Urteiligkeitsorganisationen gesponsert und sie wollen gerne Empfehlungen hören, was sie nun tun können. Und diese Empfehlungen geben wir auch ab. Was könnten Politikerinnen tun? Hören sie einfach auf Daten zu sammeln? Hören sie auf kommerzielle Organisationen in undurchsichtige Profitabler Geschäfte überzuführen. Kommunizieren sie klar und deutlich, was sie tun? Das alleine ist aber nicht genug. Hier gibt es ja ein Problem der Transparenz. Entwickeln sie ihre politischen Maßnahmen nicht auf einer Studie basierend, sondern nutzen sie verschieden der Studien. Das sind die Dinge, die wir sagen. Ich denke, das beantwortet die Frage, was man tun könnte. Doch ich frage mich auch, was mit solchen Aussagen passiert? Wir haben Politikerinnen in unserem Beirat und sie hören uns auch zu. Doch sehen wir schon Veränderungen? Naja, ich glaube, das ist ein anderer Prozess, der angestoßen werden sollte. Was geschieht mit diesen Empfehlungen, die von dieser Forschung ausgeht? Was passiert damit? Wohin geht es? Wo bleibt es? Können wir sehen, dass es in politischen Maßnahmen umgesetzt wird? Ich weiß nicht. Ich denke, es ist oftmals einfacher, die Praktikerinnen zu beeinflussen. Wir haben eben dieses Forschungsprojekt mit der BBC zusammengetan und sie waren wirklich sehr interessiert daran zu sehen, was die Menschen davon halten. Wenn man Veränderungen sehen möchte, dann arbeitet man besser mit Praktikerinnen zusammen. Nun zur zweiten Frage. Wie kann man dies mit großen Konzepten verbinden? Sind meine Konzepte denn nicht groß genug? Ich glaube, ich hatte ziemlich große Konzepte in meinem Vortrag und ich denke, die passen ganz perfekt dazu zu dem, was ich sage. Christian, ich sehe dich an. Hab ich die Frage nicht beantwortet? Du hast die Frage von jemandem anderen ja nur vorgelesen, aber ich hoffe, ich habe die Frage beantwortet. Gibt es sonst noch Fragen aus Leider? Nein? Okay. Ich habe vielleicht eine oder zwei weitere Fragen. Es war auch sehr interessant, als Sie über Vorstellungen gesprochen haben. Es gibt hier so viele Fallen, auch wie wir Daten visualisieren. Sie können auch manipulativ sein. Eine weitere Frage also zu dem, was Jeanette gefragt hat. Aber noch einmal zu der wissenschaftlichen Praxis. Brauchen wir mehr interdisziplinare Arbeit mit Grafikdesignern, mit Kunstschulen, mit Datendesignern und so weiter? Passiert dies bereits in Ihrer Abteilung, in Ihrer Forschung oder was denken Sie wäre gut? Also welche Mittel wären gut, um mehr Visualisierung zu erhalten, damit Menschen mit den Daten auch wirklich emotional interagieren können? Was ist also die Lösung zum Problem der falschen Visualisierungen, richtig? Ja, genau. Hätten wir dann mehr transdisziplinare Arbeit mit anderen Abteilungen, wäre dies nötig? Ich glaube, wir müssen hier vorsichtig sein, wenn wir Datenvisualisierung als manipulativ beschreiben. Aber es kann doch manipulativ sein. Man sieht das doch oft in der Regenbogenpresse. Ja, das kann es sein, aber um Daten zu visualisieren, müssen Entscheidungen getroffen werden. Es gibt einige sehr gute Visualisierungen, wo Entscheidungen getroffen worden sind und man dann eine bestimmte Visualisierung erhält und nicht eine andere, die man basierend auf anderen Entscheidungen bekommen hätte. Die Unterscheidung zwischen guter und schlechter Visualisierung ist also eine sehr wichtige, denn gute Visualisierungspraktiken würde beinhalten, dass diese Entscheidungen auch erklärt werden müssten. Interdisziplinarität ist sehr gut. Ich denke, das bin ich auch. Ich kann gar nichts genau beschreiben, was meine Disziplin ist. Es gibt ein großes Projekt Art Data Health in Großbritannien. Hier geht es darum, dass man mit KünstlernInnen zusammenarbeitet oder andere Projekte. Ich war mir nicht ganz sicher, was sie als Problem bezeichnen würden. Es wäre aber ganz interessant, wenn ein Künstler oder eine Künstlerin einen Kurs zur Datenwissenschaft abhalten würde. Das wäre ganz interessant. Es gibt verschiedene Projekte dieser Art. Catherine Dignasio, die in den USA lebt, war eine Künstlerin. Und jetzt ist sie eine Datenwissenschaftlerin. Was ist denn der Unterschied? Ja, genau. Sie bringt tatsächlich ihre Ausbildung im Bereich der Kunst ein, um mit den Daten und mit Menschen zu arbeiten. Und ich glaube, das ist wirklich fundamental für die Arbeit, die sie leistet. Allerletzte Frage. Kultureller Faktor. Wir sind in Deutschland. Alle deutschsprachigen Länder sind sehr datensensible und sehr skeptisch, was die Datennutzung angeht. Wir haben recht niedrige Impfquoten. Und das hat sich ja auch mit der Datensensibilität zu tun. Ein Widerstand der Menschen, die ihre Daten eben nicht preisgeben wollen. Wenn man den Blick in die USA richtet, dann sieht man, dass die Sensibilität sehr viel geringer ist. Den Menschen ist es, scheint es weniger wichtig, was mit ihren Daten passiert. Gibt es hier einen Unterschied zwischen USA und Europa? Und wie würden Sie das beschreiben auch im Vergleich zu dem Vereinigten Königreich? Ich stimme auf jeden Fall zu, dass der Kontext immer sehr wichtig ist. Das zeigt sich in den meisten Forschungsprojekten, der nationale Kontext oder auch Kontext in einem anderen Sinn. Er ist jedenfalls immer entscheidend. Ich würde aber nicht sagen wollen, dass all diese Menschen sich so und so über diese Daten, diese Daten so und so befinden. Der Kontext spielt immer eine Rolle. Welche Daten werden von wem, in welchem Kontext, zu welchem Zweck und mit welcher Auswirkung benutzt? Entsprechend fühlen sich die Menschen dann anders. Wir müssen hier wirklich einen Unterscheidung treffen. Wir müssen verstehen, dass es nicht die Menschen gibt und die Daten. Nein, es muss hier wirklich spezifisch vorgegangen werden. Welche Art von Daten, welche Art von Datenpraktiken, welche Art von Kontext. Das heißt, natürlich gibt es teilweise mehr allgemeineren, allgemeinere Skepsis als anderswo. Aber ich habe kein bestimmtes Muster erkennen können, dass entsprechend abläuft. Das wäre dann im nationalen Kontext. Aber wie gesagt, wir müssen hier wirklich spezifisch bleiben. Vielen herzlichen Dank für diese Endworte. Vielen herzlichen Dank. Helen Kennedy aus Sheffield. Vielen Dank, dass ich hier war. Wir sehen uns nächstes Jahr hoffentlich wieder in der Vortragsreihe. Vielen Dank.