 Die nächste Präsentation wird von Claudia Agosti, die FACEBOOK-Algorithm und Reklame-Data-Souveränität angegeben wird. Hallo, danke. Analyse Facebook-Reklame-Algorithmen. Guten Tag, willkommen zum Vortrag an der FACEBOOK-Algorithmus analysieren und die eigenen Daten zurückfordern. Mein Name ist Claudio. Weckner ist mein Nikon auf Twitter. Du kannst mich auch unter den Hashtag hier finden. Und natürlich das Material für Ihre Vorlesung. Das Projekt ist Facebook Tracking Exposed. Da gibt es keinen .com, da gibt es keinen .net. Das ist .exposed. Und wir haben diese Methode angewendet auf Facebook. Aber es kann auf andere Plattformen auch angewendet werden. Auf alle Plattformen, die deine persönliche Wahrnehmung, der Realität behandeln. Das kannst du auch mit der Google Search Engine oder Twitter anwenden, diese Methodologie. Aktuell konzentrieren wir uns auf Facebook. Ich bin mir ziemlich sicher, dass in diesen Publikum viele nicht im Facebook-Account haben. Das ist auch gut so. Aber was wir zeigen wollen, ist, dass der Algorithmus ein Einfluss hat, wie die Wirklichkeit wahrnimmt, die Umwelt. Wenn du denkst, du bist frei von Facebook, die Gesellschaft um dich herum ist es nicht. Denk noch mal darüber nach. In 2014 hat Facebook gezeigt, wie der Algorithmus soziale Controller ausübt. In dieser Veröffentlichung von Facebook haben sie 600.000 Nutzer als Experimente angezogen. Die Hälfte haben den normalen Newsfeed gesehen, außer Inhalt mit negativen Sentimentarien. Sie wussten, wie die Leute sich verhalten haben, bevor das Experiment vergangen hat. Dann haben sie nachgewiesen, dass sie ihr Verhalten verändert haben. Es ging nicht darum, das rauszudetektieren. Es wurde kein Content entfernt. Man kann natürlich zu Seiten von Leuten gehen und gucken, was sie veröffentlichen. Aber Leute und Anwendungen haben ein Wettkampf von unserer Aufmerksamkeit. Was in unserem Newsfeed nicht auftaucht, hat ein Einfluss. Man kann Inhalte besonders bevorzugen oder nicht. Wir haben hier dieses Virtual Movement, das darum ging, dass schwarzes Leben was bedeutet und wettvoll ist. Im Facebook Newsfeed ist nichts davon aufgetaucht. Das zeigt, wie Dinge priorisiert werden. Das hat vielleicht auch politische Implikationen. Leute, die von dem Thema Bescheid wissen, können natürlich ein Einfluss haben. Noch etwas beängstigenderes ist die Geschichte von Karen Verano. Sie hat mit Freunden geschrieben und einer musste ins Krankenhaus. Er hat geschrieben, dass sie ein Krankenhaus ist und eine Operation hat. Diese Person ist dann im Krankenhaus gestorben bei der Operation. Sie haben es einen Monat später herausgefunden und haben die Freundschaft beendet. Man kann hier seinen eigenen Newsfeed angucken und kritisch hinterfragen und beurteilen. Was wir wirklich brauchen, ist unsere Daten. Facebook benutzt Algorithmen, um zu steuern, wie die Plattform benutzt werden kann. Einen Jahr später, nach der ganzen Kritik an Facebook, die 2016 Kampagne des Entschlusses von Facebook bezüglich Brexit, gab es diese Entscheidung, ich werde unsere Redlands ändern. Ich werde daraus helfen, relevante Informationen zu finden und bedeutende Interaktionen durchführen. Aber wie kann er denn wissen, was eine bedeutende Interaktion, eine bedeutende Beziehung für mich ist? Die können mir Sachen geben, die natürlich für mich was bedeuten, aber das ist nicht okay. Der Nutzer sollte in der Lage sein, den eigenen Algorithmen zu haben und alleine entscheiden können. Eigentlich sollte man selber derjenige sein, der den Algorithmen unter Kontrolle hat. Es gibt also darum, für Algorithmen verantwortlich zu sein. Das ist eine nicht komplette Liste von Open Source-Projekten und akademischen Gruppen, die sich damit beschäftigen. Manche davon sind Monopole. Wie kann man die erkennen? Ja, ich weiß es noch nicht, aber ich weiß nicht, ob die unternehmensfreundliche Politik umsetzen oder nicht. Es gibt noch keine Informationen darüber, nur die eigenen Publikationen und Analysen. Wir müssen anerkennen, dass die Macht bei Facebook, Google oder bei anderen Monopolen liest. Wir fordern mehr Transparenz, aber sie macht immer noch im Zentrum des Netzwerks. Wenn wir fragen würden, dass die Leute am Rand des Netzwerks mehr Macht bekommen, dann wäre das Politisch Umverteilung, das ist das, was wir tun. Das wurde vor zehn Tagen im Guardian veröffentlicht. Sie zeigen, dass die Debatte über Algorithmen immer noch nicht informiert genug. Hier wird wie italienische Populisten Facebook genutzt haben, um Macht zu gewinnen. Das erste ist, die einzige Weg, die Wahl zu gewinnen, ist auf Facebook zu gewinnen. Sie denken, dass Facebook der Ort des Umands sein muss, aber das stimmt nicht. Engagement oder Interesse scheint, den Sieg zu implizieren, aber das ist auch nicht der Fall. Das könnte so scheinen, dass es ein tatsächlicher Weg ist, um Interesse zu gewinnen. Das ist wie ein Firma, das mit Analytika auf dem Plan kommt, weil sie die Daten ausnutzen und sagen, guckt her, ich kann eure Interaktion verbessern, weil ich Kontakt zu vielen Nutzern habe. Das ist ein Weg und ich mag diese Analyse nicht. Das dritte ist, Interaktion ist die Summe aus Likes, Teil, also geteilten Inhalten und Kommentaren und Engagement. Interesse sozusagen ist eine Summe aus drei anderen Werten. Wenn man ein großes Netzwerk an Leuten hat, die eigene Nachricht teilen, dann hat man natürlich viel mehr Content, also viel mehr Inhalte und auch viel mehr Verbreitung und viel mehr Einfluss. Facebook bevorzugt bestimmten Content, bestimmten Inhalt gegenüber anderen. Wenn Sie wirklich daran interessiert sind, dann werden Sie sich auch mehr dafür interessieren und dafür einsetzen. Aber wie kann man ja eine absolute Zahl des politischen Interesses des Nutzers finden, die diese verschiedenen Werte repräsentiert? Die Metrik des Systemes, was zu einem gegeben wird, man spielt in seinem eigenen Sandkasten. Man hat quasi schon von Anfang vor an verloren. Wir können jetzt als einzelne Komponenten anschauen, das erste ist Content zu produzieren auf Facebook. Also jeder, der was auf Facebook publiziert, politischen Inhalt oder verschiedene Artikel oder auch unabhängige Einträge, dann der Facebook Algorithmus und dann eben auch die Leute, die das lesen. Normalerweise sind die Leute, die den Inhalt produzieren, werden von einer Autorität, also von einer Firma oder so was kontrolliert, um das zu analysieren. Facebook ist die Variable, die wir jetzt hier rausziehen müssen und dann haben wir das, was die Leute haben wollen, was die Leute reden wollen, das es lesen wollen, das ist das, was von Interesse ist. Facebook ist ein Passiver-Aktur in dem ... Ich weiß nicht. Das sind jetzt nicht Demokraten oder Republikaner oder ... Die sind wahrscheinlich in eigener Identität, die ihre eigenen Interessen vertreten. Hier in diesem Beispiel sieht man einige Seiten dargestellt durch unterschiedliche Farben. Sie haben vielleicht auch unterschiedliche Inhalte, fünf Texte, zwei Videos. Die gehen alle in die schwarze Kiste in Black Box Facebook und werden unterschiedlich personalisiert. Da wird manches beworben und Facebook entscheidet Prioritäten. Wir wollten das veröffentlichen, herausarbeiten, wie das für einen Einflass auf die Gesellschaft hat, insbesondere den negativen Einfluss. Um das zu tun, haben wir Beweise gesammelt. Es gibt darum, wann werden Sachen mehr als einmal versteckt oder promoted bevorzugt. Dieses Doku kannst du in deinem Browser-List-Tool sehen und dann siehst du, was Facebook für dich zusammengestellt. Das ist natürlich schwer, weil da kommt ein riesen Menge Daten, aber was soll man damit tun? Das ist ein Black Box-Test, deswegen müssen wir die Variablen, die wir kontrollieren können, reduzieren. Wir starten also mit null Freunden. Wir greifen zu selben Zeitpunkten zu während der italienischen Wahl. Dann haben wir die selben Seiten angeguckt, die politische Sprachen und Reden benötigt haben. Ein Nutzer hat in der Mitte links gelegt, das andere ganz außen rechts. Olivero, der Pinkel, war unentschlossen. Dieser Benutzer hat nichts gelegt, er hat einfach nur passiv gefolgt. Sie haben keine anderen Aktivitäten gemacht, als angucken, was Facebook für sie ausgewählt hat. Sie wurden durch einen Autoscroller kontrolliert. 13-mal am Tag, morgens bis sieben Abends, haben sie sich einmal in der Stunde angemeldet, ein paar Posts gesammelt und dann den Beweis gesammelt. Das haben wir für drei Monate gemacht. Dann haben wir unseren ersten Vergleich gemacht. Wir haben alle Variablen unter Kontrolle für diesen Moment. Wir können also überprüfen, ob Inhalt, der deinen Zeitlinie ausmacht, den selben Typ haben. Was ist ein Typ? Fotos, Posts oder Videos. Und dann kann man sehen, mit ein paar wenigen Likes mehr oder weniger, Santiago hat zum Beispiel 60% Posts und 40% Fotos bekommen. Michael hat das meiste Rechte gelegt und hat 38% Posts und 54% Fotos bekommen. Das ist schon ein Unterschied. Das sind die selben Seiten. Das ist eine unterschiedliche Erfahrung. Andrea am Rechts hat den meisten Text bekommen. Das ist natürlich ein Unterschied, die Art von Medien, die du ausgesetzt bist. Hier zum Beispiel, ein Tag. Das sind alle Zugriffe am 9. Februar von 7 bis 4 Uhr. Man kann sehen, dass es kursere Unterschiede gibt. Aber es ist irgendwie immer das Gleiche. Es sieht ein bisschen so aus, als ob Facebook hinter den Vorhang manche Komponenten so gesetzt hat, manche zu sozusagen deine Diät zusammenstellen, persönliche Diät von Informationen. Wir haben also eine Metrik entwickelt, um diese Daten zu vergleichen und den Algorithmen zu verstehen. Das haben wir angewendet, auch an unserer eigenen Profile. Wir wollten rausfinden, warum hat Andrea so viel Text bekommen oder mit Kelle so viele Bilder. Dieses Beispiel, was wir analysiert haben, wo wir uns analysiert haben, wir haben natürlich anonymisierte Bedürzern haben. In dem Fall, ein paar ja schon war ja Ice Cream. Der hat viele Poster Text und ein paar Fotos bekommen. Manche, ein anderer Nutzer hat Videos und Poster bekommen. Wir haben also nachweisen können, dass der Algorithmus manche Leute unterschiedlich behandelt. Und die Metrik ist, wie häufig die selben Posts wiederholt werden, wenn man Facebook eröffnet. Nach einer Stunde in unserem Fall oder in der Praxis waren anders. Facebook wird vielleicht die Zeitlinie ändern und ihr älteren Posts zeigen. In diesem Kraft sieht man am linken Spalter, wie oft die Sachen angeschaut wurden. Alles wurde mindestens einmal angeguckt. Ein kleiner Menge wurden zweimal eröffnet. In der Zeitlinie sieht man, wie man die Zeitlinie eröffnet. Und ein kleiner Menge wurden zweimal angeschaut. Also für zwei Timelines war dieser Post mindestens anwesend. Und dann sieht man Andreas am rechten zum Beispiel. Der hat viel mehr neuen Content bekommen. Also nur 30 Prozent der Artikel konnten überleben. Alte Posts wurden nochmal wiederholt. Andere Nutzer hatten ein anderes Verhalten. Vielleicht ein Gleichgewicht. Alles, was irgendwie interessant für dich behalten wurde. Das wurde zwischen dem 8. Februar und dem 14. Februar genommen. Und das ein paar Wochen später. Weil der Algorithmus sich immer wieder verändert. Das ist auch interessant, dass man sich diese Phänomene zu verschiedenen Zeitpunkten anguckt. Und es dann anschaut, wie sich der Algorithmus in den Zeiträumen verändert hat. Aber dieser Algorithmusmonopol ist ein Problem auch für die Leute, die auf der Plattform investieren. Weil es von der Plattform Algorithmus abhängend den Content zu verbreiten. Ja, wir nehmen uns drei große Publikationen aus Italien. Einmal das Il Janare, dann Il Fatto Quodiziano und die La Repubblica. Was wir hier sehen ist, dass wir sehen nur die Menge an Content, die sie publizieren während der Kampagne. Il Janare publiziert viel mehr als die La Repubblica. Auch weil sie viel mehr Leute haben und weil sie auch verschiedene Arbeitsverhalten haben, wie an Facebook die Daten gesendet werden. Ich weiß es nicht genau. Dann können wir annehmen, dass, wenn wir... ...also auch wie die Follower den Content wahrnehmen. Also die Anteile sollten gleich sein. Oder wenn man jetzt annimmt, wenn man die Filterbubble als ein binäres Konzept annimmt, dann würde man denken, dass der Nutzer, der den grünen Kontakt als mit Likes versehen hat, dann wird der Nutzer auf der rechten Seite nur den Content von der Il Janale Seite bekommen. Also nichts von den jeweiligen anderen. Aber in der Realität ist es viel viel komplexer als so ein einfaches System. Wir können zum Beispiel sehen, dass obwohl La Repubblica das Medium war, was am wenigsten Posts veröffentlicht hat, also sie waren, obwohl sie diejenigen waren, die am wenigsten publiziert haben, aber es in allen Detailenheims in einem großen Anteil vertreten. Il Janale ist zwar auch in manchen Spalten als in den großen Mehrzeiten vertreten, aber in anderen dafür kaum. Und jetzt noch mal ein anderer Zeitraum, vom 19. bis zu 26. Februar. Da ist es deutlich ein Thema geworden. La Repubblica ist in jeder Timeline aber derjenige, der die Grünen, also Il Janale, gelagt hat, hat ja deutlich wenig Content bekommen. Und Britta hat eine Fitterbubble, die viel viel mehr Content von allen drei Publikationen enthält. Und es ist interessant, dass wenn man sich diese Ergebnisse in Italien publiziert, sie wissen, dass die Medien sie manipulieren und sie versuchen eine Rechtfertigung. Sie sagen, dass Il Janale viel Spam-Content veröffentlicht und deshalb dafür bestraft wird. Aber nur Facebook selbst weiß es wirklich. La Repubblica ist eine bipartisanische Quelle, wird viel besser dargestellt. Und es ist viel zentraler, wird in der politischen Mitte dargestellt. Und der Algorithmus reduziert die Vielfältigkeit der Gesellschaft durch die Reduktion der Quellen. Und eine andere Erkenntnis ist, dass La Repubblica ist verbreiteter als die anderen. In 2018 die drei wahrscheinlich größten Nachrichtenmedien, Christiano Ronaldo, Vin Diesel, weil sie am meisten Likes bekommen, das ist nicht gut. Es sollte nicht danach beurteilt werden, was am meisten Likes enthält. Also Facebook sollte das irgendwie mal überprüfen, dass da wieder die Verteilung standfindet. Wir wollen nicht nur Reports und Analysen veröffentlichen, sondern wir wollen die Massen verstärken, sich zu verhalten. In Conversation with God. Galileo Galilei, der Erfinder, die Massen dazu befähigte, die helozentrische Theorie zu überprüfen, wird von der romanischen Inquisition angeklagt, weil der Kirche das nicht gefallen hat. Wie sieht das heutzutage aus mit Google, die unsere Erweiterung herunternimmt, weil sie das Tracking davon nicht mögen. Es ist nicht viel anders als damals die romanische Inquisition, die Galileo Galilei angeklagt hat, genauso wie heute mit unserer Bauser-Erweiterung, die von Google gesperrt wurde. Wir müssen uns eine andere Verbeidungsmethode wählen, weil sonst sind wir von Google immer abhängig und können gesperrt werden. Wir wollen für einen öffentlichen Ansatz argumentieren, damit Leute beeinflussen können, was in deren Einfluss auf deren Leben hat. Es ist eine ziemlich einfache Sache. Wenn wir über Privatsphäre sprechen, bevor Snowden in Europa, haben wir das, wo wir nur als Paranoid betrachtet. Algorithmischer Einfluss wird heutzutage auch als Paranoid eingestuft, bis man vielleicht irgendwann mal einen anderen großen Skandal erhält. Lassen Sie uns einfach eine einfache Geschichte machen. Man macht eine Analyse über einen bestimmten Zeitraum und man weiß, was eine Rolle spielt. Unser Ziel ist, andere dazu befähigen zu verstehen, wie Algorithmen auf einen Einfluss auf deren Leben oder auf deren soziales Umfeld haben. Das ist die simple Methode, die man verwenden kann, ob das für ein Relevant oder das für ein Relevant ist. Wenn man diesen Talk anschaut und versteht, was ich sage, dann ist es immer noch nicht genug. Wenn man, wenn ihr von eurem Leben aus einem Lebensumfeld wisst, dass manche Gruppen in Konflikten sind, das ist eine Story, eine Narrativ. Wahrscheinlich werden sie nicht gut behandelt, weil sie häufig eine Minderheit sind und der Algorithmus wird sie wahrscheinlich deshalb nicht fair behandeln. Dann können wir helfen, eine Methode zu auszuliefern, die anderen Leuten dabei hilft und Algorithmen zu verstehen. Eine andere sehr einfache Methode ist, wenn man die Bausarbeitung installiert, kann man das Panel öffnen und dann kann man den Haken setzen, ich bin Teil einer Studie und dann einfach einen zufälligen Kodenamen sich ausdenken, sodass sich alle Leute den gleichen Kodenamen da eintragen. Dann tagt man seine Beiträge mit diesem Kodenamen und die gesamte Gruppe kann dann ihre Daten gemeinsam analysieren. Also kann man mit einer Gruppe von Freunden machen oder in der Schule, in einer Klasse oder so, oder mit der Familie. The pointer tree is about, do not matter if you get tested with a fake user and fake profiler. Also keine Bots, keine Fake-Nutzer oder ob man das mit seinem eigenen Nutzer verwendet. Man kann die Texte immer verwenden, um die Start miteinander zu vergleichen und eben auch zu verstehen, wie da die Unterschiede sind. Und wenn man die vierte Episode von Staffel 21 von South Park sehen hat, da wird eine tolle Geschichte erzählt, wie man Facebook herausfordern kann. Aber wir sind nicht so cool. Wir wollen nicht, dass ihr Facebook löscht, wir wollen, dass ihr euer Facebook-Profil für Wissenschaft verwendet. Euer Profil ist eine einmalige Möglichkeit, dem Netzwerk nutzen zu bieten. Du hast Sachen angeklickt, du hast Sachen geliked, du hast interagiert. Es gibt wahrscheinlich keine andere Person, wie du bei Facebook dich profiliert hat und wir wissen nicht, wie sie dich profiliert haben, aber wir können das als Beobachtungspunkt heranziehen und rausholen und verstehen, wie sich Facebook verhält. Aber natürlich, wenn wir Daten von freiwilligen Managern dann müssen, müssen wir natürlich die Technologie verantwortungsvoll behandeln, ansonsten sind wir nicht anders als Facebook. Jetzt werdet ihr die ganze Liste von unseren ethischen Commits bekommen, also was wir machen und was wir nicht machen werden. Der erste Punkt ist, wie Facebook verfolgt, es ist kein Social Media Intelligence. Wir beobachten nur, was im Newsfeed passiert, nicht was in den persönlichen Seiten passiert. Also wenn du Facebook.com slash aufrufst, das ist was wir beobachten. Wir werden nicht irgendwie slash irgendwas anderes angucken. Wir werden aus die Wahl der Leute respektieren. Wir werden nur öffentliche Post angucken. Wenn Leute inhalt öffentlich publizieren, dann wissen sie, dass jemand anders das nehmen kann und das ist wichtig. Die GBTPR verlangt das auch von uns. Wir wollen den originalen Autor in der Situation halten, dass er seine Copyrights behält, dass er, wenn es Daten bei Facebook über ihn gibt und uns Server und Ads entlöschen möchte, dann soll er das auch können. Wir wollen die Zeitlinie, also die Sequenz der öffentlichen Post, die veröffentlicht wurden, anschauen. Jedes Mal, wenn ein Post collected, eingesammelt wird, kriegt man Informationen, dass dieser Post aufgenommen wurde und manchmal auch, wenn der Post nicht eingesammelt wird. Das ist der Kleinen-Check. Facebook hat dem L, kann sich natürlich verändern. Deshalb ist es schwierig, das mit Browser-Erweiterung zu machen. Die Privatsferge-Level, die man einstellen kann, hat dem L auf dem Server und die Analyse, kann schwer sein. Welche Daten sammeln wir? Alles öffentliche, nichts, was du mit Freunden tauscht. Wenn du mit Freunden etwas tauscht, was nur Freunde sehen, dann gucken wir das nicht an. Das ist natürlich dasselbe für spezielle Zielgruppen. Das ist der Unterschied zwischen unserem Test und anderer Leute, wie zum Beispiel ihr. In unserem Test benutzen wir Fake-Profile und wir verfolgen öffentlichen Quellen, Medien und so. Es ist also kein Problem, diesen Datensatz zu veröffentlichen. Wenn wir es auch verwahlen, Datensatz zu veröffentlichen, das ist kein Problem, denn sie kommen aus der öffentlichen Domäne. 10 Minuten nur noch? Bist du dir sicher? Okay, ich muss mich beeilen. Ein exemplarisches Beispiel, wie man sich anpassen kann. Es ist sehr schwierig, bedeutende Mechanismen zu implementieren. Seit dem Dezember diesen Jahres hatten wir Glück. Wir gucken nur deinen Profil an, nur wenn du Zukunft dazu hast und nicht wir, du guckst es, wir analysieren und aggregieren Daten und du guckst dir nur an. Wir wollen, dass Leute ihre eigenen Richtlinien einstellen können und das Daten von uns gelöscht werden können, wenn das angefragt wird. Die Browser-Erweiterung generiert öffentliche und private Schlüssel und dann sammeln wir Daten ein, die mit öffentlichem Key verschüsselt wurden, sodass die Kontrolle behaltet. Allgemein sind wir immer für Diskussion bereit. Als Anpasser kannst du natürlich Erfahrungen mit uns teilen. Das ist ein Beispiel, was wir geben wollen. Michael, der ganz weit am Rechts ist, die Antonietta und Britta haben Events angesehen, während des Wahlkampfs, und dann wurden Immigranten erschossen. Wir wollten angucken, wie dieses Event von diesen Leuten gesehen wurde. Das Wenddiagramm ist die Darstellung. Es kann uns vielleicht auch in der Zukunft dir, deinem Freund und deinem Kollegen helfen, dass ihr euch anschauen könnt, wie ihr unterschiedlich ihr die Debatten wahrgenommen habt. Die semantische Systemanalyse sucht nach Schiffelwörtern in Wikipedia einträgen. Das ist eine Möglichkeit, dass wir keine Volltextsuche machen. Wir wollen nur Sachen, die auch eine Seite auf Wikipedia haben und ziehen die heraus. Die Analyse der akkigeten Daten in unserer Datenbank. Wir wollen aber andere die Möglichkeit versetzen. Wie würden wir jetzt einen Kompromiss finden? Die Idee ist, dass keiner hat Zukunft auf die Datenbank, außer wir. Und wir werden sie schützen. Dass wir dafür verantwortlich sein können, ist uns wichtig. Aber wenn jemand interessante Wissenschaftsfragen hat, dann können wir den Datensatz verfügbar machen, um im öffentlichen Interesse darin zu suchen. Das ist natürlich nur dann akzeptabel, wenn du kein individuelles Verhalten veröffentlicht. Wir werden also Fall für Fall entscheiden und hier ist ein Beispiel. Wolfi Grissi hat gefragt, wie viele Posts bei Facebook gesponsert sind. Es fühlt sich so an, als ob jeder vierte Post von jemandem bezahlt wurde. Wir haben es analysiert und haben die Prozentergesponsorter Post angeguckt. Monat für Monat. Wir haben nur Zeitlinien, Timelines mit mehr als fünf Impressionen angeguckt. Im Unterschied zwischen 10 und 15 Prozent im Februar hat sich sich dann verändert. Da waren es dann ungefähr 12 Prozent. 12 Prozent auch im März, im April sieht man einen kleinen Anstieg. Das ist ein Diskreditcode. Er guckt einfach die identifizibaren Daten an. Aber Facebook hat gesagt, wir sind committed. Wir wollen uns das Beste für Transparenz tun. Ja, Sie haben Schlitter darüber geschrieben, versuchen Sachen zu erklären. Aber hinter dem Vorhang sieht man, dass Sie ihr Bestes tun, dass dritte Parteien wie wir z.B. verstehen, was da eigentlich passiert. Das ist ein Twitter, wo Sie versuchen, zu erklären, wie Sie eine Zufälligung und Menge von Diffs und Spam-Klases aufmachen im Dom. Sponsored wird z.B. in irgendwelchen Fake-Lettern in der Mitte gemacht. Es ist ein ganzes Team, das dahinter steckt. Das ist nicht irgendwie zufällig. Das machen wir, beobachten wir schon seit über einem Jahr. Aber jetzt ist es am schlimmsten. Jetzt gibt es Patrocinato, als ob es ein Portugiese wäre. Es ist in jedem Post irgendwie vorhanden, um ehrlich zu sein, das sieht aus nach einem schlechten Tag aus für mich. Ich wache morgen auf, ich gucke auf die Statistiken und dann sehe ich, dass unser Dienst nicht mehr funktioniert. Das bedeutet, dass hat der Mail sich geändert, wir müssen anfangen, Sachen anzupassen. Also schaue ich es mir an und versuche zu aktualisieren. Weil die Daten, die ich haben möchte, kann ich nicht mehr sammeln. Und dann hoffen wir, dass wir die Daten schnell nachholen können. Aber da scheint es irgendwie ein Grenzfall für freie Software zu sein. Alles, was wir machen, ist die TPL. Aber die Pasa-Pipeline, ich weiß nicht, ich fühle mich da nicht wohl, das jeden Tag neu anzufassen, immer wieder zu erweitern. Ich fühle mich, als ob Facebook der Jupiter ist, der größte, massive, älteste Planet im Solar-System, im Sonnensystem, ein Riese aus Gas. Und wir sind ein kleiner Forts im Weltraum. Mit diesem Machtunterschied, Open Source ist schön, aber wir wollen eigentlich, dass Facebook das zurückgibt, dass sie Vorteile von Open Source haben. Unsere Community ist sie groß genug, um gegenüber Facebook zu agieren. Ich meine, TPL ist zum Beispiel dafür gedacht, dass sie auch Nutzen davon haben. Es gibt auch noch andere ethische Bedenken, über die man diskutieren kann. Algorithmen möchten vielleicht einen anderen Eindruck vermitteln. Wenn du die Debatten anschaust, die wir haben, sind viele Gruppen, die Sponsore der Organisationen, Politiker, Geheimdienste, die Informationen versuchen zu hindern, gegen Informationen zu kämpfen und versuchen zu entscheiden, was war und was falsch ist. Dieses Konzept ist konzeptuell falsch, als ob man da gegen was ankommt. Wenn man genug Leute hat, die erklären, warum das falsch ist, zum Beispiel eure Community, zum Beispiel diese hier, ihr seid die Leute, von denen ich glaube, die existieren, die das machen können. Es gibt immer noch darum, wir haben das Tracking herausgearbeitet. Die Idee hinter den Algorithmen, die Idee ist doch eigentlich, schreib deinen eigenen Algorithmus, dann kannst du deine Prioritäten selber setzen. Im besten Fall haben wir eine Plattform und du machst deinen Algorithmus und für jemand anderen kannst du ganz anders aussehen. Ein voll verbundener politischer Bürger kann mitgestalten und du kannst völlig unabhängig sein. Du hast deine eigenen Werte, für die du selbst verantwortlich bist und für deine Gesellschaft, für deine Handlungen, aber nichts ist so leicht. Es gibt halt Phänomene wie Polarisation. Die passieren wegen dieser Kommunikation in der zwischengeschalteten Kommunikation. Das ermöglicht, dass solche Sachen passieren. Wir versuchen mehr Algorithmen zu haben, eine Algorithmen-Diversität, denn das sollte mir ermöglichen. In der Theorie ist es schön, aber ich schätze, wahrscheinlich müssen wir eine Informatik-Gesellschaft haben, damit wir einen Mittelweg finden. Das ist unsere Botschaft. Einfache, zustandslose Werkzeuge bauen, die Leute überall Algorithmen aufklären, die mit Maschinen lernen, benutzen einfache Variablen, die du kontrollieren kannst, mit denen du spielen kannst. Da gibt es auch politische Experimente in vielen Ländern und nach der europäischen Wahl im Mai 2019. Wenn du hier guckst, da gibt es einen kleinen Aktionsplan, wie wir damit umgehen wollen. Wir werden nicht nur Boards haben, sondern verschiedene Leute in unterschiedlichen Ländern involvieren lassen, also mit einbeziehen. Wir müssen natürlich auch einbeziehen, dass es einen traurigen Trend gibt in der Politik. Die Leute glauben, dass sie geführte Kommunikation haben, weil sie einen diesen Rhythmus denken. Die sozialen Medien sind mächtiger, weil sie entscheiden, was von wem gesehen wird. Das gibt uns viel mehr Gründe, diese Analyse zu machen. Wir wollen sehen, wie dieser politische Content von Facebook behandelt wird. Und etwas, was wir veröffentlichen wollen, eine besondere Ankündigung, ein Tool, das per RSS, also mit RSS-Feets all den Content veröffentlicht, der mit einem bestimmten Kriterium, nach dem man suchen kann, übereinstimmt. Die Daten, die bei uns aus der Timeline gesammelt wurden, die kann man sich per RSS abrufen. Also, wenn man diese Facebook- und Tracking-Punktex-Poach slash Keyword von XML, dann bekommt man alle Posts, die mit diesem Keyword zu tun haben, mit diesem Stichwort. Natürlich hat man dann viel mehr Kontrolle mit dem Lesegerät, weil das ist natürlich auch eine Methode, mit komischen Sachen zugespämmen zu werden. Man bräuchte auch noch mal Sprachauswahl oder andere Kitaillen. Aber das ist ein free Software, ein offenes Tool und wir sind offen für Anregungen und Verbesserungsverschläge. Eine Verbesserungsverschläge um diesen Ansatz für einen selbst beeinflüsten Algorithmus, um sehr nutzbar zu machen. Man könnte einfach hier mit Anfangen zufällige oder irgendwelche Sachen von Facebook zu leden. Das sind sehr, sehr zuversichtliche Pläne. Wir wollen die Datenbank in öffentlichen Interesse halten. Wir wollen auch die Möglichkeit haben, die zu analysieren und auszuwerten. Wir wollen beklären, wie Algorithmen schlecht für Nutzer sind. Wir wollen eine Plattform Facebook.Tracking.Exposed. Es ist bisher eine sehr, sehr schlechte Alpha, aber es passiert, was es bewegt sich. Wir wollen zeigen, wie unsere Technologie im Hintergrund auf den Daten agiert. Wir sind sehr offen für Neulinge. Wir suchen auch immer nach Hilfe. Wir haben auch Assistenten, die sich mit der Einarbeitung von Neulingen beschäftigen. Ob es möglich ist, Quad-Funding zu machen oder Spenden zu sammeln. Wir würden das gerne tun. Die meiste Technologie ist in Node.js und in Javascript. Aber das Gleiche kann natürlich auch in Pipen gemacht werden. Wenn ihr Wissenschaftler seid, die in diesem Datensatz interessiert seid, wird in GitHub veröffentlicht. Dann gibt es ein standardisiertes Interface, sodass man eine Schnittstelle zugreifen kann. Normalerweise gibt es einen Applaus am Ende. Aber macht diesen Applaus nicht nur mir zur Liebe, sondern auch zu allen Leuten, die dazu beigetragen haben. Danke. Danke, Claudio. Ich denke, da gibt es sicher einige Fragen. Für diesen hervorragenden Vortrag. Wenn ich keine dringenden Fragen sehe, dann habe ich eine. Danke für den informativen Vortrag. Eine Frage nicht nur zu diesem Thema, sondern auch zu seinem anderen Aspekt dazu. Es kam mir unter, dass Facebook Färbung angezeigt hat, dass es keinen Kontext zu den Färbungen gibt. Es gab keinen Kontext zum Browserverlauf von mir oder meinen Freunden, aber zu Konversationen, die wir im echten Leben oder auch unseren iPhones geführt haben. Ein Freund von mir hat mir von einem kleinen Dorf in Österreich erzählt und dann hatten wir plötzlich eine Werbung von einem Hotel in diesem Dorf auf Facebook gehabt. Ist das reiner Zufall? Oder ist es Paranoia? Oder habt ihr auch schon mal von so etwas gehört? Es scheint ein Phänomen zu sein, wenn man nicht nach Sachen gesucht hat oder dass man Gründe hat, zu glauben, ah, okay, Entschuldigung, das war noch Teil der Frage. Die Antwort ist, wenn man vor dem Konferenz bewiesen hat, dass sie nicht zuhören, dann scheint das irgendwie vernünftig zu sein. Aber andere Anwendungen hören vielleicht zum Mikrofon und profilieren den Benutzer und diese Profilierung könnte sie dann an Facebook weitergeben. Irgendwie habe ich die Situation verstanden, aber das geht irgendwie um mobile Sicherheit. Welche Apps hast du installiert und welche von denen würden dich abhören und wo haben die alle Zukunft drauf? Facebook benutzt vielleicht diese Daten als Trip-Party Profilservice und denen sie in ihre eigene Datensätze integrieren. Ja, ich gebe weiter an Mikrofon 2. Hallo, der Nutzer, der den rechtsextremen Content gezeigt bekommen hat mit den vielen Videos. Ist es möglich, dass dieser Nutzer einfach mehr Videos angeschaut hat in der Vergangenheit? Also einfach nur eine Erkennung der Typen von Facebook-Posts? Oder ist es eine tiefere Erkennung von Kommunikationsstrukturen in rechtsextremen Quellen? Wenn ich ehrlich bin, wir haben das nicht verfolgt, nicht mit aufgenommen. Aber die Likes wurden irgendwie zuwürdig verteilt und da gab es keine Mythologie dagegen dahinter. Aber das ist eine interessante Frage, weil wir können eine andere Frage machen mit dieser Idee im Kopf. Vielleicht ist schon die Quelle sehr voll mit Videos und deshalb kriege ich dir auch mehr Videos angezeigt. Ja, wir sollten darüber nachdenken. Es ist eine Möglichkeittheorie. Ja, dann lass uns doch bei Mikrofon 2 bleiben. Hallo! Facebook wird nicht nur dafür bezahlt für Werbung, sondern man kann es auch bezahlen, um bestimmten Posts hochzuhalten und eben einen größeren Anteil der Folger zu erreichen. Da kann man auch ein bisschen auswählen, wie man den Post zeigen will. Ich wollte nur wissen, ob ihr da vielleicht auch irgendwelche Daten aus Sicht der Seiten gesammelt habt, weil da scheint es auch viel zu Daten zu geben. Wir wollten eigentlich nur gucken, was im Newsfeed auftaucht. Das war die Begrenzung. Mehr interpretieren, mehr logisch anschauen, würde Sinn machen. Aber das ist eine Entwicklung, die wir bis jetzt noch nicht betrachtet haben. Ja, gibt es vielleicht ein bisschen Input aus dem Internet? Mein Signalanger weckt schon. Ja, danke. Epi aus dem IRC wollte wissen, wie sollte Facebook deiner Meinung nach diese Situation behandeln? Welche Situation? Was könnte Facebook besser machen? Interessante Frage, aber unser Ziel ist nicht, Facebook zu ersetzen oder das Code tauschen. In der Theorie sollte Facebook nur chronologisch Maschinen lesbaren Content geben und in deinem Client kannst du entscheiden, was bei dir angezeigt wird oder nicht. Das ist der Fall sein. Du würdest Facebook als total neutrale Blastform betrachten, die einfach nur Daten angibt, ohne zu filtern. Und dann würdest du realisieren, dass dein Algorithmus schlecht ist. Weil du Phänomene analysieren würdest und in Perspektive bringen könntest. In deine Gegend, in deinem Inhalt. Du möchtest dann vielleicht andere Quellen hinzufügen, dass du Nachrichten auch von anderen Richtungen bekommen, die du automatisch angezeigt bekommst. Das wäre also möglich, dass viele agierende Akteure zusammen Einfluss haben, dass man den eigenen Algorithmus anpassen kann, dass man ihn personalisieren kann, teilen kann und erweitern kann. Mikrofon 4, bitte. Danke für den Vortrag. Hat Facebook irgendeine Art von Möglichkeit zu erkennen, dass die Daten der Nutzer gesammelt werden von deinem, von eurem Dienst? Nein, das können Sie nicht. Die Erweiterung läuft und ich weiß nicht, wie eine Web-Abdikation, wie diese Facebook-Polizeien, wie diese Facebook-Polizeien, wie diese Facebook-Punk-Com-Tests machen kann. Wenn Sie aktive Tests machen, um Erweiterungen entdecken können, dann sollten wir das entdecken. Bis jetzt haben wir diese Möglichkeit nicht. Wenn jemand ein Erweiterungsexperte ist, dann kann er uns da gerne helfen. Andernfalls, ist es nicht möglich, zu verstehen, ob ein Nutzer Daten kopiert hat oder nicht. Eine andere Frage aus dem Internet. Ich denke, dass Facebooks Algorithmus dauerhaft sich verändert. Wie geht euer Projekt damit um? Sind eure Ergebnisse nicht schnell outdated, also veraltet? Okay, aber das ist mir egal. Es geht ja nicht darum, dass es so kompliziert ist. Es ist viel zu groß. Was wichtig ist, dass es eine Agenda gibt. Dass Facebook nicht für deine Interessen einstehen kann, dass du entscheiden musst, was dich interessiert. Das Problem kann ich nicht dagegen machen, wenn Sie sich überlegen, morgen alles zu ändern. Das kann ich nur testen. Wie du am Anfang gesagt hast, dass ihr Fake-Accounts erstellt habt für eure Nachforschung, hast du irgendwelche Probleme bekommen, dass diese Accounts-Welt von Facebook lockiert wurde oder dass du durchverifizieren musstest? Wir haben da viel Erfahrung gemacht, wie man Accounts erstellen kann, das Ziel war, Nutzer zu haben ohne Profil im Hintergrund, die denselben Seiten folgen. Wenn du neue Accounts benutzt mit null Freunden, dann werden sie das meistens entdeckt und dich auch vielleicht ein bisschen anders behandeln. Am Anfang des Jahres war es okay, nach dieser Veröffentlichung der Publikationen war das nicht mehr so. Ich würde mich nicht mehr wohlfühlen, das weiterzumachen. Wir würden jetzt also Freunde haben, die interagieren. Ich bin es tut mir leid, dass wegen der Sache mit dem gesperrten Account ein SIM-Card viele Nutzer, das ist alles, was wir haben. Eine andere kurze Frage. Ihr habt die Arten von Posts, Videos, Fotos und Text unterteilt. Habt ihr auch die visuell analysiert? Da haben wir ein bisschen Nachforschung gemacht für welche Posts, also viele Posts von der AfD gestellt wurden, viele von den Posten einfach Text als Foto. Aber wenn man sich das dann anguckt, dann sieht man, dass es eigentlich mehr Fotos sind. Aber es wird nicht angezeigt, weil es nicht in der URL ist. Das stimmt. Wir verbessern diese Möglichkeit, um zu extrahieren. Wenn man zum Beispiel ein Foto teilt und da einen großen Text drüber macht, dann sollte das auch mitgezählt werden. Wir fangen also jetzt an, das genauer zu analysieren. In dieser Analyse haben wir nur die URL angeguckt, um den Typ zu verstehen. Da drüben, Mikrofon 3 bitte. Danke für diese wichtige Forschung, die du da tust. Ich habe mich gefragt, ob und in welcher Rolle ihr soziale Forscher in dieser Nachforschung sieht, auch im Design der Nachforschung und auch in der Interpretierung des Outputs. Vielen Dank. Die Wissenschaftler, also abgesehen davon, dass ich keiner bin und deswegen nicht verstehe, zum Beispiel hatten wir die Hilfe während unserer Tests, dass jemand, die Facebook-Site ausgewählt hat über den Spektrum oder jemand weiß, welche Schlüsselwörter bestimmte Sachen ausdrücken. Zum Beispiel in Katalonien, eine Frau in Katalonien hat untersucht, Sprache, verletzliche Sprache gegenüber Frauen zu beobachten, um zu analysieren, wie diese Sache sich ausdrückt. Das sind also Meter, Daten, die uns andere Wissenschaftler als Input gegeben haben und ihre Forschung beschäftigt sich damit. Andere Sachen sind, wenn man an einer Webseite folgt, dann können Ansprachen von Politikern in der Erzählung auftauchen, wenn sie ihre Anwendungen öffnen und dann gucken wir nach, ob Wörter auf zufälligen Seiten auftauchen. Was wir eigentlich tun wollen ist, wir geben dem Wissenschaftler ein Werkzeug, Analyseverfahren, damit sie verstehen können, was da passiert, was da los ist, was in der Nutzerzeitlinie passiert oder bei den Leuten, die aktiv in Projekten teilhaben. Wenn du zum Beispiel eine wissenschaftliche Forschungskuppe bist mit 20, 30 Leuten und du hast eine L, und wenn du etwas erlaubst, dann könnt ihr A, B und C relativ untersuchen und in den nächsten 3 Monaten und dann kannst du das finden. Ja, danke. Nummer 4, bitte. Ich bin ein Facebook-Nutzer und ich sehe häufig diese bezahlten Anzeigen und ich habe keine Ahnung, was es damit zu tun hat. Beschäft sich euer Datensatz auch mit diesen bezahlten Werbungen, weil ihr euch mit bestimmten Einträgen fokussiert habt und gibt es da etwas, was für ihr herausgestochen ist? Ja, also, wir schauen alles an, was öffentlich ist. Wenn Werbung öffentlich ist, mit der ganzen Welt geteilt wird, dann würde das Beweis Material sein, was wir einsammeln. Aber wenn wir nicht wissen, wer in deiner Zeitlinie Werbung macht, dann bedeutet es, dass du vielleicht für Gruppen providiert würdest und du weißt nicht, warum, aber wir können dir nicht sagen, warum. Das ist nicht unsere Aufgabe. Der Fakt, dass du ausgewählt wurdest, ist etwas, was wir mitnehmen, wenn wir den Post einsammeln. Und wir haben aber ... das ist eine Angelegenheit rauszufinden, warum das da aufgetaucht ist. Nach dem November, nachdem wir das veröffentlicht haben, musste der PASA angepasst werden, um die entsprechenden Ursachen für solche Sachen zu finden. Wenn du diesen Anwendungsfall nutzen möchtest, mit uns zu experimentieren, sei eingeladen. Nummer eins, bitte. Ja, soweit ich verstanden habe, habt ihr den Content gepasst, also ausgelesen und dann einen bestimmten Tag, also einen bestimmten Label zu den ganzen Posten zugefügt wurden, dann denke ich, es ist immer noch eine Seite von Facebook. Also es ist ziemlich einfach für Facebook zu trekken, was ihr dafür Text hinzufügt und zu sehen, welchen Nutzer an der Studie teilnehmen, an der Sammlung. Nur wenn die Facebook-Web-App aktiv rausfinden kann, ob wir das Add-on anhaben, können wir auch verifizieren, das könnte bedeuten, dass Facebook uns bestimmte Daten schickt, um mit uns zu ärgern. Wir machen diese Nachrichten für Transparenz. Wir wollen den Nutzer daran erinnern, dass diese Erweiterung anders. Das kann natürlich auch ein Problem werden. Wir können das auch nur am Anfang einmal zeigen und sagen, hier, du hast es, diese Tracks installiert und es wird nichts im Dom deiner Homepage ändern. Das ist eine Möglichkeit. An diese Stelle können wir an diesem Flaschen halt nicht uns erlauben, mehr zu machen. Aber wenn du an Experten in diesem Bereich bist, dann bitte, bitte, komm und mach mit. Ich sehe drei Fragen. Wir haben nach zwei Minuten also haltet das Werk kurz. Ja, YouTube-Radikalisierung und die Reaktion von YouTube wirkte panisch und sie hatten Schwierigkeiten, das zu lösen und zu verstehen, warum der Algorithmus sowas tut. Habt ihr das Gefühl, dass bei Facebook eine ähnliche Atmosphäre hört, also dass sie quasi Kontrolle verloren haben über deren eigenen Algorithmus? Wir haben schon gesagt, in Veröffentlichung gemacht, dass der Algorithmus so kompliziert ist, wir wissen nicht, wie er funktioniert. Das ist in deinem Netzwerk? Ja, okay, vielleicht kann keiner wissen, wie der Status des neuronalen Netzwerks ist. Aber der Fakt, dass sie politischen Einfluss haben, ist vielleicht zu weit weg vom durchschnittlichen Facebook benutzen und wahrnehmen. Das ist ein Algorithmus so einstellen, dass es der Inhalt für dich besser passt, dass du irgendwie mehr Videos machst als Selfies und dann ist dieser Eingaben da und dann hast du plötzlich damit einen Einfluss auf den Algorithmus, den du nicht weißt. Also ich kann verstehen, dass sie vielleicht für manche Sachen gar nicht verantwortlich sein wollen. Aber sie sind es, denn wenn du deine Logik veränderst und deine Lösungen anders sind, dann kann das akzeptierbar sein. Aber auch nicht. Und wenn die Öffentlichkeit darüber diskutiert, dann bist du eben Teil daran. Wenn sie also panisch werden, dann ist die Lösung nicht geheimer zu werden, um Sachen zu verbessern. Es ist unsinn zu sagen, die haben es in den US versucht, die meisten Entwickler sind im Silicon Valley. Die Vielfaltigkeit der Welt kann man nicht in nur einem Ort fassen. Ja, es tut mir leid, nur noch eine Frage, aber wir haben keine Zeit mehr. Vielleicht kannt ihr euch nach dem Talk mit dem Speaker treffen. Also letzte Frage bitte. Danke. Du hast die ethischen Implikationen in deinem Talk angesprochen. Also denkst du, dass dein Ansatz oder deine Kenntnis, die damit generiert wird, mit schlechtem Zielen... Wir versuchen das zu vermeiden. Wir versuchen das zu vermeiden. Das einzige PR, was wir haben ist, wir sind die Besitzer dieser Daten und die Ergebnisse der Analysien die sich auf einzelne Dioduren beziehen, sondern nur auf öffentliche Daten. Ich arbeite nun auch mit Entwicklern, die mit uns zusammenarbeiten, die versuchen, third-party Reviews einzubauen, dass es Assessments gibt. Wir sind zuversichtlich, dass das irgendwie möglich wird, dass jemand das kontrollieren kann. Wir versuchen, wie möglich aufzuhalten für Feedback, auch was Privatsphäre angeht. Und natürlich kommt es auch darauf an, was du meinst mit dem Nutzer. Welchen Nutzer stellst du dir denn vor? Wir versuchen, alles vorherzusehen, aber die Unendlichkeit herzusehen. Danke vielmals. Und damit war ...