 Schönen guten Abend. Wir suchen eigentlich die Geschichten hinter den Zahlen und das ist Stefan Wärmeyer hier, der über die Berechnung von Zahlen mit Anwendungen auf gesellschaftliche Probleme, also dass der Titel eines Turing Papers hier ein bisschen verfremdet. Herzlich willkommen. Ja, der Titel ist ein Hinweis auf ein Paper von Turing. Das wird viele Fragen erzeugen, aber da komme ich nochmal darauf zurück. Es geht um Computerwissenschaft und also IT und Journalismus. Ich bin selber im Newsroom in Korrektiv einer wohltätigen Organisation, die sich eben auf vor allem Datenjournalismus und Investigativjournalismus konzentriert. Was heißt überhaupt also Investigativ in dem Zusammenhang, ein Beispiel aus der Popkultur, ein Film, Spotlighter gerade erschienen ist. Es geht um Kindesmissbrauch von katholischen Priestern in Boston und das ist eben das Nachrichtenteam, also die Beteiligten, die an dieser Geschichte, an dieser Enhüllung daran beteiligt waren und der Film bringt das ganz gut rüber, wie eben tatsächlich investigative Reporter arbeiten. Also das ist eine aktuelle Geschichte, eine wahre Geschichte, die 2003 oder 2001 stattgefunden hat. Es ist natürlich Hollywoodmäßig übertrieben, bisschen überdramatisiert, aber die Berufstätigkeit der Journalisten wird eben ganz gut dargestellt und auch natürlich die, wie ihr seht, die Genderverteilung in einem normalen Nachrichtenredaktion ist auch ganz gut abgebildet. Also in Deutschland sehen wir, meinetwegen, die großen Titelspiegel, Schweizer, da sehen wir, dass die Nachrichtenredaktionen auch das die Köpfe oft Frauen sind und meinetwegen auch die Investigative Reporter-Vereinigung hat auch Frauen im Vorstand, es sind natürlich sind in Großteilen noch Männer oder die Überzahl noch Männer, aber es sind auch Frauen an prominenter Stelle dabei. Also dieses Team von Spotlight, die hatten einen Hinweis und haben tatsächlich erst mal Daten gesammelt, also haben erst mal Daten erhoben über die katholischen Priester, die eben in dieser Metropole-Region Boston unterwegs waren, irgendwo zum Beispiel krank waren in einer anderen Gemeinde dann sich hinbewegt haben oder meinetwegen, dass sie einfach versetzt wurden. Da haben sie eben sich diese ganzen vermeintlichen Einzelfälle angeschaut und dann haben sie eben festgestellt, dass es noch viel mehr Fälle waren als zunächst angenommen und haben tatsächlich durch die Recherchen gezeigt, dass es ein eher systemisches Problem ist. Und das ist eben nicht, das ist eben eine Arbeitsweise, das Journalismus oder eine Verantwortung, dass man eben nicht mit dem Finger auf eine Person zeigt, sondern eben das systematisch dahinter aufdeckt, dass eben viele verschiedene Leute auf vielen Ebenen auch schlechte Dinge tun können. Das haben sie dann auf eine Karte dargestellt und es gab ein Buch für jedes Jahr und das haben sie dann ein Computer eingetippt und am Ende kam dabei eine ziemlich nette Tabelle raus, die gezeigt hat, wo sich die Priester hinbewegt haben. Also investigative Journalismus und Computer sind ein passend gut zusammen. Natürlich werden Computer in vielen anderen Bereichen im Journalismus benutzt, also natürlich hat jede große Zeitung eine Website, es gibt Roboter-Journalismus auf einmal, wo da in dem einfach in der Berichterstattung über Sportereignisse nicht mehr von Menschen gemacht wird, sondern von Computern, aber ich möchte mich auf investigativen Journalismus konzentrieren. So was wie Datenjournalismus ist der aktuelle Begriff oder Computationsjournalismus. Es gibt viele Begriffe, die darauf hinauslaufen, dass ein Computer benutzt, um eine investigative Geschichte zu machen. Philipp Meyer war einer der ersten Journalisten, die ein Computer für seine Recherche benutzt hat. Also ein Journalist meinte ein Journalist muss ein Datenbank-Administrator sein. Ein Journalist muss seine Fakten haben. Es gibt natürlich immer zu viele Fakten, um sie im Kopf aufzubewahren, deswegen braucht es ein Computer. Und nun werde ich einige Fäder der Informatik zeigen, die investigative Journalisten benutzen, um ihre Geschichten zu erzählen. Ein großes ist natürlich Natural Language Processing, er erinnert euch bestimmt an die Snowden Leaks oder die Offshore Leaks und ein paar Leaks danach. Und wenn du einen großen Leak von dieser Art hast oder einen Haufen Dokumente zugespielt bekommst oder aus einem Informationsfreiheitsanfrage, es gibt vielleicht 1000 oder 100.000 Dokumente, die du kriegst, entweder auf Papier oder als ein PDF. Aber was sollst du damit machen? Du kannst natürlich nicht alles lesen. Die Redaktionen momentan haben nicht genug Personal und auch nicht genug Zeit, um diese Recherchen fortführen zu können und deswegen musst du die Computer benutzen, um ihnen die Arbeit ein bisschen zu erleichtern. Natural Language Processing ist perfekt dafür. Du schiebst einfach nur alle Dokumente, die du hast, dann in den Computer rein. Du musst sie vielleicht noch durch Schrifterkennung jagen und dann könnten ein paar Sachen vielleicht für dich arbeiten. Also du kannst zum Beispiel Entitäten extrahieren und da findest dann raus, dass diese Dokumente diese Entitäten enthalten und also es ist nicht nur President Obama oder Barack Obama und dann siehst du hinter welcher Dokumente über welche Entitäten reden. Du kannst extrahieren in einem E-Mail-Dump, wer mit wem redet oder auch Firmen haben. Das ist leicht, da raus zu ziehen mit Entitäts-Extractions-Techniken. Es gibt Themenmodellierung. Du kannst also sehen, es gibt diese Themen und es wird über diese Themen geredet und dann weißt du, ich muss nicht alles lesen. Wenn ich meine Recherche nur auf dieses Thema beschränken will, dann brauche ich auch nur diese Dokumente zu lesen und so werden Dokumente automatisch wirklich kategorisiert und Sprach-Tagging wird auch häufig benutzt, wenn du die Dokumente zum Beispiel Debatten anschauen willst, wenn du rausfinden willst, wer mit wem, worüber, wie redet, dann kannst du das mit Speed-Tagging sehr gut rausfinden und natürlich einfach nur Suche. Suche ist immer sehr nützlich, aber es gibt viele fortgeschrittene Suche-Auguritmen und Journalisten müssen sie nutzen, um aus diesen Dokumentschüben Sinn rauszuholen. Natürlich ist Dokumentensuche schon lange ein riesiger Bestandteil der Informatik. Heutzutage haben wir Solar, Elastic Search und weitere Suchmaschinen, die das relativ leicht machen, aber die sind für Programmiere gebaut. Also ihr als Entwickler benutzt sie und redet sie ein und konfiguriert sie mit einem eigenen Frontend obendrauf, damit andere diese Suche dahinter benutzen können. Journalisten wollen noch ein paar mehr Features haben und es gibt ein paar Anwendungen, die uns dabei helfen, zum Beispiel Document Cloud, das ist ein Server, da kannst du ein Haufen Dokumente reinladen und sie werden automatisch durch Super gemacht und Entitäten werden extrahiert. Du kannst sie für deine Leser veröffentlichen, damit die Leser lesen können. Document Modellierung, damit du in deine Dokumente leichter eintouchen kannst. Es gibt Blacklight, das ist ein Frontend of Solar, das ich meinen Journalistenkollegen geben kann und dann können sie sehr leicht die Suche von Solar benutzen. Und natürlich gibt es Google Refine, was häufig für Tabellendaten benutzt wird, aber es hat auch ein gutes clustering backend, damit kannst du Sachen deduplizieren, wenn du zum Beispiel eine Liste von Firmennamen hast und die sehr unsauber sind, dann kannst du sie damit zusammenführen oder zumindest deduplizieren und alle Firmennamen aufeinander zurückführen. Es gibt auch fortgeschrittenes Software, zum Beispiel IBM Watson, die ist aber sehr teuer und die meisten Journalisten haben sie entweder noch nie gesehen oder können sie gar nicht benutzen. Es ist sehr, sehr schwierig, sie in den Fingern zu bekommen und das ist ziemlich traurig, weil Journalisten auf diesen open source Werkzeugen sich verlassen müssen und davon gibt es nur sehr wenige. Der Informatikteil, ich werde in diesem Informatikteil vor allem über englische Sprachmodelle reden. Es gibt sehr schwierig deutsche Sprachmodelle zu finden, die schon irgendwo integriert sind, damit man sie in der Deutschmachung verwendet werden kann. Und ich hoffe, das verändert sich bald. Es gibt Machine Learning, das ist vor allem für Klassifizierungsaufgaben verwendet, das ist natürlich noch ein anderes großes Feld der Informatik und in der statistischen Analyse um rauszufinden, was in welche Kategorie gehört. Und es gibt natürlich neuronale Netze und Deep Learning, ihr seht es in diesem Bild, aber ich habe noch keine Journalisten gesehen, die das verwendet haben. Ich habe ein bisschen an was gearbeitet an einem neuronalen Netzwerk, um ein paar Captures, um ein paar Datenbanken besser scrapen zu können, aber das ist noch in der Mache. Hier ist eine Geschichte, die Natural Language Processing und Machine Learning benutzt hat, um Polizeiberichte der Polizei von Los Angeles zu durchsuchen, die über 25.000 Verbrechen falsch klassifiziert hat. Also wenn ein Polizist auf einem Tatort kommt, dann schreibt er einen Report, einen Bericht und der kommt später in eine Datenbank und wird dann von jemand anderem klassifiziert. Und sie, Klassenders Verbrechen, wird dann klassifiziert als weniger oder stärker schwer und die Los Angeles Times hat einen Machine Learning Klassifikator geschrieben, der sich die Beschreibung des Verbrechens anschaut und die tatsächliche und in einem Trainingsdataset, die eigentlich die vernünftige Klassifizierung angeschaut und das auf ein größeres Datensatz angewendet und das stellt sich heraus, dass 25.000 davon falsch klassifiziert sind und das kann man natürlich nicht von Hand machen, sondern das kann ein Machine viel leichter machen und es stellt sich heraus, dass tatsächlich viele Verbrechen falsch klassifiziert wurden und dass die meisten Verbrechen zu hoch eingeschätzt wurden und das kann man durch Fehlklassifizierung aber gut verdecken und das hat die Los Angeles Times gut aufgedeckt durch Machine Learning. Ja wir haben hier Friedrich Lindenberg aus einer seines Lieblingsthemen, also soziale Netzwerke eben zu analysieren. Das ist wirklich so der Grundstock von journalistischer Arbeit, also wir sammeln Informationen ein über bestimmte Entitäten und untersuchen eben die Zusammenhänge zwischen denen und das ist natürlich was, was man einfach in Grafen darstellen kann oder die Daten da einfließen lassen kann. Was daran schwierig ist, ist natürlich, dass das Ergebnis kein journalistisches Produkt ist, sondern erst mal nur eine Daten Darstellung, das ist natürlich auch sehr subjektive Art der Datensammlung, weil man natürlich nur bestimmte bestimmte Zusammenhänge weiter verfolgt und andere Dinge ausblendet und es ist insofern eher wie ein Wissenverwaltungstool, also dass man auch mit anderen Journalisten zum Beispiel besser zusammenarbeiten kann zu bestimmten Themen, aber so die Resultate sind jetzt nicht lupenreine journalistische Produkte und wenn ich jetzt die Eigen-Value-Werte darstelle, das sind meine Berechnungen, ich kann nicht berechnen, wer der üble ist in diesem Netzwerk, also da muss man eben obendrauf noch Journalismus machen und dann kann man eben den Grafen als Recherchegrundlage nehmen, um bestimmten Zusammenhängen mehr sozusagen klassischen Reportage-Tätigkeit, Investigativ-Tätigkeit nachzugehen und da eben noch was drauf zu setzen. Also wir haben, was das jetzt nicht mehr gibt, was das ZDF initiiert hat, das ist eben was eher fast künstlerisches. Also es ist eine Herausforderung, dass die auch soziale Verbindung so herzustellen, dass es eben für andere Leute verständlich ist. Also algorithmische Verlässlichkeiten mein wegen oder Verbindlichkeit, das ist ein Thema, da haben wir hier auch schon viel zugehört, immer mehr Algorithmen sind die Grundlage natürlich von allen Gadgets, die wir benutzen und natürlich auch unsere Entscheidungsfähigkeit, unsere ganzen alltägliches Leben auch beeinflussen. Natürlich haben wir auch Hacker hier zeigen, was wir reverse-engineered haben, das ist prima, aber das sind natürlich auch Techniken, die eigentlich dem Journalismus fehlen und das sind natürlich die Gehörn in the newsroom und gleichzeitig müssen Journalisten besser verstehen, wie sowas funktioniert und wie auch reverse engineering zum Beispiel ihnen nutzen könnte. In Washington gab es einen Kollegen, der viel in diesem Bereich gearbeitet hat, eine zum Beispiel Aktienhandel zwischen bestimmten Geschäftsmännern, Insider Trading, da kann man die Verbindung, Wertausch mit wem untersuchen und anderes Beispiel, iPhone, die Autokorrektur, man kann die Input beobachten, was passiert dann, was ist eine sinnvolle Verknöpfung. Meinetwegen auch die Preisunterschiede zwischen geografischen Online-Shops, also Amazon-Länder-Unterschiede bei Preisen, wie sich diese Verbindung darstellen lassen. Das sehen wir natürlich auch in der Bewegung, insofern rückt der Journalismus einfach der Wissenschaft näher, wird methodischer, also man hat eine Art Arbeitsriptese wie in der Forschung und vielleicht eine Arbeitsripte, ein Konstrukt, auf das man erst mal untersuchen muss, also meinetwegen es sind bestimmte Kinder, meinetwegen ausgeschlossen aus dem Bildungssystem, da muss man dann erst mal aber die Daten zu finden und das ist natürlich auch ein wissenschaftliches Vorgehen in dieser Weise und die wissenschaftlich verändert sich ja auch, dass sie transparenter wird. Hier seht ihr den Code, was eben für diese Geschichte tatsächlich auch eingesetzt wurde, Maschinen lernen und du kannst eben dieses Maschinen lernen, selbst ausführen, also selbst einfach diesen Klassefeier laufen lassen und das sind wieder kleine Datensätze, die einfach zum Training benutzt werden und dass man auch das selbst einsetzen kann. Und ähnliche Arbeitsweisen sehen wir ja auch in wissenschaftlichen Arbeiten, also viele Forschungspapers sind ja nicht, die Resultate sind nicht reproduzierbar oder sollten sie aber sein und vielleicht kann man das einfach quasi vermengen und andere an anderer Stelle implementieren und diese Resultate eben reproduzieren. Das ist jetzt Python Code, aber A ist natürlich eine der Lieblingssprachen für eben investigative Leute in diesem Datenbereich. Also was kann man denn in Software-Entwicklung überhaupt im Newsroom machen? Das ist überhaupt nicht so einfach, da haben wir natürlich Redaktionssysteme, das ist immer eine Schwierigkeit. Also eigentlich als Programmierer bist du immer in Aufruhr gegen gegen das CMS und viele Leute in Redaktionen, viele machen dann, kreieren einfach ihre eigenen Hacks damit sie innerhalb dieses CMS irgendwie weiterarbeiten können, aber das ist keine ideale Situation und das ist auch gar nicht worüber ich reden will. Das ist natürlich auch wir bauen Hilfswerkzeugkasten für unsere Lieblingsjournalisten, also es hat das, die natürlich hat die Software-Entwicklung nicht ihre Wurzeln in der Redaktions im Nachrichtendesk, aber du musst die Sachen nie wieder an, also es gibt einfach keine Dokumentation, also du schreibst den Code für eine Geschichte, dann wird die Geschichte geschrieben und es ist halt, als Programmierer ist das natürlich, geht einem das gegen den Strich, ich will natürlich mein Code wieder verwenden können und bug fix machen können, Dokumentation und nicht Millionen Male in tausend verschiedenen Artikeln eben, das ist eben was das würde man gerne brennigen und vielleicht eine Art eine Methodik sich überlegen wollen, eben um wie schreibe ich Software einfach, wenn ich im Newsroom sitze und im Moment haben wir eben denn die Hack, einfach die Hack-Situation. Ja Informatik Papers, ich gucke es mir gerne an und das sind gute Ideen und viele Beispiele, aber oft gar nicht Code und wenn doch dann nicht unbedingt welcher der läuft und um dann erstmal eine C Bibliothek zu kompilieren ist, das kann ich nicht an meinen Kollegen weitergeben, es ist nicht unbedingt dann weiterverwendbar, was ich zusammen kompiliert habe, wenn ich eben was im Bereich Informatik, also in der Forschung veröffentliche, dass es ein bisschen mehr Werkzeugcharakter haben könnte, dass es tatsächlich auch in mein Newsroom verwendet werden könnte. Und natürlich die Zusammenarbeit, die wir einfach aus der Open Source Community so sehr kennen, das ist in Newsroom völlig anders, gerade unter Investigativ-Journalisten-Reporter, lassen sich nicht in die Karten gucken und da ist ganz viel Wettbewerb untereinander. Wenn du in anderer Geschichte dran bist, dann hältst du den Mund und musst einfach zusehen, dass du das schnell veröffentlicht, bevor der die verbrannt ist. Und in der Open Source ist es eben komplett anders, es ist umso besser, je mehr Leute eben sich daran beteiligen, desto mehr Aufregung auch darum ist und deswegen hätte ich auch gerne einfach mehr dieses Konzept oder dieses Prinzip würde ich auch gerne öfter im Nachrichtlichen zu sehen, aber ich sehe es eben noch nicht ganz. Also wir sehen eine vereinzelte Beispiele zwischen New York Times, Washington Post oder auch zwischen einzelnen Nachrichtenagenturen. Und also wir von Korrektiv, wir arbeiten natürlich auch mit einzelnen Medien zusammen, die unsere Recherchen auch veröffentlichen, also die Idee der Zusammenarbeit, die eben aus der Software, aus der Open Source kommt und ich hoffe, dass sich das einfach auch übertragen lässt. Wir haben einiges Software und dann können wir sie eigentlich auch benutzen und wenn es keine andere Software gibt, dann kann ich nur das benutzen, was ich habe. Also da haben wir wieder das Problem mit dem Hammer und dem Nagel, das gibt es auch in einer Redaktion, hast du mal eine Karte in irgendeinem Nachrichtenartikel gesehen, jeder Menge Punkte drauf, das liegt daran, dass der Journalist eben dieses Werkzeug hatte und da eine Menge Daten reinkippen konnte und dann wurde halt eine Karte daraus, auch wenn es in der Geschichte überhaupt gar nicht sinnvoll ist oder Zeitstrahlen sind so ähnlich, es gibt ein einfaches Werkzeug, um Zeitstrahlen zu erstellen, dann hast du auf einmal ein Zeitstrahl, auch wenn es gar nicht in die Geschichte reintast. Es ist einfach das Werkzeug, das es gibt und ein anderes Werkzeug zu entwickeln passt dann vielleicht nicht mehr ganz in die Deadline oder vielleicht gibt es einfach nicht die Ressourcen dafür. Deswegen sage ich, dass wir ganz grundsätzlich mehr Anwendungen für unsere Gesellschaft brauchen und viele Fortschritte in der Informatik brauchen sehr lange, bis die Gesellschaft was davon hat. Wenn es zum Beispiel einen großen Fortschritt im Machine Learning gibt, dann weiß Google zuerst davon, weil sie die Forschung machen und sie die Anwendung bauen und andere große Firmen, zum Beispiel Palantir, die NSA oder AdCompanies Werbefirmen, die nutzen diese Forschung, um ihre Nutzer besser verfolgen zu können oder besser zu erreichen und sie haben sehr schnell was für diese Entwicklung, weil sie ihre eigene Entwicklung machen, ihre eigene Forschung machen oder weil sie mehr Ressourcen haben. Und die meiste Forschung kommt eben aus diesen Firmen wie Google zum Beispiel, letztens TensorFlow von Google veröffentlicht, es gibt andere Bibliotheken, aber das ist ein, die sehr leicht zu benutzen ist, das ist ein Vorteil, wenn sie besser dokumentiertes Anfahrt zu benutzen ist, aber es passt vielleicht nicht immer in die Arbeitsweise des Journalismus und deswegen braucht der Journalismus mehr Ressourcen, um seine eigenen Werkzeuge entwickeln zu können. Ich habe auch von DocumentCloud gesprochen oder OVV Docs, die sind ziemlich gut, die richten sich direkt an Journalisten und werden oft von Journalisten entwickelt und so passen sie sehr gut in die journalistische Arbeitsweise, aber das hat sechsstellige Beträge gekostet, die zu entwickeln über die Jahre und das alles nur, damit die Arbeitsweise richtig wurde. Also zum Beispiel Google Refine ist ein Werkzeug von unschätzbarem Wert für Journalisten, um Daten aufzubereiten. Das wird sehr stark genutzt, aber das wurde zuerst bei Google benutzt und dann als Open Source veröffentlicht und das bedeutet aber, dass es in den letzten zwei Jahren keinen einzigen Release bekommen hat und das ist sehr schade, dass wir nicht die Ressourcen haben, um an den Werkzeugen zu arbeiten, die wir als Journalisten täglich benutzen. Deswegen möchte ich euch bitten Journalismus zu unterstützen als Dienst in der Gesellschaft und Journalisten zu unterstützen ihre Werkzeuge zu entwickeln. Wir haben hier ein öffentliches Gut, nämlich Journalismus und wir versuchen der Öffentlichkeit zu dienen. Also zum Beispiel arbeitet in einer Redaktion, wenn ihr könnt, das macht wirklich Spaß. Also ich habe angefangen in einer Redaktion zu arbeiten, einfach nur weil ich dachte, dass es der beste politische Aktivismus ist, den ich machen kann mit der größten Einfluss und mich nicht nur auf technische Probleme beschränken sollte, wie zum Beispiel Vorratsdatenspeicherung. Denn in einer Redaktion bekommt man ein sehr breites Spektrum an Themen aus der gesamten Gesellschaft und kann es immer noch sehr gut Daten verwenden. Und wenn ihr mit Journalisten in Kontakt kommen wollt, dann gibt es etwas, das sich Hacks und Hackers nennt. Das ist ein Meetup, das gibt es in jeder größeren Stadt in Deutschland. Na gut, ich glaube es ist nur Berlin und Hamburg. Aber es gibt Datenjournalismus auch in NRW und wenn ihr von irgendwo anders kommt, New York oder London, dann gibt es Hacks, Hackers Meetups. Und da treffen sich Leute, um sich über Technologie im Journalismus zu reden. Und wenn ihr so einen Überblick davon haben wollt, was sich in dieser Welt tut, dann gibt man zu diesem Meetup und verbessert den Journalismus, in dem ihr eure Ideen beitragt. Vielen Dank. Ja, danke. Also es gibt noch Zeit für Fragen. Und es gibt schon eine aus dem Netz. Wo ist das Internet? Das Internet fragt eine ganze Menge Sachen. Die wichtigste Frage ist, ist deine Datamining Software frei verfügbar und wenn ja, dann sagt man ein paar Namen von den Werkzeugen. Also ich habe noch nie, also eigentlich immer Datamining Software geschrieben. Also du machst halt sozusagen für jede Geschichte einzelnen Skript, dass das macht, was du möchtest. Das hat natürlich Vorteile, aber Nachteile, dass du halt immer wieder schreiben musst und es nicht quick and dirty ist so easy. Also wir bei Untergitter slash korrektiv ist aber alles das, was wir machen. Also du kannst schon den Code angucken, also vor allem Frontend, aber auch Datensätze, also Stücke, Auszüge, die man sich auch angucken kann. Aber natürlich haben natürlich ganz viele Organisationen GitHub Repos, wo sie erklären, was sie eigentlich machen. Und der andere Punkt, also TensorFlow hatte ich ja schon erwähnt als Machine Learning Programm. Das für Journalisten gibt es unglaublich viel weniger Tools, also zum Beispiel eher Libraries, also Pandas als Python Library und ganz viele einzelne Packages, die auch angeboten werden, speziell für Datenanalyse. Das Problem ist aber natürlich, dass die Nerds die Minderheit sind in der Nachrichtenredaktion. Was heißt das? Also wenn die Journalisten das nutzen sollen, dann müssen da noch eben Tools draus gebastelt werden, die der durchschnittliche Redaktor nutzen kann, was auch immer die normalen Leute sind. Eine weitere Frage. Ja, vielen Dank. Du hast viel über Language Processing und Machine Learning Gerät und wir wissen natürlich, dass alle diese auch Fehler erzeugen und Sachen falsch klassifizieren. Und selbst wenn sie richtig klassifizieren, dann ist es sich immer leicht zu sehen, was die Klassifikation tatsächlich bedeutet. Also das hast du gerade bei den Grafen erzählt, dass man sich nicht nur die zentrale Person anschauen sollte. Also wie geht ihr mit diesem Risiko der Fehlklassifizierung um und auch der Illusion, dass die Daten euch wissen geben, dass sie eigentlich tatsächlich nicht hergeben? Ja, natürlich Sachen doppelt überprüfen. Das ist ja das, was man ohnehin normalerweise macht. Klar, die Daten bereinigen und bevor man sie reinkippt und natürlich einfach gewisse Standards einhalten und Fehler bewusst sein haben. Also oft hat man ja schon die Probleme in den Input-Daten. Also klar, mit Experten, das sind eigentlich, sind die Leute, die man dann fragen will, zu bestimmten Feldern und auch Transparenz herstellen. Wenn etwas, wenn eine problematische Geschichte stattfindet, dann kann auch natürlich von Lesern Input kommen oder Feedback. Und da kann man sich auch korrigieren. Also auch als Journalist musst du deine Ergebnisse ja überprüfen und dann auch vielleicht auf einen größeren Datensatz ausweiten. Und das ist nicht Ergebnisse, also man kann nicht hoffen, dass die Recherche Ergebnisse aus dem Rechner kommen, sondern trotzdem sind die Ergebnisse der Recherche immer noch aus dem Kopf eines einzelnen oder mehrerer Menschen. Vielen Dank. Ihr habt die Übersetzung des Vortrags.