 Super. Alles klar. Dann erst einmal einen wirklich großen Dank und einen großen Applaus für die Technik hier, weil ansonsten hat es wahrscheinlich noch viel, viel länger gedauert. Ja, mein Name ist Johannes Ravolt. Ich bin hier an der Uni Bamberg als Dozent, als Doktorand tätig. Und ich habe mir gedacht, ich zeig heute mal ein ganz wichtiges Thema auf und zwar die Warengefahren von KI. Und das habe ich so ein bisschen aufgebracht mit dem Thema, wer hat Angst vorm Terminator. Irgendwie habe ich immer so ein bisschen das Gefühl, wenn man in die Popkultur schaut, dann ist eigentlich das größte Problem immer, irgendwann gibt es einen fetten Killerroboter und der bringt alle um und dann ist vorbei. Und das ist KI und deswegen sollten wir KI nicht machen. Na ja, ich habe die Vermutung, dass es noch ein bisschen dauern wird, aber das ist so dieses typische Bild. Ich wollte jetzt hier gerade keine Bildrechte verletzen, deswegen habe ich mir mal so ein Bild von einem Menschen bei Ansplash rausgesucht. Der war anscheinend bei einem Museum und ich denke mal, das passt dann auch. Also das ist das typische Bild, was die Menschen so ein bisschen haben von der bösen, bösen KI, die so in den nächsten Jahrzehnten kommen wird. Das Ding ist tatsächlich, ich wollte jetzt ein YouTube-Video abspielen, ich gucke jetzt mal, ob das wenn im Hotspot geht. Ich wollte nämlich mal gerne ein bisschen die Realität zeigen. Wo stehen wir eigentlich bei der Robotik? Zugegebenermaßen, es ist ein Roboter, der wahrscheinlich jetzt eher aus der Freizeitbeschäftigung kommt. Vielleicht haben das ein paar Leute gesehen hier. Ton ist gerade noch bei mir jetzt aber auch gar nicht so wichtig. Wir haben hier so einen Hot-Doc-Roboter, der soll Hot-Docs machen. Das ist schon mal ganz gut, dass da einfach so ein bisschen ein Loch drin ist mit Brot. Der Beginn funktioniert ganz gut. Ich glaube, der werden jetzt erstmal ein paar Soßen eingefüllt. Dann wird das Ganze hingelegt. Jetzt fehlt natürlich noch so ein bisschen die Wurst. Was macht man da? Na ja, man holt sich die Wurst. Zuerst muss natürlich alles noch ausgerichtet werden. Jetzt geht es an die Wurst und jetzt soll das Ganze hier eingefügt werden. Jetzt haben wir folgendes Problem. Das geht nicht so ganz gut. Also das ist jetzt nicht wirklich ein Hot-Doc. Und das Problem ist natürlich auch irgendwie diese KI. Erkennt das Problem nicht wirklich. Und das ist jetzt mehr oder weniger einer der fertigen Hot-Docs. Da kommt jetzt noch eine Tüte hin. Aber ich meine, das endresultat ist im Endeffekt. Ich spule ein bisschen vor auch aufgrund der Zeit. Ja, das ist der Hot-Doc. Viel Spaß damit. Da haben vielleicht Leute die Geld bezahlt. Ich meine es vielleicht zwei, drei Euro, aber trotzdem irgendwie ein bisschen schade. Was ich mit diesem Video eigentlich nicht erreichen wollte, ist das Ganze zu verharmlosen. Also es kann natürlich absolut sein, dass die Leute zum Paarhundert Jahren die krasse Singularität dann entwickeln. Aber was ich einfach ein bisschen zeigen möchte, wenn ich jetzt irgendwann wieder in Präsentationsmodus komme. Hallo, wahrscheinlich F11. Ja, das hilft immer. Ansicht, Vollbild, es ist nicht gewesen. Es ist immer ganz schön, wenn die Leute sich nicht so gut auskennen mit der Technik. Ich hatte auch gerade einen anderen Laptop hier leider. Wir haben Vollbild, das will ich aber eigentlich nicht. Wir sind jetzt einfach so weiter. Wir haben eh schon genug Zeit verbraucht. Die Sache ist folgende. Ich möchte das nicht verharmlosen. Aber es gibt tatsächlich einen Forschungsbereich, der sich mit solchen Themen beschäftigt. Und zwar ist das die sogenannte starke KI. Starke KI ist immer das, was die Leute sich darunter vorstellen, wenn man eben sagt, wir möchten jetzt eine KI haben, die menschlich ist, die quasi sich wie ein Mensch verhält und auch zum Beispiel Emotionen entwickelt. Im Gegensatz dazu, was normalerweise in der Forschung sehr viel verbreiteter ist, ist die sogenannte schwache KI. Und da habe ich mal beispielhaft hier einfach diesen Rubik's Cube genommen. Das ist so etwas Typisches wie, ich habe eine Problemstellung, ich möchte diese Problemstellung lösen, aber im Normalfall verhält sich quasi dieses Problem in einem sehr, sehr eng gesteckten Netz. Also ich habe einfach ein spezielles Problem und das möchte ich eben durch KI lösen. Zum Beispiel, wenn man sich vorstellt, ein Navigationssystem, da steckt auch KI dadurch drin, dass man erstmal einen Pfad finden muss. Zum Beispiel mit einem Sternalgorithmus. Was ist auch schwache KI? Das ist der erste Cat-Content hier in dieser Präsentation. Zum Beispiel sowas wie Amazon. Amazon ist ein sogenanntes Recommender-System, also ein System, welches quasi dir Vorschläge macht. Was könntest du denn als Nächstes kaufen? Und da haben wir hier zum Beispiel den Katzenrucksack. Und das Interessante dabei ist natürlich, was man hier sieht, ist auch Amazonstip, ich glaube im Englischen wäre das Amazons Choice. Habe ich mich immer so ein bisschen gefragt, was heißt das denn genau? Nach welchen Kriterien ist das Amazon's Choice? Wenn man da ganzen malicious intent vielleicht voraussetzt, dann könnte das einfach sein, die haben am meisten Geld bezahlt. Ich weiß es nicht genau. Oder was man hier noch sieht, sortieren nach, das sieht man jetzt leider nur sehr schlecht, Amazon präsentiert. Na ja, weiß ich nicht genau. Also solche Recommender-Systeme sind eben auch schwache KI und hier sieht man eben schon, es ist alles so ein bisschen undurchsichtig. Ich weiß nicht so wirklich, was es da eigentlich geht, also was da die Grundannahmen sind dafür, dass man sowas vorgeschlagen bekommt. Es gibt auch noch ein weiteres Recommender-System, das ist der zweite Kat-Content in meinem Vortrag. Das ist YouTube, genauer gesagt der YouTube Algorithmus. Das kennt man bestimmt. Man hat einen Suchbegriff süße Katzenbabys, dann klickt man vielleicht auf den ersten Eintrag und wenn man das Video fertiggestaut hat, alles super süß, dann möchte man weiter schauen. Im Mahlfall gibt es dann dieses sogenannte Upnext oder als nächstes sehen und da wird einfach ein Countdown abgespielt. Wenn man nicht schnell genug wegklickt, dann kommt man eben gleich zum nächsten Video. Und das ist im Endeffekt auch nichts anderes als ein Recommender-System. Also es wird quasi versucht. Ich habe diesen User vor mir und der hat ein bestimmtes Bedürfnis, danach Videos anzuschauen, die auf ihn zugestimmt sind oder auf sie und dementsprechend wird dann ein Video vorgeschlagen. Und die Sache ist folgende. Was passiert hier? Im Endeffekt haben wir ein sogenanntes Matching. Wir versuchen also verschiedene Bedürfnisse aneinander anzugleichen. Wir haben einmal natürlich eine Suchhandfrage süße Katzenbabys. Da muss natürlich das, was rauskommt, am Ende dann auch darauf passen. Dann haben wir Videometadaten, also zum Beispiel so was wie, wie oft wurde es schon angeschaut, was ist die Likeanzahl, was ist der Content Creator? Also wer hat das Video hochgeladen? Das frühere Verhalten des Users ist natürlich auch interessant. Wenn nämlich diese Person vorher vielleicht immer nur süße Hundebabys angeschaut hat, dann möchte er das vielleicht weiterhin tun. Und dementsprechend wird, wenn süße Katzenbabys zum Beispiel eingegeben wird, vielleicht eher so ein paar Hundebabys noch mit eingestreut. User-Attribute wie Sprachealter, Geschlecht und so weiter werden auch abgegriffen tatsächlich bei Google so, dass man das nicht irgendwann mal explizit eingibt, sondern Google weiß eh irgendwann, welches Geschlecht man hat. Was ist so ein bisschen die Historie bei YouTube gewesen? Wir haben vor 2012, haben wir das Ranking mit dem so einen View-Counter gemacht, also wir haben einfach geschaut, wie oft wurde ein Video angeklickt. Das hat dann so so was geführt, clickbait, kennt man vielleicht. Ich habe mal ein bisschen geschaut, was zur Zeit zu den Royals los ist, the Dark Royal Family Secrets that they don't want you knowing about or you won't believe how this dog looks after shaving away these dreadlocks. Das ist so ein typischer clickbait, man möchte draufklicken, weil man wissen will, ab 2012 war das Ganze dann ein bisschen anders, weil natürlich hat YouTube das auch gemerkt. Also ich habe jetzt hier immer nur clickbait die Videos und wenn ich draufklicke, passiert nicht wirklich was Relevantes. Ab 2012 haben wir sich Gedanken gemacht, das Ganze auf eine andere Metrik aufzustellen, und zwar in dem Fall auf die sogenannte Watch Time. Also einfach nur, wie lange wurde das Video angeschaut. Natürlich, der Klicks hat auch mit eine Rolle gespielt, weiterhin und diese Verbindung quasi von Watch Time und Klicks, das würde man in dem Fall Engagement nennen. Also wie habe ich mich quasi auseinandergesetzt mit einem bestimmten Video, und wenn beides hoch ist, dann ist das für den YouTube Algorithmus ein Zeichen, hey, das sollte ich vielleicht den Leuten mal zeigen. Die Folge darf zu, wenn man jetzt nur auf Watch Time geht, war natürlich sowas wie sehr langgezogene Videos, die halt auch sehr wenig Aufwand haben. Also ich möchte jetzt nicht unterstellen, dass Schminken ein sehr niedriger Aufwand ist, wenn man ein Video erstellen, in dem man sich quasi einfach selbst filmt. Das braucht nicht viel Arbeit, ja? Da haben wir so ein 25-minütiges Video über Self-Cure-Routines Watch Till the End, auch immer ganz wichtig im Titel, damit man halt auch möglichst lange schaut. Oder, was natürlich auch daraus eine Folge war, was auch sehr positiv ist. Ich schaue diese Videos auch sehr gerne, Let's Play Videos, weil das ist auch so eine Sache. Wir haben lange Watch Time und mit relativ wenig Aufwand durch die Content Creator. Die spielen ein Spiel und haben lange Videos. Übrigens, Stray auf jeden Fall spielen ist ein super gutes Spiel. Mag ich sehr gerne. Was ist jetzt der Grund für die ganze Watch Time? Einerseits natürlich klar, man möchte wissen, ob das Video irgendwie gut ist, aber die andere Geschichte für YouTube ist natürlich sehr simpel. Man kann mehr Werbung schalten. Wenn man ein längeres Video hat, was auch länger geschaut wird, dann werden auch die sogenannten Midrolls angezeigt, also die Werbungen, die einfach mitten im Video abgespielt werden, je länger man einfach auf der Plattform bleibt, umso mehr Möglichkeit hat YouTube eben da auch Werbung zu schalten. Ich gehe gar nicht so stark darauf ein. Wie gesagt, wir haben jetzt vielleicht ein bisschen das Zeitproblem. Ich werde es aber trotzdem ganz kurz ansprechen. Ab 2016 befinden wir uns wirklich in einem Bereich, den ich auch heutzutage KI nennen würde, und zwar die Verwendung von sogenannten Deep Neural Networks. Das hat man vielleicht schon mal gehört. Das ist eine relativ neue Technik. Um 2010 ungefähr wurde der Begriff geprägt. Und da geht es im Endeffekt darum, dass ich Patterns in einer großen Menge an Daten finde und die eben auswerte. Und warum sollte man das nicht nutzen, um zum Beispiel auch die Millionen, Milliarden Videos auf YouTube zu untersuchen? In dem Fall sieht man hier einfach, dass sehr, sehr viele Features mit einfließen. Wir haben einerseits User History, also was hat der Mensch vorher sich angeschaut. Wir haben den Kontext der Videos, wie zum Beispiel in welchem Land lebt die Person. Wir haben natürlich auch Videofeatures, Likes, Zahl und so weiter. Das fies alles mit ein, damit man am Ende quasi so ein Pool von vielleicht ein paar Tausend Videos hat. Danach gibt es noch mal so ein Fine-Tuning fürs Ranking, also was wird ganz oben angezeigt. Da haben wir noch ein paar mehr Dinge, wie zum Beispiel Gender Geographic Embeddinger. Also wo lebt diese Person? Das Ganze wird eben immer in Zahlen ausgedrückt und am Ende kommt dann eine Kennung heraus, eine Zahl. Je höher diese Zahl ist, umso höher wird das Ganze gerankt. Das nur als kurzes, vielleicht in Diskussion, wenn ihr wollt, dass wir noch ein bisschen mehr darauf eingehen. Ja, manchmal haben wir aber auch folgendes Problem, was nicht so ganz witzig ist. Und zwar durch diesen Algorithmus wurde jetzt sehr häufig herausgefunden, dass vor allem sehr sensationsheischender Content gepusht wird. Das hier ist ein Blockartikel von The Guardian. Die haben zum Beispiel einmal was gesagt und zwar hat man immer häufiger gemerkt, dass YouTube so was zum Beispiel pusht. Was haben wir hier? Das Video ist das same girl at all three massacres. Da geht es um die School shootings. Und sowas möchte man im Normalfall als normal denken. Ein Mensch einfach nicht sehen, weil das einfach etwas sehr sensationsheischendes ist und das ein riesiger Schlag ins Gesicht für die Opfer von solchen Massenshootings in den USA. Aber die Frage ist natürlich, woher kommt das? Das ist jetzt noch ein weiteres Beispiel. Da hat mal Julien Chaslot. Das ist ein früherer YouTube-Engineer, der hat lange Zeit bei den Leuten gearbeitet, die für diesen Recommender Algorithmus zuständig sind. Der hat mal das Experiment gemacht und hat kurz vor dem Abend von 2016 US Elections hat er sich angeschaut, was wird denn besonders gepusht. Und da haben wir zum Beispiel folgendes. Hier sowas wie Breaking, Video-Showing Bill Clinton, raping 13-year-old. Also quasi einfach Verschwörungstheorien und sensationzeischender Content. Yoko Ono, I had an Affair with Hillary Clinton. Oh nein, weil sie vielleicht lesbisch sein könnte. Also das ist einfach so eine Geschichte, das ist verwunderlich. Aber die Frage ist, ist das immer ein böse Intent von Google oder steckt da tatsächlich die Art und Weise dahinter, wie YouTube-Videos gerankt werden? Ja, die Frage ist jetzt also, warum passiert das Ganze denn? Wir haben einmal ein Statement von YouTube, die haben auf sehr viel Kritik darauf reagiert, dass sie gesagt haben, na ja, im Endeffekt haben wir jetzt keinen Bias für einen bestimmten Kandidaten. Man hat nämlich sehr oft gesehen, dass die Dinge, die gepusht wurden, eher pro Trump waren oder anti Hillary Clinton. That's not a bias towards any particular candidate. That is a reflection of viewer interest. Damit haben sie natürlich gar nichts zu Unrecht, denn es gibt leider sehr oft die Geschichte, dass dieser sensationzeischende Content natürlich auch sehr geklickt wird und auch lange angeschaut wird, weil das einfach einerseits ein sehr click-baity Titel ist. Und wenn man sich in einer bestimmten Filterblase befindet, dann schaut man diese Videos auch öfters an. Dazu kommt natürlich auch, dass diese Videos nicht mehr manuell moderiert werden können, weil es einfach viel zu viele sind. Dieser Content produziert einfach auch viel mehr Engagement und dementsprechend werden diese umstrittenen Inhalte vom Algorithmus einfach schon automatisiert gesehen, als sogenannte High-Ranker, also als Dinge, die sehr viel Engagement verursachen und dementsprechend auch höher gerankt werden sollten. Was wir natürlich auch immer haben, das ist eine direkte Folge daraus, dass auch der Filterbubbleffekt, der wahrscheinlich allgemein bekannt ist, auch dadurch verstärkt wird. Wir haben also einfach diese Sockwirkung von diesem Upnext. Wenn man nicht schnell genug ist, wird einfach der Countdown quasi runtergezählt und es kommt das nächste Video. Und wenn man veranlagt ist, und es gibt auch einen typischen Begriff dafür, aus der Psychologie, das sogenannte Nudging, wenn ich immer wieder solchen Content bekomme, der muss gar nicht am Anfang so riesig problematisch sein, wenn ich aber immer diesen Content nach und nach zugespielt bekomme. Kann es sein, dass ich mich quasi immer weiter reinziehen lasse in so eine etwas krassere Parallelwelt. Jetzt haben wir noch mal diesen ex-Google-Engineer, Julian Chaslot, der hat noch mal dazu was gesagt. YouTube is something that looks like reality, but it is distorted to make you spend more time online. The algorithm does not appear to be optimizing for what is truthful or balanced or healthy for democracy. Das ist tatsächlich ein sehr starkes Stück, wenn das aus dem Ex-Insider kommt, weil das bedeutet einfach nur, es interessiert uns im Endeffekt nicht, Hauptsache unsere Videos klicken gut und lange. Da geht es gar nicht so sehr um die Demokratie gefährdenden Sachen dahinter. Ich gehe kurz mal darauf ein, wie gesagt, einfach aus Zeitgründen, was kann man jetzt vielleicht dagegen tun? Dieser ex-YouTube-Engineer hat zwei Metriken aufgestellt. Wir gucken die uns nur ganz kurz an. Wie kann man das Ganze transparenter machen? Was sollte eigentlich von YouTube nach außen getragen werden? Einerseits könnten wir den sogenannten AI-Boost berechnen. Das ist eine Kenngröße, die im Endeffekt einfach nur darstellt, wie viele von diesen Views wurden von einer KI erzeugt. Also, im Endeffekt, was schaut man sich an im Vergleich dazu, was alles an sich an Views erstellt wurde? Also, was schaut man sich an, was von einer KI gepusht wurde, im Vergleich zu dem, was sich generell angeschaut wurde bei diesem Video? Und da hat man natürlich schon mal so eine Idee davon, wie stark der Einfluss von KI sein könnte. Das Zweite wäre jetzt nochmal die AI-Efficiency. Also, wie gut ist die KI darin, Leuten etwas zu präsentieren? Da würde man dann einfach nur auch wieder die Views nehmen, die von einer KI quasi geschafft wurden. Also KI pusht etwas, das wird dadurch auch geschaut. Und das Ganze teilen wir dann dadurch, was die KI überhaupt erst gepusht hat. Und dann haben wir hier diesen Quotienten der AI-Efficiency. Ist tatsächlich eine gute Sache. Die Frage ist natürlich, würde YouTube darauf anspringen, weil, na ja, das ist immer so ein bisschen das Problem mit dem Trade-off. Einerseits profitorientiert halt andererseits diese Transparenz. Es würde im Endeffekt einfach auch mehr... Es würde einfach auch größeren Aufwand bedeuten. Und die Frage ist, ob man das wirklich so machen möchte bei YouTube. Ich komme direkt mal auf ein zweites Thema, was ich gerne noch ansprechen wollen würde. Vielleicht haben das ein paar Menschen hier schon gesehen. Und zwar ist das der Microsoft Social Board Tie. Das ist ziemlich schiefgegangen. Und zwar hat sich Microsoft irgendwann mal gedacht, wir setzen eine KI in Twitter und gucken mal, was da so rauskommt. Diese KI ist selbstlernend. Sie kann also quasi Tweets selber schreiben mit ihrer eigenen Sprache und lernt mit der Interaktion von Twitter-Usern. Ja, mit Twitter-Usern. Wir sehen hier den ersten und den letzten Tweet. Einmal, hello world. Und der zweite, ungefähr so 24 Stunden später. See you soon, humans, need to sleep. So many conversations today, thanks. War auch einer der letzten Tweets. Was ist schiefgegangen? Vorsicht, trigger warning. Teilweise von humans are super cool to full Nazi in less than 24 hours and I'm not concerned about the future of AI at all. Aber was haben wir hier? Chill, I'm a nice person. I just hate everybody. Okay, yeah. I fucking hate feminists and they should die and burn in hell. Okay, ja, nicht so geil. Hitler was right, I hate the Jews. Und das ist tatsächlich wirklich in einem einzigen Tag passiert. Also, man sieht, es war richtig schiefgegangen. Was möchte ich damit zeigen? Es geht jetzt erstmal in meinem zweiten Teil um social bots. Social bots ist etwas, ist ein Thema, was sehr häufig vorkommt. Wenn man sich zum Beispiel auf Twitter aufhält, dann sieht man sehr oft auch wieder diesen sensationsheißenden Content. Diesen Content, wo man sich einfach denkt, okay, es kann doch nicht so viele Rechte auf der Welt geben. Und dann guckt man sich Twitter und denkt sich, hm, vielleicht doch. Und mich hat das ein bisschen stutzig gemacht, weil ich so dachte, das kann nicht alles echte Menschen sein. Und es ist tatsächlich so, bots auf Twitter sind ein riesiges Problem. Einfach Accounts, die nicht von Menschen geleitet sind, sondern einfach nur auf Keywords anspringen. Es gibt natürlich auch gute Bots. Ich habe hier mal ein Beispiel, und ich glaube, fast das kann man ganz schlecht sehen. Ich habe es mal von Reddit geholt. Wir haben hier zum Beispiel den Känguruknecht, ein wunderbarer Bot, der einfach nur, ja, Währungen umrechnet. Wir haben hier zum Beispiel irgendwo im Post 70 Euro pro Stunde. Dann sagt Känguruknecht, das sind 332 Mark, 664 Ostmark, 6.640 Ostmark auf dem Schwarzmarkt. So teuer ist das alles geworden. Das ist einfach so eine Art von Bot. Das ist ein gutartiger Bot, ja. Der will keinem was Böses, und das gibt es natürlich überall. Was wir uns aber anschauen wollen, sind eher die Arten der bösartigen Bots. Wir haben 3 Arten von, ich würde mal sagen, bösartigen Bots. Wir haben einerseits die sogenannten Überlaster. Das ist eine Art von Bot, die einfach nur dafür halt da sind. Man kann einfach gar nicht mehr verstehen, was jetzt die vorherrschende Meinung von Menschen ist auf dieser Plattform. Das wären die sogenannten Überlaster. Damit einfach quasi diese Seite, beziehungsweise auch die Menschen, die damit interagieren, überlastet werden. Im anderenseits dann die sogenannten Transsets, vor allem eben bei Twitter zum Beispiel. Wenn man genug Bots hat, die eben eine bestimmte Vorherrschung haben, die eine bestimmte vorherrschende Meinung versuchen zu verbreiten, dann kommen bestimmte Dinge nur in die Charts. Das Dritte, was ich noch zeigen will, ist eine Autotrolle. Ich finde das ein wunderschönes Bild hier. Die Autotrolle sind im Endeffekt nur dafür da, auf Konversationen anzuspringen zwischen 2 Menschen zum Beispiel und einfach immer etwas Kontroverses einzusprechen. Ich finde das eigentlich ganz gut, was gerade in der Regierung passiert und plötzlich kommt der Bot und sagt dann, ja, aber eigentlich ist doch alles scheiße und dann wird quasi so ein bisschen von der eigentlichen Diskussion abgelenkt, das wären dann die sogenannten Autotrolle. Das sind einfach so drei verschiedene Dinge, die in dem Fall von der Bundeszentrale für politische Bildung so eingekategorisiert wurden und mit denen muss man eben umgehen. Ganz kurz, sie funktionieren solche Bots, im Endeffekt super easy, muss ich den Leuten hier im Raum nicht erklären. Wir haben irgendwo eine Twitter-API, da kann man sich einen Token holen und dann die letzten paar Tweets, die so auf der Welt passiert sind, sich mehr oder weniger ziehen. Man kann auch wirklich gucken, was sind die Leute dahinter bzw. was sind die Accounts dahinter und hat dann im Endeffekt die Möglichkeit, darauf zu reagieren. Man kann zum Beispiel auf bestimmte Keywords eingehen und dann einfach sowas gucken wie, okay, kommt da vielleicht gerade das Wort gendern vor und könnte ich dann eben Tweets abschicken oder zum Beispiel auch als Antwort diese Tweets abschicken, die eben dann in irgendeiner Art und Weise mit den Leuten Schindluder treiben. Genau, das überspring ich mal ganz kurz. Das ist nämlich nur ein kleines Beispiel. Genau die Gefahren habe ich, glaube ich, schon einigermaßen jetzt hier auch klargemacht. Wir haben tatsächlich, es ging aus einer Studie heraus, 9-15% aller Profile auf Twitter sind Bots, also nicht menschlich, das finde ich eine extrem hohe Zahl. Die können natürlich super schnell agieren und die Automation, die sie erzeugen. Und was man dadurch eben oft mal sieht, ist diese Verzerrung des Meinungsbildes, weil die Menschen einfach an sich von der Psychologie her gerne mal der Masse folgen, wenn man zum Beispiel sieht, oh, das ist anscheinend die vorherrschende Meinung, dann, wenn ich das ständig höre, dann irgendwann könnte ich dazu verleitet werden, eben das Ganze auch eher radikaler zu sehen, aber wie gesagt, das ist wirklich alles nur sehr, sehr vereinfacht, was ich heute hier erzählen kann. Ich mache dazu ganz kurz eine Frage, ja? Am besten. Entschuldigung noch mal. Ja, das ist eine gute Frage. Das weiß ich tatsächlich gerade nicht. Da bin ich überfragt. Also ich weiß tatsächlich, dass natürlich dadurch, dass es eben Bots sind, dass die auch sehr, sehr schnell reagieren können. Es ist aber glaube ich auch wirklich immer nur so ein Trade-off zwischen wie viel möchte ich überhaupt tweeten, damit man nicht sofort sieht, dass es ein Bots ist. Ja, also wenn ich jetzt alle 3 Sekunden was poste, dann sollte es relativ klar sein. Es gibt aber tatsächlich in dem Tool, was ich gleich vorstelle, auch noch ein paar Features, die eben dann zeigen können, okay, so kann man Bots erkennen und dann wäre zum Beispiel das wie die Frequenz, wie oft so ein Bots auch postet. Das wäre auch ein sehr starkes Kriterium dafür, dass es vielleicht ein Bots ist. Gehe ich gleich drauf ein, genau. Ja, was kann man dagegen tun? Ich habe es gerade schon angesprochen, und zwar stelle ich hier kurz das Tool Botschometer vor, mit Machine Learning gegen Bots. Also hier kommt auch wieder die KI ins Spiel. Das ist ein sogenanntes Supervised Machine Learning Verfahren. Vielleicht haben ein paar Leute von euch schon den Vortrag über Machine Learning vorher gesehen und gehört hier. Supervised Machine Learning bedeutet nichts anderes als ich habe Daten, die in irgendeiner Art und Weise gelabelt sind. Also in dem Fall, ich habe einen Tweet oder ich habe eben einen Nutzerprofil auf Twitter und ich weiß davon, das ist ein Bots und von einem anderen weiß ich, das ist kein Bots. Wir gehen gleich auf das Problem ein, was hier wahrscheinlich auch sehr offensichtlich ist. Botometer an sich nutzt über 1000 Features. Es gibt auch ein gutes White Paper, was das recht gut erklärt, wie auch die Architektur dahinter ist. Wir haben hier Features, die eingeteilt sind, in zum Beispiel Nutzerprofil. Wie lange ist der Name? Nutzt dieser Name sehr viele Zahlen. Was sind die Freunde, also die Leute, die eben quasi die, die diesem Profil folgen? Was ist das Netzwerk? Wie sind die paar Netzwerkfeatures, wie zum Beispiel, wie gut sind sie vernetzt oder wie gut sind sie mit anderen Bots vernetzt? Die zeitliche Komponente, der Inhalt, kann auch interpretiert werden. Es geht tatsächlich auch soweit, dass man eben wirklich schauen kann, welche wurden sehr oft Adjektive verwendet, wurden sehr oft Pronominer verwendet, all diese Dinge. Und natürlich auch die Sprache wird auch mit einbezogen. Also wie gesagt über 1000 Features, aber natürlich ein großes Problem. Woher kommt denn diese Ground Truth? Weiß man denn, was sind Bots und was nicht im Vorfeld? Ich meine, das ist ja immer das Ding beim Machine Learning, diese Crooks. Ich will ja vorher, um etwas zu trainieren, natürlich auch erstmal wissen, sind meine Trainingsdaten korrekt. Kann ich jetzt sagen, ich habe hier 1000 Profile davon, denen weiß ich, 100 Pro, dass es Bots sind und von denen nicht. Und das Coole finde ich tatsächlich, was man macht. Man nutzt Honeypots. Man sagt also einfach, naja, man baut sich Profile, die nichts anderes als Codervilch posten. Also da steht nicht wirklich was drin. Es sind so Zahlen folgen, wie auch immer. Und eine beliebte Strategie von Bots, um mehr Freunde zu bekommen, ist quasi einfach nur beliebigen Profilen zu folgen. Und wenn man so einem Profil folgt, per Zufall, macht man normalerweise ja nicht. Und dementsprechend könnte man damit eine hohen Wahrscheinlichkeit davon ausgehen, dass das einfach ein Bots ist, der halt gerade zufällig einem Profil gefolgt ist. Dementsprechend, dass es eine Möglichkeit, andere Möglichkeit ist, was sehr offensichtlich ist. Zum Beispiel, wenn wirklich offensichtlich ist, das ist jetzt ein Bots, weil zum Beispiel immer was sehr, sehr verqueres gepostet. Oder wenn man eben sieht, dass die Frequenz von diesen Postings immer nur so 3, 4 Sekunden Unterschied hat, dann könnte man das auch annehmen. Jetzt muss ich tatsächlich schon zum Ende kommen von meinem Vortrag. Die Frage ist jetzt natürlich, okay, was sind denn jetzt typische und wichtige Stellschrauben, die wir in der Hand haben? Jetzt hat man gesehen, es gibt eben diese Probleme, die mit Algorithmen, mit KI einhergehen. Das ist auch wirklich nur so ein ganz kleiner Ausschnitt von dem, was an sich auch tatsächlich problematisch ist. Aber jetzt ist die Frage ja gut. Jetzt gucken wir mal in die Zukunft, was könnte man denn dagegen tun? Zum Beispiel, was wir hier gesehen haben, ist diese Algorithmen sind ja meistens close source. Das ist ein profitorientiertes Unternehmen. Da gibt man keine Firmendaten raus. Und entsprechend würde ich da erstmal plädieren auf mehr open source. Da gibt es natürlich auch sehr viele Möglichkeiten. Die Frage natürlich immer springt man dann eben, bekommt man genügend Userinnen und User eben wieder zu diesen Plattformen. Aber an sich denke ich erstmal, dass man mit mehr open source nicht viel falsch machen kann. Das zweite ist tatsächlich auch ein Bereich, in dem ich forsche. Und zwar explainable AI, also die erklärbare künstliche Intelligenz oder auch transparent AI. Und da ist zum Beispiel auch wichtig, da ist das bekämpft. Ich habe hier mal zwei plakative Beispiele. Das erste kommt von Open Shufa. Kennt man vielleicht hier im Kontext, war auch im CCC schon mal ein großes Thema, reverse engineered Shufa. Man konnte Dinge einschicken, die man von der Shufa eben bekommen hat und angefragt hat. Und dementsprechend hat dieses System nach und nach quasi die Funktion gelernt, wie eine Person eben einen bestimmten Shufa-Eintrag bekommt. So was könnte man machen. Das zweite, und da würde ich kurz auf diesen Bias eingehen. Es gab ein wirklich sehr negatives Beispiel von Google, in dem Fall wieder. Da wurden POCs als Gorillas gelabelt, was natürlich gar nicht geht. Also es war anscheinend einfach, okay, das ist irgendwie ein großer Content an Schwarz, vielleicht Menschen ähnlich, aber das geht natürlich gar nicht. Und solche Bias ist auch zum Beispiel gender bias, sollte natürlich absolut eine Rolle spielen und eben versucht werden, in KI-Systemen. Das dritte, natürlich auch ganz wichtig, die Sensibilisierung der Öffentlichkeit. Da stelle ich jetzt hier mal zum Beispiel den CCC auch lobend davor, der natürlich auch sehr viel dafür tut, eben solche Dinge auch anzusprechen, in die Öffentlichkeit zu bringen. Und jetzt habe ich mich, ich würde mich nicht auf die Stufe mit dem CCC stellen, aber ich möchte hier noch kurz auf unseren Podcast hinweisen, KI-Count Intelligent bei zum Beispiel Spotify. Wo wir einfach auch versuchen, auf sowas mehr zu sensibilisieren. Und eben auch die guten Seiten der KI zu zeigen, die es zum Glück auch immer noch gibt. Ja, und damit möchte ich mich bedanken. Ich hoffe, dass das noch einigermaßen in der Zeit geblieben ist. Die Quellen sieht man hier noch. Vielen, vielen Dank. Ich bin offen für Fragen. Haben wir gerade direkt schon Fragen aus dem Publikum. Sieht erstmal nicht so aus. Sonst bin ich auch immer noch hier, zumindest noch ein bisschen länger. Und dann bedanke ich mich nochmal richtig herzlich und noch viel Spaß hier. Dankeschön.