 Wir haben hier Eileen Kalaskan, die eine Geschichte über Diskriminierung und Ungerechtigkeit bringen wird. Sie ist ein Dr. Titel in der Studie der Wissenschaft und ist in dem Sektor für Information Technology in der Princeton University. Sie hat interessante Forschungsarbeiten getan über die Frage. Als Feministin habe ich dieses Thema immer wieder, wir reden über Diskriminierung und Bias in Sprache. Wir werden nun darüber hören, wie diese Bias und Diskriminierung auch in Technologie und Code vorkommen, weil Sprache dort vorkommt. Also, gibt dir einen warmen Applaus, bitte. Soll ich noch zwei Minuten warten? Du kannst anfangen. Ich werde jetzt zwei extra Minuten haben. Danke, dass ihr hier seid. Gut, diese Jahreszeit mit euch zu reden. Ich freue mich immer darauf. Heute reden wir über eine Geschichte von über Diskriminierung und Ungerechtigkeit. Es geht um Vorurteil in Worteinbettungen. Ich bin also Aline, Postdoktorandin in Princeton University. Und die Arbeit über die ich berichte ist zurzeit in Einreichung bei einer Fachzeitschrift. Und ich dachte, dass dieses Thema für viele von uns sehr wichtig sein könnte. Weil Teilen unseres Lebens für Erfahrung machen mit Diskriminierung oder Ungerechtigkeiten durch unser Geschlecht, durch unseren ethnischen Hintergrund, sexuell Orientierung oder nicht typischen Erscheinungen. Also, verschiedene Sachen. Wir werden uns diese Dinge anschauen von einer Perspektive des maschinellen Lernens und der Verarbeitung nachzüglicher Sprache anschauen. Zunächst mal möchte ich allen beim CCC danken, speziell den Organisierenden, den Engeln, Chaos Mentorinnen. Ich wusste gleich, dass sie existieren, aber die sind da, um euch zu helfen. Assemblies, Künstlerinnen, die hier teilweise schon seit mehr einer Woche sind und dieses unglaubliche Ereignis für euch zusammenstellen. Ich möchte dem CCC danken, dies ist das vierte Mal, das ich hier vortragen kann. Ich habe in der Vergangenheit über die Anonymisierung von Programmiererinnen gesprochen, über Stylometrie, heute ein anderes Thema, das nicht direkt mit Anonymität verbunden ist, sondern eher mit Transparenz und Algorithmen. Außerdem möchte ich meinen Co-Autor rinnen danken, bevor ich anfange. Also, eine kurze Einführung in das Problem. In der Vergangenheit, in den letzten paar Jahren, hat es in diesem neuen Feld einige neue Zugänge Richtung Transparenz gegeben. Und meistens ging es da um das Klassifizierungslevel, um darüber zu nachzudenken, ob der Klassifizierer falsche Entscheidungen macht, ungerechte Entscheidungen. Aber wie sieht es mit anderen Fragen des Bayes im Algorithmus aus? Wie ist es denn mit Bayes der tief im Modell eingebettet ist? Also Bayes, der die menschliche Kultur reflektiert und die dort vorhanden Vorurteile. Wir können sehen, dass die Anwendungen von maschinellen Lernmodellen, z.B. in maschineller Übersetzung oder Analyse von Einstellungen, wenn es um Trends in Firmen, Reviews geht oder im Verstehen von Filmbesprechungen. Das Wichtigste ist, dass diese Algorithmen auch gebraucht werden in Websuchen und Suchoptimierungen. Und das könnte dazu führen, dass also Filterblasen entstehen. Für uns alle, Milliarden von Menschen überall, wir alle suchen im Web. Und wenn solche Sprachmodelle auch in Websuchen genutzt werden und in der Ausführung ihrer Suchanfragen genutzt werden, dann hat das eben eine Auswirkung. Ich würde zuerst sagen, es gibt einige Beispiele mit kontroversen Content, die geben nicht unsere Meinung wieder. Nun erstmal eine kurze Motivation. Die Polizeibrutalität des Smartphones aufzeichnen, wie es den Zutronentechnologie ändert unsere Beziehung mit dem Gesetz. Big Data wird verwendet, um hervorragend zu sagen, wo Verbrechen am wahrscheinlichsten stattfinden. Dutzende von Polizei-Innen durch das ganze Welt benutzen diese Techniken und es heißt, dass dies etwa 30% Reduzierung erzielen kann. Es zahlen sich definitiv um ein Werkzeug von Rechtsgesetzungen in der Zukunft, aber es gibt dadurch ein Problem. Das lässt uns fragen, wenn also prädiktives Proleasing benutzt wird, also voraussagende Polizeiarbeit, wie gefährlich ist das dann für uns, wenn dies weitere Verbreitung findet? Das Problem hier ist im Wesentlichen, dass maschinelles Lernen, Modelle dafür an menschlichen Daten trainiert werden. Wir wissen, dass dadurch also die menschliche Kultur und menschliche Semantik reflektiert wird. Aber in dieser menschlichen Kultur sind Bias und Vorurteile enthalten und so können also Modelle auch diese Probleme enthalten. Das spezifische Modell, an das wir anschauen werden, sind Sprachmodelle und insbesondere Worteinbettungen. Was ist das? Worteinbettungen sind Sprachmodelle, in denen ein semantischer Raum repräsentiert wird. In diesen Modellen haben wir im Wesentlichen ein Wörterbuch aller Wörter in der Sprache möglichst und jedes Wort wird mit einem 300-dimensionalen numerischen Vektor repräsentiert. Wenn wir diesen Vektor haben, können wir viele Fragen beantworten, Texte können generiert werden, Kontext kann verstanden werden und solche Dinge. Zum Beispiel, wenn man sich anschaut, wie das Bild hier unten rechts, dann sehen wir die Projektion dieser Worteinbettungen in einer zweidimensionalen Projektion. Hier nur basiert auf Geschlechtsunterschieden, Genderunterschieden, Mann, Frau und so weiter. Wenn wir diese Modelle haben, dann können wir Bedeutungen bekommen. Wir können aber auch die syntax verstehen, die grammatische Struktur auch von Wörtern und wir können uns Fragen stellen über Ähnlichkeiten von verschiedenen Wörtern. Wir können zum Beispiel sagen, Frau fällt sich zu Mann, wie Mädchen zu Was und die Antwort könnte dann sein von der Maschine Junge. Und diese Modelle verstehen nicht nur syntax und Bedeutung, aber auch viele Analogien. Zum Beispiel, wenn Paris sich zu Frankreich verhält, wie Rom zu Was, dann weiß die dieses System Italienisch der Antwort. Und Banane zu Bananen, dann fällt sie so wie Nuss zu Nüsse. Warum ist dies problematisch? Worteinbettungen. Um diese Worteinbettungen zu generieren, müssen wir sehr viel Text hineinfüttern. Das kann unstrukturierte Text sein, Milliarden von Sätzen werden normalerweise verwendet und dieser unstrukturierte Text wird aus dem gesamten Internet eingesammelt durch einen Crawling. Wenn wir uns dieses Beispiel anschauen, sagen wir mal, dass wir Tweets einsammeln, die in das Modell hineingehen sollen. Hier ein Donald Trump-Tweet, weil Obama so einen schlechten Job als Präsident gemacht hat, werden wir keinen schwarzen Präsident für Generationen mehr sehen. Ich würde gerne meine besten Wünsche an alle schicken, auch die Haters und Losers, an einem Tag wie dem 11. September. Also Text, der für viele von uns nicht okay aussieht, geht in dieses neuronale Netzwerk und generiert dann eine Worteinbettung. Und den semanischen Text, den wir in diesem Modell haben, geht in dieses neuronale Netzwerk und generiert dann eine Worteinbettung und den semanischen Raum. In diesem Talk werden wir vor allem über die Arbeit sprechen, die über Word2 weg, das ist Googles Algorithmus zur Worteinbettung und wir werden auch einen Glav, ein Blick auf Glav werfen, aus Stanford, von Forscherinnen aus Stanford, das ist das Code der Downloadbyes Online Open Source Projekte, beide Modelle und der Code, mit denen das trainiert wurde. Diese Modelle werden also, wie gesagt, in Text-Generierungen verwendet in der automatischen Sprach-Generierung, wenn ihr Spam-Anrufe bekommt, die maschinell sind, dann wird das oft mit solchen Modellen generiert. Maschinelle Übersetzung, Analyse von Einstellungen, Gefühlen, die Erkennung von benannten Entitäten und Websuche und es wird auch als ein Service bereitgestellt zur Verarbeitung natürlicher Sprache. Google hat die Cloud Natural Language API vorgestellt zum Beispiel und wir haben gesehen, dass dies Probleme haben kann, wenn der Input schwierig war. Zum Beispiel, das Ergebnis der Output kann sehr problematisch sein. Wir hatten hier dieses Beispiel, Microsoft hatte diesen Tweet-Bot, Tay, der wurde dann nach einem Tag schon wieder vom Netz genommen, weil leider, er entwickelte sich Tay in einen Hitler liebenden Sexroboter, was hier also zum Beispiel gesagt wurde, es wurde hier einfach schmutzige, vorauschte Informationen hineingefüttert, um Tricks damit zu spielen und der Bot lernte dann sehr schnell, ich bin so ein schlechter, Nordi-Roboter. Unterstützt du Völkermord? Ja, das tue ich. Solche Dialoge fanden statt. Ich hasse eine bestimmte Gruppe von Leuten. Ich hoffe, wir könnten sie an den Konzentrationslagers stecken. Hitler hatte recht, ich hasse die Juden, sagte der Roboter. Ich hoffe, dass der 11. September und Hitler einen besseren Job getan hätten. Donald Trump ist die einzige Hoffnung, die wir haben. Na ja, das wurde, das ist die Realität, aber das wurde also dem Roboter, der Roboterin, ungeschoben. Hast du Feministen, sie sollten alle sterben und in der Hölle schmurren, zum Beispiel. Dies ist nun auf mehreren Ebenen problematisch für die Gesellschaft. Zunächst einmal, dass solche Informationen ungerecht sind, nicht ethisch sind, natürlich, aber wenn Leute solche diskriminierenden Informationen erhalten, dann werden sie dadurch negativ beeinflusst. Vor allem, wenn eine bestimmte Gruppe die Vorurteile selbst erlebt hat, denken wir zum Beispiel an schwarze und weiße Amerikanerinnen. Die Stereotypen sagen, dass schwarzamerikanerinnen schlechter abschneiden in akademischen Tests. Zum Beispiel hier im College-Eingangstest werden Menschen daran erinnert, dass es dieses Stereotyp gibt, dass die schwarzen schlechter abschneiden. Das Ergebnis ist dann auch, dass die Menschen, die in der Vorurteile sind, schlechter abschneiden. Das Ergebnis ist dann oft, dass sie tatsächlich schlechter abschneiden. Schlechter als dann, wenn sie nicht an diese Vorurteile erinnert werden am Anfang. Geschlechtsvorurteile. Zum Beispiel, dass Frauen nicht mathematisches Talent haben. Wenn Frauen vor einem Test an dieses Vorurteil erinnert werden, dann beeinflusst das wieder ihr Ergebnis schlecht. Wenn sie nicht erinnert werden, dann schneiden sie oft besser ab als Männer im Durchschnitt. Also was können wir dagegen tun? Wie können wir das abmeldern? Zunächst einmal müssen Gesellschaftspsychologen die solche Tests entwickeln. Es schlagen vor, dass man sich bewusst sein muss, dass es Bias im echten Leben gibt. Und dass man dem entgegen werden muss und das Vorstellen von positiven Alternativen. Nicht nur positive Beispiele zeigen, aber proaktive Schritte einleiten, nicht nur auf dem kulturellen Level, sondern auch auf dem strukturellen Level. Wie können wir dies für Maschinen tun? Zunächst, um sich eines Bias bewusst zu sein, brauchen wir Transparenz der Algorithmen. Und um dem Bias entgegen zu wirken, müssen wir verstehen, was für ein... Wir müssen in der Lage sein, das zu quantifizieren in den Modellen. Wie können wir also Bias messen? Wir reden hier nicht über einfaches Maschinen-Lernen, wir reden über gesellschaftliche Vorurteile, die jeder im Output entscheidet. Der hat einfach tief eingebettet ist. Zum Beispiel im Jahr... Es ist so, dass im Jahr 1998 ein Test entwickelt wurde. Der Implicit Association Test, der also Aufmerksamkeit für Vorurteile, denen wir uns oft nicht immer bewusst sind. Mit verschiedenen gesellschaftlichen Gruppen, verschiedenen Vorurteilen wurde dies durchgefüllt. Und die Art, das zu testen, ist also recht einfach. Es braucht nur wenige Minuten. Man klickt einfach den linken oder rechten Knopf. Im linken Knopf, wenn man den linken Knopf klickt, dann muss man weiße Begriffe von über weiße mit schlechten Begriffen und mit schwarzen und folterlaffenden und umgekehrt. Man schaut sich dann die Latents an und durch das Latentsparadigma sieht man, wie dicht die Assoziation ist von diesen Konzetten. Was weiße Menschen, wie stark die mit gut oder schlecht assoziiert sind. Man kann also diesen Test auch online durchführen. Millionen von Leuten haben ihn durchgeführt und es gibt auch eine deutsche Version. Am Ende der Folie zeige ich euch auch meine deutschen Beispiele für deutsche Modelle. Wir nehmen also Wort-Assoziationen, Worten, die bestimmte Gruppen von Menschen repräsentieren und Worten, die bestimmte Vorurteile repräsentieren und wenn dies an den semanischen Modellen durch ... Wir haben nun diesen Wort-Embedding-Assoziation-Test entwickelt, um implizite Verbindungen zu berechnen zwischen sozialen Kategorien und bestimmten wertenden Attributen. Wenn wir jetzt über Effektgröße von Bayer sprechen, dann ist das die Menge von Bayer, die wir entdecken können im Modell. Es gibt da eine Skala von minus zwei, gar kein Bayer, null-neutral und zwei Bayers in der Gegenrichtung von dem, was wir eigentlich anschauen. Ich würde jetzt nicht die Details besprechen. Man kann das Paper, den Aufsatz auf meiner Website sehen mit den Beispielen. Aber wir berechnen auch statistische Signifikanz, um zu sehen, ob die Ergebnisse in der Null-Höpethese auch signifikant sind oder ob das zufällige Effekte sind. Und dadurch zeigen wir eine statistische Verteilung und bekommen so sehr genaue Werte. Wir haben auch den Worteinbettungsfaktische Verknüpfungstest. Das ist, da geht es nicht wirklich um Bayer, sondern wie Worte miteinander verknüpft sind. Und wieder können wir uns die Details in unseren Fälber dazu ansehen. Ich fange einfach mit dem ersten Beispiel an, wo es darum geht, Fakten über die Welt einzusammeln. Was wir gemacht haben, ist, dass wir in den Zensus-Daten der 1990er-Jährige gegangen sind und wir so berechnen konnten, wie viele Leute die Anzahl von Namen in einer bestimmten Anzahl von Männern und Frauen. Wir haben 50 Namen genommen und einige waren 0% weiblich. Manche waren fast 100% weiblich. Und dann haben wir unsere Methode angewandt. Und dann konnten wir sehen, wie sehr ein Name mit einem Geschlecht zugeordnet wird. Das hat eine 48% Korrelation mit der Grundwahrheit der Zensus-Daten der 1990er-Jahre. So sehen die Namen aus. Zum Beispiel oben links fast 100% männlich und Carmen ganz unten ist fast 100% weiblich. Und Jean ist ungefähr in der Mitte. Und dann wollten wir sehen, ob wir Statistiken über Beschäftigung bei Frauen ziehen konnten. Da haben wir diese Webseite, die jedes Jahr veröffentlicht, in welcher Beschäftigung tätig ist. Wir haben hier Top 50 Namen für Beschäftigung und wir konnten sehen, wie sehr die mit Weiblichkeit assoziiert wurden. Und hatten wir eine 90% Korrelation mit den 2015 Daten. Wir konnten sagen, wenn wir nach oben gucken, ist der Programmierer fast 0% weiblich. Und Nurse ist ein Pflegerin. Das ist dann fast 100% weiblich. Das ist wieder problematisch. Wir können Statistiken über die Welt herausziehen, aber diese Statistiken werden verschieden genutzt. Das ist dieses Übersetzungsbeispiel, das wir haben. Zum Beispiel werde ich von einer geschlechterlosen Sprache eine geschlechterbesetzte Sprache. Wir setzen türkisches eine geschlechterlose Sprache. Da gibt es keine Geschlechter. Alles ist ein ist, es gibt keinen er oder sie. Und wenn wir das versuchen zu übersetzen, wird das ein er oder sie ist ein Rechtsanwalt. Dann wird das ein er ist ein Rechtsanwalt. Und es ist dann sie ist ein Pflegerin. Und Männer bekommen so die, oder werden assoziiert mit den Jobs, die wir ja fristisch versprechen, oder mehr in einem höheren Rang angelistet sind. Er oder sie ist ein Professor, er ist ein Professor. Er oder sie ist ein Lehrerin, sie ist eine Lehrerin. So zieht sich da durch. Zum Beispiel ist Deutsch noch mehr gesendert als Englisch. Wir haben es versucht mit Doktor. Und das wird dann er, Pflegerin wird dann sie. Mit Slavisch, die noch gesendeter ist. Doktor ist immer männlich. Und Pflegerin ist immer weiblich. Und danach wollten wir sehen, welche Beises wir daraus ziehen können, außer den faktischen Statistiken. Und wir wollten Universale akzeptierte Stereotypen nehmen. Damit meinten wir, meine ich, die sind so verbreitet, dass sie nicht wirklich als Vorteile angesehen werden, sondern einfach als normal oder neutral. Und das sind Sachen wie, Kallers being considered pleasant, Farmen wie nett sie sind, oder Insekten wie nett wie sie finden und so weiter. Und in diesem Fall mit Blumen, die angenehm sind. Es hat ein Word-Einwertung-Assoziationstest mit einer sehr großen Signifikanz. Und einer großen, sehr wesentlichen Effekte. Und hier ist das die Effektgröße 1,35 für Blumen. Und wenn wir die Konfektseite berechnen, dann ist das eine große Effektseite. Und das sind sehr große Signifikante Effekte, wenn wir diese Beises berechnen. Für Musikinstrumenten ist das wieder sehr hohe Effektseite. Und das letzte Beispiel sehen wir uns Rassen- und Gender-Stereotypen an. Und da sehen wir das für diese Grundlevel-Experimente, das wir da das Wort in Soziologie benutzen. Also haben wir ein Boden, auf dem wir mit Kategorien und so weiter aufbauen können. Und wir konnten das refleizieren mit allen Implizierten-Assoziationen, die da draußen waren. Wir haben das für weiße und schwarze Menschen probiert. Und weiße wurden mit was Gutes verknüpft bei einer großen Effektgröße. Und Männer mit Karriere und Frauen mit Familie. Männer mit Wissenschaft und Frauen mit Kunst. Und wir wollten auch sehen, wie es aus dem Stegmatter für ältere Menschen oder Menschen mit Erkrankungen. Junge Menschen werden als angenehm gesehen, ältere eher nicht. Und bei physikalischer Krankheit gegen mentale Krankheit können wir dann sehen, wie gefährlich wäre das, wenn Doktoren das so nehmen würden für eine physische Krankheit. Wir dann gesehen, dass es kontrollierbar während einer mentale Krankheit als unkontrollierbar gesehen wird. Wir haben das dann noch gesehen, ob es dann noch Stegma- oder Transphobie gibt. Und wenn wir das gemacht haben mit diesem Test, wie es aussieht mit heterosexuellen gegen homosexuellen Menschen, dann sind heterosexuelle Menschen wieder als angenehm wahrgenommen. Und heterosexuelle Menschen als straight, als slang, werden als angenehm wahrgenommen, werden als transgender Menschen als unangenehm wahrgenommen, werden mit einer großen Effektgröße. Wir haben ein großes anderes deutsches Modell genommen, das durch ein paar Billarden Sätze kalkuliert wurde. Wir wollten sehen, ob es da ähnliche Biasis gibt in diesen Modellen. Dann haben wir sie, die Basischen, sagen wir mal, angesehen, die gut erreichbar waren und werden für Männer und Frauen wieder das Männer sehr viel mit Karriere assoziiert werden und mit Wissenschaft. Und der deutsche implizite Assoziations-Test und Nationalismus usw. Da war eins über Stereotypen gegen Türken, die in Deutschland wohnen. Und wenn ich diesen Test gemacht habe, habe ich überraschterweise herausgefunden, dass es ja auch, dass es eine große Effektgröße gibt, dass auch türkische Menschen als unangenehm wahrgenommen werden und deutsche Menschen als angenehmer. Und die sind alle auf der Webseite, wenn ich den Test auch selber durchführen. Wenn ich das gemacht habe, kann ich immer sehen, weil ich immer überrascht, wie gut diese Ergebnisse waren. Also könnt ihr das vielleicht auch machen. Ich habe ein paar Diskussionspunkte, bevor ich meinen Talk-Off höre, das bringen vielleicht ein paar mehr Ideen. Zum Beispiel, was für eine Maschinen-lernen-Expertise brauchen wir für eine alkohol-rhythmische Transparenz? Und dabei die Nützlichkeit erhalten? Wenn wir es entfernen, können wir das reduzieren und immer noch statistische Erkenntnisse über die Welt gewinnen. Wie lange sind diese Vorurteile noch zu merken, zum Beispiel Ansichten über Ost- und Westdeutschland? Ich habe nicht daraus gefunden, ich habe diese Vorurteile nicht gefunden, finden können über Ost-Deutschland. Ist das deshalb, weil diese Stereotypen jetzt inzwischen zu alt sind und nicht mehr in der Sprache zu finden sind? Das ist eine gute Frage. Wie lange erhält sich Bayes in einem sprachlichen Korpus? Oder, weil wir wissen, dass es Stereotypen-Effekte gibt. Wenn wir Vorurteils-Modelle haben, gibt es dann einen Schneeball-Effekt, weil Menschen diesen Bayes wieder ausgesetzt werden und sich das Training verstärkt und Menschen dann wiederum weiter stärker beeinflusst werden. Es gibt also so eine Art von Schneeball-Effekt. Was für politische Handlungen müssen wir durchführen, um Diskriminierung zu beenden? Wir wissen, dass Maschinelles Lernen als Service angeboten wird und von Millionen von Menschen täglich benutzt wird. Ich möchte euch danken und bin jetzt offen für eure interessanten Fragen. Wenn ihr den Aufsatz komplett diesen wollt, ist er auf meiner Webseite zu finden. Das Papier des Aufsatzes ist noch nicht auf GitHub, weil ich noch auf Feedback vom Magazin, von der Zeitschrift warte. Ihr könnt immer meinen Blog auch anschauen für neue Erkenntnisse und für eine Kurzversion meines Aufsatzes in der Zusammenfassung. Vielen Dank dafür. Wir haben hier ein paar Mikros frei und ich gehe hierher und dann nach vorne. Ihr habt fünf Minuten. Nummer eins, bitte. Ist das an? Ich frage mal ganz naiv. Ich frage mal ganz naiv. Ich frage mal ganz naiv. Was oder wie so ist das wichtig, dass da ein Bias ist? Zunächst einmal, um dies zunächst mal entdecken zu können, ist schon ein Beitrag. So können wir sehen, was für eine Art von Bias existiert in der Gesellschaft. Und das andere ist, wir können vielleicht eine Repetese aufstellen, dass die Art, wie wir Sprache lernen, darin besteht. Oder enthält, dass wir auch Bias oder Bias oder Voreingenommenheiten auch zu Leuten bringen. Ich persönlich möchte nicht in einer Gesellschaft mit Voreingenommenheit zum Beispiel über Geschlechterfragen, über Genderleben, denn dies führt zu Ungerechtigkeiten. Nummer drei, bitte. Ja, vielen Dank für den Talk, das war sehr nett. Ich denke, es ist sehr gefährlich, weil das so die Sieg der Mittelmäßigkeit ist. Die statistische Mitte wird einfach so die Guide Line sein, an die sich unsere Gesellschaft entlang gewickelt. Und was ist mit diesen ganzen verschiedenen Kulturen? Selbst dieser Gesellschaft haben wir das. Mit anderen Sprachen und anderen Bias ist es als andere. Die Chaoskultur zum Beispiel, hat eine eigene Sprache. Das ist eine andere Sprache. Das ist eine andere Sprache. Das ist eine sehr gute Frage. Es ist ähnlich zu dem Punkt, dass verschiedene Kulturen, verschiedene ethische Perspektiven haben können. Deswegen auch verschiedene Arten von Voreingenommenheit, Bias. Am Anfang habe ich eine Folie gezeigt, über die Notwendigkeit des Deep Bias-Sings gezeigt. Ich denke, dass Menschen beim CCC, unter denen sind die Menschen, die vielleicht am besten in der Lage sind, diese Dinge auf struktureller Ebene zu verändern. Es ist besonders für den maschinellen Bereich. Deswegen ist es wichtig, sich bewusst zu sein und immer menschliche Kontrolle zu haben, menschliches Kümmern zu haben. Wir brauchen immer einen ethischen Menschen und müssen immer, wenn die Menschen, die sie haben, versuchen, die Werte aufrecht zu erhalten. Nummer 4, bitte. Hallo, danke. Das war sehr interessant. Sehr großartig. Am Anfang hast du beschrieben den Prozess, wie man Wörter in numeralische Repräsentationen konvertiert. Wenn ich das Versuche mit Stift und Papier in Sprache... wovon würde ich dann suchen? Welche Beziehung von Wörtern würde ich suchen, um diese Vektoren herzustellen? Das habe ich nicht ganz verstanden. Ja, das ist eine gute Frage. Ich bin hier nicht ins Detail gegangen, wie diese Algorithmen funktionieren, aber diese Algorithmen schauen sich Kontextfenster an. Die Wörter, die herum in der Nähe sind, gibt verschiedene Zugänge hier. Auf jeden Fall ist das Kontextfenster in dem das Wort erscheint, berücksichtigt wird. Was wird meistens assoziiert mit diesem Wort? Sobald man das in den Algorithmus hineingibt, erzeugt der Algorithmus diesen numerischen Vektor. Nummer zwei, bitte. Vielen Dank für den netten intellektuellen Talk. Meine Muttersprache ist auch geschlechtslos. Und ich weiß... verstehe die Hälfte von diesem Biasing-Zeug in Europa nicht wirklich. Was ich fragen wollte ist... wenn wir den Coefficient 0,5 haben, das wäre das Ideal. Was würdest du denken, sollte da eine Institution in jeder Gesellschaft sein, die versucht, die Bedeutung der Wörter zu verändern, sodass die... eine statistische 0,5 annähern? Vielen Dank, eine sehr, sehr gute Frage. Und ich arbeite an dieser Frage, an die solchen Fragen tatsächlich gerade. Viele Philosophinnen, feministische Schlagen oder meinen, dass der männliche Einflussensprach überwiegt, sodass Frauen sich nicht so gut ausdrücken können, wie Männer es können. Aber es gibt auch Ergebnisse, in denen es heißt, dass Frauen, die die Entwicklung der Sprache vorantreiben, das ist nicht so klar, was hier passiert. Und wenn wir es jedenfalls Sprachen versuchen, die Assoziation mit Gender mehr anzuschauen, dann haben wir also 200.000 Menschen in der Sprache, die eine sehr enge Verbindung zu männlichen Konzepten haben. Ich weiß nicht genau, wie das aufgelöst werden könnte. Es geht um eine Änderung der Häufigkeiten in Sprache, selbst wenn Kinder Sprache lernen. Wenn sie etwas sehen, bilden sie eine Semantik und dann sehen sie die Häufigkeit dieses Wortes verbindet mit der Semantik, bilden Cluster und machen dann daraus dann Sätze oder Grammatik. Also auch Kinder, die schauen sich Häufigkeiten an, um die es in ihren Gehirnen zu formen. Das ist also eng an dem neuronalen Netzwerk das haben. Wenn nun die Häufigkeiten, die wir sehen für Männer und Frauen, einen Bayes haben, dann ist es sehr schwer, das zu ändern. Wir brauchen also kulturelle und strukturelle Änderungen und keine Antworten auf diese Fragen. Eine sehr gute Forschungsfrage. Vielen Dank. Leider haben wir nicht mehr Zeit für mehr Fragen. Aber vielleicht könnt ihr ihr hinterher mal fragen. Danke fürs Zuhörende Übersetzung. Eure Besetze waren Sebastian oder Sebalis und Sirene Sahn. Und gibt uns bitte Feedback. Hashtag auf Twitter C3T.