 Gut, freuen wir uns nun auf eine Reise durch die Geschichte der IT-Fehler von rassistischen Seifenspendern bis zu Raketenabstützen, damit was CODA. Hi, danke fürs Kommen. Danke an die, die dem schönen Wetter draußen trotzen und herinnen sitzen. Wie eben angekündigt, es geht um Fails, es geht um eine Geschichte der Fails und was wir aus ihnen lernen sollten oder bzw. was wir aus ihnen lernen können. Kurz zur Motivation und zu mir selber. Ich bin Informatik- Studentin auf der Technischen Universität Wien und meine Erfahrung aus dem Studium ist, man diskutiert sehr oft über Fails, man redet über sie, sie sind in die Lehrveranstaltungen drinnen, dann denkt man sich, höh, höh, ihr macht es besser und im nächsten Projekt läuft alles genau wie vorher. Und immer nach, vielleicht wenn wir das Ganze jetzt mal ein bisschen tiefer gehen, da anschauen, Spaß macht es hoffentlich trotzdem, bleiben vielleicht ein paar nachhaltige Lessons learned. Die Beschäftigung mit dem Thema hat mir dazu geführt, dass ich im Prinzip Tee sehr aufgestellt habe, nämlich Menschen treffen immer Erwartungen und Annahmen, das ist was komplett Normales, das ist in unserem Hillen einfach Hardwire drinnen, wir treffen Annahmen, damit wir auf Situationen schnell und passend reagieren können, blöderweise passen diese Annahmen und Erwartungen, die wir haben oft nicht auf die tatsächliche Situation, das heißt die werden halt nicht reflektiert und die werden vor allem nicht validiert. Es ist das eine Problem, das ich sehr oft sehe in der IT, das andere Problem, über das wir jetzt noch öfter steuern werden, wenn jetzt die Beispiele aufbringen ist dieses Zitat von Kathy Marshall. Computer science has always marginalized people that are interested in users, also aufgeteutsch, wer ist in der Informatik für die Benutzerinnen und Benutzer interessiert, steht halt irgendwo am Rande. Auf der TU Wien sieht man das zum Beispiel daran, dass die Core Informatik im Prinzip immer nur mit Algorithmen und Hardware zu tun hat, aber die ganzen human centered technologies sehr oft als so soft skills und unwichtige Sachen gesehen werden von den Studierenden übrigens genauso wie von Professoren und Professorinnen. Dieses Buch Broadband von Claire Evans, Broadband The History of the Women Who Built the Internet, das ist übrigens ziemlich aussam, super zum Lesen, verwenden die da öfter so mal als Quelle auch. Wir fangen direkt an, ich klasse dir die verschiedenen Zwischenfälle, die es so gibt, nach Themenbereichen und da sind jetzt schon einmal ein paar ganz bekannte dabei, 1983 an Zwischenfall der beinahe den dritten Weltkrieg verursacht hätte, war de facto ein Bildverarbeitungsfehler, da hat ein sovietischer Überwachungssatellit, sonnendlich das von der Wolke reflektiert worden ist, falsch interpretiert und hat gedacht, da wären Missars auf dem Weg von den USA nach Russland. Der Offizier der zu einem Zeitpunkt die Entscheidung treffen hat, müssen aber jetzt auf diesen Alarm reagiert und quasi ein Counter-Strike launched, hat sich gedacht, irgendwie ist das komisch, weil halt unter anderem, also einer von die Punkte war, da sind im System nur fünf angreifende Raketen angezeigt worden und was man sich halt immer gedacht hat war, um ein Krieg anzufangen, sind irgendwie fünf Raketen ein bisschen wenig, also wenn dann kommt da halt gleich ein augenlicher Schwall, weil dann hau ich auch mal drauf, dann ist das alles weg und die fünf Missars waren quasi so irgendwas passt da nicht und im Endeffekt hat es dann gestimmt. Dann zwei neuere Beispiele vor 2015 und 2017, haben einige von euch wahrscheinlich mitkriegt, da gehen wir dann von Bildverarbeitung auch rein ins Thema Machine Learning, Google API, die schwarze Menschen in Fotos als Gorillas tagt, was uns das sagt ist de facto, dass in dem Learning Set das die Algorithmen bekommen haben, die Wahrscheinlichkeit für Gorillas höher war als für schwarze Menschen. Muss man sich auch mal auf der Zunge zergehen lassen, dass bei Google die gelten immer gemeinsam als im Personal ziemlich die Welles aufgestellt, so was dann trotzdem passieren kann, dass niemandem auffallt, dass da schwarze Menschen als Gorillas getagt werden. Und eben optische Sensoren in Seifenspendern, die schwarze Hände nicht erkennen, sondern eben nur auf weiße Hände reagieren, was vermutlich damit zu tun hat, dass Infrarot Schwierigkeiten hat, eben dunkle Haut zu erkennen. Tinkering, habe ich rausgefunden, ist das System läuft, es könnte aber besser laufen. AT&T hat es gemacht, die haben ihre Switches ein bisschen gemordet, hat dann ein bisschen schneller funktioniert. Problem war, die haben dann ein Update gemacht, das Update hat nicht berücksichtigt, was sie gemordet haben und sie haben ihren Deadlock verursacht, der das komplette Telefonnetz von AT&T neun Stunden lang offline gehen hat, lassen in den USA. Andere Tinkerings und Mots, es hat in Panama im Jahr 2000 an Zwischenfall gegeben mit einem Kobalt 60 Krebstherapie Gerät, wo die Leute halt im Benutzen draufkommen sind, wenn man die Fokusspiegel speziell ausrichtet, dann ist das Ding effizienter. Grundsätzlich ganz cool, allerdings war das so nicht vorgesehen und hat dann zu Überdossierungen geführt, bei mindestens, wenn ich jetzt richtig erinnere, sechs Personen. Also es hat dann Verstrahlung zufolge gehabt bei den Leuten. Standard-Einheiten, wir kennen alle wahrscheinlich diesen Ex-Ksidie, je Standard, jetzt einer mehr. Standard-Einheiten sind so ein Ding, weil nicht die ganze Welt benutzt sie. Der Mars-Climate-Orbiter hat seinen Job zum Beispiel nicht getan, der hat nicht georbited, sondern ist abgestürzt, weil nämlich ein Teil vom Engineering-Team andere Maßeinheiten benutzt hat als ein anderer Teil. Und zwar, grundsätzlich hätte man benutzt Newton-Sekunden, irgendwelche Leute haben fünf Sekunden benutzt stattdessen, die Umrechnung ob Skur, keine Ahnung, resultiert dann im Absturz. Der Space Mountain Roller Coaster in Tokio hat zum Glück nur leichte Verletzungen zufolge gehabt, der Fehler. Da ist passiert, dass die Design-Dokumente vom Hersteller in zwei Varianten vorhanden waren, im Original mit britischen Maßeinheiten und dann übersetzt quasi in Metrisch. Und da hat es auch wieder ein Umrechnungsfehler geben, woraufhin die Achsen zu schmal waren, zu dünn waren und zu viel Spiel kriegt haben und gebrochen sind, unter der Fahrt. Also da hätte es ordentlich schief gehen können. Dann ein bisschen ob Skur die Schildkröten. Ein Zoo in den USA hat einer Universität eine Schildkröte geliehen. Und zwar ist das halt auch Universität, wo Leute Ausbildung machen können zur Tierpflegerin. Und die Schildkröte war halt quasi Übungsobjekt. Und angekündigt war, glaube Clarence 75 Jahre alt, 250 Kilogramm schwer. Die Universität hat sich quasi notiert Clarence 75 Jahre alt, 250 Pfund. Und die Schildkröte war so Zaun, flump, passt, direkt am ersten Tag abgehaut. Und die Vasa war ein Kriegsschiff der schwedischen Marine 17. Jahrhundert, ist direkt auf ihrer ersten Ausfahrt untergangen. Genau, bis zur Hafenausfahrt ist sie kommen und dann ist sie so stark ins Schwank und kommen, dass wir sie nicht mehr ausgleichen können. Und das war jetzt sehr lang die Frage, warum eigentlich? Um es drauf kommen, wieder so ein Ding mit verschiedenen Maßeinheiten. Literally, die Leute haben auf zwei Seiten von diesem Boot gearbeitet. Auf der einen Seite haben die Zimmersleute Amsterdamer Fuß benutzt, sind 11 Inch. Auf der anderen Seite Stockholmer Fuß sind 12 Inch. Also man sieht wirklich an diesem Schiff, dass die eine Seite einfach massiv, also ein echt dicker ausgelegt ist als die andere Seite, was zu diesem Overhaul dann geführt hat. Was übrigens so in der alltäglichen Anwendung auch so ein Ding ist, Medikamenteinheiten. Wir tendieren alle dazu, da nimmst du einen S-Löffel davon. S-Löffel sind nicht normiert, ja, nur dass ihr euch dran erinnert. C-Löffel auch nicht, dann gibt es noch Espresso-Löffel und keine Ahnung, was alles. Das ist nicht so einfach. Zahlendarstellungen, ja, genau. Jetzt kommen wir mal wieder so ein bisschen mehr in dieses Calendings von der IT. Zahlen, bits and bytes. Die Ariane 5 hat 40 Sekunden nach ihrem Start, hat die Ariane 5 komplett zerlegt. Das Ding war, man hat sich gedacht, Ariane 5, Ariane 4, ist jetzt nicht so viel un. Wir übernehmen da Teile von der Software. In meinem Alpe abstract steht drinnen, wie viele Raketenwissenschaftlerinnen braucht es, damit eine Rakete nicht explodiert, eine, die muss halt die Docu lesen. Was da passiert ist, war eine Umrechnung von 64-bit signed integer auf 16-bit. Dass sich das nicht ausgeht, ist halt irgendwie so ein Ding. Das hat zu einem Overflow geführt, die V-Backdaten waren falsch, das Ding hat es zerlegt. Milliarden Euro dahin Menschenleben hat es genauso kostet. Also es ist halt, ja, Docu lesen, wenn es es gibt. Das andere Ding, wenn es es gibt. Nicht gegeben hat es sinnvolle Docu beim Patriot Raketenabweissystem. Da hat es nämlich das Problem geben, Wiederumrechnung oder beziehungsweise Darstellungen von Zeit in dem Fall. Da hat es einfach an der Kloktik war falsch. Und die Anweisung, um das zu fixen war, statt dass man tatsächlich das System korrigiert. Turn it off every so often. Every so often ist ein bisschen ungenau. Es ist dann tatsächlich einmal ausgefallen und hat zufolge gehabt, dass ein Skat eingeschlagen ist auf dem Militärstützpunkt der Amerikaner, 28 Tote. Das Ding war zu dem Zeitpunkt 100 Stunden im Betrieb und hat eine Abweichung von einer Drittelsekunde gehabt. Das ist dann halt einfach, wenn man schon von Flugkörpern redet, ist eine Drittelsekunde verdammt viel. Und 100 Stunden Betriebszeit sind jetzt halt einmal, nicht einmal fünf Tage. Es ist halt, oh, es ist doch mal Docu scheiße und zum zweiten, what the hell. Ich kann nicht alle drei Tage meinen System rebooten. User interfaces and testing. Das ist dann eben so mein Thema. Der Terak 25, da sind wir wieder bei der Krebstherapie, hat deswegen zu Überdossierungen geführt, weil das Errorhandling schlecht war. Also das System hat, also erstens einmal war das Interface wirklich, wirklich mies. Die Leute haben keine ordentliche Einschulung gekriegt und man hat Hardware, Failsafe aus dem Vorgängermodell einfach nicht mit rein übernommen, sondern hat das alles auf Software Failsafe umgestellt. Und dann eben wirft das Ding ein Error. Okay, die Person, die das gerade bedient, schaut noch, was macht der Error. Im Users Manual gibt es keine Errors. Gut, Reparatur Manual, da gibt es eine Auflistung der Fehlercodes, aber keine Details dazu, geschweige denn Informationen, wie man es fixet. Das heißt jedes Mal, wenn dieses Ding und den Berichten zufolge hat, das sehr oft Fehler geworfen, da hätte man jedes Mal den Hersteller anrufen müssen und fragen, wie kann man das jetzt korrigieren. Auch hier eben Überdossierungen bei der Strahlentherapie mit natürlich langen fristigen Schäden und Folgen. Der Airbus A320, das war das erste Modell von Airbus, das Fly-by-Wire gehabt hat, also automatisierte, oder halt ein Flugcomputer quasi, mit der Grundregel, der Computer hat recht, ich mag die Reaktion, da kombinieren sich jetzt das Ding aus, das Userinterface ist scheiße, man alle, die schon einmal ein Cockpit gesehen haben, denken, okay, das ist sowieso ein bisschen überladen, aber dann halt auch noch fehlende Dokumentation, schlechte Einarbeitung von den Piloten und eben dieses Computer Overruled hat in einem Fall in der Nähe von Straßburg zu einem Absturz geführt mit mehreren Toten, also mit 100 plus Toten und 200 irgendwas verletzten. Also einfach nur die Tatsache, dass man Leuten nicht sagt, wie das Ding, das sie benutzen sollen, richtig funktioniert und deren Feedback einholt, ob das für sie so funktioniert, hat halt wirklich schwerwiegende Folgen. Für die Leute aus Österreich, die da jetzt zuschauen, die ÖBB-Ticketautomaten, wir kennen sie alle, wir leiden unter ihnen, die ÖBB sind die österreichischen Bundesbahnen, pünktlich sind wir, also das mit die Interfesses haben sie auch nicht so ganz drauf, die haben sich irgendwie so vor eineinhalb Jahren gedacht, sie stellen jetzt ihre katastrophale Website um, jedenfalls den Ticket Shop, den Rest lassen sie, da war er noch gleich und es gibt auch Schnittstelle vom einen ins andere, das heißt man muss, jedenfalls ist die der Ticket Shop jetzt, wir haben Tablet, also Katastrophe, wenn man es mit einem größeren Bildschirm mit einem Maus bedienen muss, wirklich schlimm, aber mit Touchstream Urgeil, wenn man das mal drauf hat, ihr seht es, wo ich hin will, wir haben bei der ÖBB grundsätzlich, also in Österreich gibt es keine Zugbindung außer in Ausnahmefällen, das heißt ich kaufe mal mein Ticket für eine Strecke, ich sage, ich möchte bitte gern, wenn wir mal in Wien nach Salzburg fahren, in Wien, Salzburg, dann gebe ich halt auch schon Uhrzeit und Datum an, damit die Seewannen überhaupt da Sachen fahren, wenn ich meine Fahrplatten nicht eh schon auswendig war, und normalerweise war es dann so, okay, das ist deine Strecke, das ist dein Preis, kaufe dein Ticket, mit dem neuen System kommt so, das sind deine Verbindungen, wähle eine aus, warum? Das Thema ist Digital Natives, ja aber auch Digital Natives stehen vor diesem Automaten, das erste Mal, wenn dieses, wenn dieses Interface aufkommt, sind so, ich will aber keine Zugbindung, es hat jetzt dazu geführt, dass die ÖBB an jedem größeren Bahnhof extra Leute hinstellen müssen, die übersetzen Mensch, Automat, Automat, Mensch, um nichts anderes tun als wohin wollen sie denn fahren, aha, Pastinen der Zug, okay, jetzt müssen sie zahlen, also im Prinzip haben die den Schalter raus verlagert, anstatt sich die Leute zu sparen, was wahrscheinlich eigentlich die Idee von dem ganzen Ding war, aber ja, geil, die Ticketautomaten, Apollo 8 ist dann wieder US-amerikanisch, obviously, auch so, weniger mit User Interface, User Testing, sondern eigentlich eher so das überschätzende, der eigenen Benutzer, und zwar ihr kennt es vielleicht das Foto von der Margaret Hamilton, so eine junge Frau, große Brille, Rock, so ein Stapel Papier neben ihr, Margaret Hamilton war Head Software Engineer bei einigen Apollo-Missionen, und sie hat auch ein Kind gehabt, heutzutage ohne viel anders Kinderbetreuung meistens nicht so toll, das heißt sie hat die Lauren halt mitgenommen auf die Arbeit, und das Kind hat ab und zu mit den Mockups, die da so rumgestanden sind, halt gespielt und hat einmal ein Fehler verursacht, ein komplett neuen Fehler, den noch niemand vorher gesehen hat, weil sie mit einer Flugsimulation auf einem Knopf gedrückt hat, der eigentlich am Anfang vom Flug gedrückt werden sollte. Die Margaret war so okay, interessant, hat sich das notiert, hat sich überlegt, wie man das fixen kann, und wollte das in den Code rein übernehmen vom Bautcomputer, und die Vorgesetzten waren so, nein, das sind Astronauten, das sind Experten, denen passiert so was nicht. Ja, genau, es ist passiert, Margaret hat aber zum Glück den Zettel irgendwo rumliegen gehabt, wo draufgestanden ist, wie man das jetzt fixen kann, Funkverbindungen war das, man hat es reparieren können, die Leute sind wieder gelandet, weil das hat sonst potenziell nicht passieren können, und ja, Mond, oder so. Und da kommen wir jetzt im All schon in die recht aktuellen Sachen, mit der Automatisierung, Machine Learning, solche Sachen. Ich habe das gestern beim Opening ganz spannend gefunden, wie der Herr Weibel gemankert hat so, wir können jetzt vertrauen beweisen mit der Blockchain, und wir können berechnen, was wahr ist, nein. Das Ding ist nämlich, Daten sind nicht neutral, wir beschäftigen, also viele von uns beschäftigen sich mit dem Thema, und wissen, Daten sind nicht neutral, ja, die Frage ist, welche Daten erhebe überhaupt, wie behandle die, wie wird es er aus, was zeigen den Benutzerinnen und Benutzern überhaupt, und die vier Punkte zeigen total gut, dass einfach schon die Datenbasis an sich ein Problem darstellen kann. RoboDat ist der Begriff für den Centerlink, Zwischenfall. Centerlink ist das System, das die Social Services in Australien quasi verwaltet, und es gibt offensichtlich gewisse Unterstützungen in Australien, die man später nochmal zurückzahlt, bzw. wo man halt, wenn man gewisse Anforderungen nicht erfüllt, zurückzahlt. Früher hat das System, ich glaube, pro Jahr ungefähr 20.000 Briefe ausgeschickt, dass da was zurückzuzahlen ist. Mit der Umstellung auf das automatisierte System sind das 270.000 in einem halben Jahr geworden, und die Regierung ist so, nee, das passt alles, schon okay. Menschen bekommen da Briefe über Schulden, die sie nicht haben, die sie zurückzahlen müssen. Die bekommen, wenn sie überhaupt einen Brief kriegen. Manchmal passiert so aufwacht, dass sie davon erfahren, dass sie Schulden haben, weil auf einmal der Exekutor vor der Tür steht. Da geht es in dem Fall ganz massiv um Existenzen. Also, da tauchen Schulden auf, und das Krasseste daran ist, die Beweislast liegt bei den Bürgerinnen und Bürgern. Es ist nicht so, dass quasi das Finanzamt sagen muss, ja, wir haben da Unterlagen und du musst uns das zahlen, und die kann dann sagen, ey, zeig mal mal die Unterlagen, sondern die kommen an und sagen, wenn du da einen Einspruch hast, zeig mir die Unterlagen, was umso schräger wird, wenn die Rückforderung von 2008 ist, und das Finanzamt von mir nur verlangt, meine Unterlagen sieben Jahre zu behalten. Also ganz viele Layer von der laufenden Dinge falsch. Gesichtserkennung, dass die nicht so ganz optimal ist, das hat uns das dabei jetzt, glaube ich, mehrfach zockt. Die Polizei von Wales hat letztens im Zwischenfall, wo sie für eine Großveranstaltung einmal Gesichtserkennung über Besucherlaufen haben lassen und irgendwie 90 Prozent die Geforce-Positivquote gehabt haben. Und dann wollen allen einst das, also Hallo Österreich, Überwachungspaket. Unsere Regierung will so was allen einst das nutzen, so im täglichen Betrieb. Predictive Policing ist dann wieder dieses Ding mit der faulty Database. Bei Predictive Policing-Projekten geht es im Normalfall darum, dass ein System der Polizei vorschlägt, wann, wo, wie viele Einheiten auf Streife gehen sollen. Das basiert dann halt auf Kriminalitätsstatistiken. Das heißt, in Nachbarschaften, wo viel Kriminalität ist, schickt man dann mehr Polizei hin. Klassische Variante von Predictive Policing ohne großartiges System, sondern nur mit Mensch, racial profiling. Wir haben da die Erfahrung gemacht, dass Menschen, die ausschauen, wie sie tendenziell eher kriminell sind. Deswegen überprüfen wir sie jetzt genauer. Okay, kann man schon machen, das ist halt falsch und scheiße. Weil es halt die existierende Datenbasis de facto aufaverstellgt und die Datenbasis, wie wir schon festgestellt haben, also gerade in den USA, ganz krass durch diverse politische Entscheidungen früher, die halt starken Einfluss auf Housing gehabt haben, hat man ganz stark segregierte Nachbarschaften in vielen Städten in den USA. Das heißt, da gibt es dann halt einfach Nachbarschaften, da ist die Wahrscheinlichkeit, dass eine Person, die da rauskommt, kriminell ist extrem hoch, weil der Bildungsstandard niedrig ist, weil der socioökonomische Background schlecht ist, aber halt im Endeffekt deswegen, weil man den Leuten hier ermöglicht hat, da sinnvoll was sich aufzubauen. Genau, selbes Thema dann bei Bewährung, Kaution und Haft. Es gibt Systeme, die vorschlagen aufgrund einer berechneten Rückfalleswahrscheinlichkeit. Kaution, Bewährung oder im Haft, Strafen oder halt Auflagen zu vergeben. Dass jetzt Leute mit einem guten familiären Background eine niedrigere Wahrscheinlichkeit haben, wieder kriminell zu wählen, ist halt irgendwie in diesen Daten drinnen. Kann man jetzt aber halt auch nicht zu 100% sagen. Das heißt, in dem Buch Technically Wrong von Sarah Böttcher ist zum Beispiel, also sie beschreibt da zwei Fälle, wo zwei Männer, die ungefähr dem selben Profil, dasselbe Profil haben, alter und vor allem vergehen, dasselbe Alter, dasselbe vergehen, aber komplett verschiedener Umgang seitens der Polizei, bzw. seitens des Legal Systems mit den beiden, weil der Arne ist schwarz, ist unter anderem weiß. Weil das einfach so starke Marker sind in diesem System für Kriminalität, dass das halt so einen krassen Unterschied hervorbringt. Moment. Genau. Lösungsansätze. Also wir haben jetzt gesehen, das geht schon sehr lang, dass Dinge falsch laufen. Noch denken war da mal eine Sache. Also gerade so dieses Ding, wie kann es niemandem auffallen, dass schwarze Menschen als Gorillas geteckt werden, zum Beispiel, in so einer Google API? Warum zum Teil auffallen, das nimmt man auf. Man sollte die eigenen Tests halt testen. Man sollte sich mal anschauen, unsere Tests, was decken die Engler ab? Und dann gibt es diesen lustigen Begriff der Edge Cases, die halt der Begriffe impliziert, ist halt irgendwo so am Rand nicht so wichtig. Ja, die fallen quasi schon aus unserer Userbase raus. Brauchen wir uns nicht darum kümmern. Ist aber Blödsinn. Das sind sehr viele Air Stress Cases, die nämlich das System, das man so erstellt und dann gewissen Druck bringen, um zu zeigen, wie verlässlich eigentlich dieses System tatsächlich ist. Beispiel Facebook hat diese lustige Funktion Facebook Memories. Wir zeigen dir, was du heute vor X Jahren getan hast oder halt bei uns gepostet hast. Und da gibt es immer wieder Fälle, wo Leute an unangenehme Erlebnisse erinnert werden, beispielsweise, dass irgendwelche nahe stehende Personen gestorben sind, zu sagen. Das ist deswegen, weil sich die Leute bei Facebook dacht haben, so wie erinnern die Leute an Dinge, die sie gepostet haben, die viel Feedback verursacht haben. Das war was Wichtiges. Daran wollen die Leute erinnert werden. Und auf Facebook postet man nur schöne Dinge. Wer postet bitte auf Facebook schöne Dinge? Also ich weiß nicht, ich rennt hauptsächlich, wenn ihr mal was postet. Es ist halt so diese falsche Erwartungshaltung oder die falsche Annahme, wie das System eigentlich benutzt wird. Da war es dann, dass man seine Erwartungen und Ideen validiert. Und wenn man draufkommt, okay, irgendwie gibt es da Use Cases, an die haben wir nicht gedacht, dann sollte man das halt anpassen, was man sich da gedacht hat. Ha, ich war zu schnell. Ihr habt es gesehen, ihr habt da ganz brav mit Quellen um mich geworfen, das schaut nun so aus. Unlesbar. Deswegen wer noch Fragen hat, also wir haben jetzt nur jede Menge Zeit für Q&A, für Diskussionen. Ich freue mich über so was immer massiv. Ansonsten könnt ihr euch bei mir melden, dann schaue ich, dass ihr irgendwie die Folien zukommen lasst, damit ihr auch die Quellen kriegt. Grundsätzlich gibt es halt drei Sachen, die mir wichtig sind, das sind die Bücher eben von Sarah Böttcher, das ist technisch wrong, also 19 und 16 sind das, von Claire Evans, Broadband, The Untold Story of the Women Who Made the Internet und von Michelle Alexander, The New Jim Crow, mass incarceration in the age of color blindness. Also da geht es halt aus verschiedenen Blickwinkeln im Endeffekt darum, wie halt Systeme falsch funktionieren, beziehungsweise die Sarah Wachter-Böttcher geht da auch mal quer durch, fangt an beim hiring system zum Beispiel, wie überhaupt so Monokulturen in der IT entstehen, die dann eben dazu führen, dass nur weiße Menschen in der Entwicklung von einer Bilder-API drinnen sitzen. Also wie das passiert, bis hin zu eben dann auch Sachen, wo sie sich dann überschneidet mit der Michelle Alexander, mit der Ungerechtigkeit im Legal System in den USA. Und Claire Evans hat eben einfach mal so richtig die Geschichte des Internets aufgearbeitet und geschaut, wo haben da eigentlich Frauen ihre Finger im Spiel gehabt, wo dann eben auch das Zitat von der Kathy Marshall herkommt, dass Menschen, die sich mit den News und Beschäftigten eben an den Rand gedrängt werden in der Informatik sehr oft. Genau. Danke.