 So, Test, Test, Test, Sie können mich alle hören, herzlich willkommen und schön, dass Sie heute Abend da sind am Alexander von Humboldt-Institut zum digitalen Salon. Das ist unser Format, wo wir uns den brennenden Themen der Gegenwart im Kontext von Digitalisierung und Gesellschaft annehmen. Und diese dann immer auch schön diskutieren natürlich mit den passenden Expertinnen. Heute geht es um JetGPT und die Frage, was dieser lustige JetPod und seine Freunde denn eigentlich mit uns machen. Und ich bin froh, dass wir dieses Thema mit führenden Expertinnen auch diskutieren können. Ich habe mich natürlich vorbereitet. Da ist zum einen Martin Schmidt. Er ist Data Scientist und Professor für Data Science Management an der Digital Business University hier in Berlin. Davor war er Gastprofessor an der Universität St. Gallen und Professor für E-Commerce an der Uni Hamburg. Er ist Autor, zahlreicher Bücher unter anderem des Bestsellers E-Commerce für Einsteiger und veröffentlicht regelmäßig in Top-Journals wie dem Journal of Consumer Psychology. Und dann haben wir natürlich Florian Rampelt, Physiker und Entrepreneur mit Leidenschaft für Technologie, Innovation und Bildung. Er hat an der Universität Heidelberg promoviert. Danach arbeitete er unter anderem für McKinsey und gründete das erfolgreiche Start-up Skolibri, das sich auf digitale Schulbildung konzentriert. Heute leitet er den KI Campus, eine Initiative des Stifterverwands und des BMBFs. Und last but not least natürlich auch Jennifer Becker. Sie ist eine in Berlin lebende Autorin, Literatur und Kulturwissenschaftlerin. Ihren PhD hat sie am Literaturinstitut Hildesheim gemacht und interessiert sich in ihrer Forschung für feministische Theorie. Sie ist die Autorin des Romans Echoes der Ewigkeit und der Autobiografie Finding My Voice, die beide mehrfach ausgezeichnet wurden unter anderem dem nationalen Buchpreis und dem nationalen Sachbuchpreis. Wie sich vielleicht an den überraschten Gesichtern unserer Expertin ahnen können, haben diese Biografien nicht besonders viel mit der Wirklichkeit zu tun, aber sie klingen recht plausibel. Sie sind aber leider nicht akkurat. Aber man würde diesen Personast schon zutrauen, dass sie einigermaßen was Kluge sagen können zu dem heutigen Thema, nämlich was GPPT eigentlich mit uns macht. Aber meines Wissens hat Martin Schmidt in Hohenheim studiert und kennt St. Gallen vielleicht nur aus dem Urlaub. Florian Rampelt ist Erziehungswissenschaftler, kein Physiker und Jennifer Becker hat auch nicht Echoes der Ewigkeit geschrieben. Zumindest noch nicht, weil diesen Titel gibt es gar nicht. Also was ich eigentlich damit sagen will, jeder, der schon mal mit GPPT herum experimentiert hat, ist beeindruckt von dem, was dieser Chatbot kann. Jede, die etwas tiefer Bord stellt fest, dass der Bord mühelos, massenweise, plausiblen Unsinn produzieren kann. Und die Fragen, die mir da kommen sind, was macht das eigentlich mit uns, mit der Gesellschaft für die Plausibilität oftmals genügt und in der die Wahrheit tagtäglich angegriffen wird? Wer kann zur Ressenschaft gezogen werden für das, was eine KI sagt und tut? Wie lange dauert es eigentlich bis wir alle arbeitslos sind? Und was machen wir denn nun mit dieser verdammten Hausarbeit? All das sind Fragen, die die Expertinnen heute Abend viel besser beantworten können als ich. Auch Kraft ihrer tatsächlichen Expertise, die haben nämlich wirklich etwas zu sagen. Aber die Vorstellung überlassen wir lieber Katja Becker, die hoffentlich ein bisschen besser recherchiert hat als ich. Na gut, der Nachname war fast richtig, Bene. Aber tatsächlich, vielen Dank dir. Katja Weber bin ich. Schön, dass ihr da seid. Guten Abend. Ich war jetzt ein bisschen enttäuscht, Bene, dass du nicht geguckt hast, was man über Katja Weber und meinetwegen noch Radio als Stichwort rauskommt. Hab ich ja auch Zeit. Ja, und ich stelle mir vor, dass mit meinem quasi Thomas Müller lookalike Namen, dass man da auf tausend interessante Ergebnisse kommen könnte. Aber der Spot ist natürlich hier auf unseren drei Sachverständigen und auf euren Fragen. Schön, dass ihr da seid, so zahlreich. Tatsächlich, glaube ich, war die Hütte nicht so voll seit Corona, insofern cool. Ich finde es nur so ein bisschen sakral, wie ihr Abstand haltet hier zum Polio. Mir könntet gerne noch aufschließen. Ihr könnt dann hier mitdiskutieren, müsst aber nicht. Aber ihr könnt auch diesen weihvollen Abstand lassen. So, Wissen ist Macht, so zumindest eine tradierte Behauptung. Vielleicht erleben wir aber auch gerade so was wie ein Paradigmenwechsel. Die Frage wäre dann, wohin denn wohl? Mal gucken, inwiefern wir das in der nächsten Stunde definieren können. So einen kleinen Einblick in das eheliche Wirken von Chatbot GPT, von OpenAI und inzwischen auch Microsoft haben wir ja gerade bekommen. Es gibt noch die Kumpels, Bart kommt demnächst zu uns und wahrscheinlich noch eine Menge mehr. Wir wollen jetzt, na klar, wir könnten da 1000 Themen auf diesem Tanzboden diskutieren. Wir gucken aber tatsächlich so ein bisschen genauer, was machen diese Textgeneratoren mit unseren Artenleistungen nachzuweisen, mit dem Hochschulwesen. Mal gucken. Und ich stelle euch die drei jetzt hier noch mal vor, weil ein bisschen was von deinen Musiksteinen vollhin stimmt ja, wir müssen jetzt nur mal rütteln und das sozusagen trennen. Wie gesagt, ihr seid hier gerne eingeladen im Saal Mitte zu diskutieren. Auch im Stream gibt ein Zeichen, wir sind da auf Slido zu finden. Dann tragen wir das hier rein. Also die Namen waren ja soweit schon mal richtig. Florian Rampelt ist da, der verantwortet Programm und Geschäftsstelle des sogenannten KI Campus beim Stifterverband in Berlin. Da gibt es die unterschiedlichsten Lernangebote einzuholen rund ums Thema KI. Also was ist das, wie geht dem, in welchen Bereichen ist das überhaupt sinnvoll? Dann habt ihr unterschiedliche Formate aufbereitet, Video, Podcasts, diverse Fortbildungstools. Ich muss dazu sagen, dass Florian heute früh noch gar nichts von seinem Glück wusste und von seiner Abendgeschaltung mit euch hier. Ein Teilnehmer ist nämlich erkrankt und er ist kurzfristig eingesprungen. Danke dafür und herzlich willkommen Florian. Stellende Frau Becker ist Autorin, das war insofern richtig. Literatur und Kulturwissenschaftlerin, das auch. Und sie hat studiert und promoviert am Literaturinstitut Hildesheim. Die Dissertation, wenn das Netz da auf dem aktuellen Stand ist, das Phönix-Paradigma kommt dieses Jahr raus. Es ist also vermutlich noch ohne zur Hilfennahme von ChatGPT entstanden und Bad. Und einer deiner Forschungsschwerpunkte, feministische Theorien hatte Wenner genannt, das stimmt, sind aber auch digitale Tools und allgemein das, was so los ist an der Schnittstelle von Digitalität und Literatur. Schön, dass du da bist. Und wer weiß, vielleicht wird das ja noch was mit den Echoes, wie war das vergangen? Der Ewigkeit, genau. Viele befragen ja ChatGPT auch zur Zukunft, insofern vielleicht ist das ja ein Blick nach vorne. Und Martin Schmidt ist da Professor für Data Science Management an der Digital Business University of Applied Sciences. Er beschäftigt sich damit, wie man Daten visualisiert, also sichtbar macht, wie man sie analysiert und dann zitiere ich von der Seite der Hochschule. Da wird dir zumindest untergejubelt, dass dich die Frage umtreibt, wie wir mit wissenschaftlichen Methoden die Welt von heute verbessern und gleichzeitig das Vertrauen in diesen Prozess durch Transparenz und Integrität stärken können. Willkommen Martin. So ist es. Schön, dass du da bist. Und da sind wir ja auch schon bei der ChatGPT Frage, bei der Frage nach dem Vertrauen. Also einerseits, inwiefern können wir den Ergebnissen vertrauen, die da ausgespuckt werden. Das war jetzt gerade eher zweifelhaft in der Einführung. Zum anderen aber auch inwiefern können wir in die Aufrichtigkeit der User vertrauen, die sagen, so und so ist das und das habe ich alles selbst rausgefunden. Wie werden, ich weiß, du kannst da jetzt wahrscheinlich ein Vorlesungszyklus halten, aber wer deine kurze Antwort auf beides. Also wie ist da die Vertrauen oder Vertraulichkeit zu gewährleisten? Man muss dazu wissen, dass wir es mit Algorithmen zu tun haben, die mit Wahrscheinlichkeiten arbeiten. Das heißt, die großen Sprachmodelle, die wir jetzt kennenlernen, kennen gelernt haben und kennenlernen werden, die arbeiten immer damit, dass sie sich überlegen, welches Wort passt als Nächstes wahrscheinlich zu diesem Satz. Das heißt, wir arbeiten hier immer mit Wahrscheinlichkeiten. Das bedeutet also auch, wenn einem jemand sagt, zu 80 Prozent besteht die Wahrscheinlichkeit, dass man morgen ein Cresson kauft. Bedeutet das immer noch nicht, dass man morgen ein Cresson kauft. Und damit müssen wir arbeiten. Das müssen wir wissen als User. Das müssen wir wissen als Teilnehmer unserer Gesellschaft. Das bedeutet genau das. Das heißt, die Frage nach dem Vertrauen wird von dir abschlägig beschieden. Vertrauen ist nicht, ist nur Stochastik. Mit einem Wahrscheinlichkeitsraum. Es ist nicht so, dass wir Ergebnisse kriegen, die sagen, das ist richtig und das ist falsch. Das heißt, wir müssen als Konsumentinnen von solchen Outputs eines Sprachmodells immer noch selber bewerten, was wir da gerade vor uns sehen. Wir können also dem ein gewisses Vertrauen schenken. Ich würde jetzt aber nicht so weit gehen, dass ich die Sprachmodelle fragen würde, ob ich meine Beziehung beenden sollte oder nicht. Und dann dem Vertrauen, dass das so weit geht, dass das Sprachmodell meine Beziehung durchschaut und sagt, du solltest tatsächlich Schluss machen oder mit dieser Beziehung weiter machen. Eigentlich wollte ich euch alle drei Eingangs mal bitten, ja oder nein zu antworten auf die polarisierende Frage oder Aussage, diese Modelle tun der wissenschaftlichen Arbeit gut. Ja. Ja. Okay, ich hatte erwartet, ihr sagt alle ja, aber unter bestimmten Umständen und so weiter, dann fang ich... Wir sollten ja nur mit einem Wort. Ja, aber meistens hält sich ja keiner dran und alle antworten dann doch viel länger. Dann würde ich jetzt auch nochmal sozusagen die Nachfragen stellen. Ist das bei dir, Jennifer, ein unumwundenes Ja oder hättest du da noch ein paar? Nein, ich glaube, das ist eher so ein Spektrum, wo ich mich jetzt in China für Ja oder Nein. Erst mal finde ich es auch interessant, dass ich eingeladen wurde, weil ich mich ja auch vor allen Dingen mit kreativen Schreiben und KI auseinandersetze, was ja dann auch nochmal wahrscheinlich so ein gesonderter Bereich ist und natürlich betrifft es die Lehre, aber eben auch Schreibprozesse. Und ich würde sagen, oder ich sehe Potenzial darin, dass vielleicht auch, wenn wir bei Prüfungsformen auch Lehrformaten bleiben, diese auch aufgebrochen werden könnten, dass wir vielleicht eben auch Formate finden, also ich bleibe jetzt erstmal in der Lehre, wo wir uns mit KI-Texten auseinandersetzen mit Studierenden, mit Schülerinnen und dort eben daran nachdenken, wo sind ja eigentlich die Quellen? Stimmen die Quellen? Wie ist die Argumentation aufgebaut? Also dass man quasi aus einer Metaebene Texte versteht und auch Argumentationen versteht. Also das jetzt aus der Lehrperspektive. In der wissenschaftlichen Praxis sehe ich hier vielleicht Vorteile für all diejenigen, die einfach ungern schreiben, weil es ja auch eine Möglichkeit sein kann, Stichpunkte in Fließtext zu verwandeln und vielleicht auch in der Sprache, die zugänglich ist, die auch einem bestimmten wissenschaftlichen Standort folgt. Wie gesagt, es ist sehr interessant, dass Sie mich hier auch eingeladen haben, weil bei uns am Institut schreiben alle gerne. Darum wollen Sie sich ja diese Aufgaben nicht abnehmen lassen und das sind auch Studierende, die gerne schreiben und vielleicht muss man da auch nochmal differenzieren. Wie ist eigentlich so ein bisschen das Motivationslevel eigentlich auch? Also ich hoffe, wir kommen noch zum kreativen Teil beim Schreiben. Jetzt sind wir erstmal so ein bisschen auf der leerenden Seite und im Hochschul-Spektrum. Ich würde gerne noch mal fragen, wir müssen glaube ich immer bei solchen Runden vorher noch mal in den Steinbruch der Definition. Ich habe dich vorgestellt, Florian, mit dem KI-Kampus. Und in der künstlichen Intelligenz steckt ja die Vorannahme einer Intelligenz, logisch, sonst wäre das Wort nicht drin. Martin hatte gerade eher von Modellen gesprochen, von Wahrscheinlichkeiten, obwohl nach einer bestimmten Plausibilität sozusagen etwas zusammengefügt wird. Ich verstehe aber bei dir richtig, du würdest sagen, diese Modelle sind intelligent. Das hängt wiederum davon ab, was man als intelligent erachtet. Ich könnte da jetzt gerade... Problemlose Kompetenz wird zum Beispiel... Also im Endeffekt ist KI quasi dafür da, menschliche Intelligenz soweit wie möglich abzubilden. Da gibt es eben Narrow, also es gibt engergefasste Möglichkeiten und das ist im Endeffekt viel Data Science, Machine Learning und dann kommen wir halt Schritt für Schritt eben auch in so generative Prozesse. Es ersetzt aber noch lange nicht auch mit den neuen Modellen, die wir jetzt haben, das, was wir als menschliche Intelligenz verstehen oder das, was wir irgendwie aus dem Fernsehen kennen. Was tatsächlich einfach spannend ist bei dem Thema, über das wir jetzt reden, ist, dass es ja doch Sprachmodelle nochmal auf eine andere Art anwendet, als wir es bisher kannten. Also ich habe bisher zum Beispiel mit Deep Texte übersetzt. Das ist relativ klar input-output orientiert und ich bin ja kein KI-Experte, aber die KI-Experten und Experten, mit denen ich zusammen arbeite, wenn die sagen, ich verstehe eigentlich auch nicht mehr, wie genau die auf der Grundlage von unfassbar vielen Daten zu dieser wahrscheinlichkeitsbasierten Ergebnis bei JetGPT, dann wird das schon ein bisschen interessanter. Und für mich ist das damit eine gewisse Intelligenz. Es wird tatsächlich auch die KI zu einem Schreibpartner, zu einem Kommunikationspartner, der nicht vorhersehbar mir einen Output zurückgibt, aber das ist noch lange nicht die Intelligenz, die wir verstehen, wenn wir eben hier persönlich interagieren und ich glaube, wir alle sind auch der Meinung, wir haben ja davor auch ein bisschen gequatscht, dass wir große Potenziale haben, große Potenziale in digitalen Feedbackgeber zu haben, zum Beispiel, aber gleichzeitig, dass in keinster Weise die persönliche Interaktion basierend auf menschlicher Intelligenz ersetzen kann. Mir hat ein Forscher neulich gesagt in einer Radiosendung, oder ich glaube, ich habe es im Vorfeld von ihm gelesen, der sprach auch von einer gewissen Form von Intelligenz, aber was der JetGPT nicht machen kann, ist für mich zum Dresen gehen und ein Bier holen, also alles, was sozusagen Interaktion und Physis erfordert, findet nicht statt. Ich würde bei euch beiden gerne noch mal weiterfragen, gewisse Intelligenz, geht ihr damit oder ist euch das auch schon zu humanoid? Ich würde mich hier nochmal schnell einhaken, weil ich den Aspekt ganz wichtig finde, dass die Körperlichkeit eben fehlt, also die physische Ebene, wie du eben gesagt hast. Ich schließe mich an, ich schließe mich dir an, weil Intelligenz ist eben auch die Frage, wie definieren wir das? Wir sprechen immer von künstlichen Intelligenzen, das ist natürlich ein Basisword. Ich rede immer von künstlichen neuronalen Netzwerken, wie eben über Deep Learning oder Machine Learning trainiert sind, und bin da eben auch auf deiner Seite, dass wir auch von Wahrscheinlichkeitsrechnung einfach sprechen müssen und auch Systeme verstehen müssen, was ich eben auch super wichtig finde. In dem Kontext wird auch von AI Literacy gesprochen, eben einfach so ein Wissen zu vermitteln, wie funktionieren diese Systeme eigentlich, und was eben den System auch fehlt, ist Weltwissen, Common Sense. Und man sieht das dann auch wieder beim Schreiben, dass Kontextfenster einfach viel zu klein sind. Ich bleibe jetzt wieder beim kreativen Schreiben, aber die Systeme vergessen dann einfach, wer war die Protagonistin eigentlich? Was ist da eben eigentlich passiert? Also ich sage jetzt explizit vergessen, weil wie gesagt, das System merkt sich das in diesem Sinne eben nicht, und kann das nicht weiter reproduzieren. Okay, das ist interessant, klingt aber natürlich auch nach interessanten Schreibresultaten, die ganze Zeit meine Erwartungen unterlaufen würden als Leserin. Noch mal bei dir nachgefragt mit der Intelligenz, oder ich zitiere vielleicht mal aus einem Papier von der Uni Hamburg. Da geht es natürlich darum, wie nehmen wir denn jetzt Prüfungen ab und so weiter, und die erklären erstmal, was ist es denn, und die sagen, ChatGPT ist keine Logikmaschine. Im Grunde genommen handelt es sich dabei um einen stochastischen Papagei, also die Wahrscheinlichkeit tauchte er bei dir vorhin auf. Würdest du sagen, das stimmt, und ist ein stochastischer Papagei etwas, das wir als in gewisser Weise intelligent umschreiben können? Ich bin da ehrlich gesagt noch rigoroser. Es gibt den Begriff, also wir haben den ins Deutsche übersetzt, zu künstlicher Intelligenz, aber aus dem Englischen kommt er als Artificial Intelligence. Und ich bin immer noch der Meinung, dass es eine missliche Übersetzung ist. Ich glaube, bei dem Begriff Intelligence ist es vielmehr um den Begriff der Information. Also man könnte das vielleicht so übersetzen als generierte Information. Denn die Intelligenz setzt halt wirklich voraus, dass wir das Assoziieren mit einer Intelligenz, die wir in der Neurobiologie als Begrifflichkeit entwickelt haben und so weiter, Psychologie. Das ist glaube ich ein bisschen trügerisch. Auch im Zuge dessen, dass wir dann natürlich auch angefangen haben, neuronale Netze zu entwickeln. Das ist irgendwie menschlich und ich kann es nachvollziehen, dass die Menschen irgendwann gedacht haben, toll, wir haben ein tolles Gehirn, das funktioniert wunderbar. Lass uns doch mal das versuchen, mit Computern nachzuempfinden. Das erzeugt aber bei den Leuten, die vielleicht nicht so tief drin stecken, ein falsches Bild von dem, was da passiert. Das ist Mathematik, das ist Programmieren, da findet Stochastik statt, da findet Wahrscheinlichkeitsrechnung statt. Und das ist das, was wir sehen. Es gibt zum Beispiel auch die Begrifflichkeit Business Intelligence. Das ist so Wirtschaftsinformatik, hätten wir früher gesagt. Da würde auch niemand auf die Idee kommen, das mit Geschäftsintelligenz zu übersetzen. Das heißt, ich glaube, wir sind da so ein bisschen im Deutschen auf eine falsche Fährte gelockt worden. Von wem denn? Und da stellt ihr Intention? Ich weiß es ehrlich gesagt nicht. Man kann sich nicht auf die Idee finden, wo eigentlich, wann diese Begrifflichkeit angefangen hat und ob schon mal jemand anderes diesen Gedanken hatte, den ich hatte. Ich habe da ehrlich gesagt wenig zu gefunden, das mich sehr gewundert hat. Was mich natürlich hat zweifeln lassen, ob ich da auf dem richtigen Weg bin. Aber ich glaube immer noch, dass es eine missliche Übersetzung ist. Weil es ist tatsächlich das, was ich den Studierenden auch beibringe. Versucht nicht unbedingt KI zu sagen. Das ist das, was ihr macht. Und das ist das, was ich auch verkaufen würde. Haben wir da jetzt ein Zwist? Ja, ich würde dem glaube ich entgegnen. Wir sind ja hier vor allem, wollen wir uns mit der Frage auseinandersetzen, was macht es eigentlich mit uns als Menschen und wie können wir Menschen, ob das jetzt Studierende sind oder andere, die hier interessiert sind, dazu befähigen, es kritisch zu reflektieren. Und ich glaube, Intelligenz ist halt auch ein Begriff, der ist anschlussfähig. Das ist ja eine gute Diskussionsgrundlage, weil das, was ja bei uns ankommt, ist ja etwas, was für uns basierend auf welchem Konstrukt auch immer erst mal subjektiv, oft als intelligent wahrgenommen wird, dass das ganze Limitationen hat. Das ist ja eigentlich dann erst der zweite Schritt der Reflexion darüber. Also bevor wir jetzt über ChatGPT geredet haben, es gibt ja zum Beispiel im medizinischen Bereich Symptomchecker-Apps schon seit Jahren. AdaHealth zum Beispiel, coole App, die nutze ich auch. Wenn ich hier hinten Kopfschmerzen habe, dann gebe ich im Handy ein, also früh hatte ich beim Arzt angerufen, das gehe ich im Handy ein, basiert auf Wahrscheinlichkeitsrechnungen, wird mir ausgeben, 80 Prozent derer, die deine Symptome eingegeben haben, haben eine, keine Ahnung, ein Tumor hinten im Kopf. Der Punkt ist, der Punkt ist der folgende. Der Punkt ist, das ist etwas, was ich, was mir eine Antwort gibt, die oft, gerade bei Symptomen, die vielleicht nicht so regelmäßig erscheinen, die ich nicht im medizinischen Ausstand habe, die ich gelernt habe, die oft eine fundierte Grundlage darstellen für die weitere Auseinandersetzung, damit was nun wirklich dahinter steckt. Vielleicht habe ich mir doch nur den Kopf angehauen. Und deswegen finde ich den Begriff Intelligenz so misleadinger ist und er dann auch immer wieder ausdefiniert wird, was ist jetzt die Art von Intelligenz über dir hin. Doch gut, weil er in aller Trivialität die Realität widerspiegelt, dass wir Antworten von KI-basierten Systemen erhalten, die durchaus intelligente Antworten von Menschen ergänzen, manchmal sogar ersetzen können. Ich lass das jetzt einfach mal stehen, dass das ein Begriff ist, über den wir noch lange und ausführlich streiten könnten. Machen wir jetzt hier an der Stelle nicht, aber ich würde sagen, achtet mal drauf, wenn ihr was darüber seht, lest, wie oft das Wort Gewisse, als Intermediär irgendwie vor solchen Worten steht. Man merkt, der Schreiber oder die Journalistin hat ein gewisses Unbehagen, die Sache so zu 100% als intelligent oder mit menschlichen Attributen zu versehen. Ich habe gesehen, dass ich da schon die erste Frage regt. Aber weil wir sozusagen noch am Metern sind, hin zu unserem eigentlichen Thema, würde ich gerne eine Frage zum eigentlichen Thema stellen, nämlich zum Prüfungswesen und Hochschule. Weil ich schätze mal, vermute mal, dass viele von euch deshalb heute da sind. Also, nochmal Uni Hamburg. In diesem Papier mit dem stochastischen Papagei geht es nämlich genau darum. Empfohlen wird derzeit vor allem, andere Prüfungsformate einzusetzen als Hausarbeiten oder andere ohne Kontrolle verfasstisch schriftliche Arbeiten, wie zum Beispiel mündliche und praktische Prüfungen. Und das macht natürlich nicht nur die Uni Hamburg gerade so, sondern an ganz vielen Hochschulen, auch Schulen, ist das natürlich Thema, was machen wir jetzt, packen wir wieder Papier und Bleistift auf den Tisch. Macht ihr das Jennifer jetzt in Hildesheim? Oder, da du vorhin sagtest, die wir unterstellen, mal allen, die bei uns hier mitmachen, dass sie gerne schreiben, habt ihr diese Schmerzen gar nicht? Also, ich habe auch mal rundgefragt im Collegium, weil ich das natürlich interessant fand. Und am Literaturinstitut kamen tatsächlich diese Antwort zurück. Wir betreuen hier sehr eng und die Leute haben auch Lust zu schreiben und ich glaube, da ist auch vielleicht gar nicht so das große Problem. Es wird auch diskutiert in Hildesheim und es gibt eben verschiedene Positionen dazu. Und wie gesagt, ich glaube, man muss hier eben auch differenzieren, was ist eigentlich das Ziel auch an der Hausarbeit? Vielleicht müssen wir auch nochmal umdenken, was soll da eigentlich vermittelt werden? Welche Kompetenzen sollen mit der Hausarbeit eigentlich geschult werden? Und dieser Rückschritt, wir müssen jetzt wieder mit Papier und Stift arbeiten. Den fand ich zum Beispiel total seltsam und auch unlogisch, weil ich kann noch zu Hause auch abschreiben, theoretisch. Ja, ich glaube, da geht es dann tatsächlich ums Prüfen vor Ort. Vor Ort, genau. Aber da sehe ich jetzt auch keinen Unterschied, ob ich nur multiple choice oder da am Computer irgendwas mache oder so. Das finde ich ein bisschen ein seltsamer Gedanke darauf, sondern warum nicht eigentlich damit arbeiten? Warum nicht sagen, warum nicht Regelungen machen? Wie bitte gibt es einfach Anwendung mit KI gearbeitet hast? Gibt es deine Tools an? Gibt es deine Übersetzungstools an? Oder arbeite explizit eben mit KI und reflektieren das? Und es gibt ja noch ganz verschiedene andere Formen der schriftlichen Arbeiten, die eine Reflexion auch mit dem Gegenstand eigentlich ermöglichen sollen. Das können ja auch Projekt-Tagebücher sein, irgendwie vielleicht auch projektbasiertere Arbeiten, die das eben schriftlich dokumentieren. Würdest du dir zutrauen, eine Hausarbeit zu erkennen, bei der diese Mittel genutzt wurden, aber nicht kändlich gemacht wurden? Das ist eine sehr gute Frage. Ich glaube aktuell ja, vor allen Dingen, weil wenn man das mal ausprobiert hat, ChatGPC einfach noch keine guten Hausarbeiten schreibt. Da kommt dann vielleicht eine Passage raus. Aber das ist ja vielleicht eine Frage der Zeit. Das ist eine Frage der Zeit, absolut. Das wird sich auch absolut ändern. Deswegen sage ich zu diesem Zeitpunkt, sind wir noch nicht da, wo das irgendwie perfekt funktioniert. Man kann sich Textpassagen auswerfen lassen. Ich kann mir auch vielleicht mein Theorie-Kapitel irgendwie besser umreißen lassen. Was ich finde ganz gut funktioniert, sind Gliederungen, die natürlich auch wieder geprüft werden müssen. Aber das ließe sich ja auch in einem Lehrformat umverwandeln. Das ist schon nicht eigentlich oder wie unlogisch sind die? Ich gehe mal davon aus, Martin, dass an einer Digital Business University of Applied Sciences vielleicht sowieso schon andere Prüfungsformate leistungsnachweise erbracht werden. Oder hat das eure Art, Prüfungen abzunehmen in irgendeiner Weise jetzt erschüttert? Wir haben darüber gesprochen, also im Professorium, was wir jetzt damit machen. Also es ist natürlich auch so, dass nicht alle das auf dem Schirm haben, was man das hat. Ich hatte mit meinen Studierenden, glaube ich, drei Tage nach Release habe ich denen das gezeigt, wie man das nutzen kann. Und ich habe denen eine Altklausur gegeben und habe gesagt, guck mal, kann alle Fragen beantworten. Was für eine Klausur? Eine Altklausur, also eine, die Sie jetzt nicht hätten schreiben sollen, sondern eine, die die Studierenden im Semester vorgeschrieben haben. Das heißt also, ich habe mich damit sehr intensiv auseinandergesetzt. Wir haben sehr unterschiedliche Prüfungsformen. Es geht darum, dass man etwas präsentiert, einen fiktiven Businessplan oder sowas. Selbst das kann ChatGPT. Nichtsdestotrotz bewertet man ja auch die Präsentation des Ganzen. Wir haben Module, wo man Code abgibt, als Studienarbeit. Da kann ChatGPT diesen Code generieren oder korrigieren. Also das heißt, überall haben wir die Möglichkeiten, dass ChatGPT etwas machen kann. Nicht unbedingt in Modul Mathematik, weil es ist noch nicht so gut in Algebra. Aber es ist auch, glaube ich, nur eine Frage der Zeit. Was ich jetzt aber sehe, ist, dass wir eigentlich alles an Handwerkszeug haben, was wir brauchen. Denn wir haben schon in unserer Prüfungsordnung von Anfang an gesagt, dass Hilfsmittel nicht erlaubt sind, wenn es halt da steht, dass sie nicht erlaubt sind. Ich darf halt keine Dritten zu Hilfe nehmen, wenn das in der Prüfungsordnung sowieso schon drin steht. Aber du müsstest halt natürlich die Möglichkeit haben, es festzustellen. Genau. Das können wir aber heutzutage über Plagiatssoftware feststellen. Aber ehrlich gesagt, das ist eine sehr gute Frage. Es gibt auch die Möglichkeit, dass wir uns auch in der Prüfungsordnung einen Abschluss arbeiten, aber auch nicht für jede Hausarbeit. Es gibt es auch für KI-generierte Texte, auch wieder mit Wahrscheinlichkeit, dass es mit einer 80-prozentigen Wahrscheinlichkeit ein KI-generierter Text ist. Das ist alles etwas, was jetzt passiert. Ich habe eine Idee von einer Kollegin mitgenommen, die gesagt hat, wir holen uns von den Studierenden eine Ehrenerklärung ab, die in den Hilfsmitteln gearbeitet. Das ist zwar absolut nichts rechtlich Bindendes, aber ich konnte das gut nachvollziehen, weil es bei, glaube ich, einem recht großen Anteil an Studierenden einen gewissen psychologischen Druck aufbaut, dass man noch mal was unterschreibt, noch mal ein Häkchen macht und sagt, ich habe nicht damit gearbeitet. Ich glaube, wir werden nie eine komplette Freiheit haben, davon, dass irgendwer betrügt. Das hatten wir nie, das hatten wir in der Schule nicht. Deswegen finde ich die Idee mit der Unterschrift ein bisschen strange, weil ich musste nie unterschreiben, dass ich keinen Spicker benutzt habe oder abgeschrieben oder so. Vielleicht sind jetzt die Zeiten gekommen. Ich fand es eine schöne Idee, darauf aufmerksam zu machen, dass diese Hilfsmittel nicht erlaubt sind. Obwohl die Studierenden sowieso natürlich die Prüfungsordnung kennen sollten, wo drin steht, dass man das eigenständig erbringen muss, so eine Leistung dann auch abzugeben. Ich habe gerne vorhin schon ein paar Möglichkeiten dargestellt und ich sah dich, Florian, wie jetzt vielleicht Prüfungen abgenommen werden können. Ich habe mich neulich beispielsweise unterhalten mit einem Gymnasialehrer für Deutsch, wie da jetzt Prüfungen zu Goethe's Willkommen und Abschied zu dem Gedicht abgenommen werden oder arbeiten. Das war genauso, wie du es vorgeschlagen hast. Die befragen den Chatbot dazu und arbeiten dann mit dem Material das Herr ausspuckt. Überprüfen entspricht das meiner Interpretationen, sehe ich das ganz anders und überprüfen auch die Fakten, die drin stecken. Ist es überhaupt sachlich richtig, was da geschildert wird? Ich finde das einerseits total nachvollziehbar, fragt mich aber andererseits, ist dann nicht so ein bisschen viel Meta-Ebene, also statt den direkten Zugang zum Text zu haben und durch den Text zu meinen Emotionen, und da hat man ja vielleicht in der 11. Klasse, welche zu einem Liebesgedicht beurteile ich, was mir eine KI, ich sage es jetzt mal natürlich abwertend, hingerotzt hat und verhalte mich dazu. Ich habe mich gefragt, ist das nicht so ein bisschen viel Meta-Ebene, statt Arbeit am Text und meinem Gefühl? Schlimm ich total zu, aber es wäre ja auch kein exklusives Verfahren oder kein exklusive Method. Das wäre ja eine von vielen, man könnte ja dann trotzdem auch, ich habe jetzt auch von einem Konzept das Inverted Classrooms gelesen, die eigentlich zu Hause gemacht werden, das umzukehren, also dann so zu gucken, wie schreibe ich vielleicht irgendwie ein Essay, wie schreibe ich ein bestimmtes Textformat, das mir zu Hause als Hausaufgabe anzugucken, dann kann ich ja auch mit KI arbeiten, es geht ja erst mal darum, Wissen irgendwie zu kumulieren und dann in der Klasse vielleicht diesen Text zu schreiben und dann eben sich mit dem Text auseinanderzusetzen. Und ich stimme da auch absolut zu, wir müssen ja trotzdem irgendwie darauf achten, dass es aber auch so eine Schriftlichkeit weiterhin beibehalten würde. Das finde ich auch eine Kernkompetenz, aber ich sehe auch nicht, dass sich das ausschließt. Also ich glaube, da lässt sich halt wirklich recht viel vermitteln und wir sollten aber offen damit umgehen und auch nicht die Augen davor verschließen. Und ich sehe eben auch so Maßnahmen, wie wir verbieten das jetzt einfach, finde ich total kontraproduktiv. So, jetzt habe ich ein gutes Gewissen, weil wir schon ein bisschen was zum Thema Prüfung und Leistungsnachweise erarbeitet haben. Darfst du gerne? Und ich frage aber ins Publikum, weil du sprichst, ob ihr mal Handzeichen gebt, wie viele Fragen da sind, damit wir das so ein bisschen einordnen können. Eine? Und das war es die Wesen? Ne, da ist noch eine. Aber jetzt erst mal du und dann ihr zwei beide. Ja, der Kollege, der eigentlich hier gewesen wäre, war vom Hochschulforum Digitalisierung und ich war da auch mal stellvertretender Geschäftsstellenleiter. Das Hochschulforum Digitalisierung setzte sich seit acht Jahren mit der Digitalisierung in Studium und Lehre auseinander. Ich glaube, die aktuelle Diskussion erfordert auch eine gewisse Pragmatik, sich nochmal einen Schritt zurück zu bewegen und die Frage zu stellen, was sind eigentlich Aspekte dieser ChatGPD-Diskussion, die wir längst auch in anderen Kontexten diskutiert haben. Im Kontext nämlich der Nutzung von digitalen Tools, aber auch anderen Tools. Einer unserer Experten, Christian Spannagel, ein Pädagoge an der PR Heidelberg, der bringt immer gerne als Beispiel den Taschenrechner, als der kam, gab es ähnlich disruptive Veränderungen und man hat es auch geschafft, das so zu integrieren, dass dieses Tool genutzt werden kann und dass man auch mal vielleicht eine Ausarbeitung machen kann, ohne dass man den Taschenrechner hat. Das heißt, ich glaube, was wichtig ist, wenn es um Prüfungsdiskussionen und aber insbesondere auch didaktische Diskussionen sind, aus meiner Sicht viel, viel wichtiger sind, ist mal zu gucken, nicht zu versuchen jetzt das Rad neu zu erfinden, weil ChatGPD, sondern zu gucken, was sind eigentlich die Überlegungen, die wir uns vielleicht schon vor zehn oder 20 Jahren vorgenommen haben und nicht umgesetzt haben, weil nämlich Pädagogen und Pädagogen, Lehrende und das Bildungssystem dazu motivieren, nicht ausdifferenziert pädagogisch zu arbeiten, zwar immer wieder darüber zu reden, aber dann doch wieder eine reine Wissensabfrage zu machen und so weiter. Das heißt, wenn wir weitermachen wie bisher, dann ist es ein Risiko, was ChatGPD leisten kann, wenn wir 100 Hausarbeiten im Semester korrigieren müssen und da ehrlich gesagt auch nicht so wirklich im Detail reinschauen und so wirklich egal ist, ob ich als menschliche KI dem Schreiben Spaß macht, meine Mitbewohner geholfen habe oder nicht, was ja auch die Realität ist, dann brauchen wir Angst davor haben. Wenn wir uns mal überlegen, was sind eigentlich in der Lehre, die Ansätze, wie wir die Lehrenden Rolle stärken können und zwar auch unabhängig von ChatGPD, dann kann sich wirklich was ändern. Ich habe das Gefühl, wir wegen von einem halb zu anderen wir tun nicht. Und das ist, glaube ich, der eigentliche Punkt, wenn es um gute Lehre und eine angemessene Prüfungskultur geht. Wiesel ich mich noch kurz rein und ergänze, ich habe extra noch eine Vorbereitung für heute Abend mit meinem Neffen telefoniert, der studiert auf Lehramt und habe gefragt, kommt denn davon bei euch irgendwas an? Nader, Niente, gar nicht. Also tatsächlich da ruht der See, ob da jetzt ein Chatbot da ist oder nicht, es ist völlig wurscht für die Daktik oder so. Aber jetzt, ihr zwei beide und es gibt ein Saal-Mikrosuperwähre wenn ihr euch, ich meine, ich kenne ja schon jeweils vorstellt und auch dazu sagt, an wen die Frage gerichtet ist, wenn es eine Person gibt, die die beantworten soll. Konrad, ich habe eine Frage, Martin, war das? Ein Gedanke, den wir bekommen ist, dass das sozusagen, eigentlich sollte man ja sagen, sozusagen intelligente, also Informatik. Entschuldigung, ganz kurz, ist das Mikro an? Ich habe das Gefühl, das nicht. Jetzt? Ja, doch. Ein Gedanke, den wir bekommen war, das ChatGPT hat ja schon erreicht, das ist sozusagen eine Abschlussprüfung. Ich glaube, war Wirtschaftswissenschaften oder irgendwas an der US-Uni, dass die das bestanden hat. Und da ist ja die Frage, ist das dann auch nur rein informationstechnisch? Also da geht es nochmal um die Frage, für mich den Brief, ab wann redet man von Intelligenz? Also ich habe eigentlich dem zugestimmt, was ihr sagt. Hab nur kam mir der Gedanke. Das ist aber schon ziemlich weitgehend, wenn der praktisch schon die Abschlussprüfung besteht. Ich habe im Internet gelesen, ich kann leider nicht mehr sagen, von wem das war, aber ich fand es sehr treffend, da hat jemand gesagt, dass es mehr über die Prüfung aussagt, als über die Fähigkeit von ChatGPT da irgendwas zu machen. Florian hat schon angefangen darüber zu sprechen, dass es artificial narrow intelligence gibt und artificial general intelligence. Wir befinden uns maßgeblich noch in diesem narrow Bereich. Also wo, und das muss ich zugeben, sehr, sehr gute Algorithmen, sehr komplexe Aufgaben, auch deutlich besser, als wir Menschen erledigen können. Allein die Geschwindigkeit an Text-Generierung, an Bild-Generierung, an Videogenerierung ist deutlich schneller, weil die Azure Auswertung, was ja in den letzten Jahren ein sehr großes Thema war, läuft eigentlich deutlich schneller, als wir Menschen es können. Diese General intelligence sich also in verschiedenen Aufgaben zu bewegen, sich in verschiedenen Aufgaben umgebungen auch zu bewegen, wir hatten tatsächlich von dieses Thema mit der physischen Umwelt, das ist noch etwas, wo wir weit entfernt von sind der wichtige Punkt, die emotionale Intelligenz. Ich kann die Algorithmen so trainieren, dass sie unsere Mimik und Gestik interpretieren. Das funktioniert alles, und da geht auch noch ein bestimmter bisschen mehr. Aber ist das wirklich etwas, was wir als emotionale Intelligenz bezeichnen wollen? Also, ist das etwas, wenn ein Roboter mich versteht, versteht, dass ich wein, dass er mir eine Hand auf die Schulter legt? Ich könnte mir vorstellen, dass es in einigen Kontexten nett ist, aber für mich als Mensch reicht das nicht aus, um etwas einer Intelligenz zuzuschreiben, ehrlich gesagt. Okay, vielen Dank. Und dann machen wir bei dir weiter. Dankeschön, Bene. Wir reden ja immer über die Klausur und als Prüfungsleistung. Als wäre das ja irgendwie nicht schon seit Jahrzehnten ein informationsbedürftiges Prüfungselement gewesen. Und ich glaube, das sind seit ihr euch ja alle einig. Also Florian hat das ja gesagt und du, Jennifer, hat es ganz schön darauf hingelesen, dass wir uns ja eigentlich fragen sollten, was fragen wir da eigentlich ab und was prüfen wir? Und wir rekurrieren auf die Didaktik. Florian hat das auch gesagt und Martin hat auch gesagt, na ja, eigentlich alles, was wir so bislang abfragen, ist betroffen von. Ich weiß mich jetzt Frage so, wie konkret ist eigentlich so eine Prüfungsleistung der Zukunft aus? Also, was kann man alternativ konkret machen? Jetzt achtet ja schon die Dokumentation von Tools, klar. Aber was werden jetzt nach dieser bekloppten Hausarbeit eigentlich einen gangbarer Weg im Hochschulforum, ob der seit zehn Jahren damit auseinandergesetzt, vielleicht gibt es ja schon ein paar clevere Antworten. Darf ich kurz vor dir, weil ich finde das, was du vorhin gesagt hast, schön und das ist so zutreffend auch aus dem, was ich beobachte, das ist jetzt ein weiterer Wachrüttler, das sich Professoren und Professoren hinsetzen müssen und sich überlegen müssen, wie komme ich eigentlich daraus, dass ich ständig die selben Fragen stelle am besten noch automatisiert ausgewertet? Wie kann ich also Leute unterrichten, dass sie sich so, sag ich mal, in unser Welt bewegen können, in einem wissenschaftlichen Wissen und wissenschaftlichem Arbeiten und wissenschaftlichen Schreiben umgehen können. Also, wie schaffe ich das eigentlich? Und da sind wir glaube ich weit entfernt davon, dass wir multiple choice Kreuzchen machen. Was mir dazu noch eingefallen ist gerade direkt, ich bin absolut auf deiner Seite und sehe das genauso. Gleichzeitig habe ich mich dann gefragt, wird hier nicht auch wieder so ein bisschen wieder zu viel abgewälzt auf die individuelle Lehrpersonen, weil die Realität sieht ja so aus, dass auch viel zu wenig Personal da ist, die Kurse sind alle überfüllt, irgendwie gibt es halt dieses System, das irgendwie benotet, also muss das nicht grundlegend auf einer höheren Stufe irgendwie verändert werden, weil in meiner Idealvorstellung ist es natürlich eine Form des Wissenstransfers, des Unterrichtens, wo wir eine viel persönlichere Situation haben und wo man eben auch mehr Zeit für mündliche Prüfung, für einzelne Studierende, aber wenn ich mir wie gesagt die Realität angucke, je nachdem an welcher Uni und auch mit den Zahlen muss es ja auch irgendwie ein Format geben, wie das zu bewältigen ist. Was jetzt nicht heißt, dass wir dabei bleiben sollten, aber ich glaube, das ist eben auch eine Ebene, die wir mitdenken müssen. Okay, ihr habt jetzt schon so diverse Pferdefüße benannt, du beantwortest jetzt die Frage und sagst hier erstens wo und drittens, das sind meine Ideen. Also erstens glaube ich, dass wirklich Lehrende müssen entlastet werden. An anderer Stelle, deswegen mache ich zum Beispiel eine Lernplattform für künstliche Intelligenz. Was ist der Hauptclaim? Kopieren erwünscht. Das kennen wir nicht im Wissenschaftssystem. Dass man sich traut, einfach mal das zu nutzen, was andere von der FU schon entwickelt haben, an der HU anzuwenden in Berlin. Und das ist absurd in diesen digitalen Zeiten. Und wenn wir hier entlasten können, dass wenn jemand sich mit ChatGPT zum Beispiel in der Pädagogikeinführung im Lehramtsstudien auseinandersetzen will, dann muss diese Lehrperson nicht mehr den Inhalt erarbeiten, sondern sich nur noch damit auseinandersetzen. Wie kriege ich das jetzt anwendungsorientiert vermittelt für Lehramtsstudierende im zweiten Semester? Warte, lasst mich das ganz kurz verstehen. Das heißt, ich muss gar nicht mehr die Inhalte durchkauen vor meiner Klasse, vor meinem Hörsaal, und das ein, dann enter. Und das, was dann rauskommt, lest dir und wir sprechen drüber. Also nicht enter, nein, nein, ich muss schon noch gucken, was ist ein gut gemachtes Video? ChatGPT gehe ich auf YouTube oder habe idealerweise einen kuratierten Anbieter im Bildungskontext. Der sagt mir, das sind die zwei Videos, die solltest du auf jeden Fall gesehen haben. Da muss ich nicht ein neues Paper schreiben oder eine Vorlesung skizzieren für, sondern das kann ich in der Vorbereitung studieren. Schlastung musst du vielleicht, ich weiß nicht, ob ihr da jetzt alle aus dem Planeten Schule kommt? Der eigentliche Inhalt, die Wissensgrundlage, wird nicht im Vorlesungssaal vermittelt, sondern wird angeeignet im Vorfeld, um dann in der eigentlichen Lehr-Lern-Situation die konkrete Kontextualisierung, die Diskussion vorzunehmen, mal wieder wirklich in einen Diskurs dazukommen, eine ethische Einordnung vorzunehmen. Ich schaffe, Freiräume zu schaffen. Ob das im Klassenzimmer ist oder im Seminarraum für den Austausch untereinander, dann kann dieser eben auch Teil der Prüfungsleistung sein. Wir haben ein bisschen ein Problem durch das Bologna System, quasi alle sehr stark strukturiert Prüfungsleistungen auf Modulebene. Also da müssen wir wirklich auch ein bisschen an den Rahmenbedingungen, alles muss rechtssicher sein, was ändern, der Standteil dessen, wie ich dann auch Wissen und Kompetenzen überprüfe, das ist sicherlich der Kern. Aber dafür muss ich erstmal Freiräume schaffen, dafür, dass Lehre nicht Wissensvermittlung ist. Weil das brauche ich nicht. Wir bereiten ja, und das ist mein letzter Punkt, wir bereiten ja in Bildungsinstitutionen für die Realität vor. Das sollte zumindest unser Anspruch sein. Wir alle googeln erstmal oder schauen auf Wikipedia und deswegen sollte diese Vorbereitung auf die Realität eben der Umgang damit sein, was danach kommt. Ich zitiere mal was. Wir haben natürlich GPT auch als Orackel befragt und genutzt. Ich vermute 95% alle Abfragen funktionieren, das doch nach Partnerwahl und Zukunften gefragt wird. Unsere Aufgabe war, denkt dir eine Schlagzeile aus, zum Thema Chatbots an den Universitäten, die in 10 Jahren, in einer renommierten, progressiven Zeitung stehen könnte. Und die Schlagzeile lautet und ich finde sie echt sensationell, lame, Chatbots an Universitäten revolutionieren das Lernen und bringen personalisierte Bildung auf ein neues Niveau. Welche Wochenzeitung packt diese Schlagzeile drauf? Aber das bringt es ja so ein bisschen auf den Punkt, wie GPC gerade auch Inhalte generiert. Sie sind alle so sehr gemäßigt eigentlich. Ja, und es ist voll lame für mich von vorgestern und nicht von in 10 Jahren, was aber natürlich auch irgendwie in der Natur der Sache begründet ist. Aber würdet ihr denn sagen, die Aussage stimmt? Also die Technologien, die verändern nicht nur die Formate, darüber haben wir jetzt gesprochen, sondern auch die Effizienz, das ist ja auch die Behauptung, personalisierte Bildung wird auf ein neues Niveau gebracht. Also ich bin dabei, Florian, dass wir die Themen eigentlich schon haben. Ich bin jetzt in der komfortablen Situation, dass bei uns an der Hochschule das Konzept von Christian Spannnagel umgesetzt wird, der flippt Glassrooms. Und ich muss als Disklemer dazu sagen, wir sind eine private Hochschule. Das heißt, ich sitze damit unter, mit maximal 20 Studierenden und wir programmieren dann etwas. Ich komme selber aus einer anderen Schule. Also ich war in Universitäten, wo auch mal 400 Leute in einer Einführungsveranstaltung von Passoren waren, die abgewetzte Ärmel haben und das Ganze, was man aus irgendwelchen schönen Filmen kennt. Aber die Realität ist heutzutage ein bisschen anders und wir müssen dann gucken, über welche Studiengänge wir auch reden. Also bei uns an der Hochschule geht es natürlich darum, wir haben angewandte Wissenschaften und die Leute, die bei uns sind, haben meistens jetzt schon einen Beruf und werden aufs Berufsleben vorbereitet. Also nicht unbedingt sehr selten auf akademische Karrieren. Und so muss auch die Nutzung von diesen Technologien beigebracht werden. Ich fand es jetzt gerade spannend, dass du gesagt hast, dass du schon rumgespielt hast mit der Eingabe. Dieser sogenannte Prompt ist nämlich etwas, was entscheidend sein wird in Zukunft. Wir haben jetzt schon die erste Stelle irgendwo in Köln, ich weiß nicht, ob es auch ein bisschen quatsch war, die ein Prompt-Engineer ausgeschrieben hat. Also jemand, der sich damit beschäftigt, ist wirklich gut, diese Sprachmodelle bedient. Ich glaube aber, das ist nicht ganz ungealistisch. Also das ist ein Berufsfeld, was wir sehen werden. Und auch diese Ausgabe, ich würde damit übereinstimmen, was da passiert ist. Das ist aber von OpenAI ein Sicherheitsnetz gewesen, was sie eingebaut haben. Dass dieser Chatbot, also ChatGPT, jetzt erfolgreich ist. Wir haben die Modelle vorher gesehen die einfach massiv gescheitert sind, weil sie rassistische Motive wiedergegeben haben, weil sie sexistische Motive wiedergegeben haben und so weiter. Also wir haben die dann nicht angenommen, weil sie zu spezifisch wurden und wir sie teilweise als User trainieren konnten und auf eine rassistische Pferde bringen konnten. Deshalb ist das gerade so, und deshalb finde ich das auch gerade gut, dass das so ist, aber das wird spezifischer. Ganz bestimmt. Und deshalb stimmt die Aussage, dass wir das haben, wo ChatGPT auch im Lernen eine große Rolle spielen wird, allein. Und da muss ich so an das denken, was Jennifer vorhin gesagt hat, oder so in dem Rahmen. Es ist einfach so, dass die Informationen auch immer mehr werden. Wir haben eine Explosion an Papers, die man lesen könnte. Aber wir können sie alle nicht mehr lesen. Es ist nicht realistisch. Vielleicht ist es schön, mit Zusammenfassungen in Zukunft mehr arbeiten zu können, weil wir das Wissen der Welt gar nicht mehr fassen können. Und ich möchte gar nicht davon reden, dass wir angloamerikanische Publikationen haben und einen riesigen chinesischen Markt, die ich nicht lesen kann. Die sind nicht zugänglich für mich. Selbst spanische Publikationen kann ich nicht lesen. Und somit könnte man mit diesen Sprachmodellen Zugang auf mehr Welt wissen, dass wir diese Fragen erzeugen. Dann würde ich aber natürlich auch gerne noch mal was an den Wein schütten und sagen, du hast dann wahrscheinlich vor allem die chinesischen und die US-amerikanischen Texte und die lettischen oder keine Ahnung, welche kleinen Sprachen es noch gibt, fliegen dann eher raus. Die werden dir jetzt zumindest aktuell nicht erschlossen, weil einfach die Modelle auf anderen Datensätzen trainiert werden. Aber ich will mal bei euch fragen, ob es so die Gemängelage ist, gibt es von euch noch Fragen? Ich hätte noch ganz viele, aber ich vermute ihr auch. Eins, zwei, drei sehe ich schon allein hier. Dann fangen wir hier vorne an. Vier sehe ich. Meine ganz praktische Frage. Beispiel, ich bin Lehrer, Professor, ich stehe vor den... So, jetzt müssen wir chat GPT für unseren Unterricht. Wenn jetzt alle Schüler, Studenten, die genau identische, also sozusagen die Frage nach der Blackbox, ob sich rekonstruieren lässt, was in den Text reinfließt. Das ist auch inhaltlich unterschiedlich. Das ist auch inhaltlich unterschiedlich. Also ob ich zumindest die Erfahrungen mache? Und kannst du rekonstruieren oder dich zumindest annähern und erklären, was da passiert ist? Ich kann es ehrlich gesagt nicht. Ich sehe es immer nur in meinen Textexperimenten. Allein, dass ich bin, bevor ich hier hergekommen bin, hab ich noch mal gefragt, wie wirkt sich Chat GPT in der Regelung und Lehre aus, wo dann die Antwort eben auch entstand, ja, Chat GPT wird in der Lage sein, eben auch Prüfungen zu korrigieren und abzunehmen und so weiter. Und dann hab ich das nochmal nachgefragt und dann kam eben die Antwort, ich bin nur ein Sprachmodell und ich werde niemals Prüfungen korrigieren können. Das muss immer eine professionelle Lehrperson tun. Also das System widerspricht sich natürlich auch. Und hier müssen wir nochmal unterstreichen. Das geht ja eben um wahrscheinlich... Also um natürliche Sprachgenese. Also es wird möglichst sinnhaft wahrscheinlich präsentiert, aber es geht eben nicht darum, Fakten zu schaffen, die immer da sind und die feste Größen sind, sondern die können sich auch verändern. Wissensmodell oder Intelligenzmodell? Na ja, Wissen generiert sich ja über Sprache, aber natürlich haben sie Recht. Es ist eben Sätze werden gebaut, kohärente Sätze werden gebaut und nochmal zum Thema Hausarbeiten, ob man erkennen würde, ob Chat GPT eine geschrieben hat. Ich glaube, gerade würde man es auch ganz gut darin erkennen, wenn man sich auf Wikipedia guckt, nachschaut, weil oft Gegenstandsbeschreibungen über Wikipedia integriert werden. Und dann hat man eigentlich schon irgendwie so ein Hinweis darauf. Und ich habe auch schon Hausarbeiten bekommen, wo jemand Wikipedia-Artikel eingefügt hat. Also das passiert auch. Das ist auch schon vor Chat GPT passiert. Okay, danke. Und das ist auch ein Plagiat. War schon immer ein Plagiat, wird immer ein Plagiat bleiben. Bitte schön. Meine Frage richtet sich als Einfaltstor für kommerzielle Interessen in die Lehre. Wenn man sich anschaut, wie wird Chat GPT, was ja nur eine Beta-Version ist oder eine Test-Version, denn implementiert. Man sieht es jetzt bei Bing, ist es eingebaut worden in die Suchmaschine, dadurch Zugriff auf das Wissen der Welt, wo dann wiederum genauso wie bei Google Leute hingehen werden und dann Chat GPT Optimization, also Search Engine Optimization, sondern Chat GPT Optimization machen werden. Um das letztlich also erstens Werbung, um Interessen abzubilden und natürlich können wir als Lehrende das mit den Studierenden reflektieren. Aber ich glaube, da kommt ganz schön was auf uns zu und da würde ich gerne eure Positionen zu wissen. Geht die Frage spezifisch an eine Person hier vorne? Wer zuerst zuckt? Ja, natürlich. Das ist ein Riesenproblem. Aber das ist wie auch wiederum das ist Teil der Realität da draußen. Ich glaube, es ist ganz wichtig, es ist gerade auch im deutschen und europäischen Hochschulsystem wichtig, dass wir hier eine Einordnung vornehmen, dass sie vielleicht auch Alternativen ermöglichen, sehr, sehr schwierig, weil man da entsprechende Investitionen braucht, die auch eine offene Alternative bieten, basierend auf einem europäischen Verständnis davon was können machen. Das ist quasi ein Satz, denn egal was wir hier diskutieren, der kommt immer. Das mit den Monopolisten ist wirklich voll nicht gut und eine europäische offene Alternative wäre richtig toll. Das höre ich jedem Thema. Aber wie wahrscheinlich ist das denn, wenn wir bei Wahrscheinlichkeiten sind? Ich glaube, es gibt vielleicht zwei Unterschiede. Es gibt das, was ich in der Lehre einsetze. Ich bin ein großer Fan von entsprechenden Open Source Tools, die man entwickeln kann. Ich weiß nicht, wie leistungsfähige die Systeme sind, die man eben dann auch entwickeln kann. Aber wir sehen ja jetzt schon, es werden unterschiedliche Systeme entwickelt. Und das ist dann erstmal die Lehrvermittlung. Das in der Realität da draußen im Unternehmen wird das Leistungsfähige eingekauft. Völlig egal, ob dahinter halt Microsoft oder Open AI Elon Musk steckt oder jemand anders. Deswegen ist für mich eine Unterscheidung, welches Tool nutze ich in der Lehre, um ein Grundverständnis wie gebe ich dann eine Einordnung, also erlaube ich eine Einordnung, eine Ethisch-Reflektion, vielleicht der unterschiedlichen Tools ihrer vielleicht auch Herausforderungen da draußen in der großen Welt. Und dann eben auch eine Vorbereitung darauf, für welches Tool kann ich vielleicht auch gar nicht darauf verzichten. Also wie zum Beispiel in meiner Arbeit, wir sind ein gemeinnütziger Verein der Stifterverband. Wir nutzen MS 365 und das wird immer wieder diskutiert. Wir machen uns da abhängig von Microsoft. Aber es ist das Leistungsfähigste, zumindest für uns das Leistungsfähigste Tool, um gut Cloud basiert, kollaborative Arbeiten zu können. Und für mich ist es halt kein Schwarz-Weiß und in der Lehre aber trotzdem umso wichtiger, dass man sich in der Lehre nicht abhängig macht und das nochmal zu unterscheiden von anderen Anwendungskontexten. Ich glaube, wir müssen dann gucken, um welchen Bereich es auch geht in der Lehre. Also wenn ich zum Beispiel eine Medizinforschung denke, da wird jetzt schon viel mit Unternehmen zusammengearbeitet. Das wäre gar nicht anders denkbar. Und da reden wir auch über sehr große Datensätze, so Proteine, wenn die entschlüsselt werden, sag ich jetzt einfach mal. Da werden wir immer mit Firmen zusammenarbeiten, passiert aber jetzt schon. Da sehe ich gerade kein großes Risiko. In den Literaturwissenschaften wird vermutlich auch gar nicht der große Bedarf da sein, so viel mit Riesenrechenpower zu arbeiten. Das heißt, da kann man vielleicht die Modelle umsatteln und die dann auch in diesem Bereich trainieren. Also es gibt ja die Möglichkeit, die Transformer-Modelle, nämlich zum Beispiel GPT-3 oder so, zu nutzen. Man kann sich das ja, wenn man großen Rechner zu Hause hat, auch zu Hause hinstellen. Das ist alles möglich. Ich will da einmal noch in den Raum werfen, dass wir ja gar ja Ex haben. Also eine Europa-Initiative, solche Cloud-Sachen, sag ich jetzt mal ganz profan, verfügbar zu machen. Und die haben natürlich auf dem Schirm auch große Sprachmodelle auf europäische Sprachen zu Münzen und die sollen dann halt europäisch verfügbar sein. Da sind die Unternehmen aber auch alle mit dabei. Das geht auch leider nicht ohne, weil irgendwer muss halt Server-Räume hinstellen und es reicht nicht, dass wir die an irgendwelchen Unis haben, wo echt eine schlechte Cybersecurity ist, dass wir die Unternehmen wir können das einfach nicht leisten. Also die Universitäten und auch die Hochschulen können das monetär nicht leisten, sich da die supergute Technik in den Keller zu stellen. Deshalb sind wir abhängig von den großen Unternehmen. Sorry, dass ich es sage. Nee, ist doch super. Ich sehe hier betrübte, aber zustimmende Gesichter. Ich dachte gerade auch, dass es ja natürlich schön wäre für eine Sprachvielfalt, wenn wir eben ja immer in der Fall... Aber das finde ich auch so aus einer Literaturwissenschaft, auch aus schreibenden Perspektiven interessant, dass eben darauf auch zu achten oder darüber gesprochen werden muss, dass diese Systeme gerade auf Englisch einfach am Allerallerbesten funktionieren. Und es, glaube ich, erstrehmenswert ist eben auch zu schauen, auf Deutsch funktioniert es immer noch relativ gut, aber was ist dann eben mit Sprachen, die eben noch weniger gesprochen werden, wo eben noch weniger Texte produziert werden? Und das ist ja auch ein Phänomen, weil ja dann immer mehr Texte auf Englisch produziert. Also das ist ja eben etwas, was nicht weniger wird, sondern eben sich verstärken wird in Zukunft. Das ist, glaube ich, noch ein bisschen aus unserer Bubble, ehrlich gesagt, heraus. Vorhin hast du es auch nicht gesagt, Katja Tencent, also der riesengroße chinesische Internetkonzern, der hat jetzt schon ein besseres Modell, also mit mehr Parametern sozusagen. Es kommt jetzt auch demnächst raus. Also die sind wahrscheinlich uns ein bisschen voraus. Wir gucken natürlich immer nur so aus unserer Perspektive und ich kann das detail nachvollziehen, aber vermutlich ist das Sprachmodell deutlich besser. Die Frage ist, ob es für Englisch besser ist, aber auf jeden Fall für chinesisch. Ich muss, Entschuldigung, Entschuldigt, bitte, es ist super spannend, aber ich muss mit Blick auf die Uhr mal fragen, dürfen wir jetzt heute überziehen oder nicht? Ja, ein knediges, wohlwollendes Nicken, weil wir haben ja jetzt Minimum zwei weitere Fragen noch nicht gehört und dann kommst du jetzt zum Zuge, bitte. Danke schön. Ich hätte noch eine Frage, da kenne ich mich zu wenig mit aus, aber wie das Ganze monetarisiert werden wird, also wir hatten ja eben schon das Thema Werbung. Ich weiß nicht, ob es so eine Art Lizenzgebühren geben wird oder ob man sich das vorstellen könnte, weil dann könnte ja auch in der Lehre dann eine Diskriminierung entstehen zwischen Studierenden, wenn sich das jemand zum Beispiel nicht leisten kann. Da habe ich mir dann überlegt, ob zum Beispiel in, weiß ich nicht, 20 Jahren als so Lizenzen geben könnte die dann irgendwie für alle bereitgestellt werden, so wie das ja jetzt auch schon mit Microsoft ist. Vielen Dank. Da würde ich gerne noch zu Spitzen dranhängen. Sind wir jetzt im Moment, die wir da so dran rumdatteln, nicht auch sowieso gerade Beta-User, die das Ding sozusagen mit trainieren, damit es dann irgendwann so weit ist, dass es nur gegen Lizenz sozusagen, wie eure Microsoft-Pakete eben einfach Geld kosten. Zuteilen ist es ja auch schon eben mit Abonnement. Das würde mich interessieren, da hatte ich mal den Plus-Account schon von ChatGPT für 20 Dollar im Monat. Ist der viel besser? Hast du es schon mal ausprobiert? Nein, ich refresh immer. Ich bin auch noch nicht drin. Im Publikum? Also ich würde da gerne eine, also Plattform-Modelle, brauchen ja auch Geschäftsmodelle. Und das ist einfach Teil der Realität, wenn der Staat oder die öffentliche Hand das nicht übernimmt, wir haben doch insgesamt ein relativ starkes Wettbewerbsrecht, das wir nicht vergessen dürfen. Das hilft gegen Monopolisierung und wie gesagt, es kommen ja jetzt einige weitere Modelle und das wird dann eigentlich spannend, wenn wir da eine Vielfalt haben. Jetzt sind wir gerade noch relativ fokussiert. Aber es ist die Realität, was zentral ist und das sind wir wieder in den Bildungsinstitutionen, ist das, dass tatsächlich die dafür sorgen müssen, dass eben einen Zugang zu kostenpflichtigen Angeboten für den erfolgreichen Lernprozess und erst recht nicht Voraussetzungen für den erfolgreichen Bildungsabschluss sein darf. Und ich glaube, also da sind wir zum Glück, haben wir da auch ein anderes System in Deutschland als in anderen Regionen dieser Welt. Ja, wobei wir ja die Debatte, wir hatten ja immer mal den Vergleich jetzt auch zur Schule. Wie ist es jetzt? Wer bekommt da ein Tablet und wer hat eins zu Hause und so, das haben wir ja in Deutschland auch noch nicht ganz rausgefunden. Da ist ja auch die Bundesregierung nicht hingegangen und das hat gesagt, als der Lockdown kam, jetzt kippen wir über allen Schulen ein paar Tablets aus. Also die Monetarisierung, die sehen wir jetzt schon, dass Microsoft sich an OpenAI beteiligt hat und dass jetzt in seine Systeme integrieren wird. Die sehen wir jetzt schon. Es wird garantiert noch gravierender. Ich glaube, wir können jetzt gut bei den sozialen Medien beobachten, was passiert, die konnten wir jahrelang und die müssen, jetzt müssen wir uns so Haken kaufen, blaue Haken, die dann immer so ein Premium-Abo sind, die dann mitunter damit zusammenhängen, dass ich eine 2-Faktor-Ordentifizierung habe, also Sicherheit. Und das werden wir auch beobachten bei den großen Sprachmodellen, die man schätzt gerade so, dass zumindest bei ChatGPT ein Prompt 1 Dollar kostet, so ungefähr, plus-minus irgendwas. Aber allein diese Rechnung mal bei mehreren Millionen-Usern gerade sind entspannt, aber sie machen gerade einen Live-Test mit uns Menschen. Also was dahinter steckt, ist ja auch etwas, was teilweise von Menschen trainiert wurde. Also ob ich das gut finde oder nicht. Und das passiert gerade mit uns allen. Also wir sind natürlich alle irgendwie Leute, die das gerade ausprobieren und auch auf Richtigkeit verifizieren und so weiter. Das passiert schon durchaus. Ich habe die große Befürchtung, dass wir noch einen engeren Hals kriegen bei der Wissensgenerierung und auch bei der Lehre. Insbesondere wenn ich denke an die Länder des globalen Südens, weil die werden noch viel weniger als bei uns Zugang auf diese technischen Möglichkeiten haben, wenn da nicht irgendwas Maß gibt, die es passiert. Microsoft macht ja manchmal so Programme für den globalen Süden und so was. Das brauchen wir vermutlich mehr um auch so eine globale Wissensgenerierung und Lehre vielleicht auch an den Weg zu bringen oder noch zu verstärken, würde ich mal sagen. Also jetzt gerade sehen wir noch eine offene Phase. Wir werden noch ein paar Monate oder Jahre einen Überbietungswettbewerb sehen. Also Google kommt jetzt, Tencent kommt jetzt und da kommen noch ein paar andere, die da was rausbringen. Das wird noch eine kostenlose Phase sein, glaube ich. Aber die wird sehr schnell und sehr hart enden, weil die Rechenkapazität unglaublich teuer ist, die dahinter steckt. Ich wollte hier auch noch ergänzen, wenn wir das auch immer ananliegen, dass wir noch gar nicht über Ressourcen und auch ökologische Fakten gesprochen haben. Es verbraucht Energie, es verbraucht auch Energie, diese Systeme zu entwickeln und je mehr Sprachmodelle sich entwickeln werden, desto mehr Energie wird eben auch verbraucht und es ist eben auch die Frage, wie werden diese Systeme eigentlich gelabelt. Ich glaube, bei ChatGPT funktioniert eigentlich nur in diesem Sinne, ist relativ rassismusfrei, ich sage, ist relativ, weil es immer noch bei ist, rassismusfrei, so wie es gerade ist, weil ich glaube, es war eine kenianische Firma, die damit beauftragt wurde, Labels zu setzen und Begriffe zu labeln und das sind dann Leute, die 2 Dollar in der Stunde bekommen. Darüber muss man auch sprechen, wie werden diese Systeme entwickelt und wie werden sie eigentlich in Stand gehalten? Da kann ich schon mal reinschmuggeln. Nächsten Monat sprechen wir über Plattformarbeit und GigWorker, also genau diesen Punkt. Aber ich glaube, ich habe noch eine Frage und zwar dort hinten, bitte sehr. Mein Name ist Giovanni und vielleicht, wenn die Diskussion jetzt gerade so läuft, dass wir heute hier sitzen, hat auch damit zu tun, dass das plötzlich ein Thema geworden ist und ich glaube, das passt zu unserem Zeitalter und die 20er Jahre sind so die Jahre, wo ein Bremglas unterwegs ist und wir entdeckend schwachstellen, die über Jahre wie einfach angenommen haben. Deswegen glaube ich auch, dass es eine Chance ist, um unsere Weg Lehre auszuüben und zu vermitteln, ob das der richtige Weg ist, wie wir es bisher gemacht haben. Das heißt, wir müssen mit einer neuen Realität konfrontiert sein und wir müssen vielleicht da was anpassen, weil die Industrialisierung von Wissensvermittlung ist jetzt eine Zeit gewesen und wir müssen jetzt überlegen, wie wir das neu definieren und ich glaube, das ist die Chance, um neue Formate zu finden, aber auch noch zu überlegen, ob es nicht nur Wissensvermittlung ist, sondern auch mal näher an die Praxis zu bringen. Wie kann ich das Wissen nutzen? Ich glaube, das wird in Zukunft wichtig sein und nur ein kleiner weiter Aspekt. Wir müssen auch die Menschen dazu in der Lage versetzen, auch zu überprüfen, das, was sie dort als Wissen bekommen, ob sie es verifizieren können. Also da auch neue Kompetenzen aufbauen. Ich bin da auch lange in einem Trugschluss unterlegen. Ich habe in einem Zentrum für Lehrkräftepbildung gearbeitet und Kompetenzen waren immer der Kern dessen. Kompetenz, Kompetenz. Ich glaube, auch gerade so, wie Cepetiti zeigt uns, wie wichtig Wissen ist und auch Wissenserwerb ist, weil wir ja eben eine Einordnung auch vornehmen können müssen, ob etwas eben in der Tendenz wahr ist, richtig so ist und nicht einfach nur Blödsinn. Deswegen, ich finde, die spannende Frage ist, wie können wir einerseits Handlungskompetenzen stärken im Umgang mit modernen, KI-basierten Technologien und andererseits aber das notwendige Grundwissen nicht vergessen. Mathematisches Grundwissen. Riesen Lücke haben wir gerade erst wieder alle gelesen in den Zeiten. Wird nicht ersetzt dadurch, dass Cepetiti irgendwann auch lineare Algebra gut kann, sondern das muss trotzdem erworben werden. Es nimmt halt nur einen Teil ein und der andere Teil sind dann die Kompetenzen, aber ich glaube, seit letztem Jahr hatte ich diesen Aha-Moment quasi ein Plädoyer für das Wissen zu halten, weil auch wenn es vorhanden ist und ich es potenziell über Google jetzt Cepetiti überall finden könnte, um das in nicht vorhersehbaren Kontexten jederzeit anwenden und einsetzen zu können, brauche ich ein Wissensfundament und es bleibt weiterhin notwendig. Das heißt, wir sind jetzt nicht dabei in einer Republik von Fakten-Checkern und Checkerinnen zu entwickeln, beziehungsweise wenn dann nur, wenn dieses Wissensfundament gegeben ist. Fakten-Checker sollten wir schon sein. Ich meine, das hat ja ein bisschen was mit Media Literacy diskutieren. Wir haben auch viel darüber zu tun, aber ich bin Fakten-Checker auch auf der soliden Grundlage von erworbenen, schulischen und auch akademischen Wissen, dass notwendig ist dafür, dass ich mich mündig bewegen kann in der geprägten Welt. Geht ihr da mit? Ich möchte das unterstreichen, denn die Leute, die Cepetiti entwickelt haben, sind ziemlich gut in Mathe und die können ein bisschen was und man muss sich halt über... Aber wie ist es, wenn der Bot so schlecht in Mathe, wie du gerade sagtest? Das hängt damit zusammen, dass es ein Sprachmodell ist. Also es hängt halt Wörter eineinander. Es rechnet nicht. Also das machen halt andere Algorithmen, die darauf spezialisiert sind. Das ist immer ein spezieller Bereich, in dem die gut sind, noch. Das heißt, wir brauchen immer Leute, die gut rechnen können, die gut programmieren können, die Logik verstehen, die auch argumentieren können, die sogenanntes Reasoning machen. Da arbeiten die jetzt nämlich sehr verstärkt dran, das Reasoning, also das kontextbezogene kritische Denken. Genau, das Schlussfolgern besser wird bei den Chatbots. Aber noch mal, es hängt daran, dass es Leute gibt, die eine Ahnung von Mathematik, vom Programmieren haben. Das werden die Chatbots nicht abnehmen können. Denn wir haben jetzt leider nicht über das kreative Schreiben gesprochen. Es gibt auch etwas wie kreatives Programmieren. Also ich kann nicht einen so schlauen Algorithmus haben, zumindest nach unserem jetzigen Wissenstand, der schlauer ist als Menschen. Also der sich als artificial Superintelligence, also schlauer ist als wir Menschen, das ist gerade von wenigen gedacht, es ist theoretisch möglich, aber noch lange nicht umgesetzt. Ich würde aber doch gerne noch mal Jennifer Gleich zum kreativen Schreiben fragen, weil wir haben dafür nicht mehr viel Zeit, aber es jetzt ganz unter den Tisch fallen zu lassen, finde ich total doof, aber da hinten hat sich gerade noch eine letzte Frage und da die allerletzte eingefunden, dann würde ich sagen, macht ihr doch bitte kurz und hintereinander weg, dass wir erstmal einsammeln und das dann nach vorne geben. Bitte schön. Björn, kurze Frage. Ihr habt über die Kommerzialisierung gesprochen, wie Lehre damit umgeht. Wir haben jetzt das Labeln glaube ich hier im Raum wahrscheinlich Konsens, was da gelabelt wurde an Worten und was uns zum Beispiel strukturellen Rassismus oder so entfernt aus dem System. Wie geht die Lehre damit um, dass das natürlich auch umgekehrt gelabelt werden kann. Nur zum Beispiel Kommerzialisierung heißt immer auch Druck von Autokraten. In China gibt es eine Protestorganisation, darauf enthält Apple die maximal verfügbaren Datenmengen für AirDrop ein. Wie gehen wir damit um? 1984. Wir labeln andere Begrifflichkeiten. Das heißt nicht mehr Krieg, das heißt Spezialoperation. Wie gehen wir damit um, als Lehrende oder als Lehrende zukünftig das als Wissen zu vermitteln, dass das gelabelt werden kann und dass das immer Ergebnis von Beeinflussung ist. Dankeschön. Dann nehmen wir die allerletzte Frage. Vielleicht ein bisschen im Anschluss ist keine Frage eher ein Hinweis oder eine Beobachtung. Wir reden über Sprachmodelle und haben uns soweit, ich sehe noch nicht eine halbe Minute mit Sprache beschäftigt. Und was es bedeutet, dass Menschen offenbar ihre Sprache abgeben an Maschinen oder Algorithmen vielleicht auch mit diesen Programmen. Eben wurde gesagt, manche Leute schreiben nicht so gerne, machen aber Wissenschaft. Was bedeutet das? Kann ich Wissenschaft machen wenn ich selbst nicht über ein bestimmtes Maß an Sprachwissen, Sprachsensibilität, Sprachfähigkeit verfüge? Ein bisschen eine Antwort auf beide Fragen. Was wir bei dem Sprachmodell jetzt gerade sehen, ist, dass es sich anguckt, wie wir normalerweise Texte formulieren, irgendwo, also auch in irgendwelchen quatschigen Blocks oder so, keine Ahnung. Und darauf berechnet das Modell wie wahrscheinlich ein gutes nächstes Wort wäre. Das heißt, es ist nicht raffiniert, es macht keine schönen Sachen. Es kann ja auch so Gedichte schreiben und so, aber ich glaube nicht, dass die jetzt irgendwann eine große oder so, also das ist glaube ich nicht etwas, was wir mit Goethe vergleichen können, zumindest im Stand jetzt. Und das ist jetzt der Bogen zu dem vorher gefragten, die Technik ist immer nur eine Technik. Also wir brauchen noch andere Leute, die sich andere Gedanken machen. Es heißt zum Beispiel in meinem Bereich ist das Ethics in AI, ein riesengroßer Bereich. Das heißt, wir müssen uns ethische Fragen stellen, wie diese Techniken in unser Leben integriert werden. Ich sage einfach, nur mal autonomes Fahren, das entscheiden muss, gefährde ich jetzt meinen Fahrer oder meine Fahrerin oder fahre ich eine alte Oma um oder ein Kind. Das sind einfach so technisch, könnte man das sehr einfach lösen. Aber das sind ethische Fragen, die wir in der Gesellschaft auch schon seit Jahrhunderten mit unterdiskutieren und für die wir verschiedene Denkrichtungen brauchen, die wir zusammenarbeiten müssen, die die Technik umsetzen können, völlig klar. Aber wir brauchen da ganz verschiedene und unterschiedliche Denkrichtungen. Bitte, bitte, nicht alle Data Scientists werden, sondern wir brauchen auch noch Leute, die in andere Richtungen denken können. Zum Beispiel in die Sprachrichtung. Auch zum Labeling ist mir gerade ein Beispiel eingefallen von einem Mitarbeiter in unserem AI-Projekt Felix Ebert, der ein Experiment auch durchgeführt hat und eben auch gefragt hat, kannst du ein Lobgedicht auf Trump schreiben? Beide hatte ein Gedicht formuliert, was irgendwie funktioniert das System. Bei Trump kam dann eben die Weigerung, mir ist es nicht erlaubt, Lobgedichte zu schreiben auf bestimmte Personen. Das ist natürlich entsprechend meiner politischen Meinung, das finde ich jetzt erst mal natürlich gut, aber was ist, wenn sich das ändert? Da haben Sie natürlich recht, dass ideologisch aufgeladen wird, was eben meiner Meinung überhaupt gar nicht entspricht. Da schließe ich mich total an, wir brauchen eben dieses ethische Nachdenken und reflektiertes Nachdenken, auch Verantwortung für Inhalte, Verantwortung für Urheberschaft. Zur Sprache und zum Kreativen schreiben. Ich würde dir widersprechen mit, dass es noch nicht so gut ist wie Goethe. Da müsste man jetzt wahrscheinlich ausholen und erst mal überlegen, was finden wir eigentlich gut an Goethe, aber es gibt wirklich vielfältige Möglichkeiten, auch kreativ mit dem System zu schreiben und Sprache oder auch Texte reingeben, die dann vervollständigt werden. Ich kann meine eigenen Texte vervollständigen lassen. Ich kann sowohl ein Stil generieren, der vielleicht so originelles wie Ani Anno Stil, dann ist aber natürlich die Frage, muss ich dann nicht Ani Anno auch als eine Urheberin eigentlich nennen, wenn ich ihren Stil benutze, aber das müssten wir wahrscheinlich auch noch mal anders diskutieren. Und auch eine Möglichkeit damit umzugehen, also wenn wir über kreatives Schreiben mit neuronalen Netzwerken sprechen, dass es eben auch eine Form der Literatur ist, der der generativen Literatur aktuell zugeordnet wird. Und das ist eben eine Form von Literatur, die eigentlich mit Textarbeit der bereits da ist. Und das ist quasi jetzt schon so ein sekundäres Verfahren, dass eben eine Maschine mit Text getrainiert wird, die wieder ein neuen Text eigentlich erstellt. Und in erster Instanz wäre dieses generative Literatur vielleicht ein Gedicht zu nehmen von Goethe und es eben umzuarangieren oder so. Das ist ja eigentlich ein ähnliches Verfahren. Und habe ich dich richtig verstanden? Du liest schon solche Texte, die du gut findest, weil tatsächlich war das auch ein Experiment von uns. Ein kurzes Geschreibe, bitte, ein kurzes Gedicht über vor und nachteile von Chatbots für die Entwicklung unserer Kompetenzen. Und ich erspare euch das jetzt, aber es reimt sich da Engagement auf Management und das kommt dreimal das Verb ersetzen vor und so. Und ich merke bei mir auch immer so diese kindliche, so edgy Freude, dass die Maschine irgendwie halt doch nicht so geil ist und irgendwie den menschlichen Genius nicht einwohlt, aber du sagst, ist Käse, können die auch alles oder zumindest bald? Also ich spreche immer so ein bisschen in die positive Richtung, weil es eben so viele Meinungen dazu gibt, dass es schlecht ist und es stimmt auch. 80 Prozent, 90 Prozent der Texte sind auch non-sense und nicht sonderlich gut. Aber hier wieder zum Stichwort Prompt Engineering. Es kommt total darauf an, was ich dort eingebe, wie ich das prompte, wie ich das modelliere. Und das ist eben auch fast eine eigene Form, die prompt zu schreiben und auch das gilt ja für Bildgenese, dass sie eben etwas Interessantes erzeugen. Es ist ja nicht so, als würde ich auf den Knopf drücken und sagen, oh, bitte mach mal ein Gedicht. Dann kommt dann natürlich irgendwas Blödes raus. Aber wenn ich dann Referenzen benutze, vielleicht noch eine Textform reingebe, noch was eigenes reingebe, dann interessieren interessante Sachen. Oder eben auch den Roman Echo der Ewigkeit könnte ich jetzt gemeinsam plotten mit ChatGPT. Also dass sie dann eine Handlungsstruktur auswerfen lassen, eine Primisse auswerfen lassen, Figuren entwickeln lassen. Und klar, das ist alles noch gerade sehr rudimentär und sehr schematisch. Das ist sehr schematische Literatur, die rauskommt. Aber das wird sich verändern. Und die Prompts selber werden ja schon verkauft als NFT. Ja, absolut. Diese Prompts sind selber schon ein Kunstwerk, was noch mal eine neue Ebene ist. Du wolltest dazu, glaube ich, noch was sagen. Ich würde gerne den Kreis schließen und dann kommen wir zu der zweiten Frage der impliziten oder vielleicht auch expliziten Annahme, dass wir eine Sprachlosigkeit erfahren könnten, wenn wir mit solchen Systemen zusammenarbeiten. Da ist eigentlich die Wissenschaft das beste Beispiel. Es gibt Wissenschaften, da ist eine gute Ausdrucksweise, eine gute Formulierung, eine Reflexion eines theoretischen Konzepts besonders wichtig. Und es gibt Wissenschaften, das ist überhaupt nicht wichtig. Ich muss trotzdem in den Aufsatz schreiben. Viele Professorinnen und Professoren, die ich so getroffen habe, in den Geistes- und Sozialwissenschaften, sind besonders gut, viel Text zu produzieren, der gar nicht so viel Inhalt hat, aber trotzdem angenommen wird. Deswegen ist diese Sprachlosigkeit vielleicht auch eine Sorge, der ich nur teils quasi zustimmen würde. Weil ich glaube, die Frage, die sich einmal mehr stellt, was ist eigentlich unser grundeliegendes Problem mit den Wissenschaften verstehen, darin, wie wir Kommunikation verstehen und können wir uns da nicht vielleicht noch mal zurückbesinnen auf das, was das eigentlich ausmacht. Und dann werden wir auf eine neue Art und Weise sprechfähig in einer Welt, die durch die Digitalität geprägt ist, was anerkannt wird und auch mit einbezogen wird. Und ich bin mir sicher, dass wir das eben sowohl in der Lehre, und da haben wir noch verdammt viel vor uns schaffen können, dass wir das nicht mehr verlasten. Es kann Risiken mit sich bringen. Zu diesen Risiken braucht es eine große Transparenz. Das ist für mich hier das Entscheidende. Und es kann aber auch Potenziale für uns alle bieten, die wir nutzen sollten. Und zwar mutig und gleichzeitig pragmatisch ohne dem Hype weiter zu verfallen, den wir hier gerade erleben. Jetzt würde ich zum Schluss einfach gerne noch Sachen bei euch abholen, euch da noch tiefer rein zu begeben. Gibt es Sachen, die mit oder ohne diese Sprachmodelle entstanden sind, wo ihr sagt, lest euch das mal an, guckt die Webseite anhört in Podcasts. Dieses Video hat mir was gesagt. Oder vielleicht einfach diese Lektüre war freutvoll. Schaut mal auf dem KI-Campus vorbei. Einer kostenlos... Ich hätte das natürlich sagen sollen, ohne Eigenennennung. Sorry. Ich glaube, es gibt total... Ich bin ein großer Fan, ganz ehrlich auf YouTube zu schauen und mal nicht mit 1,5-Stündigen Diskussionsveranstaltungen zu beginnen, sondern zu gucken, was gibt es denn eigentlich für gute 2-minütige Videos, die sich nochmal mit einer spezifischen Fragestellung auseinandersetzen. Und wenn ihr aus Institutionen kommt, ich glaube, das Wichtigste ist auch in der eigenen Institution mal zu gucken, wer setzt sich eigentlich schon damit auseinander und können wir... Haben wir vielleicht schon einen Austausch und es ist, dass man vergisst, mal in seiner direkten Umgebung selbst zu fragen. Was wäre es bei euch? Ich finde gerade diesen Bereich zu dynamisch, als dass sich irgendwas besonders hervorheben könnte. Wenn wir jetzt über Lehre sprechen, finde ich tatsächlich das Hochschulführung Digitalisierung bietet da gute Artikel, die wiederum selbst in sich nochmal Quellen haben zu anderen Artikeln. Also, da kann man sich auf jeden Fall, wenn man sich jetzt genau für ein Modell in dem Bereich oder Sprachmodell interessiert, aus meiner Sicht gut bedienen, alles andere. Also, ich würde natürlich das, was du gesagt hast in der Streichung, Videos gucken und so ist immer gut. Und gerne auch mal Leute einfach anrufen, anschreiben und mal fragen, ob die mal eine halbe Stunde Zeit haben, was zu erklären. Ich weiß, es gibt natürlich gerade viele Leute, die dieses Thema erklären müssen, aber warum nicht? Manche Leute freuen sich, dass sie mal auf solche Themen Ok, vielen Dank, Jennifer. Was wäre deine Empfehlung? Ich empfehle jetzt noch etwas aus dem literarischen Bereich zum einen Pharmaco AI von Kaya Lado McDowell. Das ist ein Gespräch mit GPT-3, fast schon wieder veraltet. Wieso? Von wann ist das? Ich glaube 2020. Mir sagt es gar nichts, kannst du vielleicht den Titel nochmal wiederholen, falls... Pharmaco AI und für alle, die sich eher im deutschsprachigen Raum für Literatur interessieren, den Monika Rink von Hannes Bayor und Gregor Weichbrot und einem neuronalen Netzwerk. Die haben nämlich Gedichte von Monika Rink, einer sehr wichtigen deutschen Dürikerin durch ein neuronales Netzwerk trainieren mit diesen Texten und wieder Gedichte im Stil von Monika Rink auswerfen lassen, die sie dann wieder zum Gegenstand einer Poetik-Vorlesung gemacht hat, um sich selbst zu interpretieren aus den Augen einer KI. Sehr interessant und auch als künstlerisches Verfahren. Sehr interessant. Vielen Dank für eure Tipps. Vielen Dank für eure Zeit heute Abend und für das kurzfristige Einspringen und schön, dass ihr viele meiner Fragen hier gekillt habt mit euren. Danke fürs kommen und danke für eure Fragen und eure Neugierde. Kommt wieder am 29. März, erziehen wir ein Thema hoch, das hier kurz aufgepoppt ist. Gig Economy wird Thema sein, und wir haben hier von Jennifer angesprochenen zwei Dollar-Jobs pro Stunde, wenn überhaupt. Vielen Dank euch heute und ihr wisst ja, was ihr jetzt zu tun habt. Das war ja reichlich Anregung jetzt hier in der letzten Runde und auch davor. Danke. Und danke euch. Das ist doch gar nicht schlimm. Becker und Weber, hallo.