 So, hallo liebe Leute. Heute, jetzt gleich, haben wir ein Talk über Vorlebensaufzeichnungen, was eigentlich ein ganz spannendes Thema ist. Wie wir die Zukunft von Lehre gestalten können und wie wir auch die Zukunft von Bildung gestalten können und wie wir Bildung für alle und offen zugänglich machen können. Deswegen sind Vorlebensaufzeichnungen und E-Lectures eine sehr spannende Geschichte. Der liebe Jan aus Münster, von der WWU Münster hat dazu ein kleines Tool gebaut bzw. ein größeres Tool. Er sagt ja. Nicht selber gebaut, sondern viele Tools kombiniert zu einem gesamten System. Ein großes System zusammengesteckt. Darüber möchte uns jetzt erzählen, also ein kleiner Runder-Aplaus finden. Ja, danke schön. Genau, Titel Vorlesungszeichen an der Uni, voll automatisiert. Erst mal, wer bin ich? Hallo, ich bin Jan, was gerade schon gesagt. Ich bin Student und gleichzeitig auch Hilfskraft an der WWU. Genauer gesagt, am Zentrum für Hochschullehrer, halt E-Lectures-Abteilung und in Münster auch in der Warp Zone als Mitglied drin. Die WWU. Erst mal so ein bisschen Kontext schaffen, damit man sich vorstellen kann, in welchen Rahmen dieses ganze System entwickelt wurde und wie wir das betreiben. Die WWU ist eine etwas größere Uni. Wir haben circa 45.000 Studierende und die Uni selber ist nicht auf einem Campus zentriert, sondern wir sind wirklich die gesamte Stadt verteilt. Also wir haben überall, wenn man es schlecht hat, muss man irgendwie drei, vier Kilometer zurücklegen, um zur nächsten Vorlesung zu kommen. E-Lectures ist bei uns halt die Abteilung, die sich um diese ganzen Sachen kümmert, um die Vorlesungsaufzeichnungen. Wir haben inzwischen 21 Hörsäle mit unserer Technik ausgestattet. Wir können 21 Sälen komplett automatisiert aufzeichnen. Momentan machen wir pro Semester circa 500 Aufzeichnungen und das ganze Bewerkstelligen wir mit fünf Hilfskräften, wovon zwei davon für die Technik zuständig sind und drei andere eigentlich diesen ganzen Verwaltungsakt mit Briefverkehr und so weiter erledigen. Wie schaut das denn klassisch aus? Also ich sag ja, ich will das automatisiert machen. Schauen wir uns erstmal den klassischen manuellen Fall an, so wie das zum Teil auch hier tatsächlich gemacht wird. Würde man, also Standesfall ist dann, Uni geht hin, stellt eine große Anzahl an Studentiellskräfte an, weil die sind billig, ganz einfach, kauft eine kleinere Zahl, Camcorder und Mikrofone, dann wird den SHKs erklärt, so da ist der rote Knopf, drauf drücken und bitte auf den Dozierenden halten und dann rennen die SHKs den ganzen Dozierenden irgendwie in der Herd zwischen den ganzen Hörsälen und schneiden das dann irgendwie mit. Und nachher werden die Videos ganz klassisch in Handarbeit runtergeladen und geschnitten und verarbeitet und dann wahrscheinlich irgendwie über WordPress oder irgendein Learning Management System, wie zum Beispiel Moodle oder Ilias hochgeladen und in Netz verteilt. Das funktioniert für kleinere Institutionen wahrscheinlich ganz okay. Problematisch wird es dann halt irgendwie, wenn man auf große Universitäten hochgeht, wo dann pro Tag irgendwie keine Ahnung, 500 Veranstaltungen laufen, verteilen der ganzen Stadt, da wird das schwierig. Und auch ein Problem ist viele Fehlerquellen. Es kann einfach mal sein, dass jemand krank ist, dass jemanden Busstecken geblieben ist, dass die Kamera kaputt gegangen ist, weil man zu viele Stecker rein rausgesteckt hat. Das ist ein bisschen doof. Das können wir inzwischen modern ein bisschen cooler machen. Deswegen die moderne Variante automatisiert. Skaliert erstmal prinzipiell beliebig, weil wir nicht irgendwie zigtausend SRKs anstellen müssen, sondern einfach nur Technik kaufen und Technik einmal kaufen ist im Vergleich relativ billig. Man braucht sehr wenig Personal, das muss halt niemand hinterherrennen. Der Materialverschleiß ist sehr gering, weil die Technik einmal fest installiert wird und dann ist der einzige Kontakt daran noch vom Staub und sonst bewegt sich da nichts. Und die spezialisierte Software macht die Verwaltung viel einfacher. Also man muss nicht mehr diese ganze Handarbeit mit den Videos machen. Und was auch noch ganz interessant ist, es ist viel unauffälliger, als wenn jetzt irgendwie ein Student oder eine SRK mitten im Hörsaal in den Reinsitz und in der Kamera herum fruchtelt. Das mögen viele Dutzierende auch nicht. Jetzt ist die Frage, was ist alles voll automatisiert? Bei uns in dem System ist automatisiert erstmal Start Stop der Aufzeichnung, der Transfer der Aufzeichnung zu unseren Servern, der gesamte Prozess der Transkodierung und nach das Trimverarbeiten und die Veröffentlichung. Was wir noch nicht automatisiert haben, ist dieses Termine eintragen. Also irgendwie das übertragen von einem Vorlesungsregister in das System, das das System weiß, wann soll wo aufgezeichnet werden. Und das Setzen der Schnittmarken. Das ist noch ein händische mithändische Arbeit. Ganz einfach, weil es schwierig ist, wirklich komplett automatisiert zu erkennen, wann hat die Vorlesung jetzt wirklich angefangen, wann ist sie wirklich zu Ende gewesen, damit man einfach diesen Start und Ende ein bisschen schöner macht. Gerade den ersten Punkt, also Termine zentral eintragen, das lässt sich auch automatisieren über die ganzen Schnittstellen, die es gibt. Wir haben es einfach noch nicht gemacht, weil gerade diese Schnittstellen momentan bei uns an der Uni umbruch sind, aber viele andere Universitäten, wie zum Beispiel ein Manchester, die holen sich das direkt aus diesem System raus und dann fällt auch dieser Schritt. Bleibt halt nur noch Setzen der Schnittmarken zurück, das geht relativ fix. Da rutscht man ein bisschen durchs Video, man sieht es schon an der Wellenform, dann sagt man von hier bis da ab dafür. Was zeichnen wir alles auf? Wir machen das so, dass wir das Biemersignal aufzeichnen, also im Endeffekt das, was man da jetzt sehen würde, das Kamerabild des Dozierenden und ein Tonsignal von Mikrofonen und Abspielgeräten. Was wir absolut nicht aufzeichnen wollen, ist Bild und Ton der Zuhörer. Ganz einfach erstmal aus Gründen des Datenschutzes. Wir wollen überhaupt nicht irgendwie auf dünnes Eis gehen. Prinzipiell hat uns unser Datenschutzbeauftragter damals gesagt, das wäre Beiberg und eigentlich könnte man das machen. Wollen wir aber überhaupt nicht machen, hat den netten Lebeneffekt, dass die Dozierenden die Fragen aus dem Publikum wiederholen müssen, damit es in der Aufnahme drin ist. Das ist tatsächlich ein großen Hörsaal ein Problem. Irgendwer in der letzten Reihe sagt, was stellt eine Frage und die Hälfte des Hörsaals hat es eh nicht mitbekommen. Man bekommt eine leere Antwort und darf dann Jeperdee spielen. Was war die Frage? Und was wir auch nicht wollen, was halt immer wieder gefragt wird, Folien als PDF oder PowerPoint-Präsentation wurden schon länger über Modelkurse verteilt, also ganz normal hochgeladen, die Skripte. Interessiert uns ganz einfach auch nicht, weil wir das Beamer-Signal wirklich aufzeichnen. Also wir haben keine Software auf den Laptop des Vortragenden, sondern wir nehmen einfach alles, was die da an die Wand werfen, kriegen wir mit, also auch Excel oder 3D-Programme oder was auch immer. Und dann stellt man sich noch so die Frage her, wieso will man das überhaupt. Erst mal, also es gibt vielfältige Gründe dafür. Ich habe jetzt mal so ein paar aufgezählt, so direkter Nutzen, was einem sofort in den Kopf kommt, ist ja Wiederholung und Prüfungsvorbereitung. Das wird halt wirklich Regel dafür genutzt, was man dann aber wenn man weiter denkt, auch noch findet, ist einfach chronische Krankheit und Barrierefreiheit. Das ist tatsächlich ein Problem. Viele Studierende können nicht unbedingt zu einer Vorlesung um 8 Uhr morgens oder was weiß ich was, das ist für die einfach unmöglich teilweise. Oder gerade auch in größeren Universitäten Terminüberschneidungen und überfüllte Hörsäle. Also wenn der Hörsaal mit 700 Leuten der größte ist und 900 Leute, die Vorlesung hören wollen, hat man ein Problem. Und was wir auch festgestellt haben, Selbstreflektion der Dutzierenden, viele Dutzierende nutzen unsere Systeme, einfach um mal zu gucken, wie trage ich vor und was kann ich daran verbessern und auch so ein bisschen zu gucken, habe ich wirklich den gesamten Themenbereich abgedeckt, den ich abdecken wollte. Und dann gibt es natürlich noch auf anderer Seite eine Erweiterung des Lehrangebots über dedaktischen Nutzen. Man kann anhand dieser Videos später Annotationen machen. Es gibt bei uns ein Tool, wo man hingehen kann und zu jedem Zeitpunkt im Video einfach Text ran setzen kann. Irgendwie, ich habe noch mal eine Frage und die Dutzierenden können drunterschreiben und halt wirklich nochmal spezifisch nachhinein einen Teil, den man nicht verstanden hat, weiter erläutern. Oder was und wofür es auch genutzt wird, zum Beispiel in der Lehrerbildung, Unterrichtsszene aufzeichnen mit Kamera und im Nachhinein analysieren und bestimmte Szenen nochmal genauer anschauen. Was war daran gut, was war nicht gut. Was man auch machen kann, wenn man das gerade in Learning Management Systeme einbaut, wie zum Beispiel Moodle, ich weiß nicht, vielleicht kennt ihr das schon, dann gibt es quasi so schrittbasierte Übrungssättel. So nach dem Motto man hat eine Aufgabe und man muss erst diese fünf Aufgaben irgendwie richtig beantworten, bevor man auf die nächste Seite darf. Das ganze Spiel kann man auch mit der Aufzeichnung machen. Man kann hingehen und nicht auch mal extra Text hinschreiben, sondern einfach sagen, okay, das sind meine Segmente aus dieser Aufzeichnung gewesen, in denen ich dieses spezifische Thema behandle. Das wird durchgeschaut, man muss es bis zum Ende durchschauen und danach darf man die Fragen beantworten und eben nochmal genau nachschauen. Okay, habe ich wirklich alle Punkte, die ich vermitteln wollte, also die vermittelt werden sollten, auch gelernt. Das ist einfach nochmal so direkte didaktische Sachen und man kann da noch viel mehr mitmachen, aber das sind halt so die zwei Sachen, an denen wir gerade relativ stark arbeiten. Genau. Nächster großer Punkt in dieser ganzen Sache, Verarbeitungskette. Ich schau jetzt erstmal an, wie diese ganze Technik funktioniert und danach gehen wir nochmal auf die Hochschulpolitik und die Erfahrungen ein, wie wir das Ganze so durchbekommen haben, weil das nicht einfach ist. Bei der Verarbeitungskette gibt es drei große Blöcke, einmal Opencast, das ist die zentrale Software, mit der wir alles machen. Dann die Capture Agents, das ist die Hardware, die man braucht, damit es automatisiert irgendwie funktionieren kann. Und nochmal die Kamera, weil gerade das auch tatsächlich ein ziemlich komplexes Thema werden kann. Das ist eine Übersicht von unserem System. Sieht erst mal wild aus. Im Infekt haben wir zwei große Blöcke, ich weiß nicht, sieht man den Mauszeiger groß genug? Ja, gut. Wir haben großen Block Server und großen Block Hörsaal. Das ist tatsächlich so eine Art logische und physikalische Trennung. Server sind bei uns alles wirklich VMs, die dauerhaft laufen und mit denen man eigentlich zu tun hat. Und in den Hörsaal, das ist die Hörsaal-Technik, die tatsächlich die Audio und Videotechnik abbildet. Wir betrachten jetzt als allererstes mal diesen großen Teil mit Opencast. Genau, was ist Opencast? Opencast ist ein ziemlich großes Projekt, beschreibt sich selber in Kurzform als Open Source Video Management und genau das ist es auch eigentlich. Opencast ist klasse, um Aufzeichnungsplanung zu machen, also zu sagen, wann will ich, wo Aufzeichnungen haben. Es ist prima, um Videos in Serien zu verwalten, wie zum Beispiel bei eine Vorlesungsserie, alle Termine daran abbilden. Was auch sehr gut ist und auch sehr wichtig ist, ist eine sehr komplexe Zugriffskontrolle. Also für viele Dozierenden ist es wirklich extrem wichtig, dass sie sagen können, ich möchte nur, dass nur die Studierenden, die in meinen Kurs eingeschrieben sind, auch meine Videos sehen können. Das ist oft mal so, dass die Leute Angst haben, oh, dann bin ich ja im großen, weiten Internet und jeder kann das sehen, was natürlich im Sinne der offenen Lehre eigentlich gewünscht ist. Aber ich denke gerade, um so ein bisschen Stückweise dahin zu kommen, ist es erstmal wichtig, überhaupt Videos zu haben und wir haben auch viele Dozierenden, die dann nach und nach sagen, okay, gut, ist ja eigentlich als Norden und prinzipiell könnte man es auch einfach veröffentlichen. Und wir haben tatsächlich dann auch viele komplett öffentliche Veranstaltungen da drin. Was auch sehr gut geht, was zum Beispiel mit so einem zusammengefummelten System wie WordPress oder irgendwelchen Learn Management System nicht geht, umfangreiche Metadaten. Also wir haben wirklich Schnittstellen wie OII, MPH. Ich weiß nicht, ob das irgendwer kennt, das wird gerade bei Bibliotheken viel verwendet. Das ist im Endeffekt eine Metadatenschnittstelle, wo gesagt wird, okay, ich habe jetzt diesen Medieninhalt, der wurde in diesem Jahr veröffentlicht, von der Person beinhaltet diese Themen. Und das Ganze lässt sich dann nachher auch in eine Unibibliothek zum Beispiel einbinden, in diese Suche und ganz normal wie ein Lehrbuch als Lehrinhalt nachher weiter veröffentlichen. Darüber kann man das halt finden. Das ist wirklich eine sehr interessante Sache, weil vielmals ist auch das Problem, die Videos existieren dann irgendwo und dann werden die vielleicht einmal von den Studierenden geschaut und danach findet die kein Mensch mehr wieder. Und dann ist es halt auch irgendwie unnütz. Was dieses System auch noch sehr kann, was wir sehr viel nutzen, sind flexible Workflows. Also im System nennt sich das wirklich Workflow und ein Workflow beinhaltet. Ich habe ein Video irgendwo und damit mache ich jetzt Sachen. Das kann einfach nur beinhalten. Ich transkodiere das irgendwie runter von 4k auf 720p und schiebe das hoch. Das kann aber auch beinhalten. Ich füge mehrere Videostreams zusammen oder ich analysiere, wann wurde die Folie gewechselt. Ich kann Folien raus extrahieren. Ich kann auf der Folie Texterkennung machen und danach diese Texte in einen zentralen Suchservice reinbinden. Man kann dann quasi darüber über einfach Text Suche machen, Volltext Suche über die Slides in den ganzen Volllesungen. Das funktioniert im Hintergrund mit Elastix Search. Genau. Und halt noch ganz viele kleinen Details. Also es gibt halt für irgendwie jede Situation, die man hat, eine erdenkliche Möglichkeit, wo man verschiedene Module kombiniert und dann einfach die Videos dadurch verarbeitet. Was auch noch wichtig ist, um so ein System im Unikontext einbauen zu können, sind Schnittstellen für externe Anbindung. Also zum Beispiel halt das einbindenen Learning Management Systeme oder sonstige Sachen halt irgendwie anzeigen. Zum Beispiel in einer Raumübersicht findet da jetzt eine Aufzeichnung statt oder nicht. Das ist ganz wichtig. Ansonsten ist es nur ein Sourceprojekt. Es ist ein Java gespielen als OSGI Application, läuft also auf Carav mit Spring Framework. Es ist eine skalierbare Modulstruktur, was wirklich wichtig ist, wenn man das Ganze hoch skalieren möchte. Es ist extrem aktiv in der Entwicklung. Also alles halbe Jahre gibt es ein neues Point Release und es wird wirklich bei vielen Universitäten verwendet, als zum Beispiel Harvard macht das, die Universität Manchester, Köln, Wien, meine ich auch, also ganz viele. Wird von der Foundation, von der Operio Foundation gefördert und wer das mal ausprobieren will, wir haben Dockerimages dafür geschrieben, mit denen es wirklich einfach ist, das hoch zu ziehen, weil es am Anfang ein extrem komplexes System ist und nicht so leicht zu starten ist. URL findet ihr dort noch mal minus Docker hinten dran, habt ihr die Dockerimages. Wie betreiben wir das an der WWU? Einfach mal um so ein bisschen Kontext zu geben, was braucht man in Ressourcen? Wir haben momentan einen zentralen Fallserver, der über NFS erreichbar ist, mit 13TB circa. Da haben wir, ich glaube, derzeit 8TB belegt. Das schwankt aber sehr stark, in welcher Videoqualität man aufzeichnen will. Rechenleistungen eigentlich umso viel draufwerfen, wie man kann. Tatsache ist, je mehr Maschinen man hat, mehr Instanz man hat, desto besser skaliert es. Also einfach nur eine Kiste mit 64 Kernen und 2TB dran bringt nicht viel. OpenCAD selber ist ein Distributionen unterteilt. Wir innen zurück. Es hat eine skalierbare Modulstruktur. Das heißt, es ist wirklich ein, sage ich mal, Microservices in weiterer Sinne aufgeteilt. Also keine echten Microservices, aber irgendwie so unterteilt. Und die werden dann halt zu verschiedenen Distributionen zusammengruppiert, um zum Beispiel einen Admin-Interface zu haben oder ein Presentation-Interface auf das die Studierenden dann zugreifen oder halt Worker, die einfach nur im Hintergrund die Videos durchverarbeiten. Was wir auf jeden Fall immer nur machen und was ich jedem empfehlen kann, Upgrades immer nur zum Semesterende, weil es nicht so easy ist, OpenCADs zu upgraden. Das geht teilweise auch mal schief und das wollt ihr nicht im Semester machen. Was wir auch gemacht haben, was auch sehr gut geht, ein internes Repository für Patches, Features und Backports, das würde ich jedem empfehlen, gerade weil oftmals Pull requests mit sehr interessanten Features sind und man sich das dann gut zurückholen kann. So machen es auch die meisten Universitäten einfach. Was wir verwenden an der Uni ist größtenteils Moodle als zentrales System für die Online-Verwaltung von Kursen. Wir haben aber gleichzeitig auch noch für die Juristen ein Ilias-System nebenherlaufen, dass die selber verwalten. Da kann man sich auch problemlos anbinden. Also es gibt eine sogenannte LTI-Schnittstelle, die ist relativ verbreitet bei diesen eLearning-Systemen und darüber kommt man immer ran. Was sehr cool ist, diese interne rechte Verwaltung von OpenCADs kann man komplett über diese LTI-Schnittstelle durchreichen. Man kann also sagen, wenn man jetzt in seinen Learning Management System einen Kurs eingeschrieben ist, hat man auch automatisch einen OpenCADs, wenn es dann zu diesem Kurs verknüpft wurde, die Rechte das Video zu betrachten. Das macht wirklich sehr viel Arbeit weg, weil man nicht mehr für jeden Studierenden sagen muss, ja, du darfst das Video anschauen oder nicht. Man muss keine Passwörter verteilen oder sonst was, sondern man lockt sich einfach nur mit seinen zentralen Nutzerpasswort an der Uni an und weiß dann einfach, okay, ich darf darauf zugreifen oder nicht. Was wir auch noch gerne sehen, ist, dass die dozierenden eigene Mitarbeiter das Schneiden übernehmen lassen. Ganz einfach, weil man dann sonst irgendwann an den Punkt kommt, okay, wir haben jetzt ein Video reinbekommen, da läuft eine Initialverarbeitung, dann wird eine Mail an die Dozierenden rausgeschickt, dann sollen die durchschauen, ist die Aufnahme okay, dürfen wir die so veröffentlichen, dann kriegen wir eine Rückmeldung zurück und dann irgendwann Stunden später kann man das dann halt erst freischalten. Das verzögert diesen ganzen Prozess. Was wir hier wirklich gerne machen und was ich auch empfehle, dass die Mitarbeiter selber schneiden, dann ist die Change Overtime, sage ich mal, 3 Stunden, 4 Stunden, wenn man es dann wirklich schnell macht, von Ende der Vorlesung bis zur Veröffentlichung und Netz. Ich habe hier mal ein paar Screenshots gemacht, wie es dann im Endmin-Interface aussieht, also man hat einfach eine Riesenliste an Aufzeichnungen, man sieht hier oben einfach so ein paar schnelle Filter, einfach durch die ganzen Metadaten kann man viel im System herumfiltern. Man kann auch wirklich, also es ist jetzt so dieser Standard-Satz an Metadaten, der irgendwie vorhanden ist und man kann diese Metadaten auch beliebig erweitern um eigene Sachen, die man auch in der Uni braucht, irgendwie, keine Ahnung, was wir zum Beispiel nochmal reinmachen in die Extended Metadata, es sind einfach Dateienhochladen von den Aufzeichnungsberechtigungen, also dass die Dozierenden gesagt haben, Jo, es ist in Ordnung, die dürfen nicht aufzeichnen, das haben wir halt noch mal als eingescannte PDF oder irgendwie digital signiert. Das ist der Editor, der ist eingebaut in OpenCast, ist ein Web-Editor, den man benutzen kann, um die Schnittmagen zu setzen. Was man hier unten sieht, das ist im infectivellen Form von dem Audio und diese ganzen roten Elemente, die sind nachher nicht drin. Das Coole ist, dass OpenCast selber erkennt, wann stille ist und setzt diese Marken schon mal vor. Dadurch hat man schon mal direkt einen Sprungpunkt, okay, wann fängt der Vortrag jetzt wirklich an, wann hört er auf und man muss meistens nur auch ein kleines bisschen hin und her korrigieren und dann ist alles in Ordnung. Oben würde man dann bei SideAnsicht sehen, dann unten irgendwo sagen können, ist okay, liegt los. Das ist das, sag ich mal, der Medium-Browser, nennt sich Engage Portal. Da sieht man einfach eine Auflistung von allen Vorlesungen, auf die man Zugriffsrechte hat. Ich bin jetzt Admin, deswegen sehe ich da alles Mögliche drin und das sind halt alle möglichen Auflesungen, Aufzeichnungen, die wir drin haben. Wenn man draufklickt, landet man in diesem tollen Player, sieht erst mal nach einem normalen Player aus. Wir haben hier unsere Folienansicht, also das, was aus dem Beamer rauskommt und hier haben wir ein Kamerasignal. Hier unten diese einzelnen Segmente, das sind genau die Stellen, wo das System erkannt hat, okay, da wurde eine Folie gewechselt. Da kann man auch quasi schnell hinspringen, um nicht ein Video hinterher suchen zu müssen. Sieht auf den ersten Blick erst mal relativ langweilig aus. Cool ist es dann aber, dass man hier Sachen sieht, Vorschauen sieht und wer genau aufgepasst hat, sieht, dass auf einmal die Kamera hier vorne riesengroß ist. Das passiert nicht im Videostream, sondern wir gehen nicht hin und veröffentlichen ein Stream, das ist fertig eingebacken, sondern wir lassen wirklich zwei Streams gleichzeitig abspielen. Man kann also selber entscheiden, wann will ich die Kamera groß sehen, wann will ich das Beamerbild groß sehen, man kann hineinzoomen in einzelne Bilder, man kann prinzipiell, wenn man will, zehn verschiedene Kameras einstellen für Chemie-Experimente oder so was und zwischen diesen ganzen Kameras hin und herschalten, das passiert alles in diesem Player. All das sind alles einzelne Streams. Unten sieht man noch mal jede Menge Metadaten, was auch sehr cool ist, gerade bei langsameren Vorstellenden, man hat hier ein Time Warp drin, also nach dem Motto, red mal 300 Prozent schneller, ist jetzt gerade echt ein bisschen schnöde, das geht alles und halt. Qualitätsstufen, Umstellen, wie man so von YouTube kennt, irgendwie, wir liefern, ich glaube, 480p, 720p und 1080p aus und damit fahren wir eigentlich ganz gut. Genau, so viel erst mal zur Opencast, noch mal zurück zur Übersicht. Nächster großer Punkt in diesem ganzen System sind die Capture Agents, also das ist hier, ich habe den Titel nicht mal reinbekommen, und die Capture Agents bestehen halt aus vielen kleinen Dingen bei uns. Erst mal, was ist ein Capture Agent? Das ist so die Frage, der Name ist jetzt noch nicht mal so beschreibend. Wichtig ist zu wissen, dass Opencast selber überhaupt nicht aufzeichnen kann. Opencast ist wirklich Open Source Video Management und nicht Open Source Video Recording oder so was. Diese ganzen Aufgaben zum Aufnehmen werden an Capture Agents ausgelagert, und da drüber ergibt sich auch diese größere und große Flexibilität von Opencast. Wenn man irgendwie über diese Schnittstelle Videos reinbekommt, kann man es damit benutzen. Es gibt verschiedene Möglichkeiten an Capture Agents. Die Hauptunterscheidung ist erst mal Software auf einem normalen Computer, oder tatsächlich fertig integrierte kommerzielle Produkte, die kauft man als ganzes Ding, stiebt ihr sich ins Rack, steckt hinten HDMI ab dafür. Gerade hier Teltech Calicaster ist noch mal so ein Spezialfall. Die verkaufenden Endeffekten, fertig konfigurierten Computer als integrierte Hardware-Lösung, kann man sich also auch selber zusammenbauen. Diese Extrauen SMP350 sind relativ beliebt. Das Problem bei diesen ganzen Geräten ist leider, dass die extrem teuer sind. Und sie sind dann auch ein bisschen unflexibel, weil der Hersteller hat Inventionen, so wird das Gerät zu bedient und man kann dann nicht viel dran drehen. Vorteil ist aber natürlich, man hat einen Support dabei. Das ist vielleicht für eine kleinere Uni, die irgendwie nur eine Person dafür hat, interessanter, dann kann man halt einen Notfall anrufen und sagen, macht mal, guckt, dass die Kacke wieder läuft. Was es dann als Alternative dazu gibt, wenn man auch ein bisschen selber Hand anlegt, ist Software auf einem normalen Computer. Halt auch wieder Gallicaster als Optionen oder PCA oder wenn man unbedingt Windows verwenden möchte, aus Gründen Direct mit Matterhorn Remote Inbox. Oder was auch seit dem Neuesten geht, aber noch so ein bisschen Beta Alpha Status ist, ist OBS Studio, also dieses Open Broadcaster, was die Streamer ganz gerne benutzen mit einem OpenCast Plugin. Diese ganzen Systeme haben ziemlich hohen Do-It-Your-Self-Anteil, also man muss viel dran frickelen, bis es läuft. Aber es ist extrem flexibel, also man kann halt wirklich genau sagen, was da passieren soll und gerade ein Automatisierungskonzept, das sehr auf die örtlichen Gegenheiten gepasst ist, ist das ziemlich wichtig meiner Meinung nach. Wie machen wir das? Ich habe schon gesagt, die Hardware-Lösung kostet schnell mehrere Tausend Euro ohne Kamera. Bei uns war Anfangs gesagt, wir sollen bis zu 20 Räume ausstatten. So und wenn man dann bei 20 Räumen ist, mehrere Tausend Euro ohne Kamera schon ausgeben soll, dann ist das schnell keine Option mehr, es ist einfach das Budget überstrapaziert. Deswegen war bei uns sehr schnell klar, okay, wir müssen auf jeden Fall auf Do-It-Your-Self und eigentlich wollen wir auch Do-It-Your-Self, weil es halt viel effektiver ist. Wir haben angefangen mit Gullicaster Pro. Leider haben wir gemerkt, dass es gerade auf unserer Hardware ziemlich instabil war und ziemlich Performance-Probleme hatte. Inzwischen ist es wahrscheinlich besser, die haben einige Versionen danach noch mal released. Das ist schon ein paar Jahre her, aber wir sind irgendwie dann bei PC irgendwie hängen geblieben und verwenden es jetzt einfach weiter, weil es wirklich klasse für uns war. Genau, schauen wir uns mal PCA genauer an. PCA steht für Python Capture Agent für OpenCast, ist also genau auf OpenCast spezialisiert. Es ist eine sehr simple Software, also die kann man sich an einen nach dem Tag komplett durchlesen und verstehen und dadurch ist sie auch ziemlich leicht gewichtigt. Also man kann die Prinzipielle auch auf ein Raspberry Pi laufen lassen, wenn man möchte. Dafür wurde sie anfangs tatsächlich auch entwickelt. Und alles, was sie macht, ist zu Zeitpunkt XY einen konfigurierbaren Befehl aufzuführen. Das kann alles sein. Bei uns ist es einfach, startet dieses ShareScript und darin machen wir dann Sachen, um die Videos irgendwie aufzuzeichnen und zu generieren. Danach lädt die Dateien hoch zu OpenCast über diese spezielle Schnittstelle für die Capture Agent und was auch noch relativ wichtig ist, es hält einen lokalen Calender Cache vor. Also es ruft regelmäßig bei OpenCast ab und sagt, Hallo, ich möchte wissen, wann ich aufnehmen soll. OpenCast gibt die Liste raus und der Capture Agent speichert das in der lokalen Datenbank. Ist auch Open Source Software LGPL30 ein Pfeifen geschrieben, läuft auf Pfeifen 2 oder 3, je nachdem, wer noch irre ist, ein Pfeifen 2 benutzt. Ist auch aus einem direkten OpenCast-Umfeld, also von einem Hauptentwickler gestartet, wirklich eine kleine Codebase und wir haben dafür ein AUR-Paket gebastelt, weil wir halt unsere Capture Agents auf Artstehnungs laufen lassen. Genau, wie schaut denn die Hardware aus? Wir haben jetzt über die Software gesprochen, wir müssen das jetzt aber noch irgendwie in den Hörsaal bringen. Und da gibt es erstmal ein paar Voraussetzungen, die man immer beachten muss eigentlich. Die Kisten müssen leise sein, das ist wirklich wichtig. Die Lotieren werden ganz schnell irre, wenn da irgendwo ein Lüfter rumsort oder was anfängt zu bieten. Damit geht es einher, dass die Teile stromsparend sein soll und wenn man jetzt denkt, man will da irgendwie Videoverarbeitung und Videokundierung machen, in leiser und stromsparend wird es ganz schnell ein Grenzwall. Und dann kam dann noch unsere Hörsaal-Techniker und haben gesagt, ja, 2 HE geht, 1 HE fänden wir cooler und bitte nicht mehr als 40 cm Bautiefe. Und dann wird die ganze Sache auf einmal spannend. Wir haben dann noch gesagt, ganz einfach, weil die Uni Münster so extrem verteilt ist, wir wollen unbedingt Remote Management, also irgendwie IPMI, ILO, irgendwas in der Art. Dass wir an die Kisten immer rankommen, weil teilweise sind die Räume auch versperrt und da kommt man sich so schnell rein und gerade bei zeitkritischen Sachen muss man dann mal irgendwie drankommen. Rechts seht ihr die Hardware-Auflösung für unsere derzeitige Lösung. Dieses Gehäuse ist tatsächlich 1 HE groß und ich glaube 36 cm tief. Wir haben einen Server Micro-ATX Mainboard genommen, einfach um diese IPMI-Unterstützung mit drin zu haben und eine Xeon Low Voltage CPU bisher verwendet und dann kam Intel und meinte so, auch auf Low Voltage haben wir keinen Bock mehr. Wir streichen jetzt die gesamte Low Voltage Xeon-Serie und gucken mal, was er macht. Momentan sind wir noch ein bisschen schwierig, wir haben jetzt einfach ein normaler CPU genommen und sind ins Baustegangen, haben gesagt, ja, 25 Watt TDP Limit und dann wird die CPU gedrosselt. Ist ein bisschen schade, wenn man so ein CPU dann so einschränkt, aber das muss man wirklich machen, weil wir also an warmen Tagen wird die so bei 85 bis 90 Grad liegen. Das ist also wirklich alles am Limit. Wir haben es leider nicht besser gefunden. Es ist einfach schwierig auf 1 HE so was wegzukühlen. Ansonsten halt Noctua-Lüfter, um schön leise zu bleiben. Unsere Capture-Karte ist drin und weil es nicht wirklich viel kostet in dem Kontext, 16 GB dran, SSD rein, ab dafür. SSD wollte auch auf jeden Fall haben, weil bei Festplatten kann es sein, dass man eine große Latente ist und dann hat da ein Problem. Genau, Capture-Karte zum Aufzeichnen von Beamer und eventuell Kamera. Was ihr auf jeden Fall aufzeichnen müsst, ist HDMI irgendwie und ihr braucht es sehr wahrscheinlich auch in Splitter, um das Beamer-Signal irgendwie abzugreifen. Unsere Erfahrungen jetzt bei mobilen Systemen, die wir auch momentan entwickeln sind, PCI Express ist auf jeden Fall USB 3.0-Karten vorzuziehen. USB 3.0 wird sehr schnell sehr instabil, gerade auch weil USB an dieser Bandbreite von dem Video schnell ans Limit kommt. Ein eingebauter HD 64-Encoder ist oftmals gerade bei diesen Gaming Capture-Karten mit drin. Der ist in dem Kontext überhaupt nicht hilfreich, weil ihr die Encoding-Option relativ viel fein einstellen wollt. Und ja, es ist encoding, was da drin passiert, das bringt meistens nichts, gerade auch, weil man nachher irgendwie noch nachsynchronisieren will oder Frame-Raten anpassen oder Filter direkt drauflegen will und dann muss man es eh wieder decodieren und dann wieder neu encodieren. Wir benutzen inzwischen Matchwell-Karten, die sind für unseren Anwendungsfall und generell diesen Anwendungsfall absolut klasse, genau das, was man sucht und die empfehle ich persönlich auf jeden Fall. Und so sieht das Ganze an aus. Das ist diese Kiste einmal komplett geöffnet oben mit einem Deckel, da haben wir gerade noch die Lüfter ausgetauscht und man sieht halt die CPU in der Mitte, das ist einfach ein großer Kühlkörper und da sieht man auch, wieso die Kisten so heiß werden. Man hat vorne ein paar kleine 40mm Lüfter, die so langsam wie möglich drehen und dann versuchen irgendwie über diese lange Strecke da noch Luft durchzuschieben. Das ist alles halt, ist schwierig. Links sieht man die kleine Capture-Karte, die ist ja so reingesteckt. Genau, als nächstes ist noch interessant die Kamera. Wir benutzen eine 4K-IP-Kamera. Bei einer Kamera muss man erst mal so zwei grobe Kategorien unterscheiden, entweder man nimmt eine klassische Kamera mit HDMI oder SDI-Signal-Ausgabe oder man nimmt eine Netzwerkkamera, die dann halt alles über IP-Protokolle rauswirft. Hat beides Vor- und Nachteile. Simtletechnik ist dann jeweils auf der einen oder anderen Seite, das ist immer so die Frage, wo wir die Simtletechnik haben. Wenn man jetzt eine fertig integrierte Lösung will, dann nimmt man sich eigentlich am besten die HDMI oder SDI-Kameras, weil man muss auch anstecken und ist quasi fertig. Großproblem bei den normalen Kameras ist Spezialkabelwege. Man muss dann auch mal teilweise Decke aufreißen, um da irgendwie ein SDI-Kabel langzulegen. Das ist blöd und meistens PTZ, also gucken, wo Rends Dutzierende gerade rum. Man muss dann meistens über Motorkontrolle erfolgen und da ist dann die Frage, wer steuert diese Motoren, wer steuert die Kamera. Bei Netzwerk entfällt das alles größtenteils, weil man da meistens auf starre Netzwerkkameras setzt, die dann irgendwie digitales PTZ haben oder man kann es über eine API steuern, das ist ganz gut. Problem bei der ganzen Sache ist Internet auf Shit. Man hängt da irgendein Embedded Device ans Netzwerk, ans Uni-Netzwerk und es passieren Dinge. Da muss man immer so fragen, wie weit grenzt sich das ab und was nehme ich da? Genau, Pentel Zoom habe ich gerade kurz angesprochen. Gibt es noch zwei große Unterscheidungen, eine schadenliche Pentel Zoom. Also man bewegt wirklich die Kamera über Motoren oder man macht digitales PTZ. Das ist im Endeffekt ein Kroppen aus dem gesamten Bild. Beim digitalen PTZ hat man den Vorteil, dass man Backupstream des Sensors haben kann. Das ist gerade im Bereich einer Vorlesungsaufzeichnung, die nur einmal passiert und nie wiederholt werden kann, ziemlich wichtig, weil diese automatisierten Systeme für den Kameraausschnitt ab und zu mal rumspinnen. So, und wenn das Ding jetzt die ganze Zeit auf den einen Studierenden, der sich unbedingt vorne vor das Podest gesetzt hat und damit den Füßen gewidelt hat, draufspringen, weil der Bewegung war und der Dozierende nie zu sehen ist, dann hat man ein Problem. Beim digitalen kann man dann einfach hingehen und wir nehmen uns den kompletten Roastream des Sensors und schneiden nachher noch mal selber aus. Also man hat die Option, eine Aufnahme nachhinein noch mal zu retten. Problem an der Sache ist, man schneidet aus dem Sensorbild was raus. Das heißt, man muss überhaupt schon mal erst mal einen Riesenauflösung haben, um nachher noch ein brauchbares Signal rauszubekommen. Also 4K ist Pflicht. Wenn man das sagt so, ja wir zeichnen die Dozierenden mit 4K auf, dann denkt man ja, ist das nötig, aber man sieht nachher tatsächlich, der Ausschnitt reicht so gerade eben aus. Eigentlich hätten wir viel lieber 8K, aber dann werden die Datenmengen ein bisschen unhandlich. Genau, wir haben uns dann tatsächlich für die XS P1428E entschieden, die inzwischen abgelöst wurde durch die 1448E, ist im Endeffekt dasselbe Teil mit noch ein paar Extra Features dazu, die das Ganze noch angenehmer machen. Und die können wir eigentlich auch empfehlen, mit ein paar kleinen Abzügen bei der Bildqualität, die aber in dem Fall eigentlich meiner Meinung nach ausreicht. So sieht das ganze Ding aus. Ist ein Sicherheitskamera, Bulletpoint nennt sich das. Die schmeißt man entweder in der Mitte des Raums unter die Decke oder hinten am Ende des Raums einfach dran und richtet die einmal aus und dann ist alles gut. Jetzt habe ich an meiner Liste einen Stolper fallen, ich habe hier ganz viel gesagt und dann denkt man sich, ja wir wissen jetzt alles, wir können das jetzt machen. Die jahren Erfahrungen haben ganz viele tolle Sachen gezeigt. So wenn man Netzwerkkameras macht, dann hat man großes Problem, Audio-Videosinkronisation. Da sitzt eine Kamera irgendwie in den Coder und man sagt, ich möchte jetzt Bild haben und der startet vielleicht in 10 Millisekunden, der startet vielleicht in 100 Millisekunden oder sonst was, das ist kein Echtzeitsystem. Das heißt die Synchronisation ist schwierig. Es gibt es da aber einen Trick und zwar Kameras, die den On-WIFT-Standard 1.0 erfüllen, das sind die meisten Netzwerkkameras. Die senden in dem RTCP Sender Report ganz zu Beginn des Streams einmal ein Unix Time Worklock Timestamp mit und anhand dessen kann man das dann tatsächlich nachher wieder synchronisieren. Da haben wir ziemlich lange dafür gebraucht, bis wir das hinbekommen haben, aber das geht damit auf jeden Fall. Muss halt ein bisschen fummel, aber wenn man auf dieses Feature achtet, ist alles gut. Kamera und Capture Agent, wenn man Netzwerkkameras macht, auf jeden Fall auf denselben Switch legen. Wir haben an der Uni, ich glaube momentan 70.000 Netzwerken Geräte und dementsprechend Netzwerkinfrastruktur und ich sage euch Netzblitz are a thing. Also eigentlich irgendwie mindestens alle zwei Tage geht man Monitoring Systeme an und sagt, diesen Capture Agent da erreiche ich nicht mehr oder diese Kamera da ist weg. Und da wir den lokalen Calender Cache in dem Capture Agent haben und für die ideale Falle auf denselben Switch stecken, kann dieses System auch noch autark arbeiten, auch wenn die Verbindung zum Server abgerissen ist. Das interessiert die Kiste dann nicht mehr. Auch ein kleines Ding, Firefox unterstützt H2 64 nur so Semi. Liegt daran, dass die von Cisco ein Pluckin spendiert bekommen haben, also ein Decoder und manche Sachen kann's, manche Sachen nicht. Unserer Fragen hat gesagt, einfach Constraint Baseline als H2 64 Profil benutzen, dann läuft alles. Und das auch immer wieder passiert, die Dutzieren vergessen, die Mikro einzuschalten, weil es gewohnt sind, ohne Mikro zu sprechen und wundern sich dann nachher, dass da kein Ton der Aufnahme ist. Und Apple-Geräte sind auch so unsere Lieblingsfreunde, die gehen dann nicht ganz gerne einfach immer HDCP aus. Ja, ist total nervig. Was wir dafür machen, sind noch mal extra Geräte rein schalten, die dann über Edit dem Gerät sagen, ja, hier bitte kein HDCP kann ich nicht und dann kann man das meistens irgendwie unterbinden. Gut, so viel zur Technik. Ich muss jetzt ein bisschen schneller machen, weil sonst Zeit ein bisschen... Ja, gut. Ihr habt jetzt ganz viel gesagt, wie man das macht unter der Aufnahme, dass das erlaubt ist. Jetzt ist aber die Frage, wie kriegt man das überhaupt durchgesetzt, dass man so was machen kann, weil viele Universitäten da ja noch nicht so auf dem Fortschritt sind. Ich zeige euch erstmal den beispielhaften Projektverlauf an unserem Projekt, wie wir das alles durchgekommen haben, zeitlich, damit man sich so ein bisschen gucken kann, wie könnte man das machen? Und was waren so unsere Erfahrungen mit Dozierenden und mit Studierenden und ja überlegen, was man da auf jeden Fall machen sollte, machen könnte, wie man da rangeht? So schaut das bei uns grob aus. Wir hatten im Endeffekt vier verschiedene Phasen angefangen, hat es, dass ein Student damals zum Aster gegangen ist und gesagt hat, ja, ich möchte gerne Vorlesungen aufzeichnen. Dann hat das Aster gesagt, ja, finden wir cool, möchten wir machen. Hier hast du eine Projektstelle, machen wir. Haben es durchbekommen, dass sie in einen Raum aufzeichnen durften und halt auch schon mit Umkasten ein bisschen rumgespielt. Dann haben sie gemerkt, jo, ist cool. Sind hingangen und haben bei der Qualitätsverbesserungskommission, das ist hier das QVK, ein Antrag gestellt, ja, wir würden das ganz gerne an der Uni machen. Den Antrag haben sie durchbekommen. Das waren zwei Jahre, nachdem dieses Projekt gestartet ist. Und aus diesem QVK-Antrag haben wir dann ein Pilotprojekt an der Uni selber machen können. Das lief bis Ende des letzten Jahres. Und aus diesem Pilotprojekt, weil wir es eigentlich relativ gut hinbekommen, ist dann eine feste Stelle an der Uni geworden. Und wir haben das jetzt fest in die Unestructur eingebunden und werden es auch in Zukunft weitermachen. Und ich denke mal, so wird es meistens laufen, weil von der Uni selber kommt relativ selten der Impuls, ja, wir wollen aufzeichnen. Das ist dann meistens durch Studierende in Arbeit. Noch mal bei der Projektstelle beim Aster, was da wichtig ist. Ich habe dort gegen Ende der Projektstelle beim Aster das ganze Ding übernommen damals, 2015 im Sommer. Wichtig war damals nicht auf die Technik versteifen. Die Technik ist da erst mal noch relativ egal. Ein stark verwendeter Raum reicht. Und das meiste, was sie da macht, ist Hochschulpolitische Arbeit. Schon mal ein bisschen vorweichen, okay, wir wollen hier nicht die Totalüberwachung, sondern wir wollen das Lehrangebot bereichern. Das ist so im Endeffekt das Hauptziel, auf das sie hinaus arbeitet. Qualitätsverbesserungskommissionsantrag ist ein tolles Wort. Was man da auf jeden Fall beachten sollte, ist realistische Erwartungen stellen, aber auch gerne mal hoch pokern. Und das Ding ist, die Finanzen sind nicht unheblich. Ich habe jetzt gerade gesagt, man baut sich die Teile am besten selber zusammen, also in unserem Fall. Die Hardwarekosten liegen bei 2000 Euro. Was man aber noch beachten muss, sind Hardwarekosten für Netzwerkanschlüsse hinstellen, Kosten für die Kamera, Kosten für eventuelle Medientechnik, die Leute, die das einbauen müssen, bezahlt werden, etc., etc. Man landet schnell bei 5.000 bis 10.000 Euro pro Raum. Je nachdem, wie man es macht, wenn man die Ganz-Töre-Lösungen wählt, auch gerne mal bei 20.000 Euro pro Raum. Das muss in euren Antrag mit rein. Das muss dir vorher im Budget festlegen. Ihr wollt auf jeden Fall zwei Jahre Laufzeit haben. Ganz einfach, damit sich das Projekt etablieren kann, weil es am Anfang sehr ruckelig laufen wird. Dieses System ist ziemlich schwierig umzusetzen. Es gibt sehr viele Stolperfallen, und die Zeit braucht ihr einfach. Bei den Personalstellen gucken, dass ihr auf jeden Fall ein Techniker dabei habt, weil das nicht point-and-click ist. Ihr wollt auch gerne ein Dedektiker dabei haben, einfach um nochmal die Lehrbereichung da noch mal herauszuarbeiten. Und Support ist natürlich auch nicht ganz verkehrt. Beim Pilotprojekt ANONI, wenn ihr dann soweit seid, so ihr dürft es machen. Nistet euch in die Elon-Strukturen ein. Guckt, dass ihr möglichst viele Verbindungsstellen schlagt und keine Insel-Lösungen baut. Da hat keiner so richtig Bock drauf. Das war für uns wichtig. Und wir haben damals gesagt, zwei Semester für Entwicklung und Beta-Reservieren. Das war ganz gut, einfach, weil das System am Anfang nicht rund lief. Und die Studien wussten, okay, das ist jetzt gerade noch zum Test. Das Allerwichtigste ist auf jeden Fall Verlässlichkeit. Wenn das System nicht läuft, werden die stinkig. Richtig stinkig. Da müsst ihr darauf achten. Und was wir viel gemacht haben, ist Klingenputzen. Was wir empfehlen, begeisterbare Dozierende finden, die das dann unter die Kollegen weiter erzählen und dann Leute, die so auf der Kippe stellen, nochmal extra ein bisschen mitmotiviert. Ja, macht das mal. Das funktioniert ganz gut. Meistens ist es so, wenn man einmal so einen Punkt in den Fachbereich hineingefunden hat und einen Dozierenden anfingern hat, dann verbreitet sich das relativ schnell in diesem Bereich, weil die Leute merken, okay, es ist wirklich cool und es ist wirklich hilfreich. Und dann ist noch die große Frage, ob in oder ob out. In Deutschland kommt man sehr wahrscheinlich nicht um opt-in hinrum. Ganz einfach, weil natürlich immer noch das Recht am eigenen Bild besteht und je nach Lehrvertrag das auch bei den Dozierenden bleibt. Es ist tatsächlich so, dass die Universität ein Mensch es da geschafft hat, das auf opt-out umzustellen. Das heißt, die Zeichen wirklich alles auf. Es sei denn, man sagt ganz bestimmt, ich möchte das nicht. Und das ist auch gerade bei der Barrierefreiheit ein sehr wichtiger Punkt. Barrierefreiheit in dem Sinne, um das als Barrierefreiheit zu benutzen, funktioniert auch nur, wenn es breitflächig angeboten wird. Ansonsten bringt es einem wenig, wenn das bei der Einfahrtanstaltung klappt und bei den anderen nicht, weil der Dozierende sich irgendwie vor der Kamera nicht hübsch findet. Das ist irgendwie schade. Und dann ist noch so die Frage, Datenschutzen, Kameras im semi-öffentlichen Raum. Ich sage semi-öffentlich, dass das aber irgendwie auch als öffentliche Raum empfunden wird. Wir haben das so gelöst, dass wir wirklich sehr proaktiv fahren. Wir haben überall Warnschilder aufgehängt. Hier wird aufgezeichnet. Hier ist der QR-Code. Da könnt ihr gucken, wann wird aufgezeichnet. Wir haben viel an den Kameras gearbeitet, dass wirklich nur die Dozierenden zu sehen sind. Einfach, um nochmal so diese Angst zu nehmen. Hier wird nur Überwachung gefahren, was wir absolut nicht machen. Und Resultat war auch, dass wir wirklich eigentlich keine Bedenken nach dem Motto, hey, ihr habt hier Kameras aufgehängt. Was ist mit meinen Datenschutz los? So ein eigentlich größter Teil, was auch irgendwo verständlich ist von den Dozierenden, die Angst hatten, dass die jetzt bei der Arbeit überwacht werden. Da muss man dann halt immer noch mal hingehen und erklären, okay, dieses Themenzeichen wirklich nur dann auf, wenn es auch wirklich von uns eingestellt wurde. Und damit hat sich die Lage meistens sehr schnell entschärft. Ja, Qualität. Empfundene Qualität ist eigentlich an diesen Punkten unserer Meinung nach so am schnellsten festzumachen. Also absolute Zuverlässigkeit. Wenn einmal eine Aufnahme fehlt, kann das ziemlich schnell durch sein, wenn es genau die Aufnahme ist, den Inhalt der Klausur beinhaltete. Das ist schlecht. Schnelle veröffentlichen. Teilweise wollen die Leute das innerhalb von 24 Stunden haben. Gute Geräteunterstützung. Die Leute gucken viel auf den mobilen Endgeräten. Und wer Fläsch einsetzt, nein, einfach nein. Es ist vorbei. Klarer Ton von den Folien. Also klarer Ton und klarer Folien ist sehr wichtig. Kamerabild ist eigentlich vernachlässigbar nach unseren Erfahrungen. Also das ist nett dabei zu haben, aber nicht so super wichtig. Wenn das stimmt, seid ihr auf einem guten Weg. Genau, Nutzungsstatistik hätte ich jetzt noch. Ich habe jetzt aber noch 15 Minuten eingeplant für Fragen. Ich weiß nicht, gibt es schon irgendwie mega Fragen gerade. Ich würde jetzt erstmal noch ein paar Fragen dann vielleicht nochmal schnell die Statistiken, wenn keine mehr Fragen mehr da sind. Ja, hallo. Die Frage aus dem Publikum wird hoffentlich auch im Livestream nachher aufgezeichnet. Wie sieht es bei euch aus mit Fragen der Studierenden im Zuge der Vorlesung? Wie kriegt ihr das in Griff, dass das automatisch läuft? Du hast jetzt nur gesagt, wenn wir das in der Aufnahme einschalten, wo ist da die Grenze der Automatisierbarkeit? Ja, also Automatisierbarkeit ist schwierig. Also wir sagen den Dutzierenden natürlich in der Aufnahme landet alles, was in das Mikrofon gesprochen wird. Das heißt, das was die Dutzierenden draußen sagen, ist in der Aufnahme eigentlich nicht mehr zu hören beziehungsweise noch irgendwas sehr verheilt ist. Wollen wir auch so lassen, einfach weil es nochmal ein Direktor nutzen vor Ort ist, wenn die Dutzierenden die Frage wiederholen und das sollen sie auch tun und dann landet es in der Aufnahme. Und dann ist es eigentlich auch kein Problem, weil wir schon gesagt, die Studierenden sind eigentlich in diesem Fall bei Werken und es ist dann auch kein Problem, die Frage zu wiederholen, da gibt es kein Datenschutzprobleme. Das war ein Wort. Ja, davon haben wir noch eine weitere. Du meinst, ja, du hast, dass das mit diesen Multistreams läuft, wie ist das, wenn man das Offline nutzen will? Ja, genau, Offline ist noch die Frage. Downloads machen wir bei uns nicht. Das besteht aber in dem System als Möglichkeit. Und zwar würde man dann in dem Fall einen separaten Workflow anlegen, der eben diese zwei Videos zu einem normalen Video zusammenmächst und dann hat man irgendwie Picture-on-Picture oder Seite-bei-Seite und kann das als Download anbieten. Das ist halt diese große Flexibilität der Workflows, man kann es so konfigurieren, dass das dann rausgeworfen wird. Ja, das geht. Wie macht ihr das mit den verschiedenen Multistreams? Habt ihr da an welcher Voreinstellung, dass jemand durchgeht und sagt, jetzt sollen Folien kommen per Default oder muss der Nutzer das immer selbst einstellen, was er gerade sehen will? Die Standard-Einstellung bei uns ist Folien groß, dutzierender um rechts in der Ecke klein. Man kann prinzipiell auch Smilderteilen reinlegen, zum Beispiel, das wäre jetzt, also direkt geht es noch nicht. Es sind aber alle Möglichkeiten da, um so was einzurichten. Man könnte zum Beispiel hingehen und an eine Mediensteuerung direkt neben dem Podest, was ja in vielen Hörosellen ist, irgendwie Knöpfe anbieten so dann und dann. Das schickt meine Anfrage an meinen Capture-Elfen und der schreibt das in ein Smilderteil. Und dieses Smilderteil wird mit an OpenCast geschickt und dann in den OpenCast öffnet ich dieses Smilderteil oder, ja, brauche ich noch nicht mal, im Player, öffnet ich dieses Smilderteil und schalte automatisch um. Das geht nicht mit dem Standard-Player sondern noch ein alternativen Player, der nennt sich Palea Player. Der ist relativ leicht in OpenCast integrierbar. Der kann das meiner Meinung nach, dass man das Smilderteil mit reinlegt in dieses Media Package, was alles Streams bindet und dann wird automatisch umgeschaltet. Ja. Du hattest erwähnt, ihr hattet mit MacBooks Probleme und wir hatten auch die Erfahrung gemacht, mich würde konkret interessieren, wie ihr das gelöst habt mit diesem Edit faken von den ganzen. Ich würde sagen, wenn wir den Leuten, die mit einem MacBook vortragen möchten, schließt es bitte per VGA an. Ganz einfach, weil die MacBooks wirklich, das ist total fummelig da. Es gibt aber von Extron halt eben diese, die Geräte nennen sich Edit-Minder, die werden dazwischen geschaltet in der Signalkette, also quasi Laptop, Edit-Minder, restliche Medienanlage. Und über das HDMI-Signal kann man ja quasi wie diese Monitorerkennung, was halt man dieses Gerät, dem Laptop sagen, was kann ich alles? Und man stellt dann in diesen Edit-Mindern einfach ein, sagt, ich kann kein HDCP. Und dann weiß der Laptop direkt, okay, ich kann hier kein HDCP ausgeben. Der schlimmste Fall der dann passiert ist, dass die Präsentationssoftware sagt, ja, darf ich nicht wiedergeben, dann muss man aber eh gucken, hat man überhaupt die rechte Dritter da, darf man das überhaupt so vortragen, ist natürlich nochmal ein letzter Trick. Aber das funktioniert eigentlich ganz gut, dann das Signal rauskommt. Ja, noch eine Frage zu den Metadaten. Da gibt es ja verschiedene Versuche, das zu standardisieren. Habt ihr da euch entschieden, welchen Standard das OpenCast unterstützen soll oder ist das Wag in Progress? Ich frage auch, weil, okay, ich frage auch nach der Recherchierbarkeit von Metadaten, zum Beispiel auch für andere Unis, die sagen, hey, habt ihr da nicht ein Video zu dem Thema? Die ganzen Metadaten werden standardmäßig erst mal auf den Dublin Core abgebildet und dementsprechend halt alle möglichen Felder kann man da ausfüllen und die Extended Metadaten sind dann halt nochmal Spezialfelder und diese Dublin Core Felder werden dann entsprechend auch über die OII, PMH Schnittstelle rausgegeben, damit sich das dann nahtlos in die Bibliothekssysteme zum Beispiel einbindet, weil die halt auch größtenteils auf den Dublin Core Standard sind. Ja. Ich hätte noch eine Frage zum Thema Archivierung. Du hattest ja schon erwähnt, dass es für Bibliotheken interessant ist. Einerseits, wenn eine Uni jahrzehntelang Videos aufzeichnet, wird das eine Menge Daten. Andererseits kann ich mir gut vorstellen, dass nach 20 Jahren die Programmierendvorlesung von vor 20 Jahren, die jedes Semester oder alle zwei Semester gehalten wird, irgendwie nicht interessant ist. Während dagegen Unikarte, die 20 Jahre alt sind, weil da mal ein Gastduzent da war, ist das eine sehr saure Gedanken zu. Genau. Also, was wir gemacht haben, wir haben eine Deprovisionierungszeit von acht Semestern festgelegt, also vier Jahren, nachdem wir die Veranstaltungen im Schnitt eigentlich rauswerfen. Wir sind jetzt noch nicht so lange im Projekt, dass das tatsächlich der Fall ist, dass wir es rauswerfen müssen. Wir haben noch keine vier Jahre, aber das wäre dann geplant. Man kann aber prinzipiell die Auflesung, die Voll, die Aufzeichnung, die Löschen oder eben nicht. Was momentan, ich glaube, noch ein Pulverquest ist, ich weiß nicht, ob der schon gemirkt wurde, ist ein Archivalsdeutsch, das man wirklich sagt, okay, diese Vorlesung, die wird nur einmal pro Jahr aufgerufen, dann lege ich die auf ein Langzeitspeicher, wie Bandlaufwerk oder sonst was, was halt wirklich günstig ist in der Masse. Und wenn es dann wieder interessant wird, kann ich es von diesem Langzeitspeicher wieder zurückholen ins aktive System. Da gibt es momentan schon Arbeiten dran, ja, gibt es noch weitere Fragen? Gut, ich habe laut Uhr noch sieben Minuten. Gut, dann kriegen wir noch noch die Nutzungsstatistiken, einfach so ein paar nette Zahlen raus. Ich fange erst mal mit dem schönsten Graf an. Wenn man den sieht, weiß man ganz genau, wie dieses System benutzt wird. Das ist das letzte Semester, also Wintersemester. Was man da sieht, auf der Y-Achse sind die Abrufe pro Tag, die sich erst abkühlt. Startet vom 1. Oktober, also ein Monat in dem Semester beginnt und geht bis an, ich glaube Mitte März habe ich das abgeschnitten, da sind die meisten Klausuren rum und das Semester ist quasi zu Ende. Es gibt zwar sehr schöne Stellen. Weihnachten, Neujahr gibt es immer tolle Abbrüche, das sieht man sofort, auffallend ist, dass die nicht komplett abbrechen. Es gibt Leute, die sich tatsächlich Videos anschauen, keine Ahnung, wer das macht, aber passiert oder Neujahr machen auch manche. Viel schöner sehe ich, finde ich aber hier diese Kurve, die dann steil nach oben geht, sobald es in die Klausurzeit reingeht und dann sieht man genau, hier war eine Klausur, auf einmal ein schöner Drop, dann ist diese Vorlesung rum, dann springt es noch mal so ein bisschen nach oben, kommt noch mal eine Klausur, dann geht es wieder steil runter und geht so weiter. Die Termine wirklich war da die Klausur und meistens ist es genau dann Aufrufe nach Tageszeit. Wir haben tatsächlich ein paar Nachtäulen, die sich die Videos um 3 Uhr nachts nochmal angeschaut haben, das fand ich auch sehr interessant, aber ansonsten sehr viel zur Mittagszeit, also es wird halt parallel zum normalen Tagesbrauch gemacht, teilweise auch spät in den Nahen und hinein, das ist nochmal ganz nett, denke ich, gerade bei Übungszetteln, wo wir dann spät abends nochmal sitzen und dann nochmal reingucken kann, verwendete Browser ist bei uns ganz interessant, größter Teil in Chrome, denke ich mal, sehr viel Safari, wir haben ziemlich viele Mac-User, Firefox, Massac, es gibt tatsächlich viel Edge und Rest, das waren dann irgendwelche obskurren Browser. Was ich tatsächlich eine total interessante Statistik fand, 27% haben immer noch Flash installiert, ich weiß nicht wieso und 11% der Aufrufe von Tablet oder Handy, das darf man tatsächlich nicht vernachlässigen. Also viele Leute haben tatsächlich auch einfach nur ein Tablet und gerade da ist es wichtig, dass man dann halt eben kein Flash benutzt, weil Android kein Flash, iPhone kein Flash und dann ist halt Essig. Das war jetzt eigentlich das, ich weiß nicht, ich kann nochmal Demo zeigen, wenn das vielleicht interessant ist. 5 Minuten habe ich noch, ist das, ich meine, genau, was ich nochmal zeigen kann, was ich damit hatte, war wie das, wie schaut es denn aus, dann später tatsächlich für die Studierenden. Ich habe hier einmal ein Testkurs in unserem Modelsystem, das ist halt unser Film von der Uni, nenn es bei uns Learn Web und das wäre jetzt zum Beispiel ein Kurs, da sind dann ganz viele Kursmaterialien drin, im Idealfall setz ein Testkurs und dann hat man einfach einen Link und dann geht man da drauf und wenn jetzt alles klappt und man Session noch da ist, die Aufnahme und ich kann hier zwischen den Folien hinterher suchen und sehe schon eine kleine Vorschau, was ist drauf und kann dann sagen, ok, ich möchte hier starten und dann geht es los. Das ist jetzt ein spezieller Raum, da haben wir eine Sony Kamera eingerichtet, die nochmal bessere Lichtempfindlichkeit hat auf Wunsch der Dozierenden in diesem Raum. Man kann in die Folie reinspringen, man kann das Vollbild reinspringen, man kann zoom irgendwie und den Bildausschnitt verschieben und ansonsten werden hier nochmal Metadaten angezeigt und so schaut es bei den Access-Kameras aus. Wir haben nicht bei den Access-Kameras das coole Feature, das hier ein digitales Auto-Tracking können, also selber Objekterkennung haben und den Bildausschnitt eigenständig verschieben. Da es ein Sicherheitskamera ist, ist das sehr sprunghaft. Das werdet da gleich sehen. Also ja gut, da geht es noch, also halt Folienansicht und jetzt hier ein Ansicht. Da läuft wirklich in der Kamera und wir kriegen den Stream so aus der Kamera raus. Da sieht man auch das große Problem gerade bei den Sicherheitskameras, die haben nicht so eine gute Lichtempfindlichkeit, weil das, was sie im Hörsaal macht, das würde ich als Ultra-Lowlight bezeichnen, auf jeden Fall. Die Kamera, die wir da jetzt verwendet, hatte eine Mindestempfindlichkeit von 1,4 Lux. Das neue Rommendell schafft 0,18 Lux. Sollte also deutlich besser sein. Aber wichtig ist hier zu beachten, so schauen sich die Studierenden das an. Das Kamerabild ist oben rechts in der Ecke und da bleibt es auch die meiste Zeit. Da ist eigentlich die Frage, muss das jetzt noch viel besser sein oder reicht es, um die Gestik des Studierenden zu erkennen, wie wir das vermitteln. Das ist immer so, ist ein Spagat. Aber ja, ansonsten kann man halt hin und her springen. Das synchronisiert wieder nach und ist halt gerade das Tolle, was ich finde, wenn man jetzt mal eine Vorlesung hat, ganz klassisch auf der Tafel können wir auch das 4K-Bild gesamtreihen und dann können die Studierenden selber in den Bild hin und her springen und rumzoomen und sich ein Tafel anschrieben nochmal genauer anschauen. Gut. Ich glaube, das war so alles ein Demo. Ja, Jan, vielen Dank. Für diesen super tollen, versierten Vortrag. Dankeschön.