 Unser Sprecher ist Sebastian Piechelhofer, er ist Filmemacher und Kameraentwickler und letztens ist er der Großelbe hier ist, denn sein Vortrag zur Einblicken in die Entwicklung einer Open Source Kinofilmkamera würde uns erklären, wie es mit dem Aktionprojekt dazu kam, dass eine selbst gebarote oder selbst erstellte Kinofilmkamera das Leben gerufen wurde, mit dem Ziel genau diese Kinoeffekte zu erzeugen, die zu einem Kinofilm dazugehören. Also eine Körnung, eine tiefen Unschärfe und auch ein gewisses Maß an Flimmern, die einfach zu dieser Atmosphäre gehören. Das ganze gibt's seit grob 2006. Sebastian hat mir vorhin gesagt, er ist 2008 zu dem Projekt gestoßen und ich würde sagen, jetzt lassen wir ihn mal erzählen, worum es hierbei geht. Viel Spaß! Wir sind hier im Zentralarchiv des Filmarchivs Austria. Hier lagern über 200.000 Filme, das sind über 500.000 Filmrollen oder 65 Millionen Meter Filmen. Das Filmarchiv war so nett, uns hier unseren Talk aufzeichnen zu lassen. Ich meine es online und in echt, dass wir alles ganz was anderes, aber es ist nun mal, wie es ist und wir versuchen, das Beste daraus zu machen und immerhin können wir jetzt Dinge herzeigen wie eben hier, wo wir sind und sozusagen eine Location mitbringen, die so sonst nicht möglich wäre. Immerhin eine Chance aus der Krise sozusagen. Obwohl es voraufgezeichnet ist, gibt's nach dem Talk natürlich live Q&A, wo ich dann auch online dabei bin und jetzt starten wir in die Geschichte des digitalen Films und Reisen zurück sozusagen in die Steinzeit oder in die Anfänge des digitalen Films in des Jahr 2001. Bis jetzt war klar, praktisch alles, was man in einem Kino gesehen hat, wurde auf analogen Film gedreht. Es wurde zwar schon einige Zeit lang die Postproduktion, also die Filmnachbearbeitung digital abgenüglicht und noch immer mehr Kinos fangen an auf digitale Projektion umzustellen, aber immer noch ist Film, also das analoge Material, die einzige Möglichkeit einen Film aufzuzeichnen. Und das beginnt sich jetzt langsam zu ändern. Was ist analoge Film eigentlich? Eine Fotoemulsion, also eine lichtsensative Schicht auf einer transparenten Folie, die verändert sich bei Kontakt mit Licht und wird dann chemisch in mehreren Schritten entwickelt, fixiert und dann mehrmals kopiert, durchbelichtet oder eben geschnitten, tatsächlich zerteilt, zusammengeklebt, wieder kopiert und so weiter und im Endeffekt geht dann jede kopierte Filmrolle nach diesem ganzen Prozess in ein Kino und wird dort durch den Projekte durchgespult und projiziert. Das war über 100 Jahre langstand der Technik und das täglich Brot und State of the Art für viele Generationen von Filme machen. Und wir stehen jetzt sozusagen im Jahr 2001 am Anfang oder im Umbruch einer Ära, wo sich das komplett aufhört und in der sehr kurzer Zeit wandelt. Es herrscht Aufbruchstimmung. Wie gesagt, immer mehr Kinos rüsten auf digitale Projektion um. Der Druck oder der Anstoß ist auch Filme schon digital, komplett digital zu produzieren. Warum? Es ist eine riesengroßene Ersparnis einerseits natürlich. Das analoge Filmmaterial kostet pro Meter ein Vermögen sozusagen. Die gesamte Entwicklung ist aufwendig teuer, die Technik ist teuer, der gesamte Ablauf ist teuer. Alles ist teuer und digital, Speicherplatz ist günstig, wird immer günstiger und die Nachbearbeitung am Computer und Leistungsstarken gerieten ist einfach ganz eine andere Dimension und ganz eine andere Möglichkeit und ganz eine andere Verfügbarkeit, weil Computertechnik hat sich schon lange etabliert, nur halt noch für die Akquisition des Films noch nicht. Und diese Lücke beginnt sich jetzt zu schließen. Man muss zurückdenken, der erste komplett computeranimierte Spielfilm, Toy Story, ist jetzt schon sechs Jahre alt. Also es ist eigentlich schon einiges an Zeit vergangen, seit das begonnen hat. Und jetzt beginnen zu grüßen wie Robert Rodriguez mit WTM Mexico oder vielleicht kennt jemand George Lucas. Star Wars Episode II als erste große Produktion, als erste große Hollywood Projekte, ihre ersten Filme komplett digital zu drehen auf einer umgebauten Fernseh Broadcast Kamera, aber es gab eben nichts anderes. Das war die einzige Möglichkeit in High Definition, Full HD und in 24 Bildern pro Sekunde aufzuzeichnen. Die Kinokamera Technik insgesamt steckt aber noch völlig in den Kinderschulen. Wie gesagt, es ist eine Fernsehkamera und auch nicht jeder ist zufrieden mit dem Ergebnis, aber es ist ein Anfang und insgesamt ist der Wandel eigentlich nicht mehr aufzuhalten. Das Kino hat sich jahrzehntelang schon als qualitativ hochwertiger und wertvoller als das Fernsehen gesehen. Und einen großen Beitrag dazu hat eben die Kinoesthetik und das Film negativ, was eben im Gegensatz zu Fernsehen von der Abbildungsqualität deutlich hochwertiger war. Aber was macht jetzt diese Kinoesthetik genau aus? Einerseits haben wir dieses typische Flimmern. Wir zeichnen im Kino auf mit 24 Bildern pro Sekunde. Im Fernsehen je nachdem Europa oder USA mit 50 Halbbildern oder 60 Halbbildern. Das heißt, Fernsehen ist immer von den Bewegungen deutlich flüssiger, deutlich schnellere Frame-Raten gewesen. Das Kino deutlich langsamer, dieses pulsierende Licht, auch bei der Projektion ist ja immer, der Film läuft ja nicht in einem Durch durch den Projektor, sondern wird immer im Einbild weitergeschoben, dann das Licht aufgedreht, dann das Licht wieder abgedreht, dann der Film wieder im Einbild weitergeschoben. Das heißt, es gibt entständiges Pulsieren. Das nimmt man im Kino zwar nicht wahr, wenn man mal in den Film hineinkippt, aber es ist doch von der Ästhetik ja ganz was anderes als im Fernsehen. Es gab eine zeitlang einen Trend, HFR oder High Frame Rate, im Kino, wo dann mit 48 statt 24 Bildern aufgezeichnet und projiziert wurde. Ein Paradebeispiel oder eines der ersten großen Projekte, die das ungesetzt hat, war Peter Jackson's Hobbit, 2012. Und die Idee war eben hier durch die Actionsequenzen und die schnellen Bewegungen, dass sich das mit einer höheren Frame Rate besser, intensiver erlebbar machen lässt. Es gab auch eine Zeit lang einen ähnlichen Trend bei Fernsehgeräten, wo eben Smart TVs intelligente Zwischenbilder berechnet haben und damit auch Filmraten von 24 auf entsprechende 50 oder 60 Hertz hoch gerechnet haben, mit Marketingnamen wie Clear Motion, Motion Estimation usw. Und das Ergebnis war alles einfach jeder teuer produzierte Hollywood-Film mit hochwertiger Bildestätik im Endeffekt ausgesehen hat, wie eine billige Fernseh-Soap-Oprah. War ein totaler Flop. Mittlerweile wird praktisch nichts mehr in HFR gedreht und produziert und ist wieder aus der Geschichte entschwunden. Die Filmkörnung entsteht durch die zufällige Verteilung der Silberkristalle am Film negativ und der große Unterschied zum Digitalraster am digitalen Bildsensor, der ja immer genau das selbe Muster, das selbe Gitter hat, ist eben dass die Verteilung der Silberkristalle mit jedem Bild unterschiedlich und zufällig ist. Das bedeutet, dass wir, wenn wir das Film negativ ansehen oder den Filmprojekt hier sehen, diese zufällige Verteilung sich in der Bewegung auflöst und wir den Eindruck oder die Wahrnehmung haben, dass das deutlich mehr Definition, mehr Auflösung analog enthält sozusagen. Es gab einen Kinokamerahersteller, der diese Technik auch für digital nutzen wollte und zwar hat er den Bildsensor mit Mikrovibrationen mit jedem Bild mit der Distanz von unter einem Pixel verschoben. Das hat auch technisch funktioniert, aber dann doch zu aufwändig und hat sich nicht durchgesetzt. In effekt sehen wir gerade, dass einfach die Auflösung der Bildsensor nicht mehr größer wird und das sozusagen die Technik ersetzt. Drittens die tiefen Unschärfe, das ist vielleicht das, was die meisten mit Kinoestätik assoziieren, entsteht neben der Wahl des Objektivs, klarerweise auch durch die Projektions- oder die Abbildungsfläche, also entweder am analogen Film negativ oder am digitalen Sensor. Die Größe eines APSC-Sensors entspricht ziemlich genauer der Größe von einem Super 35 negativ. Der Unterschied zum Kleinbildfilm, also zwischen Super 35 und Kleinbildfilm, ist die Richtung, in die der Film vorgeschoben wird. Bei Kleinbild, also einem Fotoapparat, wird der Film links eingespannt und wandert dann horizontal nach rechts durch. Dadurch ist er ein bisschen größer in der Abbildungsfläche als der selbe Film in den Filmkameras, der mehr dikalt durchgezogen wird, also in diese Richtung und dadurch ein bisschen einen kleineren Ausschnitt am negativen Nutzen kann. Fernsehkameras haben immer schon und immer noch, typischerweise eine 2,3 Zoll-Bildsensor, also deutlich kleiner als Super 35, also ist er mit der Größe von 16 mm filmvergleichbar und dadurch kommt eben, dass die Fernsehestätik deutlich weniger Tiefen und Schärfe oder mehr Tiefen Schärfe enthält und dass eben die klassische Sehgewohnheit zwischen Film und Fernsehen unterscheidet. Und viertens, der Dynamikumfang, da gibt das Verhältnis von Licht zwischen den hellsten und den dunkelsten Stellen im Bild an und der ist typischerweise beim Fernsehen das, was wir als Clip Highlights kennen, also weiße Bereiche, die keine Zeichnungen mehr enthalten, die überbelichtet sind oder saturated sozusagen, also gesättigt clipped und das, was wir aus Audioaufnahmen zum Beispiel kennen, wenn es zu stark aussteuert, zu laut aufgedreht ist, dann beginnt es zu krachen. Das ist sozusagen vergleichbar mit Bereichen im digitalen Bild, die eben keine Informationen mehr enthalten, weil sie überbelichtet sind. Und diese Überbelichtung ist sozusagen das um liebsame Ergebnis von zu niedrigem Dynamikumfang und eben ein typischer Begleiter für Fernseh- und Videomaterial. Das Film negativ im Gegensatz dazu hat, wie Kodak einmal festgestellt hat, circa 13 Blendenstufen Dynamikumfang, wobei eine Blendenstufe bedeutet die Verdoppelung der lichten Menge. Fernsehkameras waren lange Zeit deutlich unter diesem Bereich. Mittlerweile können Kinokameras ähnliche Bereiche erreichen wie eben das Film negativ, aber typisch Fernsehen und das können wir immer noch heutzutage sehen gerade bei Live-Sendungen, ist für Fernsehkameras immer noch das zum Beispiel der Himmel sozusagen Ausreiste, wenn das nennen, also eben Clipped oder überbelichtet ist. Zurück ins Jahr 2001, die Wandelkamera-Technik aus dem Fernsehen ins Kino zu bringen ist nicht mehr aufzuhalten. Wie gesagt, es gibt eine immense Kostenersparnis und wo das Geld zu Hause ist, da geht die Richtung hin klarerweise. Speicherplatz ist billig, Kamera-Technik wird sozusagen von Computertechnik aufgeholt, eingeholt. Fünf Jahre nach Star Wars Episode 2 im Jahr 2006 gibt es immer noch keine echte Kino-Kamera, die vergleichbar ist eben mit einem analogen Negativ und auch für Indie-Filmenmacher ist klar, sobald die Technik kommen wird, wird sie zuerst verfügbar sein für die Hollywood-Größen, für die Studios, das heißt, es wird eine Zeit dauern, bis das allgemein und leistbar verfügbar sein wird. Aber man hat das Potenzial mittlerweile voll erkannt und natürlich versucht auch mit einfachen Mitteln oder Tricks sozusagen sich der Kino-Film ästhetisch anzueignen und ein zu einer Möglichkeit war das sogenannte optische 35mm-Adapter. Im Endeffekt eine Matscheibe, wo von der einen Seite mit einer Kino-Optik oder einer Foto-Optik ein Bild projiziert wird auf die Matscheibe, die halbtransparent ist und von der anderen Seite dann mit einer günstigen Kamera, mit einem Kampkorder abgefilmt wird. Das heißt, man hat sozusagen Kino-Film ästhetik, die Tiefen unschärf und so weiter für Arme entwickelt. Eines der Probleme dabei war aber, dass diese Matscheibe eine bestimmte Oberflächenstruktur hat und wenn sich diese Matscheibe nicht bewegt, sieht man diese Oberflächenstruktur mit der Zeit einfacherweise in der Art dünnes Papier ist, wo dann bestimmte Faserstrukturen und unregelmäßigkeiten sichtbar werden. Das heißt, man hat es begonnen zu überlegen, wie kann man diese Matscheibe in Bewegung versetzen, damit das eben sich ein bisschen verschmiert, sozusagen. Es gab dann tatsächlich rotierende Adapter oder vibrierende Adapter, wo eben diese Matscheibe durch die Bewegung die Struktur verloren hat. Aber das hat dann bedeutet, erstens, man braucht einen Motor mit einer eigenen Stromversorgung, das macht dann einen Lärm und es wird einfach immer komplizierter in dem Sinn und hat sich im Endeffekt dann nicht durchgesetzt in dem Moment, wo größere Bildsetzer an verfügbar geworden sind. Aber es war der Anfang und hat auch eine ganz bestimmte Ästhetik gehabt, im Endeffekt zu einer Mischung aus Video und Film, könnte man sagen. Zu dieser Zeit entdeckt ein niederländischer Filmemacher in einem Online-Forum eine Diskussion, wo sich die Menschen austauschen, darüber eine Elfenkamera zum Filmemachen zu adaptieren. Ein amerikanischer Hersteller, der eigentlich Produkte für wissenschaftliche Anwendungen, für Industrieanwendungen produziert, aber es war die erste Kamera, die komplett Open Source und Open Hardware war. Das heißt, aus damaliger Sicht hat man sich gedacht, möglicherweise kann man die doch sehr gut zum Filmemachen adaptieren. Die Elfenkamera war relativ leistbar mit 600 bis 1000 Dollar und für damalige Verhältnisse hatte auch eine sehr hohe Auflösung gehabt mit 3 Megapixel, also deutlich über Full HD. Damals war noch Standard HD, also 27p, weit verbreitet und Full HD noch relativ einzigartig. Insofern einer der Zeit sehr voraus. Dieser Moment 2006 begründet eigentlich die Geburtsstunde und den Anfang des Apertos Community-Projekts in dem Sinn. Es hatte zwar noch nicht den Namen und war einfach nur eine Online-Zusammenarbeit von auf der ganzen Welt verteidigten Menschen, die einfach an einem Problem oder an eine Aufgabe gemeinsam gewerkt haben und sich ausgetauscht haben, aber ihre Entwicklungen und was sie herausgefunden haben, wieder online gestellt haben, wieder der Community zur Verfügung gestellt haben und genau da ist sozusagen der Grundstein gelegt worden für alles, was danach gekommen ist und auch wo wir heute sind. Open Source Cinema und die Entwicklung von den Ursprüngen eben eines 35 Millimeter-Adapters und der Elfel-Kamera. Es entstanden dann eine Reihe von Filmprojekten mit oder um die Elfel-Kamera, eben Oscar, der den 35 Millimeter-Adapter gebaut hatte oder ein brasilianisches Team, das mit Red Forest nicht nur die Kamera komplett Open Source benutzt, sondern die gesamten Produktions- und auch Postproduktionsprozesse nur ausschließlich mit Open Source und Open Hardware-Technologie umgesetzt hat. Die ersten, die größere Bildsensoren zur Verfügung hatten und die auch schon serienmäßig verkauften, waren die Hersteller von digitalen Spielreflex-Kameras wie zum Beispiel Canon. In Compact-Kameras waren Videofunktionen schon Gang und Gebe, aber in Spielreflex-Kameras noch ein absolutes Novum. Und eine Kamera, die sich da besonders als Symbol des Beginns der Indie-Kamera-Filmproduktion hervorgetan hat, ist die Canon 5D Mark II. Aber leider war die Implementierung von Canon ein bisschen halbherzig und qualitativ unzureichend. Das hat dazu geführt, dass ein neues Open Source Projekt geboren wurde, um eben diese Unzulängigkeiten zu umgehen. Und so hat Tramel Hudson 2009 die Canon-Firmware Reverse engineered und eben genau diese Probleme behoben und das das Magic Lantern-Projekt genannt. Über die Folge Jahre ist diese Firma dann auf viele andere Spielreflex-Kameras partiert worden und ist heute sozusagen ein Symbol dafür, dass nur zu allen Dingen auf ihren Canon-Spielreflex-Kameras machen können, die Canon nie wollte, dass die Kameras eigentlich können, bis zu den Spielreflex-Kameras, die gar keine Videofunktion haben und mit Magic Lantern jetzt Raw Video aufzeichnen können. In den Folge Jahren drängen ganz viele Hersteller von digitalen Kinokameras auf dem Markt, um diese Lücke zwischen Angebot und Nachfrage zu schließen. 2012 geht Eastman Kodak als einer der großen Film-Negativ-Hersteller in Konkurs. Die Nachfrage ist eingebrochen, die digitale Produktion hat sich völlig durchgesetzt. Kodak kann zwar dann gerettet werden und gibt Teile des Core-Business ab und gibt es heute als Marke schon wieder. Aber der Analogfilmmarkt ist kollabiert, die Nachfrage nach Analogfilmen ist komplett eingebrochen und heutzutage eigentlich nur noch eine Art Liebhabernische sozusagen. Früher gab es insgesamt ein Handvoll von 35 Millimeter-Kameras auf jeden Kontinent und die wurden einfach von einem Projekt zum nächsten weitergereicht. Für jeden Filmemacher war es klar, dass er keine Kamera besitzt, in dem Sinne, sondern die für ein Projekt und für die Projektdauer mieten wird. Das war sogar bei den großen Hollywood-Studios nicht anders. Dadurch, dass jetzt aber die Technik digital wird und die Preise drastisch sinken durch diese starke Konkurrenz, wird es plötzlich leistbar auch für einzelne Projekte sich Kameras zu kaufen. Das führt zur Paradoxensituation, dass die Kameras jetzt einerseits leistbarer und aber auch immer leistungsstärker werden, aber andererseits extrem unzugänglich, weil sich eben jeder Hersteller um seinen Wettbewerbsvorteil zu sichern abschottet und entweder mit Wendologin verhindert, dass konkurrierende Technik an die Kamera angedockt werden kann. Es kann nur noch der eigene Akku, das eigene Speichermedium und andere Accessories verwendet werden. Die Bildverarbeitung passiert in einer Art Blackbox, in einer propretieren Bildverarbeitungsmagie. Niemand weiß, was in der Kamera wirklich passiert. Niemand kann die Kamera reparieren, öffnen, verstehen. Alles wird nur durch lizenzierte Partner oder eben durch die eigene Firma ermöglicht und so eben die paradoxe Situation, dass die Zugänglichkeit und die Möglichkeiten drastisch eingeschränkt wurden, obwohl die Leistungsfähigkeit deutlich gestiegen ist. Außerdem sinkt die Lebensamartung von neuen Produkten drastisch, weil regelmäßig neue Generationen von Produkten herauskommen, die die alten ersetzen und der Hersteller die alten Generationen einfach vernachlässigt, um das neue Produkt zu verkaufen. Die Apertus und die Magiclander Community entwickeln sich zum radikalen Gegenpol dieser Strömung und tun sich zusammen, um eine komplett eigens neu und radikal andere Kamera zu konzipieren. Sie soll veränderbar, modular, so zugänglich wie möglich sein, so kompatibel sein wie mit allen möglichen Standards, die schon existieren. Und das ist sozusagen die Geburtsstunde der AXIUM. Alles entwickelte wird unter the Channel Public License für Software und der CERN Open Hardware License für Hardware veröffentlicht und immer Fortschritt oder Herausforderungen umfangreich mit der Community und der Öffentlichkeit geteilt. Der AXIUM Alpha Prototyp, der erste Proof of Concept Prototyp, wird 2014 im Wiener Hackerspace, dem MetaLab, zum ersten Mal präsentiert. In der Kamera läuft Linux und die gesamte Bildverarbeitung passiert in einem Field Programmer Gatery, also in einem FPGA in Echtzeit. Auf die Verwendung von Pro-Brettaeern EpiCores wurde komplett verzichtet und alles selbst neu und open source entwickelt. Das Team kommt aus den unterschiedlichsten Richtungen. Es gibt Software-Entwickler, Hardware-Entwickler, Feinwerkmechaniker, Kameraleute, filmschaffende Künstler. Im Endeffekt verfolgen alle gemeinsam das selbe Ziel, Tools zu entwickeln, die man verändern kann, die man verstehen kann, die man erweitern kann. Und das bezieht sich jetzt nicht nur auf die Repariobackheit, sondern die Erweiterbarkeit hat ganz viele Facetten in unterschiedliche Richtungen. Es gibt unter Filmemacher nicht, dass das weißt den Look eines Films bezeichnen. Das bezieht sich auf alle Gestaltungselemente des Bildes, wie jetzt die Beleuchtung, die Farben, die Wahl des Filmstock, eben der eine typische Charakteristik hat und gibt einem Film sozusagen seine visuelle Identität, einen visuellen Charakter sozusagen. Und das ist eben die typische Handschrift eines Director of Photography und eines Coloristen, dass sie diesen Look definieren und den auch für einen Film als typisches Widerkennungsmerkmal zeichnen sozusagen. So wie es damals üblich war, den Filmstock entsprechend im Look zu wählen, ist es heute üblich, die Kamera oder den Kamerahersteller entsprechend zu wählen. Jeder Hersteller hat eine ganz eigene Bildcharakteristik für die Bilder, die aus den Kameras herauskommen. Und das ist das Ergebnis von properitärer Bildverarbeitung und was darin genau passiert in der Kamera, ein Betriebsgeheimnis. In der Aktion mit dem Zugang eben zu allen Schrauben und Möglichkeiten diesen Look und die Bildverarbeitung zu beeinflussen, gibt es auch volle Transparenz über die Bildverarbeitung und die Daten, die in der Kamera entstehen und damit viel mehr technische und auch kreative Möglichkeiten zur Einflussnahme auf die Bildgestaltung. Die Axiom Beta ist als zweite Generation hart, wird deutlich kleiner als der Axiom Alpha Prototyp, deutlich modularer und wird mittlerweile für Entwickler auch schon im Kleinsherr hergestellt, bis vor kurzem noch manuell und seit heuer seit 2021 auch industriell hergestellt. Es gibt mittlerweile auch eine zweite Generation Metallgehäuse Prototypen und seit ganz kurzem ganz frisch aus den Entwicklungslabor sozusagen kann der Axiom Recorder auch schon uncompressed 12-bit RAW Video aus der Axiom Beta auf Solid-State Media schreiben. Heute ist die Anzahl von Produkten und Herstellern am Kinokamera Markt weitergewachsen, die Technologie ist reifer und leistungsstärker geworden, aber an der Zugängigkeit oder der Unzugängigkeit proprietärer Technologie hat sich leider wenig getan, wenig verbessert. Insofern bleibt die Mission des Axiom Projekts so relevant und so aufregend wie am ersten Tag. Vielen, vielen, vielen vielen Dank, Sebastian. Das tatsächlich hat das Internet einige Fragen dazu und ich würde einfach mal starten. Die erste Frage ist, wie verbreitet ist denn die Axiom Kamera heute? Also wir haben um die 50 D-Vetal-Pakets schon gebaut und verschickt international und das Schritt eben zur nächsten Stufe jetzt vom D-Vetal-Paket zur echten Produktionskamera eben so wie man es gewöhnt ist von einer Kamera mit Bedieninterface, Gehäuse und so weiter, ist gerade mitten in der Transition sozusagen, das heißt da sind wir noch dran, aber ja das ist so in etwa, da stand der Ding im Moment. Okay, Dankeschön. Freundin ging es tatsächlich um proprietäre Kameras. Der Frageauto sagt soweit er das weiß, bezieht sich das normalerweise auch auf die Daten, also die sind dann genauso proprietär, ist das nicht ein Problem für die Archivierung in 20 bis 100 Jahren? Es ist sogar ein Problem sofort jetzt, weil natürlich nur die Tools und die Software vom eigenen Hersteller dann diese Dateien verarbeiten, lesen weiter, manipulieren können und so weiter, also genauso wie jetzt die Technik, die die Kameraaufzeichnung, also die Aquisitution betrifft, ist natürlich auch Playback, Datenstruktur, Metadatenstruktur und diese ganzen Dinge ein Riesenproblem, wenn es proprietär ist und eben nicht zugänglich, auf jeden Fall. Vielen Dank. Dann gab es eine Verständnisfrage, ist denn tatsächlich alles Open Source, also die Schemeidix, das WLockVDL für die FPGA Programmierung und auch die Software Source Code? Es ist tatsächlich alles was wir machen, Open Source, alles was die harte betrifft, Open Hardware, also ja Schematics, Bill of Materials, Board Designs, alles und natürlich auch alles was Source Code betrifft, Firmware, Tools, Verarbeitung, FPGA Code und so weiter, jawohl. Sehr cool. Dann gab es eine Frage, welche Objektive kann man denn mit der Kamera benutzen? Das ist ein großes Thema, weil wir natürlich sehr uns eben nicht in eine Sackgasse hinein manipulieren wollten, wie das eben die Hersteller tun, indem eben jeder seinen eigenen Objektivmount erfindet und was wir uns entschieden haben, ist einen E-Mount zu verwenden, wo der Distanz zwischen dem Bionett und der Sensoroberfläche sehr kurz ist und sich damit praktisch alles was es sonst an Objektiven und mechanischen Systeme gibt, ganz einfach mit mechanischen Adaptern dran schrauben lässt praktisch. E-Mount hat, glaube ich, eine Flange Vocal Distance von 18 mm und das ist alles was jetzt Spiegelreflex und so weiter bedeutet, sowieso schon mal deutlich länger von der Distanz, weil der Spiegel in der Kamera noch dazwischen ist. Das heißt, da kann man praktisch alles drauf montieren, was es gibt an Systemen im Moment. Vielen Dank. Dann gab es eine Frage zu HFR. Warum kann man denn, kann man motion blur nicht einfach in der Post Production draufrechnen, also als digitaler Effekt? Der Fragensteller weiß daraufhin, dass, wenn er sich richtig erinnert, dass mal das Hauptargument gegen HFR gewesen sein soll. Also für mich ist das Hauptargument für HFR eben die Bewegungsintensität, einfach durch die höheren Bilder. Normalerweise dreht man, wenn man filmt, immer mit der halben Belichtungszeit von der Fremrate. Das heißt, es gibt so eine Art 180 Grad Shutter motion blur, den wir als Menschen als angenehmsten empfinden sozusagen. Das hat sich entweder etabliert und ich kenne jetzt keine Technik, wie man motion blur digital, also natürlich gibt es das. Man kann zum Beispiel einfach Frame Blending machen sozusagen, aber dass das wirklich angewendet wird in Massen und groß verbreitet ist, mir neu, oder habe ich noch nie gehört. Wahrscheinlich wird es funktionieren, wo es wirklich gut aussieht oder wie gut es wirklich funktioniert, würde ich jetzt nicht meine Hand jetzt vorlegen. Also es ist schon ein Effekt, der einfach aus der Bewegung beim Drehen kommen sollte. Dann wurde, Modus zu gebeten, mal zu erläutern, wie denn ein typischer Post Production Flow auf Open Source Basis aussehen könnte. Also grundsätzlich ist natürlich das erste, die Akquisition. Das heißt, das File wird irgendwie aufgezeichnet am Set, dann oft gebacker optimaler Weise und entweder davon dann ein Daily rausgerechnet, also ein verarbeitbares, schneidbares File zum Beispiel und entweder damit wird dann geschnitten oder das wird dann nochmal umgerechnet und so weiter und dann entweder im letzten Schritt, also klassischerweise in der Post, also im Finishing in der Farbkorrektur greift man dann wieder zurück aufs Original-Original, also auf die absoluten Rohdaten oder mittlerweile das mit Computertechnik und Speicherplatz mittlerweile auch nicht mehr so ein Thema ist, zieht man teilweise auch schon die gesamten Rohdaten durch die Produktion durch. Also es gibt jetzt nicht so den typischen Workflow, sondern das entwickelt sich jeder, wie er es braucht, wie es das Projekt braucht, wie es das Datenmanagement braucht und so weiter. Okay, dann interessiert Menschen auch die Direktverschlüsselung mittlerweile als feature programmiert wurde. Die Direktverschlüsselung von Videodaten oder? Ja, die Aufnahme. Würde grundsätzlich, denke ich, kein Problem sein, die Frage ist, ob es wirklich in Echtzeit passieren muss, weil natürlich eine durchaus exzessive Datenmenge abgelegt wird in Echtzeit. Das heißt, die Live zu verschlüsseln macht wahrscheinlich wenig Sinn, aber was könnte sofort nach der Aufnahme passieren? Also immer wenn die Kamera gerade nicht aufzeichnet, könnte man die Daten verschlüsseln. Das wäre grundsätzlich ganz einfach möglich im Rekorder. Wir verwenden einen Linux Single-Pod-Computer im Moment. Das heißt, alle Tools, die da zur Verfügung stehen, werden da sofort einsetzt bei dem Sinn. Danke schön. Dann hat jemand eine Frage zur Bildstabilisierung, glaube ich. Und zwar gibt es eine Achsenstabilisierung in der Kamera, weil es ja sowohl Hersteller gibt, die das im Objektiv umsetzen, als auch welche, die das im Body implementiert haben? Nein, gibt es nicht bei uns. Keine aktive Bildbestabilisierung. Danke schön. Und die letzte Frage, die wir gestellt haben, ist, ist denn eine Massenproduktion in Überlegung? Ja, das ist eine Geldfrage hauptsächlich. Also Masse in dem Sinne ist bei uns eine ganz andere Definition, als wenn man jetzt nach China geht und sagt, ich möchte hardware in Masse produzieren. Der Traum wäre es natürlich irgendwann, dass unsere Kameras vom Förderband purzeln, stehen zu bleiben sozusagen. Aber im Moment ist es einfach eine finanzielle Frage, was wir uns leisten können, was wir an Auftragsvolumen schaffen und stimmen können. Und im Moment sind wir eher noch bei der sehr, sehr Keinsheere. Also die Masse sind bei uns, werden schon hundert Stück eine große Masse. Da fangen die meisten Elektronikhersteller noch gar nicht an, ihre Maschinen umzustellen. Dankeschön. Hier kommen wir gerade auf den Sprang rein. Ich würde einfach weiterlesen, wenn das okay ist. Welche Formate werden aufgenommen und gibt es auch Sequenzen in die EXR? Format, also wir haben sozusagen ein pure Raw Format entwickelt. Also entwickelt ist vielleicht das falsche Wort, es kommen von Bildsensor einfach in Bayer Muster, also ein Color Filter Array, Bayer Format, Daten in 12-bit pro Pixel und die schreiben wir einfach sequenziell in ein Pfeil hinein. Das ist gar keine echte Dateistruktur, sondern einfach 12-bit pro Pixel hinein ins Pfeil. Das ist sozusagen mal die Datenbasis für absolute Rohdaten und dann ist die Frage, wie man weiter tut. Also das schreiben wir im Moment und ob man das dann in ein ProRes umwandelt oder in ein EXR zum Beispiel ist dann eigentlich nur noch eine Frage, was am Axiom Rekorder, wie gesagt, es ist ein Linux-Computer, als nächster Schritt passieren soll, möchte, kann. Dankeschön. Lässt sich denn die Axiom Beta kompakt auch ohne UV beziehungsweise Infrarotfilter beispielsweise für Infrarotaufnahmen verwenden? Also der Filter ist im Moment entweder aufgeschraubt beim Developer Kit oder in der Axiom Beta kompakt zwischen Objektivmount und Sensor, da gibt es zwei Lea sozusagen von Filter Holdern und einer davon ist eben mein UV Infrarot Sperrfilter oder Bandpassfilter und den kann man entweder rausnehmen, hinein tun, einen anderen Filter noch ergänzen und das ist einfach so Art Lego Baukastenprinzip, Filter rein oder nicht. Okay, magst du noch mal sagen, welche Auflösung die Kamera kann? Der Bildsensor ist ein Global Shutter Sensor mit 12 Megapixel, das sind 4.000 x 3.000 Pixel, bei 12-Bit Farbtiefe und der Sensorschaft bei voller Auflösung, bei voller Performance bis zu 300 Frames pro Sekunde in 8 Bit, bei 12 Bit ist ein bisschen langsamer. Dankeschön. Und dann interessiert Mensch, ob es möglich ist, zwei Kameras zusammenzustecken, um ein stereoskopisches Bild zu erhalten, so wie das zum Beispiel mit Red Kameras geht. Wir haben es noch nicht gemacht, aber grundsätzlich die Hardware wäre alles vorhanden, um sogar die Bildauslese, Synchronisation von Sensoren zu synchronisieren, theoretisch. Man müsste es einfach mal probieren, was für ein Interfest das braucht, was für eine Genauigkeit das braucht, aber im Endeffekt sind es zwei Linus-Computer, die sich ganz einfach miteinander zusammenschließen, zusammen kommunizieren lassen und eben die Frage, was genau für eine Genauigkeit notwendig ist, ob es wirklich der Auslese-Start am Bildsensor sein muss oder ob es jetzt Kamerasettings sind und so weiter. Dankeschön. Gefühlt hast du übrigens, Herr Rikord, für die meisten Fragen gerade bekommen. Vielen Dank für deine Geduld bei der Anfang der Fragen. Vielen Dank für den wunderbaren Vortrag.