 Guten Abend. Danke, dass ich hier sein darf. Danke für Interesse in dieses große Projekt. Ich werde halt darüber sprechen über das Aktionprojekt. Das ist ein adaptiertes Open Source Filmkamera. Es ist nicht nur über Hardware-Kameras, aber hauptsächlich mal über Kameras. Jetzt sagen wir mal kurze Einführungen eventuell für Leute, die nicht wissen, was Open Source Hardware ist, wie das mit der Produktion ist, wie der Verfügbarkeit im Open Source, so dass jeder mitarbeiten kann und sie auch verwenden kann. Das ist ja im Hardware-Bereich deutlich komplizierter. Also theoretisch könnten die Leute unsere Hardware ja auch weiter bauen oder umbauen. Einmal wer ich bin, ich bin Ambassador und ein Researcher mit Aktion, Open Hardware Research. Ich bin Chef des Artistic Technology Lab in Wien. Ich bin auch Chef der Artistic Bokeh Initiative. Das ist Mediakunst und wir haben Verbindungen über ganz Europa hauptsächlich in Produkten zwischen Kunst und Technologie hauptsächlich. Wir können uns auch online die Slides finden, hinter diesen Artistic Technology Artium steht bitte voran. Wir brauchen Open Source Filmkameras. Das ist das, was ich mir gedacht habe, wenn wir das Projekt gemacht haben. Warum brauchen wir das? Hauptsächlich, weil proprietary Systeme, Film und Fotokameras limitieren natürlich durch die Vorgaben des Manufacturers. Das heißt, du kannst die Auflösung nicht bekommen, die du willst. Aber du hast die Frame Rate, aber die Depression ist nicht so, wie die sein sollte oder wie sie sein könnte. Die Technologie, die du verwendest, ist limitiert durch die Vorgaben des Erzeugers. Das, was er macht. Die wollten ein anderes Produkt verkaufen oder die Marketingerteilung hat etwas anderes gefunden. Die Development-Zeit war zu lang. Also man ist gebunden und niemand will das weiterentwickeln. Die Hacking-Communities wollen das ändern. Seit einiger Zeit schon, um euch ein paar Beispiele zu geben. Es gibt immer das Magic Lenten-Projekt. Das ist verschiedene Alternative für Canon-Kameras, um sie auch für Videofreiheit zu schalten, zum Beispiel andere Sachen und Tools und Einsätze, für die das ursprünglich vorgesehen war. Bis heute, außer dem Projekt, gibt es keine Open Source Filmkamera verfügbar. Da sind die einzigen, die das anbieten können. Ich habe hier ein Zitat von der Alberto Sascheven. Wir haben vor, eine völlig freie, auf freier Software basierte Filmmaschine, ein Filmkamera und alle dazu notwendigen Instrumente und Dinge, die er braucht, um einen Film auf breiter Basis zu produzieren, zu schneiden und zu machen. Es soll erweiterbar sein, verfügbar, leistbar und es soll modular sein. So dass, wenn du später mal was anderes machst, dass du deine Kamera einfach umbaust und sie nicht umbauen musst oder sagen, man kann sie auch leichter reparieren, man kann auch seine eigenen Module entwickeln, wenn man ganz bestimmte Ziele hat oder wenn man ursprünglich Sachen ausbauen will oder wenn du deine eigenen Scientific, deine eigenen wissenschaftlichen Einsetzbereiche entwickelst. Ich bin mir nicht klar, ob die Leute das jetzt so gut kennen. Berthos wurde in 2006 begonnen, immer wieder mit der Absicht basierend auf der ELFEL 3.3, beim Oskar Spirnburg eine modulare Filmkamera zu entwickeln. Die Company erzeugt grundsätzlich mal die Google-Filmkameras aus der Grund, warum wir die, weil sie auf die Panoramic Solutions von Google gegangen sind, ist das Entwicklung der modularen Filmkamera 2009 eher eingepremst worden, so dass wir in 2011 das Aktionprojekt gestartet haben. Da wurde uns klar, dass von sich aus die ELFEL eine entweite Entwicklung dieses Projektes betreiben würde. Es wurde zweimal angekündigt, mehrmals, aber es ist nie was passiert. Wir haben auch nicht gewusst gern, ob was passiert, egal. Ich sage halt immer wir, weil das im Open Source Bereich falsch üblich ist. Wir haben also beschlossen, unser eigenes komplett neues System zu entwickeln auf der Basis, auf der eigenen entwickelten Hardware vom Scratch also. Diese Apertos Association wurde 2012 gegründet und 2013 gab es den ersten Prototypen, den zeige ich gleich kurz und 2014 haben wir ein Crowdfunding gestartet für die Axiom Beta. Die Idee war, uns mit anderen Leuten zusammen zu tun, die auch an Kameraentwicklung interessiert sind, um die Hardware billiger zu machen und auch mit der Entwicklung wirklich anzufangen. In 2015 wurde auch eine andere Kamera begonnen, die Entwicklung der Axiom Gamma fangen an, die wir auch zeigen. Was zuerst passiert ist, erst gab es die Axiom Alpha und hier seht ihr das Board. Das ist ein ganz roh und großer, klobiger Prototyp und das war eher ein Proof of Concept. So sah das Gehäuse aus und im Wesentlichen war das hier, es ist auf einem Teststand montiert und sehr klobischend groß, aber es funktionierte und wir haben damit auch Demo-Filme gemacht, um die zu demonstrieren, zu zeigen. Hier ist sie auf einem Kran montiert und was ihr hier seht, ich habe aus einem bestimmten Grund dieses Bild ausgewählt und das sieht etwas professioneller aus und wie eine Bildproduktion und Leute bauen ihre Rigs immer selbst und also sieht das sozusagen etwas unordentlich aus, aber solche Rigs sind oft ganz so, die sehen oft so aus und hier ist ein anderes, eine Seitenansicht von dem ersten Rig, den wir gebaut haben, von der Alpha. Und jetzt haben wir die Beta, die wirklich fertig ist. Wir haben drei Developer-Versionen und ich habe eine mitgebracht. Also wenn jemand daran interessiert ist, das wirklich mal anzugucken, dann kann ich das auch kurz zeigen, was funktioniert, was noch nicht funktioniert und ich versuche rauszufinden nach dem Talk oder morgen und dass ich ein bisschen draußen sitze und Leuten mal die ganzen Features zeigen kann, was schon alles funktioniert. Und die Idee war, wir wollten diese Kamera entwickeln, aber man braucht natürlich ganz viel Geld, um all die Teile und die Schaltungs-Bots zu bestellen und die Sensoren sind ungefähr so um die 1000 Euro und die ganze Beta hier außer dem Gehäuse ist etwa 2300 Euro ungefähr so um den Dreh. Also was wir mit dem Crowdfunding machen wollten auf Indiegogo war Interesse zu wecken von dem Publikum und dann uns zusammen zu tun und die ersten Kameras zu entwickeln. Das heißt, wir haben zwei Slots für Module, da rede ich später nochmal von. Hier ist das Gehäuse, das ist noch nicht ganz fertig, aber so wird das Gehäuse aussehen. Und was ich auch vorher schon gesagt habe, jeder Plan, alle technischen Zeichnungen sind auf GitHub, also kann man da auch selber durchgucken und alle möglichen Aspekte der Kamera sind auf dem Source. Das heißt, den Sensor müssen wir kaufen, der ist natürlich da ausgenommen, aber unser Traum ist selbst auch, einen Sensor zu entwickeln, aber das ist wirklich nicht einfach, da gehört sehr viel Technologie dazu. Das ist also eins der Probleme mit der Kameras. Wir werden auch darüber reden, wie schwierig ist es, Sensoren einzubauen und welche Sensoren man überhaupt verwenden kann. Hier ist mal der overview über die Beta, links sind die beiden Module, der Slot und der Plugin. Das ist der erste Versuch, das wirklich Modell einzugestalten, sodass einzelne Module separat entwickelt werden können und jeder kann ein eigenes Prozessermodul entwickeln. Theoretisch könnten wir da noch andere Verbraucher verwenden. Es hat schon zwei HDMI-Ausgänge und andere sind auch denkbar. Hier habe ich die Spexar auskoppiert, damit ihr seht, was direkt mit dem Sensor möglich ist und mit dieser Kamera so, wie sie mal aufgebaut ist. 300 Frames per Second mit High Resolution, das ist 4,4K in Super 35, das ist ziemlich klar. Im Moment können noch nicht ganz 300 FPS zusammenbringen, aber wir arbeiten darauf. Wir sind auch ein paar Terweller dazu gestoßen, wir sind jetzt aktiv dabei, dieses Problem zu lösen. Wir sind auch dabei, immer mehr Leute am Board zu bekommen, um mit der Kamera zu arbeiten. So schaut das jetzt aus, ohne das Enclosure. Wir haben natürlich mit Drehbindern Versuch, so was nachzudrucken, eine Enclosure nachzubauen, sodass man sich eigentlich auch ein Modular sein eigenes Enclosure dazu machen könnte. Man kann es. Ganz einfach, um euch noch etwas anders vorzustellen, das ist das zweite Kamera Projekt, das ist ein Spin-off von dieser, es ist auch der Nachfolger der Betten, aber es stimmt nicht ganz, wir haben es so genannt, war vielleicht ein Fehler. Die Kamera ist größer und professioneller als Kamera und das ist von Horizon 2020 finanziert aus der EU und wir haben ein Partner-Konsortium, das ist durch die Hochschule der angewandten Kunst in Wien mit einem Konsortium von Firmen und Unternehmen und auch die Apertus-Feinigung ist dabei. Ziel ist es, bis zu sechs Prototypen für die Gamma bis 2016 zu entwickeln. So soll sie mal aussehen, das ist ziemlich anders von der Betta ausschaut. Die Vorstellung ist hier, eine Komplettmodulare Kamera zu haben, wo Module viel größer sind und man sie viel größer zusammenbauen kann und sieht auch mehr danach aus, wie das man in ein Production-Setting braucht. Interessanterweise, was wir auch noch interessant finden fürs Filmen mit verschiedenen Stilen. Hier könnten wir auch die Sensoren ersetzen, die Idee dahinter, im Grundkonzept ist, dass wir die Sensoren, in der Betta wäre es theoretisch möglich, aber dann muss man sie outleuten und hier könnte man sie modula austauschen. Das sind die Pläne für die Specs, also ihr seht schon, die kann wesentlich mehr auf den professionellen Markt ausgerichtet, denn wir glauben, da ist ein starker Demand da draußen. Die meisten sind ja heute am Film so, dass die meisten sich die eigenen Rigs zusammenstellen und damit herumfummeln und wir glauben, dass wir eine saubere Lösung anbieten können. Es wäre auch wichtig, dass das auch wichtig ist, dass eine Entwicklungsmöglichkeit da ist, damit man die Anwendungsbereiche deutlich verbreitern kann. Hier sieht man unser Team, die arbeiten an der Gamma. Das ist was wir machen. Ich habe schon etwas darüber gesprochen. Die Betta ist eher so eine Entwicklungskit, eine kompakte Kamera eher, um es an Gimbles zu bauen und benutzt auch den gleichen Sensor, weil die Auswahl sehr beschränkt ist. Die Gamma ist ein professionelles Gerät für alle Herausforderungen, eine High-End-Produktionskamera. Man kann auch mehr Module dran bauen. Das ist eigentlich unser Ziel, aber das ist immer noch in der Zukunft, in 2016. Die Idee hinter dem ganzen Projekt ist, es einfach erweiterbar zu machen und einfach zugänglich für andere Entwickler. Man muss nicht ein FPGA-Programmierer sein, um die Kamera zu benutzen. Wir versuchen, jeden Aspekt einfach verständlich zu machen. Idealerweise haben wir dieses Konzept mit den offenen Modulen. Es gibt schon Demo-Module. Die haben wir schon gebaut mit HDMI-Ausgängen. Idealerweise kann man eigene Module bauen. Es gibt im Prinzip keine Beschränkungen, was man mit diesen Modulen machen kann. Man kann die einfach austauschen. Ein paar Beispiele von Modulen. Es gibt Sensoranwendungen oder andere Output-Module. Ein Mini-Display-Port zum Beispiel oder andere Ausgänge oder Verarbeitungsmodule oder Aufnahmemodule. Das sind zum Beispiel Möglichkeiten für Module. Hier ist ein Bild von dem HDMI-Modul. Das ist gerade noch nichts daran angeschlossen. Der Idee ist auch, ein Ökosystem zu haben, sodass die Kamera und das Projekt vollständig in Europa hergestellt, soweit es möglich ist. Es gibt aber Sensoren. Da haben wir keine Fluss drauf, wo er wirklich hergestellt ist. Vielleicht in Nordeuropa. Nicht in Europa hergestellt sind die Sensoren. Aber wir können die Kamera dann in Europa reparieren lassen. Es soll dann ein Ökosystem werden. Für Vermietung zum Beispiel. Oder für ganz besondere Nischen-Applikationen. Zum Beispiel unter Wasserfilmen. Oder ganz verschiedene Nischen, die diese Modularität brauchen. Ein kleines Nebenprojekt, was wir entwickeln, ist Axiom Remote. Eine Fernbedienung für diese Kamera, die zum Beispiel benutzt werden kann. Für Unterwasseranwendungen. Ich glaube, das versteht die Idee von so einem Ökosystem. Es gibt vielleicht nicht genug Entwickler. Es gibt nur drei Entwickler bisher. Wir können die Vermieten zum Beispiel die Kamera und ihr Business darum aufbauen. Es gab auch eine Reihe von Herausforderungen. Die meisten war interfacing mit Propriety. Und so ist Klaus das Gegenüber. Wir wollten zum Beispiel unterstützen alle möglichen Video-Formate. Und Video-Aufnahme-Formate. Es ist aber nicht klar, dass die Entwickler dieser einzelnen Propriety-Kameras mit uns nicht reden. Sie wissen nicht, wie sie mit dem HDMI-Signal umgehen. Wir müssen teilweise retrogradeieren und schauen, wie das Signal von denen ausgesendet wird. Das ist eine große Herausforderung, was die Sensoren betrifft. Wir haben jetzt drei Sensoren, die wir verwenden können. Eigentlich interessant. Wir haben mit einem Haufen Sensoren-Entwickler gesprochen. Wir sind nicht immer ganz klar, dass wir alle Informationen bekommen haben, um herauszufinden, ob wir mit diesen Sensoren arbeiten können oder nicht. Am Ende bekommst du nie die ganzen Dokumentationen, die du brauchst. Der Herr ist unser Pool an möglichen Sensoren noch klein, aber wir ändern das. Ich hoffe, dass sich das ändert. Wir haben einen neuen Kontakt, dass sich das über die Jahre erweitern wird. Im Moment schaut es gut aus, dass wir mit mehr Sensoren kompatibel sein werden. Wir müssen natürlich auch noch ein Arbeitslaut distribuieren und aufteilen. Das ist eine relativ große Community. Aber bis jetzt funktioniert alles noch ganz gut. Wir wollten auch noch sagen, dass wir das in der Zeit produzieren können. Derzeit produzieren wir die Betas und schicken sie zu den Crowdfunding-Supporters hinaus. Das ist unser Ziel derzeitiger. Damit werden wirklich viele Leute mit einbeziehen können in diese Entwicklung. Sobald wir das weiter entbringen können, werden wir uns ein Voucher-System entwickeln, wo man die Hardware mit einem Vorauszahlen erwerben kann. Es gibt genereihe ... Im Moment ist es noch ein bisschen hecke. Es ist nicht so, wie du nimmst einfach die Kamera und magst Filme. Es ist mehr ein bisschen Terminal-Setting. Kein Menü, kein WP-Interface. Wir sind noch auf der Kommand-Lite. In der Early-Stages-Up-Development. Aber später werden wir mit Vouchers arbeiten und dann können wir vielleicht auch Definitionen kriegen, was die Leute von ihren Kameras wollen. Ich habe ein Demo-Footage gebracht, das ich euch jetzt zeige. Das wurde tatsächlich geschossen in das Rahmen der Kamera. Wir sind also noch immer nicht möglich mit dem HDMI-Output. Also, ihr seht auf der rechten Seite ein bisschen Sensorenproblemen. Da ist rechts aus und ist da so eine Streifen. Aber es ist schon erledigt. Das wurde erst später gemacht. Wenn wir die Fehler sehen, dann versuchen wir sie zu reparieren. Aber es ist nur mal eine Vorstellung zu geben. Alles, ob man es aus ... Wer braucht noch immer ein Recording zu weiß, da gibt es doch nicht ... Wie gesagt, es gibt doch Probleme mit dem HDMI-Signal noch sauber rüber zu kriegen. Wir arbeiten daran. Im Wesentlichen, wenn ihr ... wenn ihr wollt ... Also, ihr könnt Kontakt mit uns aufnehmen und viele aus dem Entwicklungsteam im IRC sein. Also, könnt ihr mit denen reden und ihr könnt natürlich auch mit mir reden. Später gibt es vielleicht eine Möglichkeit, die Kamera zu zeigen. Und wenn ihr daran interessiert seid, was man damit machen kann, das vielleicht live zu sehen. Und natürlich einen Kontakt auf und am Team at apertus.org. Wir werden darauf reagieren und versuchen, alle eure Fragen zu beantworten. Wir sind ziemlich gut frequentiert. Da sind immer Leute. Und durch die Natur des Projektes müssen wir einfach so zusammenarbeiten, zum Teil. Aber ihr seid willkommen, mit uns zusammenarbeiten und mitzuentwickeln. Und Teil des Projekts zu werden, auch das wäre sehr willkommen. Vielen Dank. Erst die Frage. Ihr habt nur drei Kamerasräder. Habt ihr irgendeine davon in einem ... irgendeinen Produktionsetting gemacht, am Kongress? Einfach ein paar Tage laufen lassen, damit du es verteilen kannst mit dem, was wir sondermal was machen? Ja. Kannst du das noch mal den letzten Satz sagen? Wenn ihr diese Kameras in einem derartigen Produktionsetting eingesetzt habt, gegenüber Properate-Kameras? Das ist eine gute Frage. Properatäre Kameras haben immer eine Bildverbesserung. Man kriegt nicht das Bild direkt vom Sensor. Es gibt einen spezifischen Art, wie sie mit dem Bild umgehen. Die Bildung ist auch in verschiedenen Kameras. Man kann nicht diesen Prozess beeinflussen. Man kann es nicht ändern. Man wird limitiert durch das, was der Hersteller vorgibt. Bei der Aktion kann man selbst ein eigenes Debyring machen und andere verschiedene Arten das Bild machen. Die Antwort ist, ja, es ist anders. Du hast gesagt, es ist möglich, das Bild aus dem Raum in eine komplette Open-Source-Workform einzubringen. Wie willst du das machen? In diesem Fall wird das, ist die Kamera verbunden über Ethernet und über USB. Also muss man damit über, ist es sehr eingeschränkt noch. Wir können ein paar Sekunden aufnehmen und das aber in der hohen Frame-Rate. Es ist wie ein kleiner Raspberry Pi, vielleicht so in der Art. Es ist auch ein Arm. Man kann einfach Interfaces dran bauen, die schnell genug sind. Was ist, wenn die Data Rate aus dem Sensor kommt in den Rahmen? Die Datenrate aus dem Sensor kann ich nicht sagen. Man kann am IRC den Entwickler fragen. Ich bin selber kein Entwickler. Planet ihr irgendwie Fotokameras? Das ist auch ein Foto-Apparat. Man kann damit auch ein Standbilder aufnehmen. Man kann das im Prinzip auch als Fotokamera benutzen. Aber die Sensoren sind verschieden, weil man mehr Pixel hat. Nicht so viele Frames pro Sekunde, aber theoretisch. Wenn man einen Sensor findet, der gut genug dokumentiert ist, dann, wenn man so einen findet und ausprobiert, ob das wirklich funktioniert, aber es braucht noch einiges an Entwicklung, aber theoretisch ist das natürlich möglich. Ich denke mir, ich könnte mich das, es wird auch dein Interesse geben. Das Konfig-Fails-Command-Line. Im Moment ist ein Kommando-Zeilen-Interface. Alles wird über die Kommando-Zeile gemacht. Wir haben ein paar Skripts, die Settings stellen und die Belichtung einstellen. Nur Kommando-Zeile bisher. Aber wir arbeiten an einer Middleware, die in Python läuft, die zum Teil schon fertig entwickelt ist, wo man Overlays haben kann. Man kann eine Menü-Struktur, die programmierbar ist. Dann kann man auch eigene Menüs machen für spezifische Anwendungen. Idealerweise hätten wir ein HDB-Interface, wo man einfach zum Beispiel eine API, es wäre gut, eine API zu haben, wenn man sie fernsteuern kann. Wir planen das, aber bisher ist nur Kommando-Zeile. Sie sind jetzt auf der anderen Seite. Sie sagt, es kodet in Reim oder nur über HDMI Output. Irgendwie SSD geplant? Ja, auf jeden Fall für die Gamma, aber für die Beta wollen wir ein Modul entwickeln, was mit einer Art existierender Technologie arbeitet, also mit HDMI als Standard. Das ist nicht so einfach, denn HDMI ist auch nicht wirklich ein ganz freies Format. Deswegen haben wir über Mini-Display-Port nachgedacht, dass es möglich ist, aber schwieriger zu entwickeln. Und das nächste kleine Plug-in-Modul würde zum Beispiel Mini-Display-Port sein. Was habt ihr für einen Glänzen-Linsen-Anschluss gemacht? Im Moment für die Alpha hatten wir ein Nikon-F-Bionett. Dieses ist jetzt Sony Alpha. Und die Idee ist, einen geringen Abstand zum Sensor zu haben, sodass wir mit Adaptern andere Objektive dran machen können. Also es gibt natürlich keine Motorkontrolle, also ist nur alles manuell einstellendes Objektiv. Und eine noch. Was ist mit der? Die Projekte von Sony Alpha wird ja ein Filmprojekt auch entwickeln? Das wäre großartig, aber das braucht ganz viel Zeit, das zu entwickeln. Aber es wäre großartig, auch ein Open-Source-Projektor zu haben. Dankeschön. Was ist mit SDI als Output? Ja, natürlich. Wir haben natürlich auch über ein SDI-Modul nachgedacht, aber das HDMI war das Einfachste zu entwickeln. Und wir denken jetzt nach über in der Gamma, darüber nach ein Show-SDI-Modul zu haben. Aber jetzt wollten wir erst mal das Möglichste schnell verfügbar zu machen, damit die Entwickler, dass die Entwickler das schnell haben können, die wollten das schnell haben und die Idee ist, nachzuforschen und Recherchen zu machen in alle diese Richtungen, die Leute über ihre eigenen Module nachdenken können. Aber das ist auf jeden Fall geplant. Ich glaube, dass wir hiermit fertig sind. Das war, ihr habt die Übersetzung des Vortages über die Gamma-Kamera von Matthias gehört. Bernd und André verabschieden sich.