 Jeder kennt sie, die wunderschönen Bilder, z. B. von Sternen oder von Städten bei Tag und Nacht im Zeitraffer. Aber fragt sich vielleicht, wie kann man das selber hinbekommen? Wie haben jemand dabei? Der kennt sich wirklich gut damit aus. Gunter Wegener ist Softwareentwickler, der sich sein Fotografie-Hobby auch wirklich zum Job gemacht hat. Er macht Landschaftsfotografie, Tierfotografie und hat sich wirklich auf das Thema Zeitraffer spezialisiert. Er hat auch eine eigene Software dafür entwickelt, die mittlerweile überall genutzt wird und kann uns ein bisschen erklären, wie man sowas vielleicht auch selber hinbekommt. Gunter, wir sind mega gespannt. Ja, vielen Dank für die Einladung. Und ich komme natürlich sehr gerne, der Bitte nach hier heute ein bisschen was über meinen Stecken fährt. Die Zeitrafferfotografie und speziell dabei natürlich das, woran ich die letzten zehn Jahre gearbeitet habe, nämlich perfekte Übergänge vom Tag in die Nacht und von der Nacht in den Tag zu machen. Bevor ich anfange euch zu erklären, wie das funktioniert, schauen wir uns einfach mal ein, zwei Beispiele an. Die Königsdisziplin ist ganz sicher vom Tag bis zu den aufgehenden Sternen, bis zur Milchstraße Aufnahmen zu machen. Und das ist etwas, was vor, sagen wir mal, 10, 15 Jahren halt noch als Unmöglichkeit und daher hat man es den Heiligen Graal der Zeitrafferfotografie genannt. Und bevor ich dazu komme, wie man das macht, möchte ich euch vielleicht einen ganz kurzen Einblick darin geben, was eigentlich überhaupt Zeitraffer sind oder wie man die aufnimmt. Wir sprechen hier immer über Sequenzen von Einzelfotos, die wir in einem Abstand von, ja, im Grunde genommen zwischen einer und 30 Sekunden aufnehmen. Und das Ganze spielen wir dann hinterher in Videogeschwindigkeit ab, in der Regel mit 30 Bildern pro Sekunde und erhalten daher dadurch eine hohe Beschleunigung, wenn man zum Beispiel ein sogenanntes Intervall, also die Zeit zwischen zwei Aufnahmen von fünf Sekunden hat, dann ist das ja schon eine Beschleunigung von 150 fach und bei solchen Astroaufnahmen, wo die Milchstraße dann aufgeht, da arbeitet man eher mit Intervallen zwischen 20 und 30 Sekunden und dort hat man dann schon eine Beschleunigung von 900 fach. Das ist natürlich faszinierend, weil man so Dinge visualisieren kann, die man halt mit bloßem Auge nicht sehen kann. Und normalerweise erkläre ich immer erst mal, wie man überhaupt standardmäßig Zeitraffer aufnimmt und was man dabei alles beachten muss. Ich habe zu dem Thema auch im Buch geschrieben, das sind 480 Seiten. Also es ist eine Menge Zeug eigentlich, was man wissen muss und dann kommen irgendwann diese heiligen Gralaufnahmen, also diese Übergänge vom Tag in die Nacht und das machen wir heute aber direkt. Das heißt also ich hoffe, ihr seht mir nach, dass ich auf die Grundlagen, kann ich jetzt heute auf Zeitgründen halt leider nicht eingehen. Aber wenn euch das interessiert, da findet ihr auch ganz viele kostenlose Informationen bei mir auf der Webseite. Ja, wenn wir jetzt ein Zeitraffer aufnehmen, habe ich eben schon gesagt, es gibt das Intervall, das ist die Zeit zwischen zwei Aufnahmen und in dieses Intervall, da gehört die Belichtungszeit, also die Zeit, die die Kamera belichtet und eine Schwarzzeit, wo die Kamera eben nicht belichtet und auf das nächste Bild wartet. Und so werden halt Zeitraffer eigentlich als Einzelbilder hintereinander aufgenommen und die große Herausforderung jetzt bei solchen Tag zu Nacht und Nacht zu Tagaufnahmen ist eigentlich die riesige Dynamikumfang, den wir dort abbilden müssen. Wenn wir jetzt zum Beispiel tagsüber eine Aufnahme machen, die wir korrekt belichten, dann könnte sie beispielsweise mit einer tausendste Sekunde aufgenommen werden, ISO 100 Blende 8. Das ist gängig tagsüber, wenn die Sonne scheint, eine gängige Kameraeinstellung. Wenn wir jetzt eine Nachtaufnahme machen, wie die von der Milchstraße, die ihr gerade gesehen habt, dann sind wir beispielsweise bei einer Belichtungszeit von 16 Sekunden, ISO von 3200 und einer Blende 2. Sprich, wir haben völlig andere Kameraeinstellungen, die wir nachts benötigen, versus denen, die wir tagsüber benötigen. Und um sich das mal klarzumachen, wie groß dieser Unterschiede ist, man spricht ja hier von Lichtwerten oder von Blendenstufen. Der Unterschied zwischen 1.000 und 16 Sekunden wären schon 14 Blendenstufen. Der Unterschied zwischen ISO 100 und 3200 sind nochmal fünf Blendenstufen und dann haben wir noch diesen Blendenunterschied, das sind nochmal vier Blendenstufen. Jede Blendenstufe ist immer eine Verdoppelung oder Halbierung der Helligkeit. So, wenn wir jetzt hier insgesamt auf 23 Blendenstufenunterschied kommen, dann bedeutet das ein Helligkeitsunterschied von 2 hoch 23. Also es würde nachts in unsere Kamera ein 8-Millionen-Stell des Lichtes nur fallen wie tagsüber. Und das ist klar, dass man da große Schwierigkeiten hat, diesen riesigen Dynamikumfang abzubilden. Und das ist ja nur der Unterschied zwischen den Aufnahmen. Dazu kommt ja noch der Dynamikumfang des Bildes selber, der auch nochmal irgendwo zwischen 12 und 14 Blendenstufen liegt. Also ihr seht, wir müssen mit völlig unterschiedlichen Kameraeinstellungen tagsüber und nachts arbeiten. Und bevor es diese Methode gab, die ich entwickelt habe, haben sich auch große Filmproduzenten für Natur, Dokumentation und so weiter damit beholfen, einfach tagsüber eine Aufnahme zu machen mit der Einstellung, die hier oben steht beispielsweise und nachts eine Aufnahme mit der Einstellung, die unten steht und dann einfach in der Videobearbeitung eine Überblendung zu machen, was dann natürlich irgendwie aussieht, aber natürlich nichts mit der Realität zu tun hat und auch nicht die Faszination wiedergibt, die man empfindet, wenn man das halt sieht. So, wenn wir uns mal anschauen, wie dieser Dynamikumfang eigentlich sich in der Kamera jetzt zusammensetzt, diese 14-Bit Raw Dateien, die die meisten Spiegelreflex und Systemkameras halt heute rausgeben, dann ist das natürlich ein viel größerer Dynamikumfang als den, dem wir im endgültigen bearbeiteten Bild hinterher benötigen. Da haben wir heute immer noch irgendwo einen Konsens, wo die meisten Bilder als JPEG ausgegeben werden und die meisten Video Dateien halt ebenfalls ein relativ geringes 8-Bit, eine 8-Bit Auflösung halt haben, die halt nur 256 Abstufungen pro Farbkanal abbildet, versus den riesigen 16.384 Abstufungen bei den Raw Dateien aus der Kamera. Und das können wir uns zur Nutze machen, denn wenn wir sowieso diesen Dynamikumfang hier mal das Histogramm dargestellt komprimieren bei der Bearbeitung, dann haben wir Spielraum, um während der Aufnahme dieses Histogramm zu verschieben. Ganz wichtig ist, dass wir bei der Aufnahme vermeiden, unsere Bilder über zu belichten. Denn alles, was überbelichtet ist, ist abgeschnitten. Nach rechts, das sind dann die Lichter, die wir niemals wiederbekommen. Umgekehrt ist eine leichte Unterbelichtung nicht schlimm und selbst eine starke Unterbelichtung kann man in der Nachbearbeitung aus den Raw Dateien noch retten. Wenn man das jetzt weiß, dann kann man die Kamera im einfachsten Fall manuell nachstellen während der Aufnahme. Man beobachtet dazu das Histogramm und stellt dann bei entsprechender Über- oder Unterbelichtung einfach vorsichtig die Kamera nach. Man bekommt dann so eine zickzackmäßige Luminanzkurve, sprich die Bilder werden hier bei einem Sonnenaufgang immer heller, dann stellt man die Kamera nach, dann gibt es einen Sprung nach unten, dann wenn sie wieder dunkler, dann stellt man sie wieder nach. Und Ziel ist, dass man in einem solchen Korridor bleibt des Dynamikumfangs, den die Kamera abbilden kann. Sprich also zu keinem Zeitpunkt tatsächlich überbelichtet und auch nicht wirklich ganz extrem unterbelichtet. Und angleichen kann man das Ganze dann mit der Software-Eller-Time-Lapse, die ich entwickelt habe, die ich euch gleich zeigen werde. Das heißt also, sukzessive während der Aufnahme wird das Histogramm hinten auf dem Display unserer Kamera immer weiter nach links wandern, wenn wir einen Sonnenuntergang haben, die Bilder werden immer dunkler und wenn wir feststellen, wir haben hier so ein klein bisschen Platz, dann stellen wir die Kamera entsprechend nach und das Histogramm springt dann wieder nach rechts. Und diese Sequenz mit den Sprüngen, die sieht dann ungefähr so aus, hier haben wir jetzt mal einen Sonnenaufgang, es wird also immer heller und immer kurz bevor es dann hier überbelichtet am Himmel, stellen wir die Kamera nach, um die Bilder wieder zurück in den Dynamikumfang zu bringen, den die Kamera abbilden kann. Und dann kommt LR-Time-Lapse und berechnet mit dem sogenannten Holy Grail Wizard, also dem Zauberer, der das Ganze korrigiert, dann entsprechende Korrekturkurve, die so spiegelbildlich zu dieser Luminanzkurve aussieht und wenn wir uns dann das Ganze anschauen, dann ist das Ergebnis wunderschön geglättet und von diesen ganzen Sprüngen sieht man überhaupt nichts mehr. Mit dieser Technik kann man jetzt wirklich beliebige Übergänge machen. Dieser Schrecken, dieses riesigen Dynamikumfangs, den man halt abbilden muss, ist dadurch halt weg, weil man so lange man jedes einzelne Bild für sich so belichtet, dass es nicht außerhalb des Dynamikumfangs ist, also sprich krass über oder unterbelichtet ist, kann man hinterher das alles korrigieren. Oft kommt jetzt die Frage, warum machen wir das nicht im A-Modus der Kamera oder mit ISO-Automatik? Das Problem ist, dass der Kamera-Belichtungsmesser nicht wirklich zuverlässig ist. Die Kamera-Belichtungsmesser, die schwanken relativ gerne, soweit eine kleine Störung ist, irgendwie dann wird schon eine andere Belichtung gemessen und sie funktionieren auch ab einer gewissen Dunkelheit nicht mehr. Zusätzlich hat man auch kaum Kontrolle über die Belichtungszeit oder die Belichtung überhaupt der Bilder. Der Kamera-Belichtungsmesser, der macht halt irgendwo eine Standardbelichtung, aber wir können halt auch nicht wirklich eingreifen, falls wir feststellen, die Bilder wären doch zu hell oder zu dunkel und das ist also bei den modernen Kameras wird das jetzt immer besser, dass sie sich zum Teil auch auf solche Situationen ausgelegt sind, aber ich bevorzuge immer noch eher den manuellen Weg oder halt noch besser eine Automatisierung mithilfe einer Smartphone-App, die ich auch, oder die es von einem anderen Entwickler, dem Soltan U-Bike gibt, das Kurs der Dashboard nennt sich das, ich habe da ein paar Ideen zu beigesteuert, um sozusagen diese Zeitraffer Holy Grail-Aufnahmen auch dann mit dieser App automatisiert steuern können. Und das coole dabei ist dann, dass es einen speziellen Algorithmus gibt, der die Histogramme, die die Kamera liefert, analysiert und entsprechend dafür sorgt, dass die Belichtung permanent immer perfekt zu jedem Zeitpunkt an der Kamera eingestellt wird. Dadurch muss man nicht mehr daneben stehen, die Kamera nicht von Hand nachstellen und bekommt trotzdem genau auf diese Zeitraffer-Zielsetzung ausgerichtete Sequenzen. Und das Ganze sieht dann sehr, sehr schön gleichmäßig aus in der Nachstellung, wie man hier in dieser Kurve sieht und die Ergebnisse sind halt auch wirklich perfekt. Was die Aufnahme angeht und alles Weitere, was man dann hinterher macht, das passiert dann halt in der Software. Ja, schauen wir uns doch die Software direkt mal an. Ich würde mal rüber springen in das Elatime-Labs, möchte gerne mit euch gemeinsam eine Sequenz jetzt in der Kürze der Zeit bearbeiten. Ich habe hier mal die eine Sequenz, die ich euch schon fertig entwickelt, am Anfang gezeigt habe, geladen und ihr auch mal wirklich seht, wie das funktioniert. So kommt sie aus der Kamera, wir können sie hier direkt einmal abspielen und ihr seht da ein ganz wildes Geflacker, zumindest bis dann die Endbelichtung erreicht ist. In diesem Fall haben wir hier angefangen mit einer halben Sekunde Verschlusszeit, eine ISO 100 und am Ende sind wir dann bei einer ISO 4000 und 16 Sekunden Belichtungszeit. Also auch ein sehr großer Dynamikumfang, den wir hier abbilden, auch wenn wir hier schon zur blauen Stunde starten. Und auch hier die Erklärung, ihr findet ausführliche Tutorials auf meiner Webseite elatime-labs.com, auf Deutsch, auf Gewegner.de und dort gibt es halt auch Bücher, E-Books und so weiter, wo das alles erklärt ist. Deswegen machen wir das jetzt hier relativ schnell. Zunächst mal definiere ich mir Keyframes. Das sind die Bilder, die ich jetzt eigentlich bearbeiten möchte, weil ich mir ja nicht jedes Bild aus dieser Sequenz bearbeiten. Diese Sprünge markiert ja automatisch mit diesem kleinen gelben Dreiecken. Da müssen wir uns nicht drum kümmern, das macht er dann. Es ist nur wichtig, dass wir jetzt immer dort, wo wir denken, dass sich was an der Farbgebung oder an den Kontrasten der Sequenz ändert, dass wir dort ein Keyframe hinsetzen. Und jetzt würde ich zum Beispiel mir hier mal einsetzen, weil hier ändert sich der Weißabgleich. Hier kommt die Milchstraße schon hoch. Hier würde ich mir auch noch einsetzen. Dann vielleicht hier noch einen. Den würde ich jetzt mal wegnehmen wieder. Und dann lieber noch ein Stückchen weiter hinten noch einsetzen. Und ganz am Ende haben wir dann auch einen. Als Nächstes, also das sind jetzt die Bilder, die wir wirklich uns gleich vornehmen werden und bearbeiten werden. Alle zwischen Bilder werden automatisch berechnet. Als Nächstes nehmen wir uns jetzt diese Zickzerkurve vor und lassen die einfach kompensieren. Das ist ein Klick auf diesen heiligen Gralwizard, der berechnet die Kompassationskurve. Manchen Fällen ist es notwendig, die noch ein bisschen zu drehen, damit man die schön dicht hier an diese Mitte linie mit die Korrekturen halt nicht so ausufernd werden. Aber in diesem Fall ist das so alles wunderbar. Wir speichern. Und jetzt nehmen wir uns diese Sequenz nach Lightroom und wollen dort diese Keyframes bearbeiten. Zieh mir die jetzt in mein Lightroom rein. Das ist, dass sie die vorher starten sollen. Da ist sie schon drin. Ich werde jetzt einfach einmal Metadaten aus der Teilen desen machen, um quasi diese Bearbeitung, die wir jetzt eben angefangen haben, schon mal hier rein zu ziehen. Das ist also das, was wir jetzt vorbereitet haben. Wir haben jetzt eben im LR Timelapse, landet jetzt in Lightroom. Ich kann kurz dazu erzählen, wir arbeiten hier mit Rordertyne und die gesamten Bearbeitungen, die das LR Timelapse macht, passieren auf Metadatenebene. Das heißt, sie werden erst ganz am Ende vor der Ausgabe des entgültigen Films einmal auf die Rordertyne angewandt, sprich, also die Rordertyne werden dann entwickelt. Und alles, was vorher passiert, ist rein kalkulatorisch. Das heißt, wir können so viel bearbeiten, wie wir wollen, ohne dass wir Qualitätsverluste haben. So, ich setze mir jetzt mal ein Filter auf meine Keyframes, weil wir wollen nur die Keyframes sehen. Das sind nämlich jetzt die Bilder, die wir bearbeiten wollen. Und dann gehen wir jetzt ganz normal vor und entwickeln uns diese Keyframes. Ich werde das jetzt mal relativ schnell machen. Achte bei der Entwicklung auch hier wieder auf das Histogramm, überbelichten, nehme ein bisschen die Lichter raus, hält die Tiefen ein bisschen auf, nur so eine reine Kontrastbearbeitung und kümmere mich halt hier um den Weißabgleich. Wir haben Anfang in der blauen Stunde sind und einen schönen Übergang haben wollen. Mach ich jetzt das erste Bild, ein bisschen blauer. Was ich mir noch vorbereiten würde, wäre einen Verlaufsfilter für diesen unteren Bereich, der nachher sehr dunkel wird. Den werde ich mir jetzt hier dieser vorbereiteten Verlaufsfilter nehmen und mir den hier unten schon mal hinlegen, damit ich dort den Boden nachher ein bisschen auffällen kann, wenn es dunkel wird. Dann jetzt schon mal ein klein bisschen, dass ich das hier heller mache. Und dann würde ich mir noch einen zweiten Filter vorbereiten und zwar eine Maske für die Milchstraße. Die würde ich mir hier auch schon mal ungefähr dorthin legen, wo nachher die Milchstraße erscheinen wird. Wir können mal hier und her schalten. Also hier ungefähr wird sie nachher sein. Das heißt, ich kann diese Maske da schon mal ungefähr hinlegen. Dann könnte ich die Milchstraße nachher sogar noch über diese Maske ein bisschen separat bearbeiten. Okay, gehen wir mal von dem ersten Bild auf das zweite. Und hier würden wir uns jetzt einen Skript anwenden, was die Einstellungen auf das zweite Keyframe überträgt. Ohne, das ist diese ganzen Korrekturen, die wir schon eben im LATimelapse gemacht haben, zerstört. Jetzt gehen wir auf das zweite Bild. Dann lassen wir aus der Maske wieder raus. Hier kommen die Sterne schon hoch. Hier geht es vor allen Dingen jetzt ein bisschen, dass wir den Weißabgleich ein bisschen angleichen, weil der Nachthimmel ist ja nicht blau. Hier können wir noch sagen, gut, wir sind so ein bisschen in der blauen Stunde. Dann würde ich vielleicht hier auch das Ganze noch ein bisschen heller machen. Wir sagen hier kommt die gerade, die Milchstraße mal so über den Horizont. Und dann gehen wir jetzt mal auf das nächste Bild. Zinkronisieren uns auch wieder diese Einstellungen rüber, um einen schönen Ausgangspunkt zu haben. So, jetzt können wir schon mal auf unsere Milchstraße den Filter, den wir hier gesetzt haben. Das sieht eigentlich ganz gut aus von der Position her. Und da machen wir einfach auch ein klein bisschen Kontrast. Also bitte nicht zu viel jetzt an der Milchstraße einzeln rumdoktern. Das wirkt oft sehr unnatürlich, wenn man solche Bilder sieht. Ich mache da einfach ein ganz klein bisschen Kontrast und ein ganz müh an Dunst entfernen, nur um diesen Kontrast da etwas hervorzuheben. So, und jetzt machen wir den Weißabgleich des Himmels. Wenn es wirklich dunkel ist, dann ist der Weißabgleich des Himmels eigentlich neutral. Das heißt, wir können uns diese Pipette nehmen hier und auf den Himmel klicken und dann stimmt die Farbe. Viele haben immer Probleme, damit die Farbe des Himmels richtig einzustellen bei solchen Nachtaufnahmen. Das ist eigentlich ein ganz guter Trick. Der Nachthimmel ist tatsächlich relativ neutral in seiner Färbung. So, dann machen wir hier noch ein bisschen mehr Kontrast rein. Und dann synchronisieren wir uns das auf unseren nächsten Keyframe. Ihr seht, wie sich der Weißabgleich ändert im Laufe der Nacht, wie sich diese Farbtemperatur ändert, was aber nicht der Realität entspricht, sondern das ist das, was die Kamera rausgibt. Deswegen neutralisiere ich mir das jetzt hier. Aber ich habe hier komplett andere Weißabgleich-Einstellungen als hier und deswegen ist es auch unter anderem so wichtig, dass wir nachher diesen Übergang machen. Das sieht ganz gut aus. Wir müssen es vielleicht unten den Boden noch ein bisschen auffällen. Da hatten wir ja auch diesen einen Verlaufsfilter hingemacht. Und synchronisieren uns das auf das nächste Bild. Hier würden wir jetzt auch die Milchstraße ein bisschen nachführen über die Maske wieder hier oben. Die hat sich ja verschoben. Das heißt, wir müssen diesen Gradienten jetzt entsprechend nachführen. Und das machen wir bei dem letzten dann auch. Da ist sie wieder weitergewandert. Hier sieht man den Unterschied. Ich habe da nicht viel gemacht, sondern wirklich nur ganz wenig den Kontrast in der Milchstraße erhöht. Okay, das soll es gewesen sein mit unserer Bearbeitung. Ich gehe jetzt in die Rasteransicht in Lightroom, markiere mir alles und speichere mir jetzt wieder diese Metadaten für die Bilder raus, indem ich hier auf Metadaten den Dateien speichern gehe. Und jetzt wechseln wir wieder zurück in Elder Timelapse. Machen hier einen Autoübergang. Das heißt, wir laden uns jetzt die Keyframes, die Metadaten der Keyframes und lassen alle Zwischenbilder berechnen. Und im Anschluss werden dann hier die visuellen Vorschauen generiert. Sprich, jetzt werden Vorschauen entwickelt mit den Bearbeitungen, die wir gemacht haben. Alles nach wie vor auf Metadatenebene, nur dass wir jetzt halt hier wirklich die Vorschauen sehen und dementsprechend jetzt auch hier einen tatsächlichen Helligkeitsverlauf bekommen. Ihr seht diese ganzen Zickzack-Geschichten. Die sind alle schon rausgerechnet worden durch diesen Holy Grail Wizard. Und jetzt bauen wir hier die Vorschauen auf und das sieht eigentlich schon sehr gut aus. Und weil wir fertig sind, können wir das Ganze abspielen. Wir haben tatsächlich schon eine ziemlich gute Bearbeitung hinbekommen, dieses Übergangs vom Tag bis zur Milchstraße. Jetzt ist hier noch so ein klein bisschen rough die Kurve hier. Und das machen wir jetzt im nächsten Schritt. Wir machen jetzt das sogenannte visuelle D-Flicker. Und das ist halt auch wieder ein Algorithmus, der komplett verlustfrei arbeitet. Wir können uns jetzt hier eine Idealkurve über unsere Lominanzkurve legen und sagen, okay, wir möchten, dass unsere Lominanzkurve so verläuft. Bevor ich das mache, setze ich mir noch einen Referenzbereich für die Kalkulation dieser Kurve hier oben in den Himmel. Einfach damit hier unten diese Kontrasteffekte, die hier sind oder die Autos, die dazwischen mal ihre Scheinwerfer hier auf dem Berg geleuchtet haben, die nicht mit erfasst werden. Und dementsprechend würde ich jetzt sagen, das ist jetzt nur der Bereich, der benutzt wird, um diese Kurve zu berechnen. Und jetzt glätten wir die Kurve. Da können wir jetzt auch einen Multipass D-Flicker machen. Das bedeutet, er macht jetzt einfach mehrere Durchgänge bis die Kurve tatsächlich perfekt ist. Und das auch alles verlustfrei. Ich gehe mal auf Anwenden. Jetzt hier eine rote Korrekturkurve nochmal berechnet und wendet jetzt diese Korrekturen an. Und je mehr Durchgänge wir jetzt beim D-Flicker machen, umso dichter wird jetzt diese pinke Kurve mit unseren Lominanzwerten an der grünen Kurve liegen. Und es werden auch immer nur die Bilder nochmal neu angefasst, die tatsächlich noch etwas entfernt von der grünen Kurve sind. Und ihr könnt da letzten Endes 10 oder 20 Durchgänge machen. Braucht man in der Regel nie nach drei Durchgängen, ist man eigentlich fertig. Und ihr habt keinen Qualitätsverlust, weil das alles im Hintergrund nur kalkulatorisch stattfindet und erst ganz am Ende beim Export tatsächlich in die Rodartine rein entwickelt wird. So, jetzt sieht das sehr schön glatt aus. Wir haben keinen Flicker mehr. Und damit ist die Sequenz eigentlich bereit zur Ausgabe. Um das jetzt zu machen, gehen wir nochmal zurück ins Lightroom. Jetzt würde ich mir alle Zwischenbilder laden. Das heißt, ich hole mir meine komplette Sequenz, nicht nur die Keyframes. Markier mir die. Und laden mir jetzt die Metadaten aus diesen Dateien. Da sind jetzt all die Metadaten, die LR Time Lips geschrieben hat drin. Und wir haben dann jetzt gleich im Anschluss eine perfekte entwickelte Sequenz mit allen Glättungen und so weiter im Lightroom immer noch basierend auf den Rodartine und den Anweisungen zur Entwicklung. Und im nächsten Schritt können wir jetzt diese Sequenz exportieren. Da gibt es ein spezielles Plug-in vom LR Time Lips. Ob es auf dieser Auflösung hier alles sehr riesig. So, und hier können wir jetzt diese Sequenz einfach mal exportieren. Und jetzt werden daraus ja ex-entwickelte Master-Dateien erstellt. Das kann man für den professionellen Bereich mit TIF-Dateien machen. In diesem Fall jetzt hier für die Demo reicht es aus, wenn wir damit JPEG-Dateien arbeiten, Lightroom exportiert. Jetzt diese Dateien und im nächsten Schritt wird es dann das Video daraus rendern lassen vom LR Time Lips. Ich zeige euch hier schon mal den Render-Dialog. Hier gibt es jetzt halt die klassischen Video-Einstellungen. Man kann jetzt hier mit ein H264-Kodec arbeiten, H265 mit ProRes, DNHR-Kodec. Man kann hoch Auflösungen 8K und sogar höhere Auflösungen, je nachdem welchen Kodec man jetzt hier nutzt. Man kann in verschiedenen Qualitäten arbeiten. Wir werden jetzt mal in diesem Fall einfach mal mit H264 in 1080p hoher Qualität arbeiten. Und dann können wir hier auch noch ein paar Nachbearbeitungen machen. Wir können zum Beispiel das Seitenverhältnis einstellen. Wir können uns hier nochmal einen Beschnitt setzen auf 16 zu 9, was ja im Video-Bereich gängig ist. Und wir können uns hier, und das ist ganz praktisch, gerade bei solchen Nachtaufnahmen, das sogenanntes Motion Blur anwenden lassen. Das ist eine Überblendung zwischen benachbarten Frames, die das Ganze dann halt hinterher nochmal ästhetischer machen. So, und unser Export, der müsste jetzt eigentlich durch sein. Jetzt wird ich, müssen wir gerade gucken, da hat er die schon aufgerufen. Jetzt machen wir mal hier Video-Rendern. Und jetzt gibt er hier unten das Video aus von dieser Master-Datei oder von diesen entwickelten Master-Dateien, die werden jetzt halt in ein Video überführt. Das geht auch relativ flott. Und dann können wir uns das Video gleich anschauen. Wenn jederzeit basierend auf diesen exportieren Dateien das Video auch in unterschiedlichen Formaten neu rendern, also wenn man beispielsweise eine Vorschau in MP4 macht, Full HD und dann ein Kunde kommt, sagt, ich möchte jetzt diese Sequenz kaufen, dann muss man nicht alles nochmal machen, sondern kann man einfach basierend auf diesen exportierten Dateien einfach neu rendern und das Ganze dann beispielsweise im ProRes-Format ausgeben. So, jetzt gucken wir uns mal an, was wir hier gebaut haben. Okay, dann machen wir nochmal von vorne. Ja, also das ist doch, sagen wir mal, für die Schnelligkeit, in der wir das jetzt gemacht haben, ein durchaus ganz anständiges Ergebnis geworden. Jetzt hoffe ich, ich komme hier wieder zurück, genau. Ja, das war wirklich, glaube ich, die schnellste Präsentation zum Thema HolyGray, die ich jemals gehalten habe. Ich hoffe, ihr seid trotzdem mitgekommen. Wie gesagt, es fehlt jetzt die kompletten Basics eigentlich zum Thema Zeitraffer-Fotografie, aber das findet ihr halt alles auf meinen Seiten. Und ich würde mich wahnsinnig freuen, wenn ihr da vorbeischaut. Und wenn ihr Fragen habt, könnt ihr euch natürlich auch jederzeit mich einfach anschreiben. Es gibt auch ein Zeitraffer-Forum und dort finden auch halt interessante Diskussionen dann zu dem Thema statt. Und ich beantworte da halt auch jeden Tag Fragen. Hier findet ihr nochmal die Links. Dann bedanke ich mich recht herzlich für die Aufmerksamkeit und natürlich auch die Einladung vom Chaos Computer Club hier meine Software und meine Werkzeuge präsentieren zu können. Vielen Dank. Ich bedanke mich für die vielen wirklich wunderschönen Bilder. Das ist schon sehr beeindruckend, tatsächlich auch zu sehen, wie doch einfach es geht. Wir haben tatsächlich einige Fragen aus dem Signal Angel zusammengesucht hat. Vielen Dank dafür. Die erste Frage ist tatsächlich, ob du Erfahrung mit Canon Magic Land und also die alternative freie Firmware gesammelt hast. Also ich selber setze das nicht ein, weil ich eigentlich mit Nikon fotografiere. Ich hatte das schon mal auch drauf. Das funktioniert auch ganz gut. Also da gibt es auch einige Werkzeuge drin in dieser alternativen Firmware, mit denen die halt es leichter Zeitraffer aufzunehmen. Aber ganz so flexibel wie mit dieser vorgestellten App. Der Sport ist man damit auch nicht, weil wenn die Kamera nämlich einmal läuft und aufnimmt, kann man in der Regel nicht mehr eingreifen. Das wäre auch dort, sag ich mal, mein Ansatzpunkt, wo ich sagen würde, das würde mich stören jetzt. Okay, verständlich. Die nächste Frage ist, wenn ich das richtig gelesen habe, änderst du von Tag zu Nacht sehr stark die Blendenöffnung. Wie gehst du mit der entstehenden Tiefenunschärfe um, da du bei deinen Landschaftsaufnahmen häufig auch vor der Grundobjekte zum Beispiel den Baum hast? Änderst du den Fokus während der Aufnahme? Ja, das ist eine gute Frage. Gerade bei Blendenänderungen ist es tatsächlich so, dass eine ist die Schärfentiefe, die sich ändert. Ja, bei solchen Landschaftsaufnahmen, je nachdem, wie man den Vordergrund positioniert, da kann man noch so ein bisschen, das fällt nicht so richtig auf bei den Zeitraffern, aber was halt unter Umständen auffällt, ist eine Änderung an der Vignettierung des Objektives. Die meisten Objektive oder eigentlich alle Objektive vignettieren halt völlig unterschiedlich bei offener Blende versus geschlossener Blende. Und das muss man tatsächlich im Hinterkopf behalten. Und deswegen versuche ich auch zu vermeiden einen Blendenramping, wenn wir mal von Blende 11 bis Blende 1,4 zu machen, weil man das in der Regel im endgültigen Zeitraffersicht und das auch ganz schwer zu korrigieren ist. Das heißt, ich bewege mich dann in einem bestimmten Bereich und es hängt immer wirklich davon ab, welches, was das Ergebnis sein soll oder welche Situation ich habe, die ich da aufnehme. Aber es ist tatsächlich ein ganz valider Punkt und man muss das im Hinterkopf behalten und sich tatsächlich überlegen, ob man das dann macht oder ob man dann von vornherein auf das Blendenramping halt verzichtet und eher mit offener Blende schon startet oder wie auch immer, aber es hängt von der Situation ab. Okay, verstanden. Das nächste Frage wäre tatsächlich, was für Hardware du bei der Fotografie verwendest normalerweise? Du hast schon gesagt, du nutzt den Nikon? Ja, ich benutze diverse Nikons. Mittlerweile bin ich bei den spiegelosen Nikon-Z-Kameras angekommen, einfach weil sie ein bisschen kleiner sind und einige Vorteile haben, was jetzt die moderneren Varianten gegenüber den DSLR sind. Aber ich habe halt auch vorher die ganze Zeit mit DSLR meine Zeitraffer aufgenommen. Das funktioniert alles wunderbar. Also die Kamera selbst ist im Grunde genommen bis auf Nuancen gibt es da bezüglich Zeitraffer. Eigentlich gar keine so hohen Anforderungen. Eigentlich alle Kameras der letzten fünf Jahre sind wirklich so gut, dass man, wenn man die im Raw-Format betreibt und damit seine Aufnahmen macht, dass man eigentlich perfekte Ergebnisse kriegt. Tatsächlich sind die Unterschiede wirklich nur sichtbar bei solchen ganz krassen Nachtaufnahmen, bei solchen Milchstraßenaufnahmen, wo es dann wirklich auf den Dynamikumfang und das Rauschverhalten mal ankommt. Aber auch hier kann man viel mehr dadurch erreichen, dass man lichtstärkres Objektiv kauft. Also beispielsweise der Unterschied, der ja nicht klar ist, zwischen dem Objektiv mit Lichtstärke 2,8 und dem Objektiv mit Lichtstärke 1,4 sind zwei Blendenstufen. Das heißt, das 2,8er Objektiv lässt nur ein Viertel des Lichts rein, was einen Riesenunterschied macht. Also wir haben in den letzten zehn Jahren, glaube ich, keine so große Entwicklung bei den Kamerasensoren gesehen, dass sie das kompensieren würden. Also eine zehn Jahre alte Kamera mit einem 1,4er Objektiv wird mindestens genauso gut sein wie eine heutige Kamera mit einem 2,8er Objektiv. Also lieber in Objektive investieren, das macht viel mehr Sinn, als ständig immer die neueste Kamera hart für einen zu setzen. Okay, wenn ich mal so weit bin, weiß ich es dann. Ich habe noch eine Frage, tatsächlich zur Programmierung der Software. Kann man dazu irgendwas sagen, Backend, Programmiersprache, was wurde da gemacht, wie wurde es gemacht? Ich habe das in Java programmiert, einfach weil es platformunabhängig ist. Ich mache das ja für PC und Mac und jetzt mit der neuen Version gibt es auch eine native Version für die Melik Mac Silicon Architektur, die tatsächlich relativ effizient und performant ist, gerade bei solchen Aufgaben. Was halt im Ganzen dann auch noch mal ein Performance-Boost gibt an der Stelle. Also es sind ja wirklich viele Berechnungen, die da stattfinden. Und es kommt halt vor allen Dingen darauf an, dass es halt wirklich effizient und schnell ist. Und ja, ich habe ganz massiv, ich bin bei LATAMLIVE schon seit vielen, vielen Jahren auf Nebenläufigkeit, sprich also Multi-Threading. Jetzt eben, was ich hier gesehen habe, das lief jetzt auf 32 Kernen parallel. Das heißt, dieses Estellen der Vorschauung ist wirklich hochgradig parallelisiert. Und ich hatte das schon zu einem Zeitpunkt so umgesetzt. Da hat Lightroom halt zum Beispiel noch wirklich sukzessive mal einbildnacht im anderen exportiert, egal wie krass die Hardware war, die dahinter lief. Also das ist tatsächlich, sag ich mal aus Sicht, eine Aufgabenstellung, die nicht trivial ist, diese Parallelisierung von Prozessen. Und die halt nur nach und nach jetzt in die Software kommt, weil die Prozessoren ja selber nicht mehr wirklich so richtig viel schneller werden, sondern es ist halt eher darum geht, multiple Kerne anzubieten. Nur die müssen halt von der Software auch bedient werden und das macht LATAMLIVE mittlerweile sehr, sehr gut und dadurch ist es halt auch sehr effizient. Okay, ich habe noch eine letzte Frage, in die Extended Q&A Session gehen und zwar, wie stark ist LATAMLIVE dann mit Lightroom kompatibel? Kann man auch andere Metadaten reintun? Braucht man Lightroom unbedingt dafür? Gibt es andere Open-Source-Möglichkeiten, die man nutzen kann? Ja, ich habe mir natürlich alle Raw-Converter am Markt angeschaut und es bietet eigentlich so gut, wie keiner wirklich vernünftige Schnittstellen, außer Adobe halt eben mit diesen XMP-Daten, die zu denen halt LATAMLIVE dann die Interfaces bildet. Also man braucht nicht unbedingt Lightroom, es funktioniert auch mit Bridge und Adobe Camera Raw, aber halt eben mit diesen Adobe-Produkten. Mittlerweile mit der sechster Version kann man vieles auch in LATAMLIVE selber machen mit gewissen Einschränkungen. Ich habe da gerade auch ein Video auf meinem YouTube-Kanal zu veröffentlicht, wo ich das zeige und wo ich auch erkläre, was die Einschränkungen sind. Also man kann schon einiges auch in LATAMLIVE selber machen, aber um das volle Potenzial, vor allem dieses mächtigen Raw-Converters, den Adobe da hat, der alle Kameras unterstützt und so weiter, wo es ständig neue Versionen dann gibt für neue Kameras und so, das ist etwas, was man ja im Open-Source-Bereich halt echt nur schwer zu leisten ist und bei den Lösungen, die es da gibt, beispielsweise Darktable oder so, dann fehlen halt einfach die Schnittstellen, um da wirklich dran anzudocken und ich entwickle ja LATAMLIVE ist wirklich immer noch als einzelner Entwickler. Für mich ist es natürlich auch eine Frage, wie viel Energie kann ich jetzt in unterschiedliche Raw-Converter anzubinden, da stecken und da muss ich dann auch ganz klar sagen, da entscheide ich mir natürlich dann schon auch für den Marktführer einfach, weil ich das zeitlich auch gar nicht schaffen würde, jetzt irgendwie noch eine oder zwei weitere Raw-Converter da zu unterstützen. Verstanden, aber dann sind wir mal gespannt, was die Zukunft noch so bringt. Ich sage vielen, vielen lieben Dank, auch für die tollen Bilder, aber auch für die tiefen technischen Einsichten, was da genau gemacht wird, wie man so was angeht. Hier geht es tatsächlich weiter am 12.30 Uhr mit einem Talk zu Transits von Exoplaneten vermessen, genau hier im Channel, also bitte gerne dabei bleiben.