 Hi, schön, dass ihr da seid. Genau, was ist eigentlich Farbe? Habe ich diesen Foto genannt? Das ist ein Rabbit Hole, in das ich letztes Jahr mal gefallen bin. Wo ich dachte, das interessiert euch vielleicht auch. Stopp. Du musst dein Video-Aufbruch einmal umschalten. Mhm. Dachte, das hätten wir schon ausprobiert. Ah. Hier meinst du? Genau. Sehr schön. Hervorragend. Cool. Ich bin Bindry und ich mache viel mit Farben in diversen Projekten. Da gibt es manchmal auch 3D-Wandering und Spiele. Und Pixel Art. Da hatte ich schon oft damit zu tun. Aber wie gesagt, letztes Jahr hatte ich diese Frage im Kopf. Gibt es diese Color Picker, die ihr vielleicht kennt, wenn ihr mal ein Grafikprogramm bedient habt oder auf Webseiten mit Farben gemacht habt? Da gibt es immer diese HTML-Farben, diese Farbnotation. Und ich habe mir die angeguckt und gedacht, was bedeutet das eigentlich genau? Also, was mir klar war, das sind irgendwie so 3 Farbkanäle. Das ist üblicherweise so, dass man das irgendwie beidweise trennt. Das erste Beid beschreibt, wie viel Rot ist in der Farbe, wie viel Grün ist da drin und wie viel Blau. Aber z.B. so eine Farbe wie hier, ist das so Rot, wie es geht im Universum irgendwie? Oder ist das auf einem Bildschirm gleich? Diese Fragen habe ich mir gestellt und habe angefangen, die Ergebnisse in diesem Vortrag. Das ist nämlich eine total spannende Kombination, die man da stößt, aus Physik, die Physik des Lichtes. Das ist der Ursprung der Farben. Hier gibt es in Biologie des menschlichen Auges. Man kann sich angucken mathematische Modelle von Color Spaces, um zu definieren, was man eigentlich meint. Und als wird es die Technik von Bildschirmen auf der Seite, wo man Farben noch mal erzeugen will, die für Menschen wieder auf eine bestimmte Art aussehen. Durch diese vier Bereiche gehen wir heute Abend mal, hat es euch gemütlich. Wir legen mal los mit der Frage, was ist Licht auf der physikalischen Seite? Licht ist letztendlich elektromagnetische Strahlung. Das ist eine komische Eigenschaft unseres Universums. Wenn man elektronische Ladungsträger bewegt, dann zeugt man solche Wellen. Das sind gekoppte elektrische und magnetische Felder. Die breiten sich durch den Raum aus. Die brauchen noch nicht mal ein Medium oder so was. Die Strahlung braucht nichts, die geht auch durch Vakuum. Da sogar ziemlich schnell. Mit dieser Strahlung hat man an vier Stellen zu tun. Das ist eine Strahlung, die ausgesendet wird, indem man in diesem Turm Strom herum bewegt. Ein anderer Typ, den wir auch von zu Hause kennen, ist Mikrowellenstrahlung. So eine Wellenlänge hat, dass die Wassermoleküle schwingen lassen. Dann werden die heiß, damit euer Essen schön warm. Oder noch ein Typ, Röntgenstrahlung. Da ist die Wellenlänge viel kürzer. Das führt dann zu anderen Eigenschaften. Man kann das ganz gut durch. Man kann ein bisschen gucken, wo wird die absorbiert. Dann kann man in Sachen reingucken. Auch ganz spannend. Diese drei Typen von Strahlung. Das ist alles total ähnlich zueinander. Elektromentische Strahlung von anderen Wellenlängen. Hier ist noch mal ein größeres Diagramm. Wo die wichtigste Achse von links nach rechts ist. Wie groß ist die Wellenlänge? Beginnt hier oben mit langen Wellenlängen. Radio hatten wir vorhin schon. Wir waren dann so hoch wie Gebäude. So lang. Die Wetterwellen nach rechts gehen, das kürzer werden diese Wellen. Was haben wir noch gesehen? Mikrowellen haben wir gesehen. Dann gibt es Infrarot, Strahlung. Wärmestrahlung würde man sagen. Ultraviolett ist in Sonnenlicht drin. Macht aber Haut kaputt. Röntgen ist ganz praktisch. Für medizinische Use cases wird man auch nicht zu viel von abkriegen. Gamma-Strahlung. Bei radioaktiven Zerfeil ist es frei gesetzt. Auch gemein zum menschlichen Körper. Die haben viele Ähnlichkeiten. Nur die Wellenlänge ist anders. Was ich übersprungen habe, ist das, wo hier visible steht. Sichtbare Bereich. Dann stellt sich raus. Hier ist ein Farben verborgen. Menschen haben die coole Fähigkeit, bestimmte Wellen ziemlich gut wahrzunehmen. In diesem Wellenlängenbereich. Warum können wir Menschen genau in diesem Bereich sehen? Mit unseren Augen. Die Frage ist, für alle Tiere, die auf der Erde rumlaufen, ist es praktisch, sich in ihrer Umgebung orientieren zu können. Was man dann machen kann, ist, was in die Umgebung reinsenden und zurückreflektiert kriegen. Fledermäuse oder so machen das selber. Das ist wieder Ultra-Schall, das ist die Luft. Die senden das aus. Dann kommt es zurück. Wir wissen, wie die Sachen um sie angeordnet sind. Menschen können keinen Ultra-Schall erzeugen. Aber wir benutzen, was schon um uns rum ist, nämlich das Sonnenlicht. Tagsüber. Das geht auf die Erde. Irgendwie wird von Sachen reflektiert. Dann fällt es in unser Auge. Dann können wir uns orientieren. Warum ausgerechnet ist es so, dass der sichtbar ist? Wenn man sich so ein Lichtspektrum anguckt, dann gibt es solche großen Geräte für Spektrometer, die für verschiedene Wellenlängen messen können, wie viel davon in Sonnenlicht vorhanden ist. Dann kann man sich ein Diagramm aufstellen, das z.B. so aussieht. Auf der X-Achse haben wir die Wellenlänge. Auf der Y-Achse ist die Strahlung in dieser Wellenlänge stark. Sonnenlicht ist eine total wilde Mischung von allen wirklichen Wellenlängen. Das geht im Infrarotbereich los am Anfang. Deshalb ist es für mich total wichtig, Sonnencreme zu benutzen. Sonst ist der Verleichter sofort zu staub, um das abzublokken. Es geht dann noch so einen langen Schwanz in Infrarotstrahlung rein. Deshalb ist Sonnenlicht schön warm und wärmt Dinge auf. Aber der Pieck dieser Sonnenstrahlung, letztendlich geht es hier, es gibt verschiedene Linien hier drin, aber letztendlich dieses, was hier Wund eingefärbt ist, das ist der Grund, dass das Sonnenlicht so strukturiert, das hat zufolge, dass Menschen in diesem Bereich sehen können. Das finde ich schon mal eine ziemlich coole Erkenntnis. Dieser Wellenlängenbereich ist dann der Ursprung der Farben. Das ist Sonnenlicht, das ist das Diagramm, das man aufstellen kann. Man kann sich jetzt auch noch andere Lichtquellen angucken. Zum Beispiel das hier, das ist eine weiße Entdeckung. Das ist eine weiße Entdeckung. Zum Beispiel das hier, das ist eine weiße LED. Das gibt es bestimmt verschiedene Typen und Techniken. Ich weiß auch nicht genau, warum die so gebaut sind, dass sie irgendwie zwei Peaks haben, damit zu tun haben, wie die Elektronik funktioniert. Aber das ist jetzt schon deutlich anders als das Sonnenlicht. Das Sonnenlicht war einfach so ein relativ klarer Peak irgendwie relativ breiter. Der hatte zwei, und hier bei 500 Nanometern ist dann nicht so viel Strahlung wie das für uns. Ziemlich weiß. Und hier sind noch ein paar andere Diagramme. Also das erste ist wieder Sonnenlicht, diese weiße Kurve. Dann haben wir hier als Zweites, das ist eine Glühlampe, so eine elektrische Alte. Da sieht man, die geht total viel in den Rotbereich rein. Also da ist sehr viel Wellenlänge, also hohe Wellenlänge und auch ganz viel Infrarot Strahlung. Deshalb sind Glühböden auch so schön warm. Dann genau, Allogenlampen, das Strukturiert auch relativ breiter Peak in der Mitte. Leuchtstoffröhren hier unten sind total spannend. Die haben ganz scharf einzelne Peaks irgendwie. Trotzdem ist das auch das Spektrum einer weißen Leuchtstoffröhre, dass wir Menschen so sehen. Eine kalte weiße LED, das ist so ähnlich wie das, was wir vorhin schon gesehen haben und zum Beispiel auch noch mal eine warme weiße LED, die dann viel weniger von diesen Wellenlängen hier haben, die wir als blau interpretieren. Und genau, ich habe für den Vortag ein kleines Tool gebastelt, mit dem wir mal ausprobieren können, wie diese verschiedenen Komponenten so zusammenhängen. Ich zeig euch das mal. Das sieht so aus. Wir haben hier oben wieder einen Grafen, wo wir halt einstellen können, was wir da jetzt für reinkommendes Licht haben. Kann ich reinzeichnen, irgendwie. Geht bei 380 nanometer los, endet bei 780. Wenn ich irgendwie versuchen will, so was Ähnliches, wie 380 normal, für dieses System. Und dann gucken wir gleich mal, was dann auf der biologischen Seite passiert damit. Wie neben unsere Augen jetzt diese Farbe war, ist die nächste Frage. Das ist ein menschliches Auge von oben im Querschnitt. Und ganz viele Sachen, die da eingezeichnet sind, für den Vortag heute gar nicht wichtig. Also irgendwie wie das genau funktioniert, dass jetzt oben Licht reinfällt und durch die Linse gebündelt wird und so. Es ist für uns nicht so relevant. Wir haben hier auf der Netzhaut hier unten, auf dieser gelben Schicht, und dann halt irgendwie durch diese Nervenzellen zum Gehirn weitergeleitet. Und wenn man dann jetzt näher ranzoomen würde, würde man solche Arten von Zellen überall auf der Netzhaut sehen. Das sind Zapfenzellen, sagt man. Die sind so aufgebaut, dass sie oben irgendwie eine ganz wild gefaltete Zellmembran haben. Und überall in dieser Membran ist ein bestimmtes Protein, Lichtschwellenfrequenzbereichen irgendwie das Licht absorbiert und dann in elektrische Impulse umwandelt. Und dann geht es irgendwie weiter durch die Zelle nach unten. Da passiert noch total wilde Signalverarbeitung irgendwie drin. Das soll heute auch gar nicht Thema sein. Aber letztendlich kommt da dieser Impuls rein, wird gemessen und geht dann irgendwie ab zum Gehirn, dass daraus eine Farbvernehmung macht. Und jetzt ist die Frage, wenn man jetzt solche Zellen hat, wie sollen die am besten sich verhalten? Wenn wir Evolution spielen würden und irgendwie wollen, dass das gut funktioniert, wir können jetzt mal ein paar Sachen ausprobieren. Wenn wir irgendwie so eine Zapfenzelle haben und jetzt einstellen können, auf welche Wellenlänge ist die, also springt die an. Dann wäre eine Möglichkeit, das zu machen, dass wir sagen, okay, wir suchen uns irgendwie eine Wellenlänge aus und in dieser Wellenlänge ist es halt, springt es sehr stark an. Also was dieses Rechte-Diagon bedeuten würde, ist für gegebene Wellenlänge auf der X-Axe ist der Impuls, der dann irgendwie in die Nervenzelle reingeht. Und wenn wir uns eine Wellenlänge aussuchen, ist es halt so, dann haben wir irgendwie eine Wahrnehmung für diese eine Stelle in dem Licht das reinkommt, aber für alle anderen Frequenzen sind wir quasi blend, können wir nicht mal nehmen. Und das ist natürlich, wenn jetzt irgendwie das reinkommende Licht anders geformt wäre und irgendwie hier ausgerechnet irgendwie wenig hat, haben wir wenig davon, dass wir auf der Frequenz passieren können. Wir sagen irgendwie, okay, wir machen vielleicht so einen Block, den wir sehen können. In diesem Bereich springt unsere Kiegelzelle an und gibt da was an die Nerven weiter. Auch da ein bisschen das Problem, okay, jetzt können wir den Bereich sehen. Wir wissen da schon mal, es ist irgendwie dunkel oder hell wahrscheinlich, aber wir können es nicht unterscheiden, ist da irgendwie in diesem Bereich so gestaltet das Spektrum oder in die andere Richtung. Denn das, was diese Zelle jetzt macht, ist die Fläche da drunter. Und die Fläche ist halt in beiden Fällen gleich, deshalb ist das auch für bestimmte Use Cases irgendwie nicht so hilfreich, um da irgendwie Unterscheidungen zu machen, wie genau das Spektrum aufgebaut ist. Nächste Idee könnte sein, okay, wir nehmen jetzt halt mehrere Typen oder so, ich habe hier ein More Cones Knopf. Da könnten wir dann sagen, vielleicht ist eine Zelle irgendwie auf dieses Ding, spezifisch und auf dieses hier, vielleicht eine nächste. Und dann noch auf einem Bereich. Das wäre auch schon ganz schön gut. Dann können wir irgendwie relativ viel sehen. Es ist immer noch das Problem von, wir wissen innerhalb der Bereiche nicht so richtig, wie ist das eigentlich aufgebaut. Deshalb hat die Evolution noch so eingerichtet, dass wir da so überlappende Kiegel, überlappende Hüte drin haben, quasi, was die Sensibilität angeht. Ich versuche das mal per Hand ungefähr nachzuzeichnen. Das sieht dann so aus, irgendwie wupp, ein bisschen flach runter. Und hier auch. Und das Tolle ist, wenn das so aufgewornt ist, kann das Gehirn damit relativ viel anfangen. Denn wenn wir zum Beispiel jetzt nur diese mittlere Zapfenzelle hätten und das Licht, das da einkommt, ist ganz monochromatisch. Das ist wirklich nur Licht in dieser einen Wellenlänge. Oder sagen wir, vielleicht ist es noch ein bisschen weiter rechts. Und diese Y-Zelle ich nehme irgendwie einen Sinn, der ist so und so stark. Dann könnten wir, wenn wir nur das mittlere haben, nicht beurteilen, ist das eine Frequenz dieser Wellenlänge oder ist das vielleicht auf der anderen Seite. Das ist im Grunde genauso hoch. Ihr seht diesen grauen Teil, der uns angeht, wie stark die anstrengt. Das ist da oder da, das ist mir nicht. Mit einer, aber wenn wir diese andere haben, das überlappt. Und die nimmt jetzt auch was wahr, dann kann das Gehirn das lernen, wenn die Kombination von diesen beiden Impulsen kommt, und das ist eine ziemlich coole Eigenschaft dieses biologischen Systems. Wenn man das versucht, durchzumessen, sieht das in der echten Biologie so aus. Also ich habe das gerade versucht, ein bisschen nachzumalen, aber irgendwie zwei Zapfentypen sind, sich eigentlich viel näher an. Das hat sich einfach so entwickelt. Wie gesagt, Menschen haben diese drei. Da gibt es jetzt auch noch andere Tiere, die das ganz anders machen. Also es ist jetzt wirklich relativ auf uns zugeschnitten irgendwie, dieses Farbsystem, mit dem wir alltäglich so arbeiten, mit irgendwie drei Typen. Zum Beispiel hier, es gibt Tiere, die irgendwie nur eine Farbkegel im Auge haben. Wie viele Haustiere haben zwei Katzenhunde, zum Beispiel, die würden einfach irgendwie Farben in eurer Wohnung irgendwie ganz anders sehen als ihr. Oder weniger spezifisch. Genau, die meisten Affen haben drei. Manche Insekten haben vier, die dann ein bisschen auch ins ultramiolettische Spektrum rein sehen und dann irgendwie vielleicht toller Blüten finden oder so. Tauben haben fünf, habe ich gelernt. Und jetzt haltet euch fest, es gibt ein Tier, das heißt Fangstreckenkrebs. Das hat 16 verschiedene. Ich habe mich gefragt, was soll das irgendwie? Und Biologen sind sich da auch nicht so richtig einig, aber irgendwie hat vielleicht mit Beilsverhalten zu tun. Und das würde auch erklären, das können wir vielleicht gar nicht wertschätzen. Das müsste mir auch ein Fangstreckenkrebs sein. Es gibt von einem Comiczeichner, der Oatmeal, einen grandiosen Comic Why The Mantis Shrimp Is My New Favorite Animal. Da geht es um diese Sinneseigenschaft auch noch darum, dass sie irgendwie ziemlich brutal kämpfen können. Kommt euch das mal an. Aber wir Menschen müssen uns mit drei Begnügen. Leider sind wir sehr dran gewöhnt. Das ist jetzt ein Diagramm, wo wir sehen, für verschiedene Wellenlängen, also wenn wir einen Licht exakt dieser Wellenlänge reinkriegen würden, wie ist dann die menschliche Wahrnehmung davon? Irgendwie bei 450 gibt es irgendwie mit Blaulos, und das kennt ihr ja alle, dieses Spektrum außen Regenbogen, zum Beispiel, Regenbogen-Spektrum würde man sagen, geht über grün und gelb und orange und rot, und dann fällt das irgendwie aus. Da hört dann auf den Bereich, den wir sehen können. Und in dem kleinen Teezerfreund hatten wir schon, gibt es jetzt Filter irgendwas? Was ist das? Mit Pink. Wo ist Pink? Warum ist da Pink nicht drin? Das hat mich auch erst mal ein bisschen gewundert. Es gibt irgendwie auf YouTube einen Talk, Why Pink is Alive oder so weit würde ich nicht gehen. Wir sehen das ja. Aber der Trick ist, wenn wir die Zaffen haben, die wir haben, dann reicht es für Pickkeit nicht aus, nur eine bestimmte Wellenlänge zu aktivieren. Das versuche ich jetzt auch, in meinem Tool nochmal nachzubauen. Und um den Pinken-Sinn des Eindruckes zu kriegen, müssen wir jetzt den untersten Kegel irgendwie reizen und den oberen und den mittleren nicht so sehr. Das heißt irgendwie, das Lichtspektrum, das wir da reingeben müssen, die ist ungefähr so aus, genau. Versuche ich schon mal auszurechnen, wie das dann für Menschen aussieht. Also was da passiert, ich kann schon mal einblenden, die Prozentwerte, die diese drei Typen sich jetzt teilen. Das oberste der X nimmt jetzt irgendwie 40 Prozent der gesamten Sinnesreize wahr, das mittlere nur 18 und das hintere wieder 43. Und das ist halt genau die Kombination. Wo das Gehirn dann merkt, okay, was ist da los? Irgendwie das untere Wellenlänge und die obere Wellenlänge. Und dann macht es halt so einen Pinken-Sinnesreiz daraus. Das finde ich ziemlich cool. Also, ja, gibt keine Lichtquelle, die irgendwie wirklich monochromatisches, pinkes Licht macht. Das muss immer eine Mischung sein. Und diese drei Sinneszellen, dieses, was wir also in Prozentwerten haben, zum Beispiel, ist dann auch irgendwie etwas, womit man irgendwie in Farbtheorie ganz viel arbeitet, das dann sogenannte Tristimulus, irgendwie. Alles, was wir Menschen irgendwie ins Auge kriegen, wandeln wir erstmal in diese drei diskreten Werte um. Und das vereinfacht halt ein bisschen das. Also physisch irgendwie würde man das sehr präzise beschreiben können durch diese wirklich die absoluten Intensitäten von den verschiedenen Wellenlängen. Und das Auge reduziert das dann irgendwie runter auf diese drei Werte. Jetzt die Frage ist das für alle Menschen gleich. Da möchte ich mich mit euch ein Experiment machen. Hibt mal bitte die Hand, wenn ihr darin eigentlich nichts seht, irgendwie ein buntes Muster von Punkten. Ich auch, ich sehe da nichts. Wir sind zu zweit, glaube ich. Okay, alles klar. Also ich sehe da ja irgendwie grüne, grüne Punkte, die so irgendwie Wusel machen. Wer von euch sieht eine 2, glaube ich? Okay, der Rest. Ich bin fasziniert, diesen Talk zu halten. Hier ist irgendwie für dich und mich auch nochmal irgendwie so gehighlightet irgendwie, wo die, ich glaube, das sind dann wahrscheinlich die grünen Punkte, die das anordnen. Wenn ich irgendwie wirklich mich konzentriere und hingucke, kann ich das halt sehen, dass da irgendwie diese einzelne Punkte grün sind. Aber es fügt sich für mich nicht so zusammen. Rot-grün-Schwächer, hier ist noch ein Beispiel. Wer von euch sieht eine 11 oder eine 17? Da gehen. Mehr Hello hoch, das ist interessant. Aha, das ist vielleicht ein Drittel des Salus oder so was. Ich sehe beides. Okay. Und wer von euch sieht eine 47? Das sind jetzt, okay, vielleicht 60 oder so was. Ja, okay, interessant, interessant. Das ist irgendwie so ein bisschen eine Falle jetzt, also diese 11 oder 17, finde ich auch relativ klar, einfach auch durch die Helligkeit allein schauen. Und dann gibt es halt irgendwie hier noch so eine Ausbeulung mit grünen Kreisen, die das irgendwie komplettieren und ihr, die das irgendwie eindeutig seht, seht das wahrscheinlich viel klarer den Unterschied als andere weiter. Wenn euch das genauer interessiert, was es da so für verschiedene Typen von Rot-grün-Schwächen gibt, irgendwie gibt es online Tests mit ganz vielen von diesen Dingen. Da könnt ihr immer sagen, ich sehe folgende Zahl oder nichts oder Muster oder nicht oder sowas. Dann kriegt ihr am Schluss eine Auswertung. Was passiert da irgendwie in meinem Auge? Was ist da kaputt? Also, das ist so wertend. So meine ich das gar nicht anders. Es gibt, also das sind nochmal die drei normalen, irgendwie Sensitivity Curves, die die Cone so haben. Und was bei mir dann zum Beispiel passiert, ist das, was man da in dem linken Diagramm sieht. Also, während normalerweise die Sensitivitätskurve von dem Cone, der so für hohe Wellenlängen zuständig ist, irgendwie da wäre, wo die gestrichelte Linie ist, ist bei mir einfach eine genitische Mutation vorhanden, die dann dieses Protein in den Cone-Zellen so verändert, dass die total ähnlich ist zu der mittleren. Und dadurch verschiebt sich diese Kurve ganz nah daran. Und die drei werden trotzdem irgendwie, irgendwie feuern und irgendwie mein Gehirn mit Informationen beliefern, aber das Gehirn hat es dann viel schwieriger, irgendwie das zu interpretieren. Eben weil die so nahe sind, dass sie sich so ähnlich sind. Ich sehe Rot und Orang, aber irgendwie gerade, wenn die Töne dunkler werden oder sowas, das ist schwierig, das zu unterscheiden. Das betrifft, glaube ich, ein Prozent der Menschen oder sowas. Und dieser Typ hier, 6, glaube ich, da ist die mittlere, der mittlere Cone-Typ. Es hat eine Mutation quasi und ist ähnlicher zu roten. Und dann ist es halt vor allem in diesem mittleren Bereich mit den grünen Tönen irgendwie schwieriger, das zu paten. Genau, bei dem linken Typ, da sind ja jetzt zum Beispiel für diese hohen Wellenlängen irgendwie auch gar keine Sinneszellen mehr da, die da überhaupt empfindlich sind. Das erklärt ein bisschen, wie man das mit Rot schwächer sehen kann. Hier sind noch ein paar andere Typen, noch mal normal sichtig, und dann gibt es halt noch irgendwie drei verschiedene Farbversichtigkeiten, wo einfach einer der Cones komplett fehlt. Es gibt dann Rotblindheit, Blaubildheit. Und Grünblindheit würde man sagen. Und es gibt auch einen Typ, wo es einfach nur einen bestimmten Typ von Cones gibt. Da sieht man dann irgendwie alles in Graustufen. Das kramme ich mal kurz nach einem Prop, das ich mitgemacht habe, gelernt vor ein paar Jahren. Es gibt eine bestimmte Art von Brillen, die ich aufsetzen kann. Und dann macht es mir das ein bisschen einfacher, die Farben zu sehen. Mal gucken, wie er lausiert. Grüne Dinger hat ja ein Grote. Krass. Es funktioniert in Sonnenlicht besser, würde ich sagen. Und in Tageslicht. Und mit so elektrischen Energiequellen, irgendwie haben wir ja gesehen, das reinkommende Spektrum ist ein bisschen anders, und dann arbeiten die nicht so gut. Das ist eine sehr gebaute Gläser, die an zwei Stellen weniger Licht durchlassen. Und das ist genau an den Stellen, wo die Cones sich überlappen. Und dadurch wird es dann für mein Gehirn, wenn es dann gewöhnt ist, ein bisschen, viel einfacher, wenn da jetzt irgendwie ein Sündesreiz in diesem Bereich ist, zu sagen, okay, hier kommt halt grad überhaupt nichts an. Und dann ist es halt eher auf der rechten Seite und dann eher diesen Cones mit den langwelligen Sensitivitäten zuzuordnen. Und das ist eine krasse Erfahrung, wie gesagt. Also, als ich das erste Mal ausprobiert habe nach drei Jahren oder sowas, lief ich danach irgendwie fröhlich durch ein Park und habe mir Boom angeguckt und irgendwie mich gefreut, wie irgendwie orangschfarbene Warnwesten einen in die Augen panchen. Das macht so viel Sinn jetzt für mich einfach. Also, ich wollte einfach nicht so stark wahrgenommen oder rote Stoffschilder oder sowas. Super. Naja, wenn ihr die nachher mal ausprobieren wollt, könnt ihr gerne kommen. Ja. Der nächste Abschnitt ist jetzt so ein bisschen, mit man Farbwarnemungen für Menschen. Wenn wir uns jetzt, wenn wir später irgendwie ein Gerät bauen wollen, das eine bestimmte Farbe ausgibt, zum Beispiel, wie einigen wir uns dann darauf, was wir da so aufnehmen, zum Beispiel mit einer Kamera und wie geben wir das dann wieder? Und um das zu entscheiden, gibt es eine Organisation mit dem coolsten Namen ever, die Internationale Beleuchtungskommission. Das ist super. International Commission on Illumination auf Englisch, international de l'Éclairage. Daher kommt auch CIE als Abköpsung. Und die haben irgendwie schon so Anfang des 20. Jahrhunderts irgendwie drüber nachgedacht. Okay, was machen wir da? Wie standardisieren wir Farben? Und die haben dann 1931 diesen Report rausgebracht, indem sie, naja, letztendlich Experimente gemacht haben mit Leuten, wie ist so deren Farbwarnemung? Wie funktioniert das für die? Und dann diese Tabellen darin veröffentlicht, wo für jede Wellenlänge, die reinkommt, steht quasi, naja, wie stark springen diese drei Cones darauf an? Irgendwie. In prozent letztendlich oder in so relativem Einheiten. Und das in diesen Tabellen kann man jetzt nicht gut verstehen, was das soll. Hier ist es noch mal grafisch geplottet. Die sind halt recht ähnlich zu dem, was wir gesehen haben, was die menschliche Wahrnehmung macht. 1931, das war bevor man verstanden hat, wie das biologisch funktioniert. Das ist relativ cool. Da wüsste man noch nichts von den Cones im Auge. Und das hat einfach irgendwie durch Experimente herausgefunden, dass das so einigermaßen matcht. Gibt es hier noch irgendwie diesen wilden Hügel, mir nicht ganz sicher, ob Augen das wirklich machen? Ich glaube eher nicht. Ich glaube, das hat irgendwie mathematische Gründe, dass man dann irgendwie einen schöneren Colorspace aufstand. Aber trotzdem irgendwie finde ich faszinierend, dass man einfach Durchmessungen und auch gar nicht so viel. Und darauf basierend dann so einen Standard-Observer konstruiert. Also diese Kurven einfach definiert, irgendwie in den Tabellen mit den Zeilen. Und gesagt, okay, das ist jetzt irgendwie das Maß der Dinge, wie eine durchschnittlich normal sichtige Personenfarben wahrnimmt. Und die nehmen wir uns jetzt irgendwie als Basis. Und in dem Tool kann ich dir jetzt auch mal einen Blenden, das sieht dann so aus. Wenn man diese Kombination von Cones dieses Spektrum, das ich da oben eingeblendet habe, einfach für welche Wellenlänge macht, welche Sinnesvernehmen schon ganz gut. Und letztendlich funktionieren die dann sehr ähnlich, wie wir es gesehen haben. Also nochmal als Beispiel, wenn ich so einen Sinnesimpuls habe, das ist vielleicht so was wie eine warme weiße LED oder sowas. Dann kriegt dieser Cone relativ viel ab, einfach dadurch, dass der da empfindlich ist auf diesen hohen Bereich. Und der mittlere auch. Das ist nicht so viel. Und das Auge macht dann irgendwie diesen Impulse raus. Und in der Standardisierung hat man jetzt halt für diesen Lichteffekt auch ganz klar definierte Werte, irgendwie diese 48, 40, 12 entspricht jetzt dem, was ein Mensch irgendwie da so als Farbe wahrnehmen würde. Das ist im Grunde die Kernideen. Und das haben sich diese Menschen halt schon überlegt. Ja, die Demo habt ihr gerade gesehen. Und dann kann man eine Sache machen, das sehr anschaulich irgendwie als Diagramm sich zu veranschaulichen. Auch in dem Tool kann ich das einbenden. Also wir sehen ja, es gibt diese drei Typen, diese X-Cones, Y-Cones und Z-Cones. Und weil die in Prozent sind, kann man jetzt daraus dieses Chromaticity Diagramm machen. Wo man sich überlegt, okay, auf der X-Achse, wie viel Prozent springt der X-Cone an? Auf der Y-Achse, wie viel Prozent springt der Y-Cone an? Und wenn wir irgendwo anders sind, relativ nah bei Null oder so was, dann ist der Z-Cone halt der Rest. Also, hier ist jetzt auch eingeblendet zum Beispiel der Punkt, der dem dieser Verabvernehmung entspricht. Dann nochmal irgendwas krasseres Blaues uns hier überlegen oder so was. Dann wandert der Wahrnehmungspunkt halt dahin. Der wandert jetzt da in diesem Bereich, weil, was passiert da? Na ja, weder X noch Y sind besonders stark. Die sind jetzt beide so bei 22 Prozent oder so was in diesem Diagramm. Und die restlichen 55 entfallen dann halt auf die Z-Komponente. Und diese drei Cones haben außerdem eine voll praktische Eigenschaft, nämlich dass der Y-Cone sehr direkt der Helligkeit entspricht. Weil einfach irgendwie die so, dass so zentral irgendwie in unserem Warnungsspektrum liegt, das seht ihr ja auch hier. Das ist irgendwie hier in schwarz aus und hier fällt jetzt in schwarz aus und in der Mitte ist die Wahrnehmung relativ hey. Dadurch kann man dann irgendwie DIX-Komponente und die Y-Komponente unter noch so eine absolute wie viel, irgendwie nicht in Prozent, sondern wie viel Absolutlicht nimmt diese Y-Cone wahr als drei Parameter neben um so einen Lichtimpuls zu beschreiben. Und in der Ebene hier haben wir halt alle möglichen Farbenwerte, die Menschen zu wahrnehmen können. Wir beschäftigen uns noch ein bisschen mit, weil das echt zentral ist irgendwie für viele andere Farbmodelle, die danach so entwickelt wurden. Zum Beispiel kann man sich überlegen, sind alle Stellen davon überhaupt möglich zu erreichen als Farbvernehmung. Beispielsweise der Punkt hier, der so ganz 100% X liegt und 0% Y und 0% Z quasi, ist das möglich, so einen Lichtimpuls zu machen. Und was müssen wir dafür machen? Wenn man hier ganz stark reizt und die anderen beiden gar nicht und da kann man halt auch, also kann man herausprobieren irgendwie, ich kann auch mal hier in diesen großen Bereichen was malen, aber da reizen wir halt diesen Y-Komponente immer auch ein bisschen mit. Das heißt, nicht alle Stellen dieses Diagramms sind für uns überhaupt zugänglich. Und der Bereich innerhalb dessen wir uns bewegen können liegt da noch eine Einbildung zu genau. Dann haben wir die Spektralfarblinie. Wenn man einen Licht ins menschliche Auge schickt quasi oder in dieses Modell schickt, das monochromatisch ist. Das hier nochmal zu demonstrieren wenn wir irgendwie zum Beispiel ein perfekt blaues Licht haben oder so, dann ist der Punkt in dem Diagramm da unten und wenn ich damit jetzt irgendwie anfange, hochzuwandern, dann wandert das langsam nach oben, da reizen wir jetzt irgendwie diesen mittleren Y-Kon immer mehr, deshalb geht das im Diagramm an der Y-Achse hoch. Dann macht das da eine Kurve, um irgendwie das X mehr gereizt zu werden, deshalb geht das nach rechts, das Y wird dabei wieder weniger, da haben wir jetzt den Peak überschritten und gibt es wieder nach unten und irgendwie auf dem Roten Ende landen wir dann halt da unten. Wenn man das hier auch nochmal einblendet, ist das halt diese Kurve die da entsteht. Und das Interessante ist, das ist wirklich so der Bereich, der die gesamte Wahrnehmung enthält. Außerhalb von dem kann es einfach keine Wahrnehmung geben, weil es diese Kombination von Sinneszellen nicht gibt. Das ist die Spektralfarblinie und die untere Ende, diese Kante, die das unten begrenzt quasi zwischen den beiden Enden der Linie, wenn man die Pur-Pur-Linie, das sind da halt Mischungen aus blauen und roten Wahrnehmungen und da ist dann wieder unser Peak dran. Und auch da kommt man einfach nicht raus in den Diagramm, das ist biologisch dann nicht möglich. Und genau, alles was außerhalb liegt sind dann die theoretischen Farben, die sich gezielt mit irgendwelcher Technik oder so was, wirklich nur diese Cones, nur den X-Cone Reizembirte oder so was. Keine Ahnung, wie wir das wahrnehmen würden, aber in der Realität können wir es eigentlich. So, wir haben jetzt irgendwie so ein Standard überlegt, wie wir irgendwie diese Farbvernehmungen beschreiben können. Und die nächste Frage ist, wie machen wir da jetzt mit Bildschirmeln zum Beispiel, oder was ihr hier projiziert kriegt irgendwie, wieder eine Farbe draus mit einfachen Mitteln. Also klar, könnte man sich irgendwie in irgendeinem System überlegen, was Licht dieser Wellenlinge macht und dann diese Kurve wieder nachbilden. Aber wenn wir ihr wissen, wir brechen das auf drei Werte runter, dann können wir es auch einfacher machen. Und das basiert auf der Annahme, dass man, wenn man irgendwie 2 Lichtquellen hat, wie zum Beispiel sich irgendwie hier im Blauen befinden und hier im Roten, dann kann man die halt ganz gut mischen. So, wenn man die eine irgendwie heller schaltet und die andere auch so ein bisschen oder so was, dann landet man in dem Diagramm irgendwo in der Mitte. Und dann können wir das auch probieren. Wenn wir hier ein bisschen rotes Licht haben und ein bisschen blaues dazutun oder so was, dann ist der Punkt, der sich ergibt, irgendwie dazwischen. Und wenn ich das präzise machen würde, wäre der halt irgendwie auf einer Verbindungslinie, auf dieser Popolinie und so. Und das kann man sich dann zu Nutze machen. Also mit 2 Lichtquellen könnte man schon all diese Farben da erzeugen und wenn wir jetzt noch eine Dritte dazunehmen, irgendwo oben im grünen Bereich oder so was hier anfangen zu mischen, dann können wir alle Farbvernehmungen in diesem Dreieck erzeugen. Und das ist eine relativ coole Beobachtung. Die hat man halt irgendwie, als man anfing, dann nachzudenken, okay, wir machen wir jetzt Farbfernsehen und so weiter zu Nutze gemacht und durch die Arbeit der CI und so wusste man da irgendwie schon ein bisschen, was man da, was man damit tun kann. Und solche Fotos habt ihr bestimmt schon mal gesehen von Subpixel, also irgendwie die Pixel auf euren Displays und so, aber üblicherweise ist das irgendwie eine Kombination von grün und rot und blau Werten. Und wenn man die nicht so stark vergrößert wie hier, sondern irgendwie aus einem normalen Betrachtungsabstand sieht, dann mischen die sich halt genauso zusammen und landen dann irgendwie in so einem Dreieck von möglichen Farben. Das ist der Trick. Hier sind nochmal Beispiele für so 3 relativ klare Peaks, das könnten jetzt 3 verschiedene farbige LEDs sein oder so was zum Beispiel, die irgendwie diese Spektren haben und dann kann man die anfangen zu mischen. Und im Tool kann ich das auch, ich habe versucht das einzubauen, wenn man irgendwie in diesem Diagramm eine bestimmte, einen bestimmten Farbwert auswählt, da gibt es irgendwie lustige Glitches, aber ich kann irgendwie das hier mal hinbauen. Wir wollen diese Farbvernehmung haben, dann geht es jetzt wieder rückwärts und baut sich hier oben so ein reinkommenes Licht rein, was dem entspricht quasi. Also da hat es jetzt sehr viel von dem Rot genommen, relativ wenig Grün in der Mitte und relativ wenig Blau. Und das wird dann so. Das ist dann so eine Mischung aus Blau und Rot und irgendwie für alle anderen mögliche Farbvernehmungen auch. Und da ist jetzt halt, also ihr habt dieses Mischungsdiagramm von den 3 Farbquellen gesehen. Aus den 3 kommen wir halt nicht raus und man da irgendwie die Enden einblendet. Das sind halt so die 3 Endpunkte und Farben außerhalb dieses Raumes kann man in bestimmten Farbräumen halt nicht mehr erzeugen. Da steht jetzt schon sRGB. Das ist so eine Sache. Die sich auch Leute mal ausgedacht haben in den 90ern von HP und Microsoft. Da gab es halt irgendwie glaube ich verschiedene Ansätze, wie man das macht, wenn man jetzt so eine Bildartei hat oder sowas, wie genau macht man dann irgendwie die Rotgrün-Blauen Kandelle da rein? Und die haben sich gedacht, okay, wir spitzvisieren das jetzt genau und sRGB steht für Standard-RGB. Das heißt, sie wollten, dass sich das durchsetzt und das hat doch gut funktioniert. Das ist so was auf eurem Rechner irgendwie und da ist nicht irgendwie noch ein anderer Fahrtraum als Metadaten drinnen kodiert oder sowas. Dann ist das immer sRGB. Auch was Bildschirme ausgeben normalerweise. Und ich glaube, es war auch so gedacht, dass Drucker sRGB benutzen. Dann ist alles schön kompatibel. Das hat nicht so gut geklappt aus meiner Sicht irgendwie. Aber sRGB ist heute irgendwie nach wie vor so, dass der color space der war. Und was bedeutet das jetzt genau, dass das standardisiert wurde? Ich glaube, sRGB ist das, was die Endpunkte überlegt und definiert. Und zwar sagen sie in so einer Tabelle in dieser Veröffentlichung, wir haben irgendwie so eine Rot-Schuss-Primär-Licht und ein grünes und ein blaues und übrigens hier sind die XYZ-Werte in diesem CI-Diagramm, wo die Endpunkte sind. Und diese Punkte haben sie entnommen irgendwie schon im älteren Standard, das glaube ich auch so fürs Farb-Fernsehen und ich war voll neugierig zu wissen, warum habe ich sie ausgerechnet, diese drei Punkte genommen. Da stand dann irgendwie drin, naja, wir haben irgendwie mal mit den Herstellenden irgendwie von solchen Bildschirmen gesprochen und so und irgendwie geguckt, was haben wir eigentlich für Leuchtmittel, die wir benutzen können, um Farben zu erzeugen? Damals noch irgendwie zum Beispiel CRTs oder so was, wo man dann irgendwelche Substanzen reintun muss, irgendwelche Chemikalien oder sowas, die dann einen bestimmten Leuchteffekt abgeben oder so. Und wie gute Leuchtmittel für Hatte haben sie so ein bisschen offenbar gesprochen mit, was können sich die Herstellenden vorstellen, irgendwie so für die Zukunft, was man kostengünstig bauen kann und so, was gut funktioniert. Und genau, aus dem Grund sind das diese drei Endpunkte geworden. Finde ich super spannend. Wenn die damals irgendwie andere Technik hatten, dann wäre vielleicht, was nicht, der Rotpunkt irgendwie viel weiter rechts oder sowas und dann hätten wir krasseres Rot auf unseren Bildschirmen. Aber jetzt sind wir halt darauf hängen geblieben, wie seit den 90ern. Das kann man auch andrücken, das wäre es. Das kommen wir gleich zu. Hier nochmal zurück zu dieser Frage, was genau ist FF000 als HTML-Farbcode? Da können wir jetzt sagen, naja, wir haben irgendwie in diesem SRGB-Standard gehabt, irgendwie das perfekte Rot, die ganz äußere Ecke von Rot, hat halt irgendwie diese Mischung von XYZ. Das heißt, wenn wir diesen Standardobserver nehmen, den die CII sich mal ausgedacht hat, dann so ein 31 irgendwie, dann ist dieses krasse Rot exakt eine Reizung, die diese 3 Cones in diesen Verhältnissen reizt. Und wie man das jetzt anstellt, wie man es schafft, dass die X-Core irgendwie zu 64% gereizt wird, ist dann jetzt endlich gar nicht so wichtig. Da kann man irgendwie mit RGB-LEDs arbeiten oder irgendwie mit anderen Lichtquellen oder sowas, ist egal. Solange diese Mischung rauskommt, ist das halt dieses Rot. Das sagte ich noch genauer. Achso, SRGB. Das muss ich vielleicht eintränken, dass es später nur über wirklich die Farbwerte, so die Chromaticity sag mal auf Englisch, was ist die Farbe, unabhängig von der Helligkeit. Das ist auch noch mal eine ganz offskure Sache, da kommt man dann so in Fragen wie Gamma-Korrektur, so wie auch total spannend, hab ich aber schon einen Vortrag darüber erhalten. Wenn ich das interessiert, guck da mal rein, das sind 10 Minuten auf der Enthusastikon 2020. Und genau, das ist auch der zweite Bestandteil quasi von der SRGB-Standatisierung irgendwie. Was ist das? Welche Farben haben wir irgendwie von der Farblichkeit her überhaupt und dann irgendwie, wie metten wir die Helligkeit von Farben auf die tatsächlichen Bits auf unserer Festplatte? Da kann man nochmal drüber nachdenken. Noch ein bisschen tiefer ins Rebel Toil. Genau, irgendwie andere Color Spaces. Da gibt es halt auch noch eine Menge von anderen Standards, zum Beispiel Adobe AGB. Da haben sich irgendwie drei andere Endpunkte aber deren Grün ist quasi noch grüner als das Standard SRGB des Internets. Und dadurch können sie ein bisschen realistischer Fotos aufnehmen, vielleicht oder so. Das sind dann Fotoformaten oder genau, hier auch pro Foto seht ihr, das ist noch ein größeres Dreieck quasi. Das hat die spannende Eigenschaft, dass diese beiden Endpunkte gar nicht mehr Teil des möglichen Farben sind. Das heißt, da muss man so ein bisschen aufpassen, dass man nicht in diese Blauecke reinrutscht, weil das einfach keine echte Farbe mehr ist. Da gibt es noch ein paar Farben. Aber irgendwelche Mischungen gehen halt und alles, was das Dreieck abdeckt, kann man dann irgendwie in den Fotos speichern. Was ist da noch drin? CMYK ist da drin, irgendwie dieses bisschen balkige Polygon. Das kommt aus der Drucktechnik, Syran, Magenta, Yellow und Key, also Schwanz. Das sind dann so die Pigmente, die man da benutzen würde, um auf Papier zu drucken. Deckt auch nochmal ein bisschen anderen Space ab. Das kann man dann auf Bildschirmen darstellen, aber nicht mehr drucken. Das ist alles ein bisschen ärgerlich. Und habe ich noch gefunden, eine relativ coole Colorspace SCRGB. Das ist eine rückwärts kompatible Erweiterung von SCRGB. Da haben Sie sich überlegt, in SCRGB macht man es üblicherweise so, diese rot-grün-blau Kanäle macht man halt zwischen 0 und 100 Prozent oder so was. Und dann in der Farbe, zu spezifizieren. Was ist denn, wenn wir erlauben, dass wir über 100 Prozent hinaus dürfen und dann kommt man halt irgendwie auf solche Ecken. Ich glaube, in SCRGB kann man die drei Kanäle auswählen zwischen minus 0,5 und 13 oder so was. Ganz wilde Sache. Und dann kommt man halt auf eine super große Abdeckung des möglichen Farbraums, nur so ein bisschen grün hier. Die unterscheiden sich dann eh in der Wahrnehmung und können man nicht abdecken. Aber alle SCRGB-Farbwerte sind auch gültige SCRGB-Farbwerte. Dieses Diagramm, das wir bisher gesehen haben mit den Farbwerten drauf, hat ein Problem, und zwar ist es nicht perceptually uniform, sagt man. Also wenn man eine bestimmte Distanz sich bewegt in dem Diagramm, dann ist es nicht unbedingt so, dass für die menschliche Wahrnehmung tatsächlich auch einen großen Unterschied macht. Wenn ich mich eine bestimmte Distanz bewege, verglichen mit Bereichen hier unten oder so was. Kann ich vielleicht auch einschränken sagen, dadurch, dass mein Computer SCRGB benutzt und dieser BIMA wahrscheinlich auch, sind die Farben zwischen diesen 3 Punkten innerhalb des 3x tatsächlich die echten und die außerhalb sind so ein bisschen ausgedacht. Also auch außerhalb von dieser Schauspielerung, also von dieser Schauspielerung, also von dieser Schauspielerung, also auch außerhalb von dieser Spektalfarblinie irgendwie. Das sind halt nicht mehr die echten Farben, die ihr da in dem Diagramm seht. Genau, aber dieses Problem, dass man irgendwie eine gleiche Distanz gehen kann in dem Farbraum, und dann ist es aber irgendwie manchmal ein starker Unterschied für die Menschen, der das anguckt, und manchmal weniger. Hat die CRI später nochmal irgendwie versucht zu fixen mit einem neuen Farbraum, da machen sie so ein bisschen Transformationen auf diesem Koordinatensystem und der CRI-Love ist dann irgendwie ein Color Space, der das ein bisschen näher an dieser, wir haben tatsächlich irgendwie ähnliche Distanzen, die wir zurücklegen und haben dann ähnliche große Unterschiede in der Wahrnehmung. Und das ist ein relativ cooler Farbraum, wenn man da wirklich präzise Gradients haben will, oder sowas in Data Visualizations zum Beispiel kann man das gut gebrauchen, wenn man irgendwie eine Karte hat und dann bestimmte Stellen davon einfärben will und jetzt eigentlich 50% erreicht oder sowas. Dann ist der Color Space total gut um dann irgendwie einen Gradient durchzuziehen und zu sagen, okay, das was die Menschen wahrnehmen als Unterschied passt auch irgendwie ganz gut zu den Daten. Und das letzte was ich euch zeige ist ähm, genau, das vorletzte was ich euch zeige ist ein Modell, das ihr vielleicht auch schon mal gesehen habt, wenn man es um Farben geht, HSL, Hue Saturation Lightness, das ist nochmal ein anderer Blickwinkel quasi auf SRGB oder andere Farbwerte, wo man irgendwie auch eine Farbe aus 3 Komponenten zusammensetzt, aber die sind jetzt nicht mehr Rot-Grün-Blau, sondern Hue ist quasi die Regenbogenfarbe irgendwie, so im 360 Grad-Kreis quasi, also in welches Diagramm nehmen wir dann, wie ich dieses hier unten und man da irgendwie diese Achse nachverfolgt, dann würde der Hue irgendwie beschreiben, an welcher Stelle dieser Farbvernehmung sind wir hier und da haben sie es halt so gemacht, dass das wirklich jetzt sich zu einem Kreis schließt, wenn man von Blau weitergeht, dann kommt unser gesuchtes Pink und dann kommt man bei Rot an und dann wrapt es quasi wieder in der Anfang. Das ist dann quasi tatsächlich so der Hue als Achse für mögliche Farbwerte. Saturation ist dann in diesem Diagramm wie stark ist die Farbe verglichen mit Grau zum Beispiel, wenn man irgendwie auf der Y-Achse runter geht und man hier halt irgendwie nur in Graubereiche rein und wenn man oben geht, irgendwie wird man wieder, kriegt man gesättigte Farben, würde man sagen und die Leidnis der dritte Farbeventur ist dann die Helligkeit, das kann man hier mit diesem Ding einstellen, da kann man dann zwischen weiß und schwarz quasi anstellen, wie hell ist diese Farbe. Und das ist also einfach auch eine UI irgendwie, das für mich viel einfacher zu benutzen ist irgendwie, wenn ich Farben picken will für irgendwelche Grafikprojekte oder so was, wo man sich für die Farbigkeit entscheiden kann, die Sättigung und die Helligkeit und da hat dann vor ein paar Jahren sich das noch mal jemanden angeguckt und irgendwie dieses diesen Ansatz genommen von Yucidivation Leidnis und diesen CI-Luf Color Space und das zusammengepanscht quasi, da kommt dann raus ein Input-Tool das hat die Person genannt H als Luft und das ist weird, guckt euch mal an, ich habe mal aufgenommen, wie ich das bediene, da verschiedene Farben picken, das ist jetzt quasi, das entspricht so ein bisschen der Farbigkeit in dieser Fläche und da unten kann man jetzt die Helligkeit einstellen und wenn man jetzt mit der Helligkeit runter geht, dann verändert sich auch die Outline der Farben, die man erreichen kann. Also zum Beispiel, es gibt, man kann irgendwie viel mehr in Richtung grün gehen, wenn man hellere Farben hat und das, also im ersten Moment ist es total unerwartet so irgendwie über Farb picking nachzudenken, aber ich glaube im Alltag ist es halt super praktisch, wenn man irgendwie dann sich erstmal für eine Helligkeit entscheiden kann und dann in der fügbaren Fläche irgendwie für die Farben und letztendlich auch für die Sättigung denn je näher man an diesen weißen Punkt in der Mitte geht, desto näher kommt man halt an Grau. In der Mitte ist es irgendwie relativ grau Farben und irgendwie in diesem Kreis, ich glaube das sind so die Pastellfarben irgendwie dieser Helligkeit. Nicht cool, hat mich beeindruckt. HSLUF.org glaube ich irgendwie, ist der Standard dafür und einige Programme beginnen das jetzt einzubauen, zum Beispiel Inkscale, wer so ein 1.2 ist rausgekommen letzte Woche, dadurch bin ich glaube ich darauf gekommen und die haben das jetzt auch. Also da kann man irgendwie jetzt nicht nur alles HSL auswählen oder einfach RGB Steilhau oder sowas, sondern ist auch genau dieser Kalabika nachimplimentiert quasi und das werde ich mir jetzt mal als Standard einstellen und gucken wie man damit zu arbeiten kann. Ja, damit haben wir unseren Ritt durch Physik und Biologie und irgendwie mathematische Modelle und Technik durch Schritten. Hier sind die Slides, da ist nochmal der Link auf den Talk über Gamma Korrektur zum Beispiel. Ich bedanke mich fürs Zuhören. Habt ihr Fragen? Ja. Vielen, vielen Dank für diesen schönen Vortrag. Wir haben noch viel Zeit, das heißt beballert Blindri gern mit euren Fragen. Wer möchte? So, bitte. Du hast sich zuerst gemeldet, deswegen du kommst gleich in den Auftrag. Der, der leuchtet. Ah, okay. Kannst du nochmal erklären bei dem XY-Diagramm, wie der die Z-Komponente rein spielt oder nicht rein spielt und warum nicht? Das habe ich irgendwie noch nicht geblickt. Ja. Warum ist das da okay, ist das einfach wegzulassen? Also hier sieht man ja das ganze Diagramm im Grunde. Ich gehe vielleicht, machen wir das im Tool. Vielleicht machen wir das im Tool. Das ist okay, das Z wegzulassen, weil diese drei Werte sich immer zu 100 addieren. Das ist einfach irgendwie die Definition dieses Calaspaces, dass die eine Wahrnehmung, die reinkommt, arbeitet. Also nochmal ein Beispiel, wenn das Z immer tatsächlich null wäre in der Wahrnehmung und X und Y würden sich zu 100 addieren, dann wären alle Wahrnehmungen auf dieser Diagonallinie quasi und diese Outline geht da auch quasi dran. Die folgt relativ lange in dieser Linie. Das ist dann wirklich eine Mischung aus reiner Y und X-Wahrnehmung und das Z spielt gar nicht rein. Aber wenn wir irgendwie von dem Z-Cone auch Information kriegen, also prozentweise antalsmäßig, dann wandern wir quasi von dieser Diagonallinie weg in Richtung null oder in Richtung Ursprung. Und wenn man irgendwie hier in der Mitte ist oder sowas, dann kann man im Diagramm halt ablesen, X ist jetzt hier vielleicht 25% und Y 30% und Z ist dann der Rest. Und wenn man das so bestimmen kann und weil es eindeutig ist, kann man das dann weglassen in den Diagrammen. Wie ist das eigentlich mit CE 1931? Das ist ja schon durchaus eine ganze Weile her. Gab es Ansätze, also ich meine, vermutlich wird es nicht so einen großen Unterschied machen, aber es ist trotzdem technisch präziser zu definieren. Ja, gab von der CI tatsächlich jede Menge Alternativ-Colorspaces. Die habe ich mir ehrlich gesagt überhaupt nicht genau angeguckt, aber gefühlt mindestens vier oder fünf oder so, die dann immer auf skure Namen hatten, die dann nicht X von Z gesagt haben, sondern X anders als 20 oder so, weil sie es irgendwie anders gemessen haben oder sowas, die dann tatsächlich, denke ich auch, ein Tick präziser noch wären, was die menschliche Wahrnehmung angeht und auch näher sind an den echten Cones, die Menschen haben zum Beispiel. Aber dieses 1931-Modell hat sich einfach, das hat sich so erhalten und irgendwie ganz viele Colorspaces, zum Beispiel SRGW basieren nach wie vor darauf. Wir haben ja nicht nur Stapfen, sondern auch Stäbchen, die jetzt eher für ... Wir haben ja nicht nur Stapfen, sondern auch Stäbchen im Auge, zumindest die meisten unserer Seezellen sind Stäbchen, die eine Wahrnehmung im grünen Bereich haben, spielt das auch noch in das Farb sehen mit rein oder wieso werden die ignoriert? Naja, also das war für mich, glaube ich, für den Vortrag zumindest die Entscheidung, die Sache der Helligrenzvernehmung erstmal auszuklammern, damit das irgendwie nicht zu umfangreich wird. Und genau, das ist völlig recht, irgendwie Stäbchen sind irgendwie noch ein anderer Typ von Seezellen, die sind viel sensibler zum Beispiel, also irgendwie ganz viel, wenn ihr irgendwie nachts durch die Gegend lauft oder sowas, dann können die Stäbchen halt irgendwie so einzelne Photonen, die da reinfallen, wahrnehmen und dadurch noch so ein bisschen eine Idee der Umgebung geben. Aber dafür sieht ihr halt nicht farbig, kennt ihr bestimmt irgendwie, wenn es dunkel ist oder sowas, sieht alles relativ grauschtufig aus. Und genau, die sind, könnte man sagen, im grünen Bereich, das hat dann auch relativ direkt damit zu tun, dass tatsächlich die Helligkeit unserer Wahrnehmung halt irgendwie, da ist die Mitte quasi im grünen und es flacht dann in beide Richtungen irgendwie ab. Wenn man so eine Sensitizizkurve dieser Stäbchen zeichnen würde, dann wäre die relativ ähnlich zu diesem Y-Kohnen. Und ich schätze schon, dass irgendwie in der Netzhaut oder sowas, die so verdrate sind, dass auch Informationen daraus irgendwie damit reinfließen, das wäre eigentlich eine Entwendung, wenn nicht quasi irgendwie für Farbvernehmung. Aber um irgendwie dieses Modell aufzustellen und irgendwie zu erklären, wie diese drei verschiedenen Typen zusammenarbeiten, irgendwie um Farben zu erzeugen, sind die Stäbchen halt nicht wichtig. Deshalb habe ich die im Vortrag irgendwie erstmal ausgetaumert. Okay, vielen Dank für den Vortrag. Das sollte auch an sein. Okay. Ja, meine Frage ist, wie ist das, du hast ein bisschen über Farbenblindheit geredet. Und dann sind ja diese Punkte woanders, im Prinzip. Oder also der Farbraum sieht irgendwie anders aus. Und gibt es da irgendwie Forschung zu, wie das ist und gibt es irgendwie eine einfache Möglichkeit, wie man quasi so seine eigene Wahrnehmung vermessen kann? Also, was mir dazu einfällt, ist, dass man halt auch hier mal ausprobieren könnte, wie das ist, wenn man anfängt, welche zu verschieben. Damit zum Beispiel sagen irgendwie diese, genau, bei mir irgendwie die Farbwürdigkeit wäre halt irgendwie dieser Kohn ist mehr nach links geschoben. Und es ist irgendwie ähnlicher zu dem Y. Und ich schätze, wenn ich das anfange, wird es erst ein sehr viel Würre war und es wird sich die Outline dieser Spektallinien sehr verändern. Ich probiere das mal, das relativ nahe in das mittlere Renn zu malen. So, irgendwie diesen Hügel lasse ich vielleicht mal da. Das scheint zumindest so ein bisschen näher hier. Das schrumpft irgendwie dieses Feld relativ zusammen. Wenn du das wirklich so für dich selbst ausmessen würdest, man kann nicht, könnte man irgendwie die Experimente, die CRI damals gemacht hat, ganz gut wiederholen. Die haben vielleicht nicht gut erklären, glaube ich, aber die haben irgendwie Leute vor irgendwie zwei Farbtaffeln oder zwei weiße Flächen gesetzt, die angeneucht wurden mit bestimmten Farben und die hatten dann quasi also eine Farblinne haben und auf der anderen Seite irgendwie drei RGB-Spots, die dauerhaft gerichtet waren quasi und dann irgendwie mit Reglern so lange dann rumdrehen sollten, bis sie die gleiche Farbe reproduziert haben oder so. Auf der Grundlage hat man dann irgendwie diese Kurven gemalt. Das könnte man, das wäre so verspannen, habe ich auch nicht nachgesucht oder so, aber gibt es vielleicht Forschung zu, wo man das irgendwie mit Leuten, die Farblintheiten haben, irgendwie wiederholen hat oder Farbversichtigkeiten zu demonstrieren. Das ist jetzt hier wahrscheinlich recht, ich schätze nicht, dass das auf echten Daten basiert eigentlich. Ich glaube, das ist halt eher irgendwie von offenbar genau irgendwie von Leuten, die sich um so was irgendwie kümmern, mal irgendwie so zusammenge copy-pasted oder so ähnlich, weiß ich nicht genau, wo diese, ob das irgendwie auf Daten basiert. Ich schätze, in der Realität wäre es irgendwie noch ein bisschen unregelmäßiger und gezackter oder so. Aber solche Kurven könnte man in der Realität sein. So, noch weitere Fragen. Ich sehe da eine. Vielleicht noch eine Idee zu deiner Frage. Wenn die zwei, also wenn zwei Rezeptoren quasi dieselbe und den selben Bereich abdecken, dann dürfte einfach nur eine Dimension, es dürften zwei Dimensionen sehr stark koordinieren, wodurch in dem Farbraum dann eine Dimension stark zusammenfallen würde, deshalb der Farbraum, der zu sehen, dürfte. Einfach basierend auf dem Model, in dem du gerade vorgestellt hast. Genau, so wird es sein. Korrelation ist ein guter Ausdruck dafür, was da passiert. Genau, und die fällt sich dann sehr ähnlich. Eher ein Kommentar als eine Frage. Und zwar war ja am Anfang, die taucht ja die Frage auf mit dem Spektroben von Leuchtstoffröhren und so weiter, warum das so einzelne Peaks sind. Wir haben hier die blaue LEDs, die aber noch eine zusätzliche Phosphor-Schicht haben, die dann noch das blaue Licht wieder absorbiert und im gelben Bereich dann wieder reflektiert und gelb plus blau zusammen ergibt dann weiß. Und das nämlich der spannende Punkt, dieses weiß, was sich in der Summe ergibt, ist halt eben nicht weiß, was im Sinne eines weißen Rauschens über das gesamte Spektrum, sondern hier kommt halt der Punkt zu tragen, dass halt das Farbspektrum unendlich dimensionaler Vektoraum ist, während wir mit den drei Sensoren eigentlich nur in dreidimensionalen Projektion dieses unendlich dimensionalen Raumes sehen. Das heißt, die Erregung der drei Rezeptoren kann verschiedene Ursachen im eigentlichen ursprünglichen, unendlich dimensionalen Farbraum haben. Und das wiederum heißt, wenn man jetzt auf das Tool zurückgeht, wenn man da einfach mal eine Linie einzeichnen würde, so wie die Sonne hat, so ungefähr, dann müsste ja ungefähr weiß rauskommen oder ein Grauton, der irgendwo weiß ist. Und wenn man jetzt in diese Linie rein, einen negativen Peak, zum Beispiel bei 632 Nano Meter Reinmacht bei Rot. Ja, da ungefähr. Wäre lustig, ja. Und dann müsste nämlich eigentlich jetzt die Komplementärfarbe rauskommen. Also ein sehr dünner Peak müsste das sein. Dann müsste eigentlich dann die Komplementärfarbe im Falle von Rot wäre das dann grün-türkis, glaube ich, so in dem Bereich irgendwo als Ergebnis rauskommen. Und so kann man, also Ergo ist eine einzelne Farbe, kann halt verschiedene Ursachen haben. Und deswegen kann auch ein weiß vorgetäuscht werden. Allerdings bei der Reflexion des Lichts wird es dann interessant. Wenn man also eine weiße LED hat und beleuchtet damit Körper in dem weißen Licht von der LED kein Rotanteil drin ist, sondern nur blau und gelb, kann natürlich die Reflexion vom Rot dann auch nicht richtig funktionieren. Ist cool, dass du noch mal technisch ergänzt auch, wie diese weiße LED funktioniert. Das finde ich spannend zu hören. Und wäre witzig, wenn wir jetzt irgendwie ganz stark einen negativen Peak reinmalen würden und das wirklich sehen könnten, die Komplementärfarbe. Im Diagramm sieht man das übrigens ganz gut. Wenn man von Rot durch den weiße Anteil quasi auf die andere Farbe geht, ist das nicht spannend, dass ganz verschiedene Lichtimpulse die gleiche Farbvernehmung machen können. Ich finde das super. Das war für mich so eine Offenbarung letztes Jahr halt, dass ich verstand, mein Wirtschaft macht kein orangefarbenes Licht, also kein monochromatsches orangefarbenes Licht. Das ist irgendwie diese Mischung. Und trotzdem sehen wir das so. Das ist cool. Vielleicht auch ein gruseliger Kommentar genau zu diesen weißen Leuchteoten wenn man die nicht mit dem Auge anguckt. Die modernen weißen Leuchteoten haben kein Phosphormehr drin. Das sind wirklich grüne, rote und blaue, damit man auch die so bunt machen kann. Heute kann man ja jede Leuchte und irgendwie bunt mit Glühbern machen. Wenn man die jetzt mit einer digitalen Kamera anguckt, die auch wieder drei Farbrezeptoren von der bestimmten Wellenlänge haben und gar nicht so ganz breite Spektren, wie das, was hier passiert, weil das so was ähnliches wie eine Leuchteode ist zum Erkennen, dann erkennt es genau mit dem der rote Wellenlänge, der grüne, der blaue. Und es gibt schöne Beispiele im Internet, wo man sieht, wie man mit manchen Handys dann so eine RGB Leuchteode, das stellt man auf Rot an. Wir sehen irgendwie die rote Wohnungsbeleuchtung und plötzlich zeigen manche Digitalkameras das grün oder blau an, weil diese Wellenlängenmatches nicht richtig passieren. Und die sagt, diese Mischung von den drei einzelnen Wellenlängen, die wir uns ankommen, das sieht jetzt für die Digitalkamera plötzlich mal ganz anders aus, was rauspickt und dann hineininterpretiert. Und so ähnliche Sachen passieren im menschlichen Auge auch. Aber da ist dann richtig gruselig, weil überhaupt nichts mehr kontinuierlich ist und dann plötzlich aus Rot, Grün, Blau, irgendwas gibt es ziemlich witzige Videos im Netz. Wir sehen, wir können da von diesem Thema in total verschiedene Richtungen irgendwie noch viel tiefer uns rein bewegen. Da kann man mit Farben sehr viel Zeit verbringen, sich reinzunahnen. Diese Sache mit irgendwie RGB-LEDs haben dieses andere Spektrum tatsächlich dazu, das meinte ich irgendwie, mit dieser Brille dadurch, dass zum Beispiel in den Bildschirmen oder so was drei sehr klare Frequenzen Benutzungsumfaben zu erzeugen funktioniert die Brille damit leider nicht so gut. Weil die dann halt weniger Vorteile davon haben, an den Stellen, wo die Gläser der Brille das nicht rausfiltern, da sind irgendwie diese LEDs quasi gar nicht. Und dadurch wird da irgendwie wenig passieren. Da sehe ich irgendwie kaum unterschiebt die Auffassung, aber untersonderlich halt schon. Ich habe hier in der Mitte noch eine Frage gesehen? Ja. Hi, erstmal danke für den tollen Vortrag. Ich habe das Gefühl, alle Bildschirme sind schlecht, weil oh mein Gott, sie zeigen mir nicht alle Farben. Das ist für mich gerade so mein Blowing. Meine Frage ist, heutzutage kann man ja also super krass, dass die 1931 die Kurven mit so wenig Leuten und so grob nachbilden konnten. Aber heutzutage kann man ja wahrscheinlich messen, welche Cones, welche Wellenlänge, wie stark ansprechen. Und dann könnte man ja basierend auf diesen echten gemessenen Kurven nochmal ein Farbraum definieren. Und das wäre ja dann der ultimative. Also du hast vorhin gemeint, dass das Komitee, was das SRGB vorgeschlagen hat, 20 weitere vorgeschlagen hat. Aber das wäre ja objektiv, aus menschlicher Sicht zumindest objektiv, die beste Definition. Weißt du, ob das mal versucht wurde? Das war die CIA, die die vorgeschlagen hat. Das ist so meins, genau. Und so ein bisschen eine ähnliche Frage hatten wir vorhin und glaube ich auch schon, was in die Richtung ging. Wäre es nicht viel besser, jetzt nochmal präzisere Farbräume zu definieren, um dann einfach irgendwie ein bisschen breiteren Raum aufzustellen. Ich schätze halt, dass es halt irgendwie so, naja, irgendwie so ein Ding, was sich selbst erhält. Wenn jetzt irgendwie alle PNGs schon in diesem Farbraum sind, und man will da wirklich irgendwie an die Grundlagen ran. Und das irgendwie alles umwerfen. Ich glaube, die neuen Modelle der CIA sind halt besser. Und die können die veröffentlichen. Und dann ist die Frage, wer macht irgendwas damit? Das ist dann ein komplexes System von gegenseitigen Abhängigkeiten und so, wo viele schon existierende Technologien dranhängen und so, die man dann auch irgendwie mit ändern müsste. Aber wer spannend, das mal zu versuchen, ein möglichst präzises, biologisches Modell. Das wurde versucht. Es gibt eine neuere Tabelle von CIE. Ich weiß nicht, 72 oder 79. Es gibt wirklich die gleiche Messung nochmal. Genau wie du gesagt hast, mit besserer Physik und Messung und sonst irgendwas. Es verwendet sich fast niemand. Also, wenn man einfach guckt, ich mach solche Sachen mit Farbprojektionen von Lesern und so was. Ich habe dann auch gesagt, oh, gibt es so viele neuere Tabelle, habe ich genommen und da hat es zu nichts gepasst, zu keinen Messinstrumenten, die Farbaufnahmen und so was machen, weil sie alle CIE 1931 machen. Die Unterschiede sind nicht wahnsinnig groß, aber ich habe dann die Messwerte vergleicht. Dann habe ich festgestellt, dass ich da einstelle, ich kriege immer falsche Messwerte raus, weil selbst unendlich teure Messgeräte immer das machen, was CIE 1931 gemacht hat. Aber wenn man beide übereinander plottet, sind die Unterschiede relativ gering. Und was du gemeint hast, das sind wirklich völlig andere Farbkoordinatensysteme, weil die Mathematiker natürlich sehr erfinderisch sind, einfach sagen, ich mache ein ganz neues Koordinatensystem mit LUV und sonst irgendwas. Statt die jetzt so zu plotten, kann man das auf 40 Grad drehen und dann Kupus draus machen und sonst irgendwas, aber das ist reine Mathematik. Und der Hinweis mit so unterschiedlich sind die halt auch doch nicht, wenn man sie besser macht, ist ein guter. Dann könnte man vielleicht sagen, okay, dieses Modell von 1931, was man hat, ist halt irgendwie gut genug so für General Purposes irgendwie. Und vielleicht würde man da nicht sehr viel mehr Enjoyment aus einem Film kriegen, wenn es da hinten oder so. Die noch mehr fragen. Ich glaube, dann würde ich einfach eine Frage stellen. Du hast uns vorhin gefragt, okay, welche Farbe fehlt denn hier auf so diesem Spektrum? Eine Farbe, die mir fehlt, ist braun. Wo ist das denn abgeblieben? Ist das irgendwie ein dunkles, also wahrscheinlich irgendwie, können wir mal probieren, einen braun zu bauen. Eine Schätzung wäre irgendwie relativ viel mehr. Das ist schon weiß. Das müssen wir dunkel machen. Vielleicht weiß, ohne... Oh ja. Weiß ohne Blau vielleicht. Weiß ohne Blau. Und irgendwie schon mehr Rot drin, oder? Ich bin da, wie gesagt, nicht so der Experte, um irgendwie da das Einschätzen zu können. Dann lasse ich, dann sparre ich Blau vielleicht mal aus. Das ist jetzt schon wieder relativ hell geworden. Das war mein Gefühl. Es war ein bisschen eine Fragenfrage. Ich kenne die Antwort. Tatsächlich ist braun eine Farbe, das hat total viel so mit der Wahrnehmung durch das Gehirn, die Augen zu tun. Braun ist eine Farbe, die eigentlich nur im Kontext identifiziert wird. Das ist tatsächlich orange, wenn die Helligkeit unten ist. Dunkles Orange? Ja. Aber deswegen wird man auch nie wirklich einen Scheinwerfer sehen oder eine LED, die braun das Licht macht, weil es halt zu hell ist. So wie auch irgendwie es Gold oder Silber als Farbwert eigentlich nicht gibt. Da gibt es dann eher so um Reflexionseigenschaften unter dem Licht oder so. Grad bezüglich Farbfeelsichtigkeiten hätte mich mal interessiert. Weißt du, wie das gemacht wird bei verschiedenen Videospielen, kennt man es ja, dass man quasi in den Einstellungen erinnern kann, ich habe eine Farbfeelsichtigkeit auf, z.B. ich habe eine Grünseeschwäche. Weißt du, wie das gemacht wird, dass man dann quasi die Farben anpasst? Also, er müsste irgendwie die Berechnung dahinter stehen. Man müsste sich dann Frequenzen aussuchen, die möglichst viele Leute irgendwie gut unterscheiden können. Und ich meine irgendwie, dass so Kombination aus Blau und Orange zum Beispiel irgendwie zwei Farben sind, die super viele Leute gut unterscheiden können, die irgendwie von diesem Kohn hier aufgenommen, der irgendwie meistens an der richtigen Stelle sitzt und das Orange ist dann irgendwie, da ist es egal, welches von beiden jetzt anspringt oder so, es ist auf jeden Fall für das Gehirn super klar unterscheidbar. Und wenn man genau entspielen, noch eine Palette braucht, die mehr Farben enthält, würde man da halt irgendwie auch gucken, vielleicht irgendwie durch Experimente, vielleicht irgendwie durch Modelle, wo man solche Messungen hat oder sowas, dass die irgendwie gut differenzierbar sind. Ich finde ich also total wichtigen Hinweis auch, dass man da irgendwie ein Plot macht mit irgendwie irgendein Diagramm oder sowas mit Linien drin, irgendwie gibt es super gute Ressourcen, die irgendwie so color-safe Paletten irgendwie euch empfehlen können. Man könnte dann sagen, ich möchte gerne sieben verschiedene Farben, die möglichst weit auseinander sind oder sowas und dann kriegt ihr da irgendwie gute Paletten für. Für mich ist der Worst Case, glaube ich, ein roter Laser-Pointer in Präsentationen tatsächlich, aber er ist ja hell und dadurch irgendwie, auch wenn der Punkt da ist und er sich nicht bewegt oder sowas irgendwie sehe ich ihn nicht gut und da finde ich grüne viel besser. Benutzt grüne Laser-Pointer. Ja, ich habe noch eine Frage, nämlich wie ist das mit so Neonfarben? Du meinst gerade Gold und Silber sind keine Farben, aber jetzt so ein richtig schönes Neon-Pink. Was passiert da? Ist es nicht so, dass tatsächlich sowas wie ein Textmarker, der zum Beispiel neon-orange ist und ich glaube, der absorbiert UV-Licht und imitiert es dann wieder im sichtbaren Spektrum, wenn ich mich nicht täusche. Das hat einfach irgendwie die chemischen Eigenschaften und dadurch kommt da so ein bisschen mehr sichtbares Licht raus, als reinfällt und dadurch leuchtet es dann besonders toll im Vergleich zur Umgebung, so würde ich sagen. Ich denke, das ist jetzt richtig dabei. Danke. Noch ein Kommentar. Das ist noch nicht gemuted. Du musst das orange Ding drücken. Ja, und zwar den New Saturation Brightness Modell. Wenn ich mich die irre, ist das dadurch entstanden, dass man früher schwarz-weiß Fernsehgeräte hatte. Und dann irgendwann kam das Farbfernsehgerät und mit der Umstellung vom schwarz-weiß Fernsehen auf Farbfernsehen sollten nicht plötzlich alle Besitzer von schwarz-weiß Fernsehgeräten ihre Geräte wegschmeißen müssen. Deswegen hat man sich halt entschieden, die Helligkeit, die man beim schwarz-weiß Fernsehen hatte, beim Farbfernsehen zu belassen hat dann stattdessen, statt RGB Modell quasi über den Funk halt den Farbton und die Farbsättigung stattdessen übermittelt. Und im Farbfernsehgerät wird dann tatsächlich die Umwandlung von diesem HSB dann in RGB vorgenommen. Was im Wesentlichen, dann glaube ich auch eine Basiswechsel Matrix Multiplikation ist mehr oder weniger. Macht Sinn, da so Evolutionen in der Technik zu haben. Gute Info, danke. Okay, ich glaube es ist auch schon Zeit. Vielen Dank für all die Fragen. Vielen Dank für den tollen Vortrag und bitte nochmal ein Runde Applaus.