 Ich begrüße jetzt André Lampe, er ist Laserphysiker, was ziemlich großartig klingt, Wissenschaftskommunikator und erfolgreicher Science Slammer und guckt heute mit uns auf die kleinen Dinge im Leben. Und obwohl es ein sehr großes Bild ist, ist es nicht Big Picture, sondern Hochau-Solösungsministerioskopie. Es geht um Bilder, Messergebnisse und wie sie zusammenhängen. Und wie unser Denken eigentlich von Wahrnehmung geprägt wird. Genau, und ein großer Runde Applaus und los geht's. Danke schön. Ja, schönen guten Morgen. Fangen wir direkt mal an. Erst mal zu mir, warum stehe ich hier überhaupt. Ich bin Physiker, der in die Biochemie gewechselt ist, um einen Mikroskop zu bauen. Das habe ich neulich mal in der Comic Zeichnerin erzählt und das hat irgendwie eine halbe Stunde gedauert, was ich jetzt gerade in einem Satz zusammengefasst habe und dabei ist dieses Bild entstanden. Das ist eine ganz, ganz tolle Künstlerin, folgt ihr auf Twitter und ich bedanke mich noch mal recht herzlich für dieses großartige Bild, was ihr gemacht habt. Ja, also ich habe in der Physik angefangen und habe dann irgendwie meinen Weg in die Biochemie gefunden und angefangen Mikroskopie zu bauen. Und der Talk heißt, es geht um die kleinen Dinge. Und jetzt gucken wir uns erstmal an, welche kleinen Dinge ich meine. Hier habe ich mal ein Zentstück mitgebracht und da drauf kann man so erkennen, da habe ich ein kleines Stück Glas drauf gelegt, dass meine Deckeläschen auf dem Zellen angewachsen sind. Das kann man einfach so noch nicht erkennen, einfach so mit einer Kamera fotografiert. Da müssen wir schon unser erstes Mikroskop hernehmen und das wäre ein Phasenkontrast-Mikroskop und da sieht das erste Bild so aus. Da kann man so ein bisschen auf der rechten Seite erkennen, ja, da sind irgendwelche kleinen Flecken. Links kann man noch die Rundung von dem Zentstück erkennen, damit man so ein Gefühl für die Größe bekommt. Wenn ich da jetzt weiter reinsume mit 20-facher Vergrößerung, dann kann man schon ein bisschen mehr von den Zellen sehen und bei 40-facher Vergrößerung kann man tatsächlich die Kerne erkennen und auch ein bisschen was von der Zellperipherie. Wenn man jetzt mehr Details erkennen möchte, dann kann man nicht mehr Phasenkontrast-Mikroskopie machen, da muss man Fluorescence machen. Man fährt Dinge in der Zelle an, beleuchtet sie dann, nimmt diese Licht auf und kann dann halt verschiedene Strukturen in der Zelle farbig darstellen. Und wir bleiben bei derselben Vergrößerung wie bei der 40-fachen Phasenkontrast-Mikroskopie in der Zelle zu verwechseln, zur Fluorescence. Und da fängt es dann irgendwie an, wirklich schöne Bilder zu liefern, weswegen ich auch irgendwie dieses Feld sehr, sehr liebe. Und wenn man da jetzt in so eine Zelle nochmal ein Stück weiter reinsume, links ein bisschen Übersichtsbild und rechts schon eine Teilandsicht von der Zelle, dann kann man irgendwie sehen, okay, da ist eine Menge los in so welchen Dingern und wenn ich da jetzt noch weiter reingehe so weit, dass ich wirklich nur interne Zellstrukturen mir angucke, dann wird es irgendwie verschwommene Spaghetti. Bevor ich erkläre, warum die verschwommen sind, was sind das überhaupt für Spaghetti? Das, was ich da angefärbt habe, sind Mikrotubuli. Die sind ein wichtiger Teil von Zytoskelett, also vom Skelett der Zelle, damit sie ihre Form bewahren kann. Und die sind aus Proteinen aufgebaut, das ist so ein Ring aus 13 Unterstrukturen, die wie so eine Wendeltreppe nach oben gehen. Und der Durchmesser von den Dingern ist 25 Nanometer. Jetzt kann man allerdings auf so einem Mikroskopiebild, was auf der rechten Seite ist, erkennen, ja, wirklich 25 Nanometer sind die nicht. Wenn man sich den Messbalken, den Scalebar anguckt, der ist ein Mikrometer, das passt irgendwie nicht. Die sind deutlich dicker auf dem Mikroskop dargestellt. Und das liegt leider nicht irgendwie an Vergrößerung oder so, sondern da spielt uns die Physik ein Schnüppchen. Verdammte Physik. Der ein oder andere hat vielleicht schon mal von einer Beugungsgrenze gehört. Die hat Ernst Abbe ausgetüftelt, 1873, wenn mich nicht alles täuscht. Aber viel wichtiger für die Fluorescence-Mikroskopie ist der junge Mann da oben. Das ist Baron Rayleigh. Ja, ich glaube schon. Er hat auf jeden Fall sich das Rayleigh-Kriterium ausgedacht. Das war ein Kriterium, wann man zwei punktförmige Lichtquellen noch so gerade voneinander trennen kann, was der minimale Abstand ist. Und der ist für Fluorescence-Mikroskopie, weil die ganzen Farbstoffe, die wir benutzen, die uns unsere schönen, bunten Markierungen machen, sind quasi punktförmige Lichtquellen. Das ist bei uns 250 Nanometer. Kleiner können wir keine Strukturen auflösen. Leider. Auf jeden Fall nicht mit normaler Fluorescence-Mikroskopie. Man kann diese Beugungsgrenze jetzt allerdings ein bisschen austricksen. Da gibt es viele Ansätze für. Aber there is no free lunch. Das heißt, man handelt sich andere Probleme ein, wenn man die Beugungsgrenze austrickst. Drei habe ich mal mitgebracht. Das eine ist die strukturierte Beleuchtung oder Structured Illumination Microskopie, kurz SIM. Dann stimulierte Emissionsverarmung, STET und Einzelmolekülokalisationstechniken. Für die letzten beiden stimulierte Emissionsverarmung und Einzelmolekülokalisationstechniken gab es 2014 den Nobelpreis in Chemie. Für die strukturierte Beleuchtung leider nicht. Was dahinter steckt, wie die Beugungsgrenze austricksen, das sind sehr unterschiedliche Herangehensweisen. SIM macht das mit Fourier-Transformationen. STET schafft das mit Laser-Technik. Das heißt, die machen direkt etwas mit dem Licht, was auf die Probe fällt. Und bei der Lokalisationsmikroskopie, haben wir das über massenhaftes Anfitten von einzelnen Signalen gemacht. Deswegen STET ist eine total faszinierende Technik, aber ein bisschen langweilig für unseren Kontext hier. Weil SIM und die Lokalisationsmikroskopie braucht sehr viel Rechenleistung und gute Programme, die dahinter stecken. Und darüber möchte ich heute sprechen. Und ich fange mit SIM an. Erstmal die strukturierte Beleuchtung funktioniert basierend auf den Moje-Effekt oder Moje-Pettern. Da links kann man sehen, wenn man zwei Gitter hat und die nebeneinander verschiebt, dann entstehen lustige Muster. Das kennt man vielleicht auch von einer Autobahn, wenn man unter einer Autobahnbrücke langfährt und sich die beiden Geländer gegeneinander verschieben, dann entstehen auch solche interessanten Muster. Wer jetzt auf der rechten Seite noch nicht so richtig viel erkennt, fängt mal an, euren Kopf zu schütteln. Kann man da was erkennen? Ich hoffe schon, ich habe da oben noch was Kleines, man sollte einen Menschen in einem roten Hoodie sehen. Das basiert auch auf diesem Moje-Effekt. Das irritiert so, schüttelt ihr in den Kopf oder seht ihr nichts? Sehr schön. Okay, das hat also funktioniert. Also man kann mit diesem Moje-Pettern tatsächlich verborgene Dinge sichtbar machen und das benutzen wir auch in einer Mikroskopie. Wir nehmen ein Gitter und beleuchten damit quasi. Also wir pojizieren ein Gitter mit unserem Anregungslicht in unsere Probe rein, verschieben dieses Gitter, drehen es um 60 Grad, verschieben es noch ein paar Mal, drehen es wieder um 60 Grad und daraus machen wir Foyer-Transformationen aus, diesen Rohdaten, die sehen dann so pillenförmig aus und wenn man die alle übereinander legt, dann entsteht so eine schöne Blume. Da fragt man sich jetzt, Foyer-Transformationen? Also das ist einfach nur eine Transformation vom Bild in den Frequenzraum. Das heißt, außen liegen die kleinen Frequenzen, die kleinen Bildunterschiede, kleine Helligkeitsunterschiede und in der Mitte die großen. Und was hier jetzt dabei herauskommt, sind die lustigen Blütenblätter außen. In der Mitte dieser Kreis, das wäre ein normales Mikroskopie-Bild und Sim, diese Verschiebung und Rotationen führen dazu, dass wir außen ein bisschen mehr Information aus dem Bild herauskriegen und dann wird mit dieser Technik das Ergebnis daraus. Und da kann man schon ziemlich deutlich sehen, dass da tatsächlich mehr Informationen aus so einem Bild rausgezogen wurden. Einfach nur, weil wir ein paar mal hin- und hergeschoben haben und rotiert haben, also mehrere Bilder aufgenommen haben, als nur eins. Jetzt habe ich da noch, ah ja genau, wie es funktioniert. Wir nehmen Rohdaten, diese Verschiebungen und Rotationen und stecken das in eine Software rein. Hier zum Beispiel FERSIM. Das ist eine offene, freie Software. Wer Bock hat, geht mal auf GitHub und guckt euch das an. Das ist ein Kumpel von mir, mit dem ich studiert habe, an der Uni Bielefeld. Keine Reaktion, das ist ja noch früh. Die haben eine freie Software geschrieben und es gibt für Sim, gibt es größtenteils nur Software von Mikroskopieherstellern, die das mit ihrem Gerät verkaufen hier. Und dann ist es eine Blackbox. Die haben jetzt sich das mal vorgeknüpft und eine offene Software daraus gemacht. Die, wenn jetzt dann demnächst, im Februar glaube ich, das nächste Paper rauskommt, was auch Open Access sein wird, wo sie auf GPUs rechnen, werden sie jede kommerziell verfügbare Software schlagen. Was ich irgendwie sehr gut finde. Und zwar, kommerzielle Software braucht für ein Bild zwei Minuten, die 30 Millisekunden. Das, genau. Das Schöne an dieser Technik ist aber auch, man kann die Rohdaten nehmen und vielleicht kommt irgendwer darauf, hey, wir könnten das vielleicht noch viel besser machen. Vielleicht ist dieses Git dann nicht eine perfekte Sinuswelle und wir haben eine Korrektur dafür gebastelt. Und dann haben wir eine bessere Software, eine andere Software, in die wir es nochmal reinstecken können. Und dann wird unser Bild noch besser. Rohdaten sind geil. Wenn ihr eins mitnehmt, dann nehmt Rohdaten sind geil mit. Wir haben ein kleines Beispiel mitgebracht. Das ist eine Sim-Aufnahme und Lokalisations-Mikroskopie-Aufnahme von Leberzellen. Und tatsächlich wurde festgestellt, dass man in der Diagnostik, also tatsächlich auf der Anwendung Seite, da, wo es relativ schnell gehen muss, tatsächlich einen Vorteil mit Hochauflösung hat für bestimmte Krankheiten, weil die Poren in Leberzellen die perfekte Größe haben, um das mit Hochauflösung zu untersuchen, um es vorarbeitun musste. Das ist aus einem Paper, was auch Open Access ist. Das Video könnt ihr euch auch online angucken. Tut das noch mal von meiner lieben Kollegin Viola Mönchemüller. Genau. So, jetzt geht es weiter zu der Lokalisations-Mikroskopie. Da habe ich drauf gearbeitet. Da habe ich meine Doktorarbeit drin geschrieben. Und die Technik heißt Direct Stochastic Optical Reconstruction, Microscopy oder kurz D-Storm. Find ich schön, ja? Ja. Und dann sind wir auf dem Konditionen-Mikroskop, die sich umblinken. Wir schütten eine Chemikalie drauf. Fotochemisch klären wir das, dass die ganzen Farbstoffe, die sich auf den Strukturen befinden, keine Lust mehr haben. So, einer von 2000 ist mal an. Aber die meisten sind in einem Auszustand. Wenn man sich das dann auf den Mikroskop anguckt, dann sieht das so aus. Am Anfang drehe ich den Laser ein bisschen auf. Und dann habe ich dann noch ein paar Signale. Die sind wirklich Signale von einzelnen Molekülen, die so punktförmig sind. Und wenn ich diese Signale jetzt aufzeichne, so 10, 20.000 Bilder, nehme ich davon als Rohdaten. Und dann wird aus so einem verschwommenen Bildchen da so ein Bild. Wenn ich das in die richtige Software. RapidStorm oder ThunderStorm, sehr kreative Namen. Übrigens auch freie Software kann man sich runterladen. Und dann kommt man auf andere Suchergebnisse. Da habe ich festgestellt. Aber auf jeden Fall kann man, wenn man das rekonstruiert, so wie hier, dann erkennen, das ist nicht ein Mikrotubuli, sondern das sind in der Tat 2. Und wenn man das auswertet, man kann die tatsächlich auseinanderhalten, was den Biologen in mir sehr, sehr gefreut hat. Aber es ist ziemlich deutlich, dass das eine Auflösungsverbesserung ist. Wenn man das Bild aufzeichnet, dann fängt man an, die Signale zusammenzusuchen. Genau so ist es auch in der Zelle. Und dann rekonstruiert man das Bild Pünktchen für Pünktchen für Pünktchen. Diese gefundenen Signale sind immer noch beugungsbegrenzt, also verschmiert und unscharf. Aber wenn man das so einzeln macht, weiß man, dass es eine Punktquelle ist. Und dann hängt die Auflösungsverbesserung an. Und dann ist es so, dass man weiß, dass es eine Punktquelle ist. Und dann hängt die Auflösung nur noch von der Anzahl der Photonen ab. Und nicht mehr von den Begrenzungen, die wir mit unserer Optik haben. Und deswegen wird dadurch die Auflösung deutlich besser. Wenn man mehr Farben machen will, dann hat man auch ein bisschen Probleme damit. Also wir bleiben thematisch auch in Frankreich. Chromatische Aberration führt dazu, dass man so eine Verschmierung hat. Wenn man einen weißen Lichtstrahl nimmt, dann hat man das nicht mehr. Das nennt man Chromatische Aberration. Das muss man normalerweise korrigieren mit Registrierungen. Man nimmt die beiden Bilder und versucht sie wieder übereinanderzulegen. Aber so eine Registrierung ist niemals perfekt. Man baut dabei Fehler ein. Ich habe in meiner Doktorarbeit eine Technik entwickelt. Die haben wir Spectral D-Mixing D-Storm genannt. Da habe ich jetzt leider keine Zeit zu erklären, wie das geht. Aber wir machen Farbe aus Rohdaten. Rohdaten sind geil. Noch mal. Hier habe ich ein paar Beispiele mitgebracht. Wie das dann aussieht. Wir können damit nicht nur zwei Farben, sondern auch 3D-Rekonstruktionen machen. Das sieht jetzt alles zusammengeklöppelt aus. Ein bisschen verpixelt. Aber tatsächlich sind wir in einer so hohen Auflösung. Das glaubt man fast nicht. Da ihr mir das fast nicht glaubt, will ich euch mal einen kleinen Größenvergleich geben. Wir haben einen kleinen Größenvergleich. Am Anfang sind wir vom Cent nach unten gegangen. Den habe ich jetzt noch mal mitgenommen. Dieses Vesikel, diese kleine Kugel, die ich eben auf der rechten Seite hatte, hatten Durchmesser von 150 Nanometer, was wirklich nicht viel ist. So ein Cent-Stück hatten Durchmesser von 15 Millimeter. Wenn wir uns jetzt mal vorstellen, dass so ein Vesikel 150 Nanometer eigentlich ein Stecknadelkopf ist, eine Größe von 300 Meter haben oder drei Fußballfelder. Und zur Erinnerung von einem Bild vom Anfang, diese Stecknadelköpfe oder Vesikel wären diese grünen verschwommenen Pünktchen, die man am Anfang in der normalen Fluorescence-Mikroskopie gesehen hat. Das heißt, wir sind schon ziemlich gut dabei, mehr Details aus diesen Messdaten rauszuholen. Das führt dazu, dass es wahrscheinlich eine gute Idee ist, eine Kuppe selber zu bauen. Weil so ein Spectral-D-Mixing-D-Storm, SD-D-Storm, gab es nicht. Hier habe ich mal ein Timelapse mitgebracht, wie wir unser tolles Mikroskop, was wir zusammengebastelt haben, gerade umziehen in einen neuen Raum. Und manche Leute sagen, besonders so in den Lebenswissenschaften, do it yourself, hacking, tinkering, DIY, bio, das macht man doch nicht. Habt ihr nicht genug Geld, dass ihr euch das bestellen könnt? Und ich sage, basteln ist Wissenschaft. Und Wissenschaft ist basteln! Das gehört dazu, sonst gibt es keinen Fortschritt, sonst hätten wir diese tollen Techniken nicht. Viele dieser Dinge sind 2006 bis 2008 überhaupt erst erfunden worden, weil es ein paar bekloppte Physiker gab, die mit Biologen sich zusammengetan haben und überlegt haben, hey, wie können wir die Auflösung besser machen? Also, ja, ich kann das nicht verstehen und jeder, der das denkt, sollte vielleicht nochmal kurz drüber nachdenken und mir jetzt weiter zuhören. Dieses Mikroskop selber basteln funktioniert, weil es da auch eine offene Software-Lösung gibt, nämlich MicroManager, basiert auf ImageJ, ist nicht wirklich wichtig, was ImageJ ist, ist eine tolle Sache, die Biologen gerne benutzen, für Bildauswertung, aber MicroManager ist großartig. Damit kann man wirklich die modernsten Mikroskope steuern. Unser SDD-Storm hat 20 Geräte von 12 verschiedenen Herstellern, die laufen alle über dieses Software. Die wurden da erkannt, wenn irgendjemand ein neues Gerät hat und sagt, da gibt es keinen Treiber für, dann schreibt er den, knallt das in die MicroManager Community und dann können das alle benutzen, also großartig. Aber was auch cool ist, dieses Bild hier, das ist ein Bild von meinem 12 Euro Mikroskop, was ich hier auch mitgebracht habe. Das heißt, die Software, die die modernsten Mikroskope ansteuern kann, kann auch das 12 Euro Teil, was man bei dem Online-Versandhändler seines Vertrauens bestellt, ansteuern und damit tolle Sachen machen. Übrigens Arduino auch, also wenn man sich seinen eigenen Mikroskop-Tisch basteln will, geht, guckt euch das Ding an. Es gibt so ein paar Leute, die dachten, hey, selber bauen, das können wir doch auf die Spitze treiben. Ein Artikel wäre Blueprint for cost efficient localization microscopy. Wenn man sich das anguckt, so Lokalisationsmikroskop, kriegt man von einem kommerziellen Hersteller für 800.000 Euro, die können dann zwei Farben und 25 Nanometer Auflösung. Man kann das auch bauen für 20.000 mit zwei Farben, mit 40 Nanometern. Und es ist wichtig, dass wir solche Überlegungen machen, weil unsere Unis können dann sagen, hey, wir können Sachen von der Forschungsgrenze auch schon Leuten im Studium anbieten, dass sie da mal ein Praktikumsversuch dran machen können. Das heißt, für Zweit- oder Drittwelt-Länder, wo es vielleicht auch mal eine Universität irgendwo gibt, die Forschung machen wollen, ich glaube, ich muss das nicht weiter unterstreichen, wenn man sich die Zahlen anguckt. Dasselbe geht auch für SIM. FERSIM habe ich eben schon drüber gesprochen. FASTSIM ist so eine Idee, wie man relativ günstig auch ein structured illumination microscope aufbaut. Da hat man dann so, wenn man sich das kommerzielle anguckt, die kosten ungefähr eine Million, so ein kommerzielles SIM-Mikroskop kann vier Farben, braucht für eine Bild-Rekonstruktion zwei Minuten. Oder man nimmt die offene freie Software und kauft sich seine Teile selber zusammen mit nicht ganz so, ist halt nicht ganz so schön und mit abwischbaren Oberflächen und so weiter. Aber deutlich günstiger, 25 Kilo Euro, drei Farben und 30 Millisekunden mit FERSIM, was ich großartig finde. Der Applaus für alle Leute, die in diesem Gebiet arbeiten. Also ich gebe das total gerne weiter. Ich treffe die auch bald wieder in zwei, drei Wochen, wenn sie nicht auch gerade zugucken. Hallo. Warum spielen so wenige mit Mikroskopen? Wenn man in Lebenswissenschaften unterwegs ist, also die Menschen, die in den Lebenswissenschaften forschen, kümmern sich meistens erst um ihr Experiment, ihre Probe, um das Stück kleine Leben, die Zellkultur, Zelle, die man da hat, die man drei Wochen hegt und keinen Experiment macht, da hat man irgendwie den Kopf voll. Manchmal hat man auch ganz andere Ideen, die gar nichts mit Bildauswertung oder mit Mikroskopen zu tun haben, zum Beispiel die Bananen in den Kopf zu stecken oder so. Das funktioniert alles etwas langsamer, dieser ganze Gedanke von Open Data, Open Source, dass wir die softwarefrei zugänglich machen. Aber ich merke immer mehr, dass es anders eigentlich nicht geht. Und was ich erzählen will, ist, es geht hier weniger um Bilder bei der Hochauflösungs-Mikroskopie, sondern es geht um Daten. Und es geht darum, das alles offen zu machen. Weil wir brauchen gute Leute, die viel besser Software schreiben können, als wir das tun. Ich bin Physiker, mein Gott. Programmieren ist für mich so Hammer und Meißel. Da kommt dann immer nur eine Steinskulptur raus, obwohl es vielleicht ein Gemälde sein soll. Blöder Vergleich, lassen wir das. Ich habe euch etwas von der Beugungsgrenze erzählt, wie sie uns Ärger bereitet. Ich habe euch gesagt, wie bessere Rechner, bessere Softwarekultur, aber auch moderne Kameras und im Allgemeinen bessere Technik dazu führt, dass wir Hochauflösungstechniken wie SIM und Deastorm haben und dass wir günstige Eigenbauten deswegen auch erstellen können. Es geht hauptsächlich um die Daten. Man muss Mikroskopie als Datensammlung begreifen und nicht zwangsläufig als etwas, was Bilder macht. Rode Daten sind geil zum dritten Mal. Ich hoffe, jetzt sitzt es. Wir Wissenschaftler sind, was das angeht, ein bisschen langsam. Es gibt relativ viele, die angefangen haben, ihre Software offen rauszugeben, die immer mehr Open Access publizieren, die immer mehr Daten auch ins Internet stellen. Das muss noch mehr werden. Habt Geduld mit uns Wissenschaftlern, aber es wird immer mehr Open Science und dann kann jeder mitspielen. Es ist wirklich ein, der ein bisschen Liebe für Bild-Rekonstruktion und Programmieren in der Richtung hat, sich die Sachen, die ich heute vorgestellt habe, mal anzugucken. Vielleicht habt ihr eine coole Idee, auf die wir in unseren Laboren gar nicht gekommen sind. Dann bleibt mir wohl nichts anderes zu sagen als herzlichen Dank fürs Zuhören. Ich treibe mich rum an einem kleinen Assembly, Science, Hacking und Communication. Das ist beim Sendezentrum an der Garderobe und herzlichen Dank für die Aufmerksamkeit. Moment. Danke noch mal für den extra Applaus für Open Science, die Technikgeschichte und Wissenschaftsgeschichte und wie alles zusammenhängt. Wir werden Zeit haben für vier Fragen. Signal Angel gibt es was aus dem Internet, leider nein. Hier links und rechts sind die Mikrofone. Ich rufe auf, wir starten mit dir. Du kannst sofort deine Frage stellen. Eine Sache wollte ich noch sagen. Wir haben ein Video von einem Manager laufen. Auf diesem Crappy, da habe ich ein Cent Stück drunter. Selbst mit 12 Euro ist eine Vergrößerung ziemlich gut möglich. Die einen schon ein bisschen beeindruckt. Verdammt, wo ist der Stern? Da sieht man einen Spitze. Software, die teure Mikroskope treibt, kann auch 12 Euro treiben. Also guckt euch das an. Jetzt bitte deine Frage. So eine simple Frage für meine Verhältnisse. Du hast gesagt, dass du mehrere Fotos machen musst. Dann packst du die alle zusammen. Dann hast du ein Gesamtbild. Was passiert, wenn sich die Dinge bewegen? Das ist also eine wichtige Frage. Wenn man sich irgendwelche Dynamiken in der Biologie angucken muss, muss man natürlich zügig die Bilder machen. Mit Sim, ich habe am Anfang gesagt, wenn man Hochauflösungen macht, handelt man sich ganz andere Probleme ein. Wenn man eine strukturierte Beleuchtung macht, dann macht man 15 Bilder. Also 5 Verschiebungen, eine Rotation, 5 Verschiebungen, eine Rotation, 5 Verschiebungen. Wenn man es schafft, diese 15 Bilder schnell genug zu machen, ich sage mal, innerhalb von 20 Millisekunden und genug Licht daraus bekommt, dann hat man, wenn man das schnell rekonstruieren kann, hat man die Möglichkeit daraus Dynamiken in der Biologie zu beobachten. Dann muss man die Bilder machen. Dann bin ich jetzt nicht so in der Lage, sehr, sehr schnelle Prozesse zu beobachten. Aber ich sage mal, mit modernen Simos-Kameras gibt es schon so die ersten Versuche, diese Lokalisationsmikroskopie zu machen. Man nimmt in einem Burst 1000 Bilder auf und rekonstruiert dann. Und dann hat man pro Sekunde vier Bilder. Damit kann man hochaufgelöste. Das heißt, das, was man im Raum besser auflöst, verliert man in der Messzeit. Also für so ein 2-farben Bild, was da so gedreht hat, das hat so 10 Minuten gebraucht, um das Bild zu machen. Okay, bitte hin, an der 4. Ja, ich habe eine Frage. Wie willst du denn bei selbst gebauten Mikroskopen Reproduzierbarkeit von Ergebnissen machen? Eigentlich ist es so, selbst die kommerziell gebauten sind jetzt ja nicht zwangsläufig, dass das so ein Standardgerät ist. Also wenn ich da beim selbst gebauten, okay, das hat vielleicht eine Seriennummer, aber die ist dann 3. Ja, du hast Optiken, die sind schon in stärker Maße starker Stärken. Ja, okay. Also selbst zusammenklebst, sagen wir mal so. Warum diese Sachen, die ich da vorgestellt habe, immer noch so im 20.000-Euro-Bereich liegen, ist, man muss ein gutes Objektiv nehmen. Und da nimmt man ein Standardobjektiv. Und das ist das Einzige daran, wo es dran hängt und womit es steht und fällt. Und Kamera und alle Optiken, dazwischen, da benutzt man auch die, sagen wir mal, die normalen Fehlerstandards. Und dann legt man natürlich erst mal, wenn man ein Mikroskop gebaut hat, charakterisiert man seinen Aufbau, macht Testmessung und dann funktioniert es, dann sind die Dinger reproduzierbar. Aber die liefern tatsächlich überraschend gute Ergebnisse. Also bei manchen Sachen denkst du so, oh, mal zusammengebaut und gucken wir mal, das sieht ja aus wie ein richtig, richtiges Mikroskop. Aber es ist ja eigentlich auch ein richtiges Mikroskop. Man darf nicht so viel Angst davor haben, irgendwie Sachen selber zu basteln. Man kann vernünftige Testmessungen, dann führt das auch zur reproduzierbarkeit. Aber das gilt auch für die kommerziellen Systeme. Wenn die nicht nachweisen, dass sie stabil sind, dann verantwortet das deine Frage. Es gibt da verschiedene Techniken, konventionellen Mikroskopenanfangstrichen, das Auflösungslimit zu erhöhen, Emulsionen oder andere Well-Längen benutzen. Ich habe gesehen ihr benutzt hauptsächlich, war das tatsächlich grün oder eingefärbt? Gibt es da schon Versuche, das jetzt mit UV oder mit vielleicht extrem UV zu machen und vielleicht auch mit Emulsionen, dass man dann halt nochmal die Auflösung, die 50 Nanometer hinbekommen wurden, ob es da auch in die Richtung Fortschritte gibt? Die Wellenlänge hilft dir nicht wirklich viel. Also das auf konventioneller Art und Weise zu machen. Wenn man jetzt überlegt, ich könnte an der Wellenlänge schrauben, damit ich eine bessere Auflösung habe, weswegen will ich das tun, damit ich keine Zeit verschwende wahrscheinlich. Wenn ich mir Leben angucken will, wenn ich mit harter UV-Strahlung auf lebende Zellen, das geht relativ nur einen sehr kurzen Zeitraum gut. Beziehungsweise wenn eine Zelle in der Lage ist, relativ schnell zu migrieren, dann läuft die vor dem Laser auch weg. Kein Witz, die kann man jagen. Hey, wir müssen auch mal Spaß im Labor haben. Die Wellenlänge-Spielerei da hilft jetzt nicht zwangsläufig. Bei SIM ist es so ein bisschen, dass man da gerne mal mit 4,05 Nanometer benutzt, das so der best aufgelöses Kanal, wenn man das Gitter am engsten machen kann. Aber richtig in den UV-Bereich geht man jetzt nicht rein. Es gibt für Standard-Mikroskope noch andere Ansätze, wo man dann im Nachhinein ein paar Sachen rausrechnet. Aber man will wirklich auf diese Größen kommen. Bei dieser 150 Nanometer Kugel, bei diesem Visickel, war es so, wenn man da genau hinguckt, dann kann man auch sehen, das Ding ist Hohl-Innen drin. Das heißt, ich habe Strukturen, die deutlich kleiner sind, die ich damit auflöse. Das machen wir mit rotem Licht. Wir haben das mit 643 Nanometer geimitzt. Das heißt, da ist die Wellenlänge gar nicht so wichtig. Es geht darum, dass möglichst viele Photonen rauskommen. Davon hängt in dem Fall unsere Auflösung ab. Okay, letzte Frage aus dem Internet. Das Signal Angel sitzt dort. Das Internet hat die Frage nach der Größe, die so ein Mikroskop für 25 Nanometer Auflösung haben muss. Ich würde das ganz gerne in eigener Sache erweitern. Wie verhalten sich denn so Größe und Komplexität zwischen den kommerziellen und einem Selbstbau? Sagen wir es mal so, das sind so zwei Seiten einer Medaille. Wenn ich ein kommerzielles Mikroskop dastehe, die dürfen so einen Mikroskop gar nicht verkaufen, wenn du theoretisch in der Lage bist, durch die Okulare durchzugucken und drei Laser anzumachen, die auf die Probe scheinen. Das macht total Sinn, dass man das nicht darf. Ansonsten hat man halt nur zwei Augen. Die kann man das so ein bisschen kompliziert. Man macht dann auch die Geräte etwas größer, weil sie temperaturstabil sein sollen, weil es auch eine Wertigkeit haben soll. Man möchte in Erfertigung auch immer die Standardkästen benutzen. Bei Eigenbaumikroskopen habe ich den Vorteil, wofür brauche ich Okulare, wenn ich weiß, ich will mit dem Ding nur Hochauflösungen machen. Ich muss da gar nicht durchgucken. Ich habe meine Beleuchtung perfekt auf meine Kamera abgestellt. Ich gucke immer auf den Monitor. Erstens Laser-Sicherheit total super, weil dann komme ich gar nicht in die Versuchung durchzugucken und mich irgendwie laserlicht auszusetzen, dann sehe ich es immer nur auf der Kamera. Aber dementsprechend sind die Philosophien, wie man so was selber baut und aufbaut, vollkommen andere. Man kann sich da irgendwo in der Mitte annähern, aber tatsächlich das, woran man sehr viel Geld spart, sind so große Verpackungen, sehr schwere, stabile, stative, wo man dann viele Möglichkeiten hat, Filter einzusetzen und so weiter und so fort, wo man einfach nur ein Filter reinklickt, den Dreh, die Software erkennt den, und dann klickt man auf drei Dinge. Bei einem selbstgebauten ist es dann halt so, man muss eine Schraube lösen, muss den reinfummeln in Erhalterung, muss dann wieder gucken, ob der Strahlengang passt und so. Das ist ein bisschen aufwendiger und nicht wirklich schön und user-friendly, aber da findet man immer Lösungen. Natürlich ist in diesen hohen Kosten auch Maintenance und Wartung und so ein bisschen mit drin. Und natürlich hat man da eine Garantie, die man beim Selbstbau nicht hat. Definitiv ändert nichts an dem horrenden Preisunterschied. Okay, ganz vielen Dank, André, für deinen tollen Vortrag. Wer sich für Sie geinteressiert, geht gleich auch weiter mit dem CERN und Big Data, Physik und Computing. Noch mal einen großen Applaus für dich.