 Hallo. Wie meine Vorredner halt ich meine Rede auch auf Deutsch. Wir können es auf Englisch machen, aber den meisten sprechen ja auf Deutsch. So, und was geht das? Ich zeige Ihnen nachher, wie man mit unserem Sensor, Timer Flight Sensor, Gestensteuerung machen kann und wie man mit einem anderen Produkt auch Inhalten messen kann. Wir können Flüssigkeiten messen. Wir können aber auch feste Bestandteile messen wie Mülltonnen und so weiter. Mein Name ist Mario Bollinger und ich bin bei ST Microtonics und ich bin zuständig für den deutschen Markt für optische Sensoren. Das ist sowohl Timer Flight wie auch CMOS Kamerasensoren. Gut, drei Punkte oder zwei Punkte zu jedem Thema. Gestensteuerung, was ist Gestenerkennung? Was ist Gestensteuerung? Warum nutzen wir das überhaupt? Warum jetzt langsam aber sicher populär auf dem Markt? Und was bieten wir an, um solche Dinge zu realisieren? Für das Thema Sensing für Inhaltsmessungen zeigen wir Ihnen auch, was wir im Produkt haben. Es sind auch eigene Timer Flight Sensoren und wie wir uns das vorstellen, wie man Flüssigkeiten oder Inhalte messen kann. Gut, was ist eine Gestenerkennung? Was kann man sich darunter vorstellen? So, wir haben eine Bewegung alternativ zu einer Sprachsteuerung oder alternativ zu anderen Möglichkeiten, Geräte zu steuern. Wir setzen die Handbewegung um über einen Sensor in eine Computersprache. Das heißt, eine Regelgröße, wo wir lautstärke ändern können, wo wir bestimmte Dinge ändern können und eben diese Handbewegung als Gestensteuerung erkennen können. Und das Ganze funktioniert über einen Sensor. Der hat eine Auflösung von 8x8 Pixel, sagen wir mal, im Wirklichkeitsende Spatz. Und wir können eben eine Hand, so wie es hier dargestellt ist, auf diesen Sensor abbilden und können sehen, wie sich diese Hand eben auf dem Sensor bewegt und daraus kann ich die Bewegung erkennen und daraus kann ich auch die Gestensteuerung dann letztendlich generieren. Meine Kollege zeigt Ihnen, wie das geht. Das heißt, wir lesen einen Sensor aus, einen Timer Flight Sensor, der eine 8x8 Matrix hat und Sie sehen dort, wo die Hand sich bewegt, wo die Hand vorhanden ist, können wir die Entfernungswerte auslesen und die MCU, in diesem Fall ist es noch eine MCU. Das heißt, wir reden hier über Dinge, die noch nicht über AI geregelt sind, sondern auf einem einfachen Rechner funktionieren. Hier sehen wir, wo die Hand sich befindet und aus dieser Berechnung kann ich dann eben eine Gestensteuerung entwickeln. Der schaut da meinem Kollegen so aus, er macht Winke Winke und wir sehen, wo die Hand sich hin bewegt und damit kann ich einen Menü steuern, damit kann ich einen GUI steuern, damit kann ich einen Terminal steuern, was in der Wand hängt, zum Beispiel das Klima in einem Raum manipulieren können. Ich kann mich durch ein Menü durchhangen, ich kann auswählen und kann dann zum Beispiel die Temperatur ändern oder auch Luftfeuchtigkeit und solche Dinge, kann man dann eben über diese Gestensteuerung machen. Also, wir lesen den Sensor aus und entwickeln daraus über die Software, die wir anbieten, eine Handbewegung und die Handbewegung nutzt man eben, um Dinge zu bewegen. Hier zum Beispiel macht mein Kollege dann eben heute, das war zu schnell, hier sollten wir eigentlich sehen, wie der Kollege mit der Handbewegung ein Bilderbuch steuert, also ein Fotoalbum, da kann ich damit dieses Fotoalbum praktisch durchblättern, das funktioniert es gar nicht schein. Alternativ, was momentan sehr interessant ist, sind Küchengeräte. Vor zwei Jahren habe ich den Markt einmal kurz durchforstet. Wer bietet überhaupt Gestensteuerung an? Vor zwei Jahren war es Null. Gestensteuerung war vor zwei Jahren nicht akzeptiert auf dem Markt. Wie funktioniert es? Kann es meine Oma nochmal bedienen? Meine Mutter muss sich der Use-Manual lesen. Also, vor zwei Jahren war das extrem unbeliebt und jetzt springen im Prinzip alle Küchengeräte darauf auf und möchten ihre Küchengeräte mit Gestensteuerung ausstatten. Das heißt, Dunstabzugshaube schneller, langsamer. Die Bedienfelder für ein Zerranfeld aussuchen, welches Zerranfeld will ich haben, wie heiß will ich es haben. Und das funktioniert alles sehr zufriedenstellend mit der Gestensteuerung, wie wir sie anbieten. Warum brauchen wir Gestensteuerung? Erstens, es ist bedienerfreundlich, sofern es gut funktioniert. Muss man einfach aussetzen, es muss gut funktionieren. Wenn es beim Use-Manual nicht ankommt, dann ist es vergebens. Hygienisch, wir haben jetzt zwei Jahre Corona hinter uns. Das heißt, wir sind sensibilisiert, um Dinge ohne Berührung zu regeln. Touchless, das ist der Schlüsselpunkt, den wir aus dieser Corona-Krise rausziehen. Dann haben wir natürlich Entertainment, das heißt Audio-Equipment, was sich laut Laisen machen kann, kleine Spielzeug, was Kinder mit Gestensteuerung regeln können. Und natürlich das Sicherheitsbereich, das heißt Maschinen oder Operator, relativ nah an der Maschine ist. Wo Roboter ganz nah an der Maschine sind oder am Menschen sind. Früher waren die Arbeitsroboter in Sicherheitsräumen mit der Sicherheitstür. Das ist heute anders. Der Operator ist am Gerät und muss natürlich geschützt werden durch Kollision. Und diese Kollision vermeiden wir mit einem Time of Flight Sensor. Der misst, dass etwas in der Nähe ist. Und wenn der Operator eben vom Roboter steht, dann bleibt der Roboter stehen. Also das sind so die Aspekte, warum diese Gestensteuerung, diese Präsenzerkennung mittlerweile sehr populär geworden ist. Der Markt ist riesig. Der Markt ist riesig, der war immer riesig. Aber wir haben mittlerweile wirklich sehr viele Applikationen in diesen verschiedenen Bereichen wie User-Friendly, das heißt Thermostate, Terminals, die an der Wand hängen. Wir schalten mittlerweile Touchless-Schalter, den Klingelknopf. Der wird es bald nicht mehr geben, natürlich. Sondern es ist ein Time of Flight Sensor, der die Anleitung des Fingers sieht. Dem User eine Indikation gibt über ein LED. Ich habe dich erfasst und jetzt kannst du den Finger zurückziehen. Wir müssen vermeiden, dass wir das Teil anlangen. Und das machen solche Time of Flight Sensoren. Roboter, die ganze Robotik, die Saugrobot, die Nähroboter, die Lagerroboter, die sollen alle autonomen fahren und müssen immer Kollision vermeiden. Wir zeigen das bei unserem Stand. Wir haben einen kleinen Spielroboter, den lassen wir auf einen kleinen Kasten fahren. Wir haben vorne eine Stufe natürlich eingebaut und der Roboter vermeidet Kollision. Er kennt dunkle helle Flecken, um zum Beispiel beim Teppich unterschiedliche Teppiche zu sehen und er fliegt natürlich nicht runter. Also Absturzgefahr ist mit Time of Flight gebannt. Dann natürlich Audio Equipment, was die Steuer, Laptops, wir erkennen die Präsenz vor einem Laptop. Das heißt, solange der User vom Laptop Sits steht, bleibt er aktiv und sobald er weggeht, schalte der Laptop runter. Also wenn keine Bewegung stattfindet, dann schalten wir den Laptop runter. Oder alternativ, wir erkennen, dass jemand von hinten kommt und über die Schulter schaut. Wenn wir im Büro natürlich auch nicht haben, das gleiche auch für die Geldmaschinen, also für die Geldautomaten auch hier, sollte natürlich von hinten keiner kommen und schauen und gucken. Und das kann man jetzt so einem Time of Flight Sensor sehr schön vermeiden und eben eine Warnung ausgeben. Smartphones, wir kommen ja aus dem Bereich Smartphones. Das ist eigentlich unser Hauptgeschäft. Dort die Annäherung an den Kopf vom Handy, aber natürlich auch Gestensteuerung und Präsenzerkennung. Hygiene, großes Thema. Sanitärbereich, Seifenspender, Touchless, Wasserhähne. Gerade die Seifenspender entwickeln sich mittlerweile zu einem High-Tech Gerät, weil die Service Provider diesen Seifenspender nicht auslesen wollen. Das heißt, wir gucken von oben rein, wie viel Seifel drin ist und wir steuern die Seifenspender auf High-Sensor. Also diese ganze Hygiene-Geschichte in den letzten zwei Jahren über Corona haben diese Märkte extrem explodieren lassen. Lifte. Wenn Lifte über UVC desinfiziert werden, muss der Lift leer sein. Die Liftkabine muss leer sein. Das heißt, meine Kunden schauen von oben in die Kabine. Die Kabine ist leer. Es ist keine Person drin. Dann schließe ich die Tür und starte die Desinfektion. Riesenthema. Verkaufsmaschinen oder auch Produktzählungen im Supermarkt. Wir können die Produkte in einem Supermarktregal zählen. Wir sehen, was rausgenommen wird. Wir sehen aber auch, was Personal wieder an Produkten reinschiebt ins Regal. Und wir zählen es rauf und wir zählen es runter. Und für Verkaufsmaschinen auch hier die Automaten, die Kohleautomaten, die wir natürlich alle touchless bedienen wollen und die natürlich automatisiert dem Bestück vermitteln. Wie viele Kohleflaschen, wie viele Zigaretten, wie viele Bombons noch drin sind. Und der bringt ja die Ware mit, die wirklich vor Ort benötigt wird. Das ist sehr wichtig, um möglichst wenig Kosten zu haben. Sicherheit. Also die Küche. Sicherheitsthema. Ich möchte nichts mehr berühren. Das Zerrenfeld möchte ich nicht berühren. Die Edelstahl Dunstabzugshauber möchte ich auch nicht mit meinen öligen Finger berühren. Es soll alles touchless sein. Und es funktioniert wunderbar. Es ist ein frieroboter Produktionslinien. Um zu sehen, wo ist das Produkt auf meinem Förderband. Ist es schon durchgelaufen? Ist es das richtige Produkt? Hat sie richtige Größe? Alles Themen, die wir mit Timerflight ohne einen Bild, ich wiederhole, ohne einen Bild darstellen können. Und natürlich der ganze Entertainmentbereich. Das heißt, kleine Roboter, Spielroboter, Gaming, Augmented, Relief. Das heißt, wenn ich die Brille aufhabe, bin ich ja erst mal nach außen blind. Das heißt auch hier Kollisionsvermeidung, dass ich also nicht gegen die Wand laufe und dass ich das teilweise auch mit meiner G-Stick steuern kann. Gut, was haben wir verfügbar? Wie kann man so ein Thema angehen? Wir haben einen Sensor, der heißt z.B. VL53L50CX. Dort gibt es den Gip. Dort gibt es ein Eval Kit, der Sensor an sich misst aus entweder in 4x4 konfiguriert oder in 8x8. Das ist ganz 65° in der Diagonale. Das heißt, wir haben einen relativ großen Bereich, wo ich in den Raum blicken kann und den ich auskennen kann über diese 8x8 oder 4x4 Auslesung. Und wir können ein bis vier Meter messen. Das heißt, wir können Räume sehr gut erfassen. Wir haben Multi-Target-Detection. Das heißt, wir können auch mehrere Targets hintereinander sehen. Wir sehen die Wand im Hintergrund, die interessiert uns meistens nicht. Wir sehen aber auch z.B. das verschmutzte Fenster, das Schutzfenster, was wir immer brauchen, wenn ein Fenster verschmutzt, ist es nicht mehr transparent. Wir können nicht mehr vernünftig messen. Wir würden die Verschmutzung dieses Fensters in diesem Multi-Target-Detection-Feature sehen. Wir haben den gleichen Sensor, der heißt L70X, der hat dann 90° Öffnungswinkel. Das heißt, wir sehen auch wesentlich mehr, ist im Wesentlichen der gleiche Chip drinnen. Das heißt, wir haben mehr Blickwinkel mit dem L7 Derivat. Gut, nun mit zusammengefasst, 65°, das ist ein Fehler, 65° Öffnungswinkel, eine 64° Matrix, 8x8 oder 4x4. Wir haben das Histogramm Multi-Target-Detection. Wir können die verschmutzte Scheibe sehen und wir sind relativ robust gegenüber Sonnenlicht. Was bieten wir an? Die Software, die Sie gerade gesehen haben von meinem Kollegen, haben wir als GUI fürs Eval Kit. Das heißt, wir haben ein Eval Kit von uns mit dem L5er oder L7er nehmen. Prozesstermittag wird, den liefern wir mit dazu, eine GUI-Software, die Sie runterladen können. Da können Sie genau das, was ich vorhin gezeigt habe, dem Kollegen nachvollziehen. Sie können sehen, wie funktioniert die Gestenstörung, was möchte ich haben, welche Features möchte ich haben. Und wenn Ihnen das gut gefällt, dann können Sie sich die Firmen da runterladen und können anfangen, eigenes Software zu schreiben. Mit dem System, erst im 32 F401 und dem Sensor, haben Sie erstens das Testboard, das Test Kit. Wenn Sie die Toolchain dazu nutzen, können Sie im Prinzip mit dem Teil auch schon die Software schreiben. Wenn Ihnen der S332 F401 gefällt, haben Sie ein Entwicklungskit, ein Demo Kit, um das eben alles auszutesten und natürlich unser Chip. Das Chip selber ist 4,5 mal, circa 3 mm groß und etwa 1,5 mm hoch. Ein super kleines Teilchen, was extern nichts anderes braucht, wie ein Kontroller, ein einfachen Kontroller, keine MPU, keine AI, die Quadratzebos und ein Schutzglas, um diesen optischen Bereich nach außen gegenüber Verstaubung und Beschmutzung zu schützen. Das ist alles, was Sie brauchen, um Gestenstörung zu machen. Gut, welche Vorteile haben wir? Wir haben eine günstige Lösung, weil wir im Prinzip nur einen Sensor brauchen und ein Kontroller den Saison so meistens haben. Das heißt, ein günstiges Sensor, der ist sehr klein, der lässt sich überall integrieren und ist eben sehr günstig und Sie können in kurzer Zeit Ihr Gerät entwickeln, die Software nutzen und das ganze Thema zum Laufen bringen. Natürlich müssen wir unseren Support, wenn Sie Support brauchen, Software hat wir, den kriegen Sie über mich erst einmal. Meine E-Mail-Adresse haben Sie am Anfang gesehen. Low-Power, unsere Sensoren sind in weitenbereichen Low-Power-Sensoren. Produktzählung, Müllzählung, Inhaltsmessung läuft mit uns mit Batterie, die bis zu sechs Jahre laufen. Schön sich vor so einem Gerät ist draußen im Feld, die Mülltonne ist im Feld draußen. Sie können nicht permanent die Batterie wechseln. Das heißt, hier reden wir über sechs Jahre Laufzeit. Bei Gestenstörung haben wir eher ein Netzteil im Hintergrund. Das heißt, dort ist Low-Power eher weniger interessant, aber dort, wo ich in der Prärie draußen bin, wo ich Batterie getrieben ist, dort haben wir Low-Power-Lösungen. Der Algorithmus, den wir entwickelt haben für Time of Flight, ist relativ leicht. Das heißt, er kann auf jeder MCU implementiert werden, erst im 32-Qualité. Wir brauchen noch keine MPO, wir brauchen noch kein AI. AI-Lösungen gibt es auch, da wir Partner, dort muss man allerdings für AI eine MPU vorsehen. Diese AI-Lösungen sind unschlagbar. Egal welche Hand Sie haben, große Hände, kleine Hände, dunkle Hände, helle Hände, kinderhände, frauenhände, diese AI-Lösungen, die unsere Partner entwickeln, die erkennen alle Hände. Sie können alles sehen, ohne Fehler. Aber wie gesagt, da brauchen Sie AI und dann brauchen Sie aber auch entsprechenden Controller mit dazu, MPO. Gut, das habe ich im Prinzip schon gesagt. Wir können mit jeder kleinen MCU im Prinzip lesen, die mit 90 Megahertz arbeitet, wie zum Beispiel unsere SN32, M4 Core, keine großen Ansprüche an den Rechnern und damit auch keine großen Kosten. Wir sind relativ klein. Wir sind unabhängig von Farben, von Oberflächen. Sofern wir Photonen zurückbekommen und das funktioniert ab 3 Prozent Reflektivität. 3 Prozent sind tiefschwarze Farben. Sobald wir Photonen zurückbekommen, können wir messen. Wir sind also unabhängig von Oberflächen, von Farbe. Solange wir reflektieren, solange das Target reflektiert, zu uns zurück reflektiert, können wir auch messen. Wir haben kein Bild. Wir haben auch Lösungen mit einem Thema aus Kamerasensor, aber dort haben wir ein Bild. Ein Bild ist ja heutzutage nicht unbedingt immer erwünscht. Hier haben wir Lösungen mit Time of Flight, die die Information liefern, aber keine Bilder. Das heißt, die Privatsphäre wird gewahrt. Gut, das ist immer das ganze Thema zusammengefasst. Gesternstörung, was haben wir? ST ist einer der größten Time of Flight Lieferanten. Wir haben bis jetzt knappe 2 Milliarden Sensoren geliefert. Hauptsächlich Hände machen. Das geben wir dazu. Aber alles, was wir für das Handy entwickelt haben, ist für die Industriemarkt in Europa verwendbar. Und wir haben, wie gesagt, hunderte von Applikationen, wo wir heute reinpassen. Gut, nächstes Thema. Wie kann man Inhalte messen? Wir wollen Inhalte messen. Wir haben jetzt mittlerweile die Mülltonnen draußen in den Haushalten. Wir haben die Mülleimer. Wir haben Whiskeyfässer im Zoll von Frankfurt. Auch dort messen wir. Und wir möchten natürlich wissen, wie viel ist noch drin. Muss der Müllmann hingehen? Stellen sich Berlin vor, sie haben fünf Hinterhöfe. Und wenn er mit dem fünften Hinterhof ist und sieht, dass die Mülltonne ist leer, ist er am sonst gelaufen. Das heißt, die Kommunen, statt München zum Beispiel, kommt auf uns zu und sagt, wie können wir in eine Mülltonne einen Sensoren packen, der uns sagt, ob der Müllmann hin muss oder nicht? Wir können das. Wir können sogar Flüssigkeiten messen. Flüssigkeiten ist schwierig, weil sie haben Reflexonern, sie haben unruhige Oberflächen, aber wir haben ein System, wo wir nicht nur Feststoffe, sondern auch wirklich Flüssigkeiten messen können. Ich zeige Ihnen, mit welchen Sensoren das passiert, welche Märkte wir haben und welches Support Package wir haben, was ähnlich ist wie das, was wir bei dem Gestensteuerungsbaustell gesehen haben. So, wo wollen wir eigentlich messen? Also, wir haben riesige Applikationen. Wir haben die großen Container draußen, die Prärie, Getreide, Sand, egal was. Wir können bis zu acht Meter messen. Wir haben aber auch die Getränkeautomaten, die Kaffeemaschinen, die Kohleautomaten, die Getränkeautomaten, wo ich erstens sehen will, wie viel ist an Material noch da, wie viel Wasser habe ich, wie viel Getränke habe ich, wie viel Kaffeemüll, also Kaffee Rest ist im Müllbehälter. Wenn der volle ist, muss ich ihn ausleeren und wie viel Kaffeebohnen sind noch vorhanden und vor allem, aber das kommt ja in der zweiten Hälfte des Jahres. Wie groß ist die Tasse? Wie viel Kaffee muss ich brauen, damit die Tasse voll wird und nicht überläuft? Wir können das auch mit unserem Time-of-Life-Sensoren machen, aber das ist Musik für die zweite Hälfte des Jahres. So, also, das heißt, wir gucken im Roboter ist der Müll voll, habe ich noch genug Wasser zu mischen und wir gucken in die Automaten, ist genug Flüssigkeit da, um weiter zu kochen. Wir können es in zwei Wege machen, entweder wir machen das prozentual, wir machen sozusagen Stufen oder wir machen das kontinuierlich, also einen absoluten Messwert, um zu sagen, so wie 78 Prozent, ein Beispiel Seifenspender. Die Leute, die Seifenspender warten, neue Seife nachkippen, die gehen raus, wenn der Seifenspender nahezu leer ist. Wenn noch 10 Prozent Material ist, fahren die noch lange nicht los. Der muss wirklich nahezu leer sein, dann fahren sie hin und füllen das Seifenreservoir wieder auf. So, wir haben zwei Sensoren, die wir hier anbieten. L4CD ist ein Sensor, der mit 18 Grad Öffnungswinkel von oben ins Gefäß reinschaut. Das heißt, wir sehen mehr oder weniger wirklich nur die Einlage, das was im Gefäß drin ist. Den Rand wollen wir nicht sehen, also das Gefäß, die Wände, das Plastik vom Gefäß wollen wir nicht sehen, deswegen gucken wir ganz schmal rein und können mit dem L4 eben solche Inhalte messen von schmalen Flaschen und Gefäßen. Was nimmt man normalerweise her? Wir nehmen unsere Kunden, wir nehmen Schwimmer her, wir nehmen irgendwelche Paddel her. Ich muss damit rechnen, dass wir im Gefäß auch Wirbel haben, was uns ein bisschen stört. Oder für die, sagen wir, kontinuierliche Messe gibt es kapazitive Lösen, wo ich große Flächen brauche. Wir sind hier zu Hause oder ein Kabel, um irgendwelche Fellstärken zu messen. Ultraschall gibt es auch, Rale gibt es auch, das ist teuer und das ist unflexibel. So, also mit diesen beiden Sensoren können wir, abhängig von dem, was ich eigentlich sehen will, was ich messen will, können wir Inhalte messen. Starten wir mit einem kleinen Vergleich zwischen den beiden Sensoren. Wie gesagt, der L4CD ist ein kleiner Sensor, hat 18 Grad Öffnungswinkel und kann bis 1,3 Meter messen, und zwar ab einem Millimeter. Also können bis einem Millimeter einen Sensor dran gehen und sie können messen, und zwar sehr genau sogar. Wie Sie sehen, von den Parametern her ist es ein Sensor, den wir eben hier auf Inhalte getrimmt haben. Wir können bis zur Mülltonne alles messen. Also vom Wassercontainer in der Kaffeemaschine bis hin zum Müllcontainer. Vergleichsweise L5, den wir auch für die Gestensteuerung angeboten haben, dort habe ich meine 65 Grad Öffnungswinkel und ich kann mir aussuchen, was ich eigentlich von den 65 Grad haben will. Ich lese den kompletten Frame aus, das sind 8x8 Punkte und suche mir aus, was ich innerhalb dieses Frames eigentlich sehen will. Die inneren 4, links oben, rechts unten, ich kann mir Blickwinkel sozusagen einstellen. Ich kann auch schauen, ob die Mülltonne mit der Rampe gefüllt ist, also nicht ganz eben, weil ich vorne rein schmeiße und der Müll eben nach hinten rutschen muss. Das sehe ich alles mit einem solchen Sensor, der eben diese 8x8 Auflösung hat. Gut, den L5, den können wir eben vor allem bei Flüssigkeiten verwenden. Warum? Wir schauen beim L5, da wir ja diese Matrix haben, wir schauen uns die Bereiche an, die die höchste Reflektivität haben, also wo die meisten Vortodern zurückkommen. Ihr habt vorhin gesagt, Flüssigkeiten können sich bewegen, sind ein bisschen unreflektiv, reflektierend diffus und ich muss halt schauen, wo kommen die meisten Vortodern her. Wir haben zwei Werte, die wir anbieten. Das eine ist die Entfernung, das zweite ist die Reflektivität, wie viele Vortodern kommen zurück. Und das hole ich mir die Region aus, wo ich die meisten Vortodern habe, das ist da die hier. Und da kann ich annehmen, dass wir wahrscheinlich senkrecht auf die Flüssigkeit schauen, auf dem Müll schauen und das ist sozusagen unsere Zielregion. Und aus dieser Zielregion messen wir die Entfernung aus und haben ein relativ genauen Wert, um auch Flüssigkeiten zu messen. Wie gesagt, Flüssigkeiten könnten sich bewegen und wir suchen uns immer den Bereich aus, wo wir die meisten Vortodern zurückbekommen, das heißt den direkten Weg vom Tage zurück und diesen Messwert verwenden wir, um die Messung zu machen. So beim L4 gehen wir anders vor, da gucken wir von oben mit 18 Grad rein. Für den Fall, dass ich doch die Containerwende erwische, weil das Konstruktiv nicht anders geht, war ich eine Korrektur, weil wir können davon ausgehen, dass man hier die Einlage sieht, dass der Wert ist korrekt. Wenn ich da unten bin, kann es passieren, dass ich mein Gefäß messe. Und das durch im Leerzustand oder im Prototypenzustand mehr ausmessen, mache eine Kalibrierungstabelle und habe einen kalibrierten Wert, der dann unter dem Stich stimmt. Selbst wenn wir den Rand mitmessen. Dann haben wir ein Algorithmus und wenn ich dann später in der Sierra bin, kann ich eben mit diesen kalibrierten Fabellen exakte Inhaltswerte definieren und messen. Gut, so hier ein Beispiel, wir gehen runter und lesen wir mehr. So, das sind aber die Use Cases, die wir zum Thema Inhaltsmessung haben, wo wir aber auch andere Applikationen sehen wie zum Beispiel die Steuerung eines Servasterhans, auch der muss relativ scharf von oben nach unten schauen. Der ganze Salatierbereich, Lighting, wo ich Lampen durch reine Präsenz messe, weiße Ware, Dispenser, alles Applikationen, wo wir mit dem L4 und einem schmalen Blickwinkel eine sehr gute Messung machen können. So, was bieten wir hier an? Im Prinzip den gleichen Support. Wir haben ein EverKit, das heißt hier ist der Sensor mit drauf. Hier haben wir Schutzglas. Wie habe ich gesagt, unser Sensor muss geschützt werden. Wir geben ihnen ein Test Schutzglas, mit dem sie spielen können. Wie gesagt, Schutzglas ist ein Target für uns. Wir müssen es einkalibrieren. Es hat einen Effekt, aber dieses Effekt ist kalibrierbar. Es steht in der Application Notes bei uns mit drinnen. Es gibt ein professionelles Coverglas von unserem Partner 1x. Das ist ein Coverglas, das ideal auf den Sensor passt und somit eine gute Lösung ist, um den Glas zu schützen. Dann können sie das Prozessabord mit dazu haben. Wir haben auch kleine Satellitenboards. Das können wir hierhin kontaktieren und das Wissen nicht klein. Das heißt, ich könnte es direkt dorthin bauen, wo es hingehört, nämlich in die End-Applikation. Wir haben GUIS. Wir haben Ultralow-Dreiber Software, um den Memory-Footprint ein bisschen zu verkleinern. Wir haben auch ULP-Ultralow-Power Software, um eben mit ganz geringer Strom auf einmal zu leben. Das ist immer das gleiche Set, was wir unseren Kunden anbieten. Wir haben heute bis zu 10-11 verschiedene Sensoren. Sie kriegen immer ein e-Mal-Kit, sie kriegen immer die Satellitenboards und immer ein Controllerboard und auf die Outerweise können sie ihre Produkte entsprechend entwickeln und definieren. Gut, das war's. Wenn Sie Fragen haben, entweder jetzt oder eventuell bei uns am Stand, wir sind in die Richtung fünf Minuten weiter. Bitte, kommen Sie ein bisschen leer, bitte. Wir können in der Größenordnung ab 60 Millisekunden messen, ab 60 Millisekunden oder mit 60 Hertz, wenn Sie die kleine Auflösung nehmen, wenn Sie 60 Hertz, wenn Sie die kleine Auflösung nehmen und in 8 x 8 mit 15 Hertz, aber relativ schnell. Okay, noch eine Frage. Wenn nicht, wie gesagt, wir sind vorne, Standnummer habe ich vorhin gezeigt, Standnummer 320, dort haben wir auch ein Demo, da läuft ein kleiner Roboter und wir können gerne nochmal eine technische Diskussion führen. Okay, vielen Dank.