 Meine sehr geehrten Damen und Herren, liebe Kolleginnen und Kollegen, ich will Sie gar nicht lange auf die Folter spannen. Was haben wir jetzt vor mit Ihnen in den nächsten knapp 90 Minuten? Wir haben neun junge Kolleginnen und Kollegen, die uns jetzt ihre Bachelor- und Masterarbeiten kurz vorstellen würden. Und das schwierige in Anführungszeichen an dieser Vorstellung ist, Sie haben genau fünf Minuten Zeit, sprich 300 Sekunden, um uns ihre Bachelor- und Masterarbeiten vorzustellen. Das Ganze hat natürlich auch einen kleinen Anreiz, das Ganze wird letztendlich auch prämiert. Die ersten drei Plätze bekommen einen Preisgeld, die Höhe verrate ich erst zum Schluss. Von daher, wenn es Preisgeld gibt, haben wir logischerweise auch eine Jury, die ich Ihnen ganz kurz vorstellen darf. Die Jury unter der Leitung von Prof. Robert Seuss, der auch gleichzeitig den DVW vertritt. Das Weiteren vom Pressebereich, Herr Gerald Olbrich vom VDE-Verlag und für die Industrie von der Firma Navis, Herr Robert Stockmann. Ich will Sie jetzt gar nicht lange auf die Folter spannen und freue mich, Ihnen den ersten Beitrag anmoderieren zu dürfen. Von Herrn Friedrich Tietz hier von der Beutho-Schule Berlin. Er wird uns jetzt seine Arbeit mit dem Thema optimierter Einsatz des Leica LS15-Niveliergeräts durch Analyse und Verwendung der XML-Datenformate vorstellen. Herr Tietz, Ihre Bühnung. Und herzlich willkommen zum Pitch meiner Bachelorarbeit. Meine Bachelorarbeit ist in Rahmen eines dualen Studiums bei GEICAN-Seit entstanden und ich habe mich damit beschäftigt, wie man das Leica LS15-Niveliergerät in Bezug auf die Verwendung der XML-Datenformate optimieren kann. Bevor ich richtig loslege, möchte ich hier einmal kurz meine Gliederung zeigen. Ich starte ganz klassisch mit einer Einleitung, dann rede ich über die Visualisierung vom Nivelle-Mong-Weg und im Fazit möchte ich nochmal kurz meine Ergebnisse zusammenfassen. Die aktuelle Ausgangssituation beim Nivelle-Mong ist bei GEICAN-Seit wie voll aktuell. Wenn es zu Fehlern bei der Datenerfassung kommt, wie zum Beispiel zu einer Zielverwechslung oder einer Punktnummerverwechslung, können für die Auswertungen zusätzliche Aufwände entstehen und meistens braucht man dann zusätzliche Informationen, um diese Probleme zu beheben. Aktuell wird das GSI-Datenformat eingesetzt und durch meine Arbeit erhofft man sich, den Informationsgehalt der Messdaten erhöhen zu können und einfach eine verbesserte Plausibilitätsprüfung durchführen zu können. Das geht vor allem über die Visualisierung vom Nivelle-Mong-Weg und hierfür habe ich ein eigenes Tour entwickelt. Es gibt zwar bereits eine Herstellerlösung, aber dort kann man zum aktuellen Zeitpunkt noch keine Korrekturen an den Daten anbringen. Generell muss ich hier gleich erwähnen, dass die Visualisierung vom Nivelle-Mong-Weg nur über XML verfügbar ist. Das heißt, das GSI-Datenformat unterstützt dieses Feature nicht. Das heißt, es war automatisch auch meine Aufgabe zu untersuchen, ob es jetzt im System zu einer Umstellung von GSI auf XML kommen sollte. Wir kommen jetzt zur Visualisierung vom Nivelle-Mong-Weg und ich bitte Sie sich erst mal nur auf Abbildung 2 zu konzentrieren. Hier sehen Sie ein Messschema, das einfach mal den Sollzustand vom Nivelle-Mong-Weg bei einer meiner Testmessungen darstellt. Wir sind hier im Süden bei Punkt 1000 gestartet und haben über die Standpunkte 1, 2, 3 und 4 ein Ring-Nivelle-Mong durchgeführt. Die grünen Pfeile sind Rück- beziehungsweise Vorblickmessungen, die blauen Pfeile sind Zwischenblicke. Nun ist es so, dass, wenn man mit der LS15 arbeitet, dass neben den Lattenablesungen und Horizontatesten tanzen, durch einen eingebauten Kompass auch Acimutwinkel abgespeichert werden. Und in Abbildung 3 sieht man nun den Nivelle-Mong-Weg, so wie er bei dieser Testmessung vom LS15 ausgegeben wird. Wir sehen hier generell, dass sich diese beiden Geometrien extrem voneinander unterscheiden. Denn links haben wir ein Rechteck und rechts haben wir einfach extrem große Abweichung, was auf grobe Fehler bei der Acimutwinkel-Messung zurückzuführen ist. Das heißt, wir kommen hier rechts gar nicht dort an, wo wir eigentlich ankommen müssten und haben eine Abweichung von über 22 Meter abschutem Bereich. Ich habe jedoch bei meinen Untersuchungen herausgefunden, dass man trotzdem bereits aus diesen Daten die ersten Erkenntnisse ziehen kann. Denn mir ist aufgefallen, dass die relativen Verhältnisse von Punkten, die von einem Standpunkt aus angezählt worden sind, bestehen bleiben. Das heißt, diese Punkte verhalten sich so zueinander wie deren Säug-Koordinaten zueinander. Hier in Abbildung 5 kann man das sehr gut sehen. Dort habe ich von einem Standpunkt aus zwei nahe beinahe liegende Punkte angezielt. Und der rechts liegende Punkt, ZW-0 zu R, war in der Realität wirklich auf der rechten Seite. Sprich in diesem Fall, bei dieser Situation kann man auf jeden Fall immer eine Zielverwechslung aufdecken. Ich war generell selbst noch ziemlich unzufrieden mit diesen großen Abweichungen im absoluten Lagebereich und habe deswegen mal probiert, eine Korrektur an den Daten vorzubringen. In diesem Beispiel über eine Polygonzug-Berechnung. Dort wird der Endpunkt der Linie auf seine Säug-Koordinate gesetzt und die restlichen Elemente vom Nivelle-Mong-Weg werden dann streckenproportional optimiert. Man erkennt generell hier, dass die Geometrie wieder hergestellt wird, denn wir haben hier wieder ein Rechteck und generell konnten durch diese Berechnung auch diese großen Abweichungen reduziert werden. Wir hatten vorher 22 Meter Abweichung. In diesem Beispiel konnte das Ganze auf 10 Meter bei der größten Abweichung reduziert werden. Ich habe das Ganze auch noch mal in einem anderen Projekt in Berlin-Westhafen durchgeführt. Dort hatten wir bei den Originaldaten circa 20 Meter Abweichung und nach der Polygonzug-Berechnung konnte das Ganze auf 3,4 Meter reduziert werden. Es gibt natürlich noch andere Möglichkeiten, Korrekturen an den Daten anzubringen, beispielsweise über eine Ausgleichung in Geo-Survey. Das läuft dann so ab, dass aus meinem entwickelten Tool eine Neptune-Input-Datei generiert wird und mit dieser Datei lässt sich dann eine Ausgleichung durchführen, denn dort sind relevante Beobachtungen und Standardabweichungen enthalten. Wir sehen hier in Abbildung 10 den Zustand nach der Ausgleichung und generell kommen wir einfach sehr nah an das vorhin gezeigte Messschema bzw. an den Sollzustand heran, denn die Punkte, die nur mit schlechten Nährungskoordinaten in die Ausgleichung eingegangen sind, haben nur noch eine Abweichung von maximal 1,7 Meter vom Soll. Das heißt, hier konnte auf jeden Fall eine sehr gute Verbesserung und hohe Genauigkeit erreicht werden. Das erkennt man auch daran, dass hier keine Überschneidungen mehr mit dem Gebäude vorhanden sind. Hiermit komme ich zum Ende meines Pitches. Letztendlich kann ich auf jeden Fall die Umstellung auf XML empfehlen, denn der Informationsgehalt der Messdaten wird signifikant erhöht und nun ist man durch die lagemäßige Visualisierung vom Niveau-Lamon-Weg und der Korrektur des Niveau-Lamon-Weges auf jeden Fall in der Lage, besser die Messdaten zu kontrollieren. Hier sind noch meine Quellen. Ich bedanke mich vielmals für die Aufmerksamkeit. Ja, vielen Dank, Herr Titz, für die Vorstellung. Es geht Schlag auf Schlag weiter. Ich darf Ihnen den zweiten Pitch vorstellen. Frau Stefanie Schopenhauer hat den Abschluss an der Bergakademie in Freiberg gemacht und wird uns nun über ihre Abschlussarbeit mit dem Thema Entwicklung eines Testfels unter Tage zur Genauigkeitsüberprüfung von mobilen Laserscanners referieren. Frau Schopenhauer, Ihre Bühne. Vielen Dank. Ich möchte mich kurz vorstellen. Mein Name ist Stefanie Schopenhauer. Ich habe Markscheitewesen und angewandte Geothesee an der Tegut Bergakademie Freiberg studiert und mittlerweile abgeschlossen und möchte hier die Ergebnisse meiner Studienarbeit vorstellen. Und zwar befasst sich meine Studienarbeit mit der Entwicklung eines Testfels zur Genauigkeitsüberprüfung mobiler Laserscanner. Das Laserscaning ist mittlerweile eine etablierte Methode zur Datenerfassung für verschiedenste Anwendungsfälle. In den meisten Fällen ist allerdings ein einzelner Standpunkt zur Erfassung der gesamten Umgebung nicht ausreichen, sodass häufig mindestens zwei und je nach Projektgröße eine Vielzahl von Standpunkten notwendig sind. Eine Alternative dazu bieten mobile handgeführte Laserscanner, die vor allem dafür geeignet sind, um Schattenräume einzusehen und schwierige Umgebungen in kurzer Zeit zu erfassen. Die Weiterentwicklung terrestrischer Laserscanner zu mobilen Laserscanners bedarf allerdings einer regelmäßigen Beurteilung der Ergebnisgenauigkeit der Punktwolke. Da sich die standardisierten Prüferfahren terrestrischer Laserscanner allerdings nicht ohne Weiteres auf die Mobilerscanner übertragen lassen, bestand das Ziel der Arbeit darin, unter Tage unter den In-Situ-Bedingungen eines Steinsalzbergwerks ein Testfeld zu entwickeln zur Qualitätssicherung der mobilen Scanner. Neben den Qualitätsparameter der terrestrischen Scanner liegt der Fokus dabei, vor allem darin, die durch den SLAM-Algorithmus verursachte Driftkomponente zu bestimmen. Und nur auf diesen Aspekt werde ich hier eingehen. Das Testfeld zur Bestimmung der Driftkomponente ist im Endlager Morsleben eingerichtet und ist wie folgt aufgebaut. Entlang dieser Strecke sind in regelmäßigen Abständen Profile eingerichtet, die wie auf dem Bild hier dargestellt durch Fahrtmarkierungen vermarkt sind. Der Bereich wurde einmalig terrestrisch gescannt, was dann im späteren Verlauf als Referenz dient. Für die Instrumentenprüfung des mobilen Scanners ist dann die Strecke abzulaufen und die resultierende Punktwolke entsprechend auszuwerten. Dazu werden durch die Profile in der Punktwolke Schnitte gelegt und die resultierenden Querschnitte mit denen der Referenz verglichen. Dazu werden die Profile auf ihren Flächen Schwerpunkt reduziert. Die Abweichungen der Schwerpunkte zu den der Referenz beschreiben dann das Driftverhalten des mobilen Scanners. Das Ergebnis dieser Instrumentenprüfung ist dann exemplarisch hier dargestellt. Man erhält das Driftverhalten in Abhängigkeit von der zurückgelegten Weglänge bezogen auf die Laufrichtung, also entlang der Laufrichtung gestaucht oder gestreckt, quer zur Laufrichtung, also nach links oder nach rechts und in der Höhe. Im Rahmen der Arbeit wurden zwei mobile Laser Scanner getestet. Zum einen hier links der Geoslam ZE Virevo und der Leica BLK2GO hier rechts. Für beide mobile Laser Scanner konnte ein ähnliches Driftverhalten festgestellt werden, allerdings mit unterschiedlicher Dimension. Es ist dazu zu sagen, dass das Driftverhalten der mobilen Scanner zum einen bedienerabhängig und zum anderen stark umgebungsabhängig ist, sodass dieses Ergebnis hier nicht ohne weiteres generalisiert werden kann. Dennoch konnte im Rahmen der Arbeit ein Testfeld entwickelt werden, das Auskunft über die erreichte Genauigkeit der Scanner gibt und Auskunft über deren Eignung für spezifische Anwendungen gibt. Damit möchte ich mich für die Aufmerksamkeit bedanken und stehe auch am Anschluss noch für Fragen und Anregungen zur Verfügung. Dankeschön und Glück auf. Ja, vielen Dank, Frau Schopmauer, für die Vorstellung Ihrer Abschlussarbeit. Es geht Schlag auf Schlag weiter. Der dritte Pitch steht schon hier bereit. Herr Johannes Trautmann von der HTW Dresden wird uns seinen Abschlussarbeit vorstellen mit dem Thema geodetisches Sensoren im Internet auf Sings. Herr Trautmann, Ihre Bühne. Mein Name ist Johannes Trautmann und ich bin Bachelorabsolvent der HTW Dresden. Wie wäre es, wenn ich hier in Dresden bin und mein Tarimeter ferngesteuert misst in Dresden? Und genau dies motivierte mich für meine Bachelorarbeit mit dem Thema geodetische Sensoren im Internet of Sings. Das Internet of Sings macht dies möglich. Zunächst eine kurze Erläuterung zum IoT. Das Internet eröffnete für einen großen Teil der Bevölkerung miteinander weltweit zu kommunizieren. Auch Internet der Menschen genannt. In einem weiteren Schritt wird das Internet vom Menschen entkoppelt und auf die Dinge oder Endgeräte selbst übertragen. Damit sind wir beim Internet der Dinge oder Internet of Sings angelangt, in dem physische Dinge miteinander kommunizieren und interagieren. Am Rande eines jeden IoT-Netzwerks sind Sensoren, welche über Gateways mit dem Internet verbunden sind. Doch die zentrale Komponente eines jeden IoT-Netzwerks ist die Cloud, in dem Daten gespeichert werden und welche die Daten übermitteln an die Sensoren und Endgeräte. Um die Einbindung von Sensoren beispielhaft aufzuzeigen, habe ich in meiner Bachelorarbeit beispielhaft mehrere Twimble-Tarimeter mit dem Internet verbunden. Dieses entworfene Netzwerk sehen Sie hier in dieser Grafik. Neben einer Windows-basierten Lösung habe ich auch eine Linux-basierte Lösung entworfen, um die Vorteile des Raspberry Pies nutzen zu können. Dieser ist ein kleiner, stromsparender Computer, welcher auf Linux aufbaut. Wie bereits erwähnt, ist die zentrale Komponente die Cloud, die für den Datenaustausch zuständig ist. In meiner Bachelorarbeit entwarf ich die Lösungen für die Kommunikation zwischen Gateway und Broker, zwischen Broker und Sensor und noch eine Extra-Lösung, um von einem Windows-Computer aus über den Broker und den Gateway, die Sensoren steuern zu können. Der Arbeitsablauf war hier immer gleich. Ich musste ein System konzipieren. Ich habe dann dieses programmiert und dann ein Software-Test gemacht, um die Komponente zu testen und habe dann die Implementierung verbessert. Dieses Gesamtsystem habe ich zudem in einem praktischen Versuchsaufbau getestet. Durch die Einbindung von Sensoren in IoT-Netzwerke werden die Ziele, Vernetzung und Kostensenkung verfolgt. Zudem können die Prozesse so weit automatisiert werden, dass autonome Systeme entstehen. Dies macht die Aufgaben effizienter. Ein weiterer Vorteil ist, dass die Daten weltweit abrufbar sind und somit in beliebige Systeme eingebunden werden können. Interessant ist die Nutzung der IoT-Technologie in Monitoring-Aufgaben. Hier kommt es auch schon häufiger zur Anwendung. Räumlich große und zeitlich ausgedehnte Monitoring-Projekte können schon jetzt wirtschaftlicher Dank der IoT-Technologie überwacht werden. Vielen Dank für die Aufmerksamkeit. Dies war mein Pitch. Ja, vielen Dank, Herr Trautmann. Wiegt die Technik bereit. Vom Internet auf Sinks geht es jetzt weiter. Ich darf Ihnen als Nächstes vorstellen. Herrn Moritz Jüngling von der Leibniz-Universität Hannover. Er wird uns jetzt referieren zu seinem Thema Langzeituntersuchung der Intrinsichen-Kalibrierparmeter eines Velodyne-VLP-16. Ihre Bühne. Ja, vielen Dank. Ich bin Moritz Jüngling und komme von der Leibniz-Universität Hannover und möchte einmal kurz meiner Bachelorarbeit vorstellen. Wie gesagt, Langzeituntersuchung der Intrinsichen-Kalibrierparameter eines Velodyne-VLP-16. Ganz kurz zu Anfang. Der Velodyne ist der kleine Poglaserscanner. Er zeichnet sich eben durch seine kleine Bauart aus und besitzt eine angegebene Herstellergenauigkeit von etwa drei Zentimetern in der Distanzmessung. Und bei meiner Untersuchung handelt es sich eben zuerst um eine theoretische Vorüberlegung und anschließend praktische Messung und zuletzt die Auswertung der Messdaten und eine Validierungsmessung. Und ja, wir sehen hier einmal noch mal den Sensor hier auf dieser Seite, auf der rechten Seite. Auch in kinematischen Systemen wird er oft angewendet, wie unten rechts zu sehen. Und ja, zuerst oder das Ziel dieser Arbeit war eigentlich eine Stabilitätsanalyse dieser Kalibrierparameter. Und das sollte eben auch ein äußerst wirtschaftliches Verfahren sein, da eben dieses Verfahren mehrmals angewendet werden sollte, da es sich um eine Langzeituntersuchung über etwa zwei Monate handelt im Rahmen dieser Bachelorarbeit. Zusätzlich sollten gewisse Unsicherheitsfaktoren berücksichtigt werden. Und ja, im Prinzip funktioniert das Verfahren über eine Minimierung des Widerspruchsektors zu einer Referenz-Ebene. Was zum Beispiel auf dem Bild unten links zu sehen ist, in schwarz ist die Referenz-Ebene dargestellt und in bunt sind die verschiedenen Scan-Zeilen des Velodyne-VLP16 dargestellt. Und diese schwanken eben um diese Referenz-Ebene und über diese Abweichung zu dieser Referenz-Ebene kann dann dieser Sensor kalibriert werden. Zu beachten ist dabei auch der Velodyne-Besitz-16-Scan-Zeilen und jedes Scan-Zeilen muss dabei einzeln kalibriert werden. Und im Rahmen dieser Bachelorarbeit habe ich mich dann auf vier Scan-Zeilen beschränkt. Hier jetzt einmal die theoretische Vorbereitung. Das ist das Messlabor in der Leibniz Uni. Und definiert habe ich dort an den Wänden-Referenz-Ebenen. Dabei musst du eben sichergestellt werden, dass die eben genug sind zur Kalibrierung. Und der Vorteil hierbei ist eben, dass die dauerhaft vorhanden sind, müssen nur einmal eingemessen werden und können eben weiterverwendet werden für jede Kalibrierung. Das war so im Prinzip der Punkt, dass man sagen konnte, es ist ein schnelles Verfahren, weil gerade die Einmessung der Referenz-Ebenen die benötigt ziemlich viel Zeit. Und dann ging es eben an die praktische Messung und wir sehen hier auf der rechten Seite die segmentierte Punktwolke des Velodyne. Dieser Segmentierungsalgorithmus habe ich dann auch programmiert und im Programm MATLAB implementiert. Es sollte möglichst alles automatisiert ablaufen, kein Zuschnitt von Punktwolken per Hand oder ähnliches. Das muss alles auf Knopfdruck sozusagen funktionieren. Und ich habe zwölf Standpunkte im Labor gemessen und aus diesen zwölf Standpunkten auch in unterschiedlicher Winkelausrichtung zu den Ebenen, weil die Kalibrierparameter des Sensors sind sowohl Winkelkomponenten, die Streckenmessung und Offsets. Und dadurch muss der Sensor eben auf die Wände unterschiedlich ausgerichtet sein, um eben alle Komponenten gut bestimmt zu können. Im Rahmen dieser Arbeit habe ich mich aber auf eine Distanzkomponente, auf den Distanzoffset, auf den vertikalen Richtungsoffset und auf den horizontalen Richtungsoffset beschränkt. Und wie gesagt, hier ist im Prinzip das Ergebnis der praktischen Messung auf der rechten Seite. Und über diese segmentierten Ebenen und die Referenzebenen, die wir zuvor gesehen haben, kann eben der Sensor kalibriert werden. Und wir sehen jetzt hier auf der nächsten Folie einmal den Distanzoffset. Den habe ich hier einmal ausgewählt. Da haben wir ihn. Und wir sehen auf der X-Achse unten einmal die verschiedenen Zeitpunkte, zu denen ich eine Kalibrierung durchgeführt habe. Da habe ich sowohl längere Zeiträume als auch beispielsweise am 6. Juni drei Kalibrierungen an einem Tag durchgeführt. Und es fallen eben schon im Bereich von Millimetern Schwankungen dieser Kalibrierparameters hier auf. Und es ist irgendwie kein funktionaler Trend zu erkennen. Es schrankt irgendwie beliebig. Also es kann verschiedene Ursachen haben. Einerseits irgendwelche mechanischen Instabilitäten, vielleicht im Sensor. Auch das Unsicherheitsbudget habe ich im Rahmen meiner Arbeit ausführlich behandelt. Also es ist natürlich hier sind die Standardweichungen als Balken dargestellt. Es sieht natürlich so aus, als ob die hier sehr signifikant bestimmer sind. Aber es spielen halt sehr viele Unsicherheiten auch mit rein. Sowohl die Plattformeinmessung dieser Sensor befindet sich auf einer Plattform, von der aus gemessen wird. Und diese Plattform wird mit dem Lasertracker und einer T-Probe eingemessen. Und diese hat auch schon eine gewisse Unsicherheit. Man könnte an diese Bachelorarbeit auch noch anschließen und viele weitere Dinge des Unsicherheitsbudgets noch einmal weiter thematisieren. Und als Abschluss dieser Arbeit muss man natürlich sich fragen, wie spielt das eigentlich? Oder wie, welchen Einfluss hat eigentlich diese Variation dieses Kalibrierparameters oder aller Kalibrierparameter auf die letztendliche Punktwolke? Und da kann man sich das hier einmal angucken. Links sehen wir einmal die erfasste Punktwolke des Velodyne ohne Anbringung von Kalibrierparametern. Beschränkt jetzt hier auf die Scan-Zeilen 0 bis 2 und 9. Und wir sehen einerseits ohne Kalibrierungen deutlich einen negativen Trend. Ja, die Abweichungen sind deutlich im negativen Bereich, auch bis einige Zentimeter. Und nach der Kalibrierung, zum Beispiel hier, Kalibrierparameter 7 ist jetzt meine siebte Kalibrierungsmessung. Ja, also die Kalibrierung verteilt die Effekte natürlich. Sie minimiert den Widerspruchsektor. Und im Prinzip das Ergebnis der ganzen Bachelorarbeit ist jetzt, ich habe diesen Plot für alle Kalibrierungsmessungen durchgeführt. Und ja, dabei kam eben raus, dass die Widersprüche immer in dieselben Bereiche verteilt werden. Und so kann daraus eben geschlossen werden, dass auch zwischen den verschiedenen Kalibrierungen nur einen Einfluss von wenigen Millimetern vorhanden ist. Also die Bereiche sind immer dieselben, in denen diese Widersprüche hier auf der rechten Seite zu finden sind. Also die Variation, die wir zuvor gesehen haben, hat kaum einen Einfluss eigentlich auf die Messung an sich. Trotzdem ist natürlich eine Kalibrierung immer sehr, sehr wichtig, ist ein vermeidbarer Effekt. Und deswegen ist eben eine Kalibrierung, ja, ist natürlich wichtig, muss natürlich gemacht werden. So, dann bedanke ich mich für die Aufmerksamkeit, das war mein Vortrag. Ja, vielen Dank, Herr Jüngling. Es geht weiter im Text. Ich freue mich, Ihnen den ersten englischsprachigen Titel ankündigen zu dürfen. Mr. Mohamed, Gaffer Ahmed Mohamed von der Universität Bonn will uns jetzt seine Arbeit zum Thema Exploring Public Transport using Augment Reality Vorstell. Thank you. So, my name is Mohamed, and today I'm presenting my Master's thesis on exploring public transport using augmented reality. So, to start with a little motivation. So, we all know trip planning apps in Germany, such as DB Navigator. And these apps are very convenient, and we use them every day. But they are not convenient for everyone. For example, people with typing difficulties, and sometimes we get mismatched street names. Also the newcomers and tourists, they have difficulties using such applications. So, to help in this problem, it would be nice for the user to have more visuals. And for that, we could think of augmented reality. But the question is how practical is augmented reality in finding stations and the schedule of trains and buses. So, in my Master's thesis, I developed Transport AR, it's an augmented reality app that displays the nearby public transport stations. And it also displays the real time schedule of the stations and identifies whether the station is obstructed by a building or not. Besides that, a user study was conducted to evaluate the usability and the usefulness of the app. So, the user interface of the application is very simple. When the application is launched, we see a camera view and we see a marker that is pointing to the direction of the station. And when clicking on the marker, we see the real time schedule of the station. And to break down the user interface, so the station marker is designed of the station name and we can also see the distance to the station and the station symbol, which is used in Germany. We also see this small icon, which tells us that the station is behind the building or not. And the schedule view is designed to look similar like the train signs in Germany, so the user can easily understand the schedule of a station. And we can see the upcoming trips and in case if there are delays, we can also see that or if there are cancellations, it's all there. And the architecture of the application is a bit complex, but here we can have a rough overview for that. And in general we have a web service that fetches the schedule data from a database. So we have schedule data for a whole year ahead. And we also have live feed, so this live feed will augment to the schedule data. So in case there is a delays or cancellations or the station was moved to somewhere else due to construction or something else. Also the web service downloads buildings models, so we be able to identify whether the station is obstructed by buildings or not. And the GPS is being used to fetch the user position and orientation. And these components all work together, so we finally have the nice augmented reality app. And the mechanism of identifying the visibility of the station works as simple as that. So we shoot a straight line from the user location to the station location. And we identify if the line intersects with buildings, then the station is not visible. If not, then the station is visible to us. It's a simple checking. And for the user study, we conducted the user study. And we had eight team participants. And six of them, they never tried augmented reality before. And the study had two methods, supervised and answerable. So supervised, I had to accompany the user and explain him how to test the application. And unsupervised, the application was sent to the user and the user is doing the test by him herself. So the result of the study is quite nice. So the app had a really good impression and the users had really good impressions of the app. And we can see here in this table, so the score five is the highest, one is the lowest. And we had different assessments for the application. In terms of general impression and the accuracy of the station direction is the marker really accurate and pointing to the station. Also the clarity of the bus schedule and how visible is the station to the user. Also the feature of visualizing the station behind buildings or not. This was liked by the users. Also we evaluated the markers, the stability of the markers due to sometimes internet connections or the GPS signal, the markers could jump a little bit. So the users had also evaluated this, but this could also be improved. And the users liked the features of displaying real-time information and how easy to find the bus schedule and train schedule. And the visibility feature was also liked by the users. And the users also requested additional features such as purchasing tickets and like showing the remaining time to walk to the station, also showing pedestrian navigation to the station and having more visual elements on the screen. So to answer our first research question, is augmented reality really useful for trip planning and navigations? We can say that most of the users were found it useful and practical. For that some of them found it practical in certain scenarios, in unfamiliar places. And as we mentioned, people who have difficulty with typing and when the augmented reality also is developed really well and the experience is really good, this could help provide a good experience. And finally, you can see a live video demo of the app on YouTube. You can just scan the QR code. And thanks everyone for your attention. Yeah, very thank you for your presentation. Now, nun geht es weiter. Ich darf Ihnen den nächsten Vortrag ankündigen. Herr Moritz Averle vom KIT in Karlsruhe wird uns seine Abschlussarbeit vorstellen mit dem Titel Segmentierung von Flammen in Infrarotbilder mit maschinellem Lernen. Vielen Dank. Genau, mein Thema ist die Segmentierung von Flammen in Infrarotbilder mit maschinellem Lernen. So ein Infrarotbild, das sehen Sie hier direkt links. Da ist so eine typische Flamme drauf. Die Segmentierung im zweiten Bild, da ist dann jedes Pixel markiert im Idealfall, wo Flamme dahinter steht und alles andere ist schwarz. Und im dritten Schritt sieht man die Evaluierung des Ganzen. Da ist grün, das wurde richtig getroffen. Und rot ist, da wurde was falsch gemacht. Genau. Zur Einführung, wo braucht man das Ganze eigentlich? In der Industrie gibt es viele Verbrennungsprozesse, wo man die Flammen überwachen muss. Wichtig ist dabei, dass die Flamme nicht zu groß ist, weil sie dadurch die Anlage beschädigen kann und auch, dass nicht zu viel Synthesegas verwendet wird, weil das Kosten und CO2 fuhr, sagt. Bei der Überwachung wird das Segmentieren eingesetzt, um eben zu schauen, wie groß die Flamme ist und welches Volumen sie hat. Und meine Forschungsfrage war, in dem Fall kann man dafür Maschine-Lerning oder Maschine-Lerren auf Deutsch verwenden. Und wenn ja, welche Ansätze davon sind da gut. Zum Vorgehensweise, ich hatte für die Untersuchung ein Datensatz zur Verfügung mit 200 Bildern. Da ist ein Bild, im Endeffekt immer zwei Bilder. Eines enthält das Bild, das Infrarot-Bild und eins ist ein Binär-Bild, wo man dann quasi eine Maske hat. Wo ist die Flamme in diesem Bild? Also, es hat jemandenfach man dann vorher gelabelt. Dann nutze ich davon 160 zum Training, also zur Anpassung der Modelle, und 40 zum Testen, um danach zu evaluieren, wie gut das war. Dann braucht man fürs Maschine-Lerning auch Features. Also, man muss dann Kanten und Texture noch aus den Bildern extrahieren und das als zusätzliche Information in den Modellen geben. Und als Modelle habe ich dann untersucht, einmal Support-Vector-Maschines, Random Forest und ein MLP. Eine Support-Vector-Maschine ist eine geometrische Trennung der zwei Klassen Flamme und Nichtflamme. Random Forest besteht im Endeffekt aus sehr vielen Entscheidungsbäumen. Also, wie man sich das vorstellt, so als Diagramm aufgezeichnet. Und ein Multi-Layer-Perception ist ein kleines neuronales Netzwerk. Also, noch nichts, was jetzt so fancy bei Google oder so ablaufen würde, sondern sehr klein noch und auch mit der normalen Computer-Trennierbar. Evaluiert habe ich das Ganze anhand der Intersection Over-Union. Das ist dann ein Maß zwischen 0 und 1. 1 ist gut, 0 ist schlecht. Und das drückt quasi aus, wie viel von der Flamme, die im Bild ist, habe ich auch gefunden. Im Ergebnis war es dann so, dass ich beim Vergleich der Modelle herausgefunden habe, dass sie durchaus sich unterschiedlich verhalten. Die Support-Vector-Maschine war besonders schnell und die beiden anderen Modelle, Random Forest und Multi-Layer-Perception, waren besonders genauer als die Support-Vector-Maschine. Man erkennt hier auch noch ein paar generelle Schwächen, die alle drei Verfahren hatten. Zum einen sind die Ränder nicht richtig erwischt worden oft. Also da sieht man öfters ja noch diesen roten Streifen. Und zum anderen findet man auch noch gewisse Rauschartefakte. Ich weiß nicht, ob man es von der Auflösung her erkennt. Es sind immer noch viele kleine einzelne Pixel, die nicht zur Umgebung passen. Das könnte man möglicherweise, könnte man das, habe ich jetzt nicht gemacht, wäre vielleicht eine Erweiterungsmöglichkeit, dass man da noch die Nachbarschaft explizit mitmodelliert von den Pixeln und dann könnte man dadurch die Ergebnisse noch ein bisschen verbessern. Das habe ich jetzt hier noch mal zusammengefasst, alles auf der linken Seite. Und rechts habe ich noch ein QR-Code, der leitet zu einem Paper weiter, wo die Ergebnisse eingeflossen sind. Und dann noch mit Deep Learning, also dann den größeren Modellen von Google oder Facebook zum Beispiel verglichen wurden. Und auch mit klassischer Bildverarbeitung, also mit Spellwerten und anderen Verfahren, die es da schon länger gibt. Genau. Dann bedanke ich mich für die Aufmerksamkeit. Und genau hier sind noch die ausgeschriebenen Papers quasi, die ich genutzt habe. Alles klar. Ja, vielen Dank, Herr Averle, für die Vorstellung Ihrer Abschlussarbeit. Diejenigen von Ihnen, die vielleicht ins Programm F geschaut haben, die werden feststellen, als nächstes käme jetzt Herr Julius Hinte. Herr Hinte ist leider verhindert, kann sein Pitch nicht wahrnehmen. Deswegen, the show must go on. Es geht weiter im Programm. Ich darf Ihnen als nächstes Herrn Janik Orgeik von der Universität Bonn anmoderieren. Und er wird uns seine Abschlussarbeit vorstellen mit dem Thema VR gestütztes System zur Verifizierung elektrischer Leitungsnetze in Innenräumen. Ja, vielen Dank. Herzlich willkommen zu meinem Pitch meiner Bachelorarbeit. Meine Bachelorarbeit beschäftigt sich mit dem Thema der VR gestützten Implementierung eines Systems zur Verifizierung elektrischer Leitungsnetze in Innenräumen. Dann starten wir mal mit einer Motivation. Also der Gebäudebestand in der EU ist relativ alt. Circa drei Viertel wurde vor 1990 gebaut. Das führt dann dazu, dass man häufig die Gebäude nicht mehr auf den heutigen Standards entsprechen. Renovierungen häufig nötig werden und häufig die Pläne nicht aktuell sind oder nur analog verfügbar sind. Das heißt, um das zu beheben, haben wir einmal Laser Scans für den Aufbau des Gebäudes, um den aufzunehmen. Allerdings ist es ein wenig schwierig, die Leitungen, die nicht sichtbaren Strukturen zu digitalisieren. Das Ganze, um dem nachzugehen, haben wir ein Algorithmusverwendel von Julius Knechtel auch an unserer Uni, der hat in seiner Bachelorarbeit ein Algorithmus entwickelt, der den 2D-Wandplan von einem Gebäude nutzt. Dem des Weiteren alle Lokalisierungen aller Verbraucher und die Norm verwendet, nämlich die der Elektroinstallationszone, hier rechts im Bild zu sehen, können wir die gut sehen. Es gibt also nur eine endliche Anzahl an Leitungen, wo Leitungen langgehen können in den Wänden. Zum groben Ablauf, es wird dann durch den Algorithmus eine Hypothese geschätzt, der das gesamte Leitungsnetz des Gebäudes abdeckt. Das Ganze wird verifiziert durch die lokale Messungen und diese lokalen Messungen werden durch Reasoning-Algorithmen vorgeschlagen, dem Nutzer. Das Problem bisher, dort war eine fehlende Schnittstelle zwischen Nutzer und dem Algorithmus, und das Ganze habe ich dann mit meiner VR-Implementierung mich mit beschäftigt. Zum Arbeitsablauf meines Algorithmus, wir haben wieder die Input-Daten. Diese werden mit Revit, mit Revit wird ein 3D-Modell erstellt. Dieses 3D-Modell wird dann an die VR-Umgebung, in dem Fall jetzt Unity, übergeben und dargestellt. Des Weiteren werden die Input-Daten an einen Server gegeben. Dort läuft der Algorithmus und auf diesem Server wurde eine Schnittstelle bereitgestellt, sodass die lokale VR-Umgebung mit dem Server kommunizieren kann und die Daten übergeben werden können, sowohl zur VR-Brille als auch von der VR-Brille, nämlich die Nutzerentscheidung dann zurück zum Server. Und dann wollen wir jetzt einmal kurz auf die Kommunikation zwischen dem Server und der VR-Brille eingehen. Also zum Start wird der Server initialisiert von der VR-Brille. Als Nächstes wird der Search-Space abgefragt. Das sind alle möglichen Leitungen, die durch die Installationszonen gegeben sind. Und die ganzen werden dann visualisiert. Danach wird der aktuelle Vorschlag abgefragt und eingezeichnet in das Modell. Des Weiteren brauchen wir noch im VR eine Musterlösung, die wird ebenfalls abgefragt und zwischengespeichert. Und danach kann der Nutzer dann seine Entscheidung treffen und diese an den Server übergeben. Das heißt, wir haben hier diesen Messprozess, der sich immer wieder wiederholt für die verschiedenen Leitungen in der Wohnung. Jetzt sehen wir einmal die Ergebnisse, wie das Ganze dann aussieht. Wir sehen hier einmal den Linken-Controller und den rechten Controller, der den Nutzer dann in der Hand hält. Wir sehen einmal die hellgrauen Leitungen, das sind alle möglichen Leitungen. Dann sehen wir den aktuellen Vorschlag in Magenta dargestellt. Und wir sehen die aktuelle Hypothese, der ist in Türkis hier dargestellt, die der Server, wie der Server das Ganze annimmt, die der Server berechnet hat. Mit dem Linken-Controller können wir dann eine Messung vornehmen. Da können wir dann die aktuelle Leitung messen. Diese wird dann entweder grün oder rot und falsifiziert, bzw. verifiziert das Ganze dann. Danach können wir mit dem rechten Controller unsere Nutzerentscheidung übergeben, entweder ja oder nein wählen. Und nachdem das getan wurde, wird die Linie fest rot eingezeichnet und wir sehen jetzt, dass die nächste aktuelle Leitung auch wieder abgefragt wird. Ja, das war es schon. Dann kommen wir einmal zum Fazit und zum Ausblick. Also wir haben es geschafft, hiermit ein VR-System zu implementieren und den Aufbau der Kommunikation zwischen dem VR-System und dem Server geschaffen. Des Weiteren haben wir demonstriert, dass eine Benutzerfreundlichkeit durch VR hier definitiv gegeben ist und es sich gut eignet, um das Ganze überprüfen zu können. Und wir haben auch die praktische Durchführbarkeit des Reasoning Concepts von Julius Knechtel damit dargestellt. Zum Ausblick, wir können noch die verschiedenen Reasoning Strategien aus Knechtels Arbeit damit vergleichen und wir können das Ganze auch erweitern zu Augmented Reality, das dann einen realen Nutzen hätte in der realen Welt. Dann bleibt mir nur noch zu sagen, dass es weitere Infos hier in unserem Paper gibt oder auf dem dazugehörigen Stand hier auf der Messe und dann bedanke ich mich für das Interesse. Ja, vielen Dank, Herr Orgalk. Ich habe auch gerade die Info bekommen, wenn Sie diese Applikation mal testen wollen. Am Stand hier in der Halle 5012 haben Sie die Möglichkeit, das Ganze mal zu testen. Ich freue mich Ihnen, als nächstes Frau Judith Reusch ankündigen zu können. Sie ist von der HTW Dresden und wird uns jetzt Ihre Masterarbeit pitchen mit dem Thema Entwicklung eines Anwendungsprototyps für das Projekt Management in der Windenergiebranche. Ja, moin auch von mir. Der Anwendungsfall hier ist die Windenergiebranche. Ich mache das schon seit ein paar Jahren und auch im Prinzip alle Projektphase mit. Deswegen habe ich mir quasi die Praxis genommen und daraus die Verbesserungspotenziale gesucht und daraus ein Anwendungsprototyp gemacht, um eben Daten effizient zu speichern, zu nutzen und alle Akteure und Akteure mit einzubinden. Ich habe mal als Beispiel hier Dresden genommen, beziehungsweise Bundesland Sachsen. Wir haben das WindBG, das Windenergieflächenbedarfsgesetz. Das Vorschreibt, dass bis 2027 2% der Landesfläche in jedem Bundesland ausgewiesen sein muss. Den rechtlichen Hintergrund lasse ich jetzt mal weg soweit. Sie sehen auf jeden Fall so, dass wir noch lange nicht da sind. In den einzelnen Planungsregionen sind es aktuell 0,3%, 0,2% oder eben auch einfach gar kein gültiger Plan. Heißt, wir haben viel vor bis 2027, weshalb wir auch effiziente Mittel nutzen müssen, um das gut zu gestalten. Ich habe gebaut, wir haben QGIS als Anwendungsplattform, als GIS-Plattform, um alle räumlichen Analysen vorzunehmen und alle Daten effizient darstellen zu können, sodass auch die Nicht-GIS-Nutzer die Anwendung sehr einfach halten können und quasi zu GIS-Nutzern werden, wenn auch nur in der Darstellungsperspektive das Ganze basiert auf PostGIS und Postgres, um eben die Darstellung dann anschließend auch an eine Oberfläche knüpfen zu können, die mit PAP geschrieben wurde und ja, somit für alle nutzbar ist. Ich würde es jetzt mal ganz kurz vorstellen anhand von den Projektphasen. Sie sehen das oben quasi, wir haben die Weißflächen-Suche, ist ein Fachbegriff, heißt im Prinzip nur, wir finden die Flächen raus, in denen es theoretisch erstmal möglich ist, eine Windenergieanlage zu errichten. Heißt, die Wohnbebauung ist weit genug weg, wir haben keine Vogelschutzgebiete oder derartiges. Genau. Das heißt, diese Flächen können dann weiter evaluiert und beurteilt werden nach standardisierten Kriterien, die eben anhand der Datenbank quasi standardisiert abgeprüft werden können. Dabei liegen natürlich auch die Bauordnung der Länder zugrunde, mit denen bestimmte Abstandsflächen definiert sind und diese können ebenfalls dargestellt werden. Man sieht es hier an diesen kleinen Kreisen, zum Beispiel die sächsische Abstandsfläche. Gleichzeitig können aber auch technische Daten wie Turbulenzgutachten vorprognostiziert werden. Das ist quasi die ovale Form außen rum, wo keine Turbulenzen der Anlagen untereinander zu erwarten sind. Man kann mit den ganzen Parametern spielen. Man hat aber zugleich eben auch die Vorteile, man sieht es auf der linken Seite, die blaue Linie, die leicht gepuffert ist, die Normen und Verordnung darzustellen. Heißt, welche Abstände muss ich einhalten, wo kann ich hinplanen? Heißt, der Nichtgissnutzer muss nur ein Punkt setzen und kriegt eben diese Symbolisierung angezeigt und kann somit relativ simpel zum Planer werden. Um eine Anlage errichten zu können, muss man die Grundstücke rechtlich sichern, also Verträge abschließen, um diese nutzen zu dürfen. Dafür habe ich quasi hier beispielhaft dargestellt, diese Anwendungen entwickelt, die eben auch die Außendienstler nutzen können und hier eigenständig eine Akquise-Strategie aufbauen können, die Daten nutzen können, eine Übersicht haben und so eben auch ein Vertragscontrolling erstellen können in eigener Hand. Heißt, sie brauchen keine anderen mitarbeitenden Personen, um das Ganze vollziehen zu können und da sind da relativ frei in ihrer Arbeit. Dann kommen wir zum Planungsprozess. Man sieht das Ganze, es ist die gleiche Fläche wie zuvor. Aus Sicht des Außendienstlers sieht man jetzt eben das verschiedene Vertragsstati, verschiedene Farbenharn. Man kann einzelne gesicherte Standorte erkennen oder auch nicht. Es macht das Ganze quasi sehr simpel und einfach darstellbar. Weiterhin sind dann Schall- und Schattenprognosen möglich, die in der späteren Genehmigung notwendig sind. Es sind die Kranstellflächen notwendig, die geplant werden können, weil man auch die mit vordefiniter Symbolisierung einfach einfügen kann. Es kann eine Zuwägungsplanung erfolgen, damit die Kräne quasi das Gebiet erreichen können. Und natürlich dann Gutachtenbeauftragungen, alles weitere entsprechend der Bedürfnisse, die dann aber gemäß der vorgegebenen Parameter quasi erstellt werden können. Im Prinzip läuft es auf dem Projektcontrolling hinaus. Dann kann quasi der Planungsprozess übergehen in die Genehmigungsphase und die Bau- und Betriebsphase und letztendlich die Anlage errichtet werden. Mein Ziel ist es eigentlich, eine erweiterbare Anwendung zu schaffen. Das habe ich hier gemacht, die für möglichst viele Nutzer und Nutzerin zugänglich ist. Und ja, das war im Prinzip schon mein Projekt. Und die Anlage kann anschließend in die Genehmigung gehen und letztendlich der Bau ausgeführt werden. Noch kurz meine wichtigsten Quellen. Und das war es auch schon von mir. Danke. Ja, vielen Dank, Frau Reusch, für die Vorstellung Ihrer Masterarbeit. Ich darf Ihnen jetzt leider in Anfangszeichen den letzten Pitch anmoderieren. Noch mal in englischer Sprache. Miss Apeta Shikamatova Shikantaya von der Leibniz Universität Hannover wird uns Ihre Arbeit zum Thema Cold Atom Interferometry as Salamirators on Board Futures Satellite Gravity Missions vorstellen. Good afternoon everybody. I am Apeta Shikamatova Shikantaya from Leibniz University. Today I am here to present my master thesis topic, which is maximally allowed non-gravitational acceleration for the cold atom interferometry accelerometer on Board Futures Satellite Gravity Missions. Cold atom interferometry accelerometer is a matter wave interferometry instrument where it extracts the wave-like nature of the cold atoms to obtain the absolute measurement of a quantity which one is interested in. In this study it is the acceleration which is obtained by the interference for patterns which is obtained from the interferometer. The purpose of study included studying the CHI accelerometer in stand-alone scenario and also in the hybrid scenario. Speaking of stand-alone scenario, the major point is the CHI ambiguity, that is the interference patterns obtained from the interferometer has a number of fringes so much successfully helpful in the stand-alone scenario. Hence the care should be taken in such a way that the fringe cycle is restricted to the first cycle, especially in the mid fringe, so that one can easily obtain the absolute value of the acceleration. Hence the stand-alone scenario involved the investigation of the better environmental conditions and the instrument settings to obtain the successful results. CHI-Inhaber scenario involved electrostatic accelerometer along with the CHI accelerometer. Electrostatic accelerometer usually has a bias problem which keeps on building up with the time. So CHI can act as a better calibration instrument for the electrostatic accelerometer on board. In turn electrostatic accelerometer can help in ... electrostatic accelerometer can help as an instrument which can keep the track of CHI fringe ambiguity problem to give better absolute results. Speaking about the modulation and simulation in my purpose of study, the modeling and simulation was carried out by the MATLAB Simulink using the XHPS software developed by DLR. Grace-like satellite body was zoomed along with the geometry and the non-gravitational accelerations zoomed in the study where the atmospheric drag, solar radiation pressure, albedo and infrared radiation pressure. This is an example for 500 km altitude. The close loop simulation involved in the study was the drag compensation system where the drag force experienced by the satellite was fed back again into the system to maintain the drag experienced by the satellite and to keep the satellite in altitude, respective altitude and in orientation. Speaking about the accelerometer modeling, the electrostatic accelerometer had a noise model of 10 to the power of minus 10 m per second square per square root of Hertz in a higher frequency which is a particular behavior of the electrostatic accelerometer and CHI accelerometer had a constant noise model along the whole frequencies that is 10 to the power of minus 10 m per second square per square root of Hertz. The CHI noise modeling included the modeling of detection noise, laser frequency noise, wavefront abrasions bias and contrast loss. Extended Kalman filter, speaking of it, the phase shift that is experienced by the CHI accelerometer will be predicted and it will be corrected in the correction step. Along with this, one more output of the extended Kalman filter is the acceleration bias that is mainly concentrated in this research and it can also imbibe the advantages of both conventional electrostatic accelerometer and also the CHI accelerometer. This is the PSD of the, this is the noise model of the electrostatic accelerometer and the CHI accelerometer. Speaking about stand-alone scenarios, stand-alone scenario was studied mainly, was studied based on these three parameters like the altitudes. We have, the study was carried on from 300 km to 600 km altitude and along with the drag compensation the fringe cycle was restricted to first fringe from 400 to 450 km altitude but it was, it required still more better parameters like the reduced interrogation time to keep the phase shift measurements within the range of plus or minus pi by two. So the reduced interrogation time varied from 10 seconds, 8 seconds and 6 seconds to get the required phase shift of plus or minus pi by two range. Speaking about the thrust parameters, currently available thrust parameters are having minimum of 10 micronutron which can be helpful only until an altitude of 400 to 450 km. Above that one might require better thrust parameters like the minimum thrust of 0.1 micronutron which is an optimized one which was assumed in this study to get better results. If in case there is a need for higher altitudes to handle over non gravitational acceleration we might require still more better thrusters. Speaking about the results, as you can see the stand-alone scenario was quite an example of the stand-alone scenario success actually. We can see at a 500 km altitude with the drag compensation system and an interrogation time of 6 seconds and the respective thrust parameters even though the noise of ASD of the chi noise is kind of little bit lifted with respect to the mentioned limit. The phase shift observed was like 99.8% of the measured values were within plus or minus pi by two range. Speaking about the hybrid scenario, currently this scenario was studied without drag compensation system and the satellite system was considered without rotational effect. At an altitude of 450 km this is the example of hybrid scenario and an interrogation time of 10 seconds. There was no need to reduce the interrogation time and for the usage of drag compensation system as we have an electrostatic accelerometer to keep the track of fringe ambiguity. The lower altitude research is currently going on but it is working well with 450 km altitude and above altitudes. This is the estimated bias. The lower graph is the estimated bias graph which can be seen that the blue curve which is a reference curve and the estimated bias from the filter the extended Kalman filter it is going well on with the blue curve. And the above graph is the ASD of the chi accelerometer, electrostatic accelerometer and the filter, extended Kalman filter. It can be seen that both of the advantages of the electrostatic accelerometer and the chi accelerometer filter. Speaking about the summary the research started with the simulation of non-gravitational acceleration and its components along with the simulation of chi accelerometer measurements in a stand-alone scenario and also in the hybrid scenario. Speaking about stand-alone scenario with the proper thruster system and also drag compensation system and good estimated interrogation time the chi stand-alone scenario was a successful thing as explained in the above example of 500 km altitude. To be functioning very good in higher altitudes there is a requirement for better thrusters that have minimum thrust level less than 0.1 micronutent which can be very helpful. Speaking about the hybrid scenarios it was very successful in 450 km altitude and I am expecting to get the same kind of results for the lower altitudes also. Thank you. Thank you very much. Meine sehr geehrten Damen und Herren, liebe Kolleginnen und Kollegen das waren die neuen Pitches aber laufen Sie nicht weg aus unserer Jury, das darf Sie ganz gerne machen. Ich darf alle neuen Pitcher nochmal kurz zu mir nach vorne auf die Bühne bitten. Ich glaube viele von Ihnen haben sich vielleicht noch an Ihre Diplomarbeiten Abschlussarbeiten, Bachelorarbeiten in meinem Fall waren es 6 Monate Blut, Schweiß und Tränen bis sie endlich fertig war und dann hatte man gerade so 30 bis 40 Minuten musste man sie noch vorstellen an der Uni und dann auch noch verteidigen unter Umständen und wenn Sie jetzt vorstellen die neuen jungen Kolleginnen und Kollegen muss das jetzt nochmal runterdampfen und das ist nochmal ein Applaus wert. Ich möchte auch nicht in der Haut stecken von Prof. Robert Seuss, von Gerald Ulbricht und von Robert Stockmann die jetzt überlegen müssen welche von diesen neuen hervorragenden Arbeiten ist denn besonders herausragend gewesen und bekommt einen der ersten 3 Plätze. Ich hatte es anfangs erwähnt die Kolleginnen und Kollegen wissen es nicht der dritte Platz wird honoriert mit einem Geldwert von 200 Euro der zweite Platz mit einem Geldwert von 300 Euro und für den ersten Platz gibt es einen Preis in Höhe von 500 Euro ich kann sie beruhigen Sie kriegen gleich keine Scheine von mir in die Hand gedrückt und müssen dann aufpassen auf dem Nachhauseweg in der Berliner S-Bahn Nein, das machen wir dann im Nachgang das kommt auf sicherem Wege aufs Konto wie gesagt jetzt die Qual der Wahl hat die Jury die sich jetzt beraten muss ich hoffe sie brauchen nicht ganz so lange dafür die Zeit füllen muss und muss gucken dass sie mir nicht von der Stange gehen von daher wenn wir jetzt im Fernsehen werden würde jetzt die Werbung eingeblendet werden sie würden jeden der Kandidaten im Schnelldurchlauf nochmal sehen mit Kurzvorstellung, mit Titel wahrscheinlich unten drunter eine Telefonnummer wo sie für 50 Cent aus dem deutschen Festnetz anrufen können Klammer auf Mobiltelefonenpreise Tarife können davon abweichen das machen wir heute an dieser Stelle nicht wir sind ganz gespannt wie es jetzt weitergeht also aus meiner Sicht ich wüsste jetzt nicht wem von ihnen nicht jetzt sagen würde er es besonders herausgesprochen meine Ansicht nach haben sie das alle neuen hervorragend gemacht und es gehört schon einiges dazu frisch von der Uni, frisch von der Hochschule sich hier auf der Intergeo hinzustellen und zu sagen ich stelle mal meine Abschlussarbeit vor präsentiere sie vor ich sag mal hier sind Ground about 100 Sitzplätze es gibt eine Menge Lauf es gibt auch eine Bandschaft in Anführungszeichen die hin und her kommt mal stehen, bleibt sich das anhört da gehört auch schon eine Menge Mut dazu vielen Dank an sie dass sie sich bereit erklärt haben mir vor allem auch die Rückmeldung gegeben haben ich möchte gerne meine Abschlussarbeit vorstellen sie werden auch wahrscheinlich alle wenn sie noch nicht im DVW Mitglied sind wenn nicht können sie das hier sehr gerne nachholen am DVW-Stand finden sie entsprechende Bierdeckel und ihre Mitgliedschaft unterschreiben können wir werden dann entsprechende Beitrag machen unsere Social Media Abteilung macht schon fleißig Bilder sie werden sich auch wahrscheinlich gleich im Internet schon wiederfinden und dann auch entsprechend können sie das auch rumreichen sie können stolz sein auf das was sie jetzt hier gemacht haben es gehört einiges dazu ansonsten wenn ich jetzt sehe ich glaube letztes Jahr in Essen ich habe fünf oder sechs Teilnehmer wir hatten jetzt innerhalb von kurzer Zeit mein Aufruf glaube im Juni ich habe vier Wochen Zeit gegeben es waren tatsächlich zehn Absolventen die sich innerhalb dieser vier Wochen gemeldet haben ich glaube wir hatten letztes Jahr in Essen acht oder neun Minuten Zeit gehabt wo die jungen Absolventinnen und Absolventen ihre Pitches präsentieren konnten die Zeit hat es jetzt leider nicht ganz hergegeben deswegen sehen sie mir das nach, dass ich ihnen nur fünf Minuten gewähren konnte der eine oder andere hat schon wahrscheinlich geschwitzt fünf Minuten der eine hat gesagt ja gut die Aufregung wird ein bisschen schneller beim anderen waren es vielleicht auch sechs Minuten ich habe nicht so genau mitgezählt habe nicht auf die Stop-Uhr gedrückt an dieser Stelle das ist Aufgabe der Jury und sie beratschlagen noch immer an dieser Stelle aber wie gesagt wenn ich das jetzt hier so sehe dann wird mir um den beruflichen Nachwuchs nicht bange wir haben jetzt eine breite Facette aus allen geodetischen Themen gehabt die wir hier wirklich in neun mal fünf Minuten abgebildet haben und ja wir sind gespannt was gleich rauskommt ein Trommelwirbel werden wir nicht machen wir hoffen einfach dass die drei Kollegen gleich um die Ecke kommen ich habe vorhin von Robert Stockmann den Hinweis bekommen wenn ich nicht mehr weiß was ich machen soll wenn ich nicht mehr tanze das werde ich nicht machen diesen Anblick ersparre ich Ihnen an dieser Stelle aber ja wir nutzen jetzt einfach die Zeit wie fanden Sie denn die Pitches hier ja ich gucke mal Richtung Richtung Regie können wir das Mikro mal kurz nochmal freigeben ja wollte ich Kriegszeit ich fange mal an Ladies first wie fanden Sie in Pitch eigentlich es war ein sehr interessantes Thema und ich hoffe es war interessant für alle of you thank you wir gehen noch einmal nach links ja, danke schön es waren natürlich wunderbare Vorträge und ein tolles Publikum hier und ein Lob an alle die hier vorne ein Vortrag gehalten haben danke schön ja also es ist natürlich wie Sie schon sagten brutal schwer das in so kurzer Zeit zusammenzufassen aber ich hoffe es mir ganz gut gelogen und es waren auch von den anderen Beitragenden hier sehr interessante Themen und es hat sehr viel Spaß gemacht ich würde mich anschließen einmal danke an euch anderen sagen sehr viele spannende Themen auch sehr spannend zu sehen wie weit doch die Diversität in den Themen ist gerade in der Geoinformatik war auf jeden Fall sehr, sehr spannend für alle zivilischen Themen zu hören ja, da würde ich mich meinen Vorrednern auch nur anschließen gleich es war auch bei mir ein bisschen schwer das alles in fünf Minuten zu packen aber ja, ich denke es hat an sich ganz okay geklappt und kann mich auch nur da anschließen dass ich die anderen Vorträge auch sehr interessant fand man hat echt einiges mitnehmen können ja, vielen Dank ich glaube es wurde schon alles gesagt ich fand die anderen Vorträge eben auch sehr interessant ich fand eben auch das Spektrum an den ganzen Pitches die heute hier vorgestellt wurden war sehr groß und interessant was für Bereiche man in der Geoinformation überall seine Nische finden kann ja, ich denke die fünf Minuten waren wirklich für jeden von euch eine große Herausforderung aber ich muss sagen, ich fand jeden einzelnen Vortrag unglaublich interessant das war auch sehr vielfältig und abwechslungsreich und ich habe das auf jeden Fall sehr genossen hier und nochmal deswegen vielen Dank an alle die daran teilgenommen haben kann ich mich nur anschließen also vielen Dank erst mal auch, dass wir hier die Möglichkeit hatten unsere Arbeiten vorzustellen und einem größeren Publikum vielleicht zu teilen genau, ich fand auch für mich als auch sehr viel interessantes Neues gebracht was ich hier gehört habe, vielen Dank ja, ich bin wirklich glücklich dass ich noch eine Chance zu präsentieren ein Interview für eine so große Audience und ich hoffe die Präsentation war interessant für alle und ich muss sagen, dass alle die Themen wirklich interessant waren und ich würde gerne ein Chat haben mit allen, um besser zu wissen und ich würde auch auch die Moderation vielen Dank ja, es ist vorhin schon mal angesprochen worden, wir hatten die Pitches auch schon bereits in Essen 2022 auf der InterGeo mit, ich glaube, 6 Teilnehmer jetzt 2023 waren es 9 10 haben sich gemeldet, es passiert immer mal dass einer kurzfristig ausfällt ich hoffe sehr, dass wir 2024 auf der InterGeo auch wieder dem geodetischen Nachwuchs die Möglichkeit geben können die Arbeiten zu Pitchen und bin da sehr optimiert wenn wir jetzt von 6 auf 10 haben dann haben wir nächstes Jahr vielleicht sogar 15 Teilnehmer würde uns natürlich sehr freuen aber wir warten es einfach mal ab aber ich bin sehr optimistisch dass wir auch 2024 auf der InterGeo in Stuttgart wieder entsprechende Pitches anbieten können und ich freue mich ganz besonders dass die Jury mittlerweile wieder da ist weil so langsam fällt mir ehrlich gesagt nicht mehr ein was ich noch erzählen kann deswegen will ich jetzt gar nicht hier um den heißen Brei herum reden sondern Robert, ich würde dir einfach das Mikrofon in die Hand drücken und würde dir als Vorsitz der Jury das Wort geben, dass du entsprechend die Preise verleist die Jury wird das Mikro auch entsprechend anstellen Ja, zuerst einmal vielen Dank an alle Vortragenden es ist uns nicht gleich gefallen hier unter so viel schönen Arbeiten eine Reihung vorzunehmen aber wie es am Ende ist, es gibt natürlich 3 Breisträger die wir jetzt auszeichnen, wir beginnen mit Platz 3 und wir haben uns entschieden für Mohammed Gaffar Ahmed Mohammed, Platz 2 gelandet ist Moritz Abbele zum Finale Platz 1 geht an Janik Oreck das habe ich schon gemacht 200€ für den 3. Platz 300€ für den 2. und Herr Orgeig, Sie dürfen sich über 500€ Preisgeld freuen ich würde Sie 3 nochmal ganz kurz und die Jury auf die Biene bitten dann würden wir auch nochmal ein kleines Erinnerungsfoto machen aber noch mal vielen vielen Dank eigentlich sind Sie alle neuen Gewinner die Qual der Wahl und wenn wir das sehen was Sie hier uns abgeliefert haben dann wird uns um die geodetische Zukunft nicht wanger vielen Dank, dass Sie sich hier gepitscht haben vielen Dank