 Ja, mein Thema heute ist die Klassifikation von Punktwolken mit künstlicher Intelligenz. Ich möchte zeigen, welche Potenziale drinstecken in künstlicher Intelligenz und wie man das ja im täglichen Betrieb mit Punktwolken nutzen kann. Wenn wir uns unsere Welt angucken, dann haben wir unheimlich viele Objekte, Strukturen, Assets. Die Frage ist, wie kann ich das erfassen? Da haben wir in den Vorträgen heute schon sehr viele Technologien gesehen, mit denen man die Sachen erfassen kann. Und die Frage ist, wie kann ich das effizient machen? Wie kann ich das groß-scalic machen? Und es gibt ganz viel Erfassungstechnologie, Laserscan-Systeme, Image-Matching-Systeme. Es gibt Träger-Systeme mittlerweile, die Daten erfassen können. Und im Endeffekt kann ich in beliebigen Skalen unsere Welt digital erfassen. Und das Ergebnis, typischerweise 3D-Punktwolken. Punktwolken haben sich zu einer der wesentlichen Datenkategorien entwickelt, mit denen wir heute arbeiten müssen. Und die große Herausforderung ist nicht die Erstellung der Punktwolken, sondern Information aus diesen Punktwolken zu extrahieren. Das heißt, wie komme ich an das ran, was ich für meinen Anwendungsfall, für meinen täglichen Bedarf benötige? Und ich habe mal ein paar Beispiele mitgebracht. Punktwolken haben Sie wahrscheinlich schon überall hier auf der NDR Geo gesehen. Wir haben hier eine fotogrammetrische Punktwolke in den Scan von einem Gebäude. Es gibt landesweite Befliegungen, die großflächig Punktwolken generieren und auch als Open-Data bereitstellen in diversen Ländern. Und es gibt Mobile-Mapping. Mobile-Mapping etabliert sich immer mehr. Das heißt, es gibt Kommunen, die kaufen sich eigene Mobile-Mapping-Fahrzeuge, weil sie sagen, ich möchte einmal im Jahr, zweimal im Jahr mein ganzes Stadtgebiet erfassen. Und parallel zu den Punktwolken entstehen meist auch Panorama-Bilder, 360-Grad-Bilder. Viele Nutzer wollen aktuell noch gucken in den Daten und sagen, okay, ich möchte einfach mal wissen, wie es vor Ort aussieht. Und was auch viel passiert, ist Radar-Erfassung, wo man sozusagen den Untergrund der Straße auch noch erfasst. Das sind dann auch Punktwolken, die da rauskommen, hier im Fall von der Stadt Essen, die eigenes Mobile-Mapping-Fahrzeug haben. Und das, was sozusagen rauskommt, sind riesige Datenmengen. Das sind teilweise 40 Gigabyte pro Kilometer. Im Fall von Essen sind es über 200 Terabyte im Jahr, was da generiert wird, an 3D-Erfassungsdaten. Und die Anwendungsfälle sind ganz verschieden. Das heißt, die Leute wollen die Daten visualisieren, sie wollen reingucken, Planungen, Inspektionen, sie wollen Objekte erkennen und natürlich diese Daten, den Unterschiedlisten Departments in der Stadt bereitstellen, ob das das Grünflächenamt ist, das Ordnungsamt, Hoch-Tiefbauamt und so weiter. Und die Frage ist, wie kann ich denn diese Daten dann zielgerichtet aufbereiten? Und da sind KI-Verfahren, Deep Learning, so die Buzz-Words. Und in dem Bereich sind wir unterwegs. Das heißt, wir machen keine Datenerfassung, sondern wir fangen dann an, wenn die Punktwolken vorliegen. Und hier ist ein Beispiel für so eine Mobile-Mapping-Punktwolke. Man sieht, da ist alles repräsentiert, was erfasst wurde. Man kann die Punktwork fusionieren mit einer Befliegungskampagne oder mit mehreren Mobile-Mapping-Erfassungen. Und um diese Daten zu klassifizieren, automatisiert, nutzen wir Deep Learning-Verfahren und die gucken sich die Charakteristik eines Punkt an. KI kennt man halt viel im Bildbereich, wo dann halt immer die Nachbarschaft der Pixel analysiert wird. Und wir machen das sozusagen für die Punkte. Das heißt, es gibt eine definierte Nachbarschaft. Man sieht das hier, das sind die grün eingefärbten Punkte. Und diese Nachbarschaft ist typischerweise sehr charakteristisch. Das heißt, Bodenpunkte sind immer relativ weit unten. Die Nachbarpunkte liegen drum herum. Wenn ich Punkte habe, die an einem Pfarr liegen, dann sind die Nachbarpunkte meist übereinander angeordnet. Und in der Nähe gibt es Bodenpunkte. Und über diese Nachbarschaftsbeziehung, wenn man das für jeden Punkt auswertet und für Milliarden von Punkten macht, kann man sozusagen eine Vorhersage treffen, zu welcher Kategorie gehört ein Punkt. Und in dem Beispiel, was wir eben hatten, sieht man nochmal die Mobile-Mapping-Befahrung. Und nachdem sozusagen Trainingsdaten erstellt wurden und die Daten klassifiziert wurden, kann man sozusagen hier die Objektkategorien, Fahrzeuge, Ampel, Lichtsignalanlage und so weiter erkennen. Und das ist alles nur eine Frage der Trainingsdaten. Das heißt, mit den Daten, mit denen ich so eine Netzwerke trainiere, genau das kann ich dann am Ende auch entsprechend wieder rausholen. Das kann man für Vegetation beispielsweise machen, dass man sagt, okay, ich möchte jetzt Baumstämme identifizieren. Wenn ich das jedes halbe Jahr mache, kann ich gucken, wären die größer, wachsen die, haben die Bäume Trockenstress. Ich kann Blätter identifizieren. Wir haben hier einen Beispiel, wo wir das stadtweit mal gemacht haben. Und im Bereich Straßenzustandserfassung kann ich das anwenden, dass ich sage, okay, ich möchte gucken, wo habe ich Schlaglöcher, wo habe ich irgendwelche Rillen, wo kann ich sozusagen Fehlstellen erkennen, dass ich halt einen Sanierungsbedarf habe. Ein weiterer Anwendungsfall ist sozusagen im Schienenbereich. Man kann diese Mobile-Mapping-Systeme auf eine Lock montieren. Und dann kann ich herausfinden, okay, wo sind meine Assets, Ballisen, Achs, Zähler, Weichen und so weiter. Es hängt wie gesagt vom Anwendungsfall ab, was ich bekommen möchte. Und die Punktworke selbst ist halt ein toller generischer Datentyp. Es sind einfach Punkte im 3D-Raum. Und was sozusagen repräsentiert wird, ist der Punktworke in dem Fall egal. Und deswegen kann ich halt diese Deep Learning-Verfahren so universell anwenden. Im Bereich Brücken ist hier auch ein Beispiel aus einem Projekt mit der Bundesanstalt für Straßenwesen. Wir haben sozusagen Brücken, wurden gescannt und durch die Deep Learning-Verfahren konnten dann sozusagen die Daten klassifiziert werden, sodass die einzelnen Bauteile erkannt werden konnten. Also wo ist eine Lager, eine Wiederlager, eine Stütze für die Erzeugung von BIM-Modellen von Brücken. Hier sieht man mal ein Video, das ist eine Autobahnbrücke, die wurde automatisiert erfasst. Und das KI-Verfahren war dann sozusagen in der Lage, automatisiert die einzelnen Punkte, den wahrscheinlichsten Oberflächenkategorien zuzuordnen, sodass dann entsprechend zielgerichtet 3D-Modelle abgeleitet werden konnten, die halt für Planung, Instanthaltung und so weiter verwendet werden können. Genau, ich habe schon gesagt, es gibt viele Städte, die regelmäßig erfassen. Change Detection ist dann ein Riesenthema. Das heißt, wenn ich jährlich, wöchentlich, monatlich erfasse, will ich natürlich gucken, wo hat sich was verändert. Und ich möchte vor allem wissen, was hat sich verändert? Hat sich sozusagen die Struktur meiner Brücke von meinem Gebäude verändert. Es ist Vegetation, es ist die Straßenoberfläche. Und da spielt Change Detection ansatzende wichtige Rolle, dass ich halt Punktwurken aus verschiedenen Jahren miteinander vergleiche, um Aussagen drüber treffen zu können. Okay, was ist passiert? Und dass ich halt verlässliche Entscheidungen auf Basis von aktuellen Daten auch treffen kann. Und das kann ich in der Regel auch direkt auf Basis von Punktwurken machen. Genau, jetzt ist noch die Frage, wie kommen die Daten sozusagen zu den Nutzern? Wie kann man damit arbeiten und zilft nichts, wenn das Ganze irgendwie auf einer Festplatte liegt? Und da sind natürlich webbasierte Visualisierungssysteme wichtig. Wir haben eine Webplattform, wo man die Daten einfach hochladen kann. Das ist wie YouTube, nur nicht für Videos, sondern halt für 3D-Daten. Und dann kann man halt die Daten dort Leuten bereitstellen. Man kann den Link verschicken, die Leute können drin messen, können editieren. Ich glaube, genau, ich habe hier mal ein Video. Das ist eine Straßenbefahrung, da wurde halt ein ganzes Stadtgebiet erfasst oder wird regelmäßig erfasst. Und man kann halt zwischen diesen verschiedenen Datenquellen, die man hat, ob das jetzt Panoramabilder sind, Radar-Daten, Punktwolken. Man kann sozusagen hin und her switchen und einfach genau das, was man für seinen Anwendungsfall in dem Moment braucht, kann man sozusagen dann nutzen und kann halt für eine Planung direkte Messungen durchführen und kann auch auf die Klassifizierungsergebnisse der KI entsprechend zugreifen. Genau. Was ist sozusagen die Message? Es ist abzusehen, dass die Daten, die erfasst werden, immer größer werden. Es wird immer regelmäßiger erfasst. Die Sensorik wird immer kleiner. Ich habe Smartphones mit Leidersensoren drin. Und das Datenaufkommen wird immer, immer größer werden. Und zugleich hat das auch einen Riesenmehrwert, weil ich sozusagen die Daten aus meiner Vergangenheit nutzen kann und gucken kann, was hat sich wo verändert, wie hat sich meine Infrastruktur entwickelt, meine Vegetation, meine Bauwerke. Und deswegen sollte man sozusagen nicht immer die Daten als Momentaufnahme betrachten, sondern ganze Zeit rein berücksichtigen. Und bezüglich der KI-Systeme sind wir halt noch relativ am Anfang. Es wird riesige Trainingsdatenbanken geben, wo ich sozusagen on-demand auch Objekte, Strukturen finden kann in diesen 3D-Daten. Und wir brauchen sozusagen, ja, wir müssen das Potenzial von diesen multi-temporalen Daten einfach noch mehr ausschöpfen. Wir brauchen Cloud-Infrastrukturen. Und zukünftig wird man halt einfach on-demand Anfragen an die Punktwork gerichten können. Und kann man sich so ähnlich wie bei Chat-Chipiti vorstellen, dass man einfach eine Frage stellt und sagt, okay, gib mir mal für den Straßenzug aus diesem Jahr alles, was sich verändert hat im Bereich dieses Kanaldeckels, weil ich da mir irgendwas angucken möchte. Und das ist sozusagen aus meiner Sicht eine zukünftige Entwicklung, die definitiv kommen wird. Okay, damit bin ich durch mit meinem Vortrag. Wer mehr Interesse hat, kann gern zu unserem Stand kommen. Und ich bin gespannt auf Fragen.