Wie intelligente Systeme wie autonome Fahrzeuge und Drohnen die Welt wie ein Mensch verstehen und Objekte wie Fußgänger oder Fahrräder genau erkennen können, stellt nach wie vor eine technische Herausforderung dar. Ein Forschungsteam der Kaunas University of Technology (KTU) hat kürzlich in der Zeitschrift „Remote Sensing Applications: Society and Environment“ einen Artikel veröffentlicht, der ein neues Modell zur Steigerung der Effizienz bei der 3D-Punktwolkenverarbeitung vorstellt, das dieses Problem lösen könnte.

3D-Punktwolken sind durch Lasermessungen erstellte dreidimensionale Karten, die zur Analyse von Objektformen und Szenenkontext verwendet werden. Professor Rytis Maskeliūnas von der KTU erklärt: „Stellen Sie sich vor, Millionen von Messungen einer Straße oder Stadt durchzuführen und sie zu einer aus Punkten bestehenden Karte zusammenzusetzen – das ist eine 3D-Punktwolke.“ Diese Technologie wird bereits im Alltag eingesetzt, beispielsweise bei der automatischen Notbremsung von Fahrzeugen, doch unter komplexen Bedingungen ist die Zuverlässigkeit noch unzureichend.
3D-Punktwolkendaten werden auch zum Aufbau digitaler Stadtmodelle genutzt, die Planung und Überwachung unterstützen und die Grundlage für digitale Zwillinge bilden. Allerdings weist Dr. Sarmad Maqsood, Forscher an der KTU, darauf hin: „Die computerbasierte Analyse von 3D-Punktwolken ist schwierig, da die Daten unregelmäßig, massenhaft und ungleichmäßig sind.“ Die Echtzeitverarbeitung erfordert hohe Rechenleistung, und Herausforderungen wie Rauschen oder Verdeckungen erschweren die Analyse.
Daher haben die KTU-Forscher ein neues Modell entwickelt, das lokale und globale Perspektiven integriert, transformerbasierte Analysen mit Priorisierungsmechanismen kombiniert und so unausgewogene Daten besser verarbeiten kann. Maskeliūnas sagt: „Das Modell funktioniert wie ein intelligenter Puzzlelöser, der durch die Analyse von Szenenzusammenhängen und die Hervorhebung wichtiger Merkmale die Erkennung kleiner oder teilweise sichtbarer Objekte verbessert.“ Beispielsweise könnte ein autonomes Fahrzeug bei Dämmerung einen teilweise verdeckten Fußgänger erkennen und so die Sicherheit erhöhen.
Das Modell ist effizient und benötigt für die Verarbeitung einer komplexen Szene pro Frame nur etwas mehr als zwei Sekunden bei gleichbleibend hoher Genauigkeit. Maqsood ergänzt: „Das System integriert Kompression und Übertragung, was eine nahezu Echtzeitverarbeitung großer 3D-Datenmengen ermöglicht.“ Zukünftige Anwendungen könnten auf Lieferdrohnen, Rettungsroboter, Archäologie und Augmented Reality ausgeweitet werden und so den Fortschritt von Maschinen vom „Sehen“ zum „Verstehen“ der Welt vorantreiben.
Veröffentlichungsdetails: Autor: Kaunas University of Technology; Titel: „Digital twins to rescue robots: What faster 3D point cloud processing enables“; veröffentlicht in: „Remote Sensing Applications: Society and Environment“ (2026).













