• 14.2.2023
  • Lesezeit: 3 Min.

Prof. Darius Burschka hat es von Seeleuten gelernt

Kollisionsrisiken berechnen: Die stehende Peilung als Grundlage

Drohende Zusammenstöße von fliegenden Drohnen oder Autos im Verkehr vorab berechnen und damit vermeiden: Das ist das Ziel von Darius Burschka. Dafür verfolgt der Professor der Technischen Universität München (TUM) jeden Punkt eines Bildes, das die Kameras einer Drohne in der Luft oder eines Fahrzeugs auf der Straße macht. Prinzipiell geht er genau so vor, wie es Seefahrer mit der stehenden Peilung schon immer gemacht haben.

iStockphoto.com / eyewave
Prof. Darius Burschka nutzt das Prinzip der stehenden Peilung, um Kollisionen zwischen Fahrzeugen oder Drohnen zu vermeiden.

Das Facettenauge einer Wespe brachte Burschka auf eine Idee. Dadurch, dass das Insekt seinen Körper horizontal hin- und herschwenkt, sondiert sie, welche Gegenstände nah sind und welche weiter weg. So baut sie ihre mentale Landkarte auf, wenn sie unterwegs ist.

Luftraum und Straßenverkehr: 60 Messungen pro Sekunde für mehr Sicherheit

Ähnlich funktioniert eine Lösung, mit der Burschka, Co-Head für Perzeption im Munich Institute of Robotics and Machine Intelligence (MIRMI) der TUM herausfindet, ob Drohnen oder Autos ein Zusammenstoß mit anderen Objekten droht. 60 Mal pro Sekunde checkt sein Computersystem die Bildpunkte einer Kamera und bestimmt die „Kollisionsverhältnisse“. „Wir verfolgen bis zu einer Million Pixel eines Bildes in Echtzeit“, erläutert Burschka. Für die Berechnung dieses so genannten optischen Flusses braucht er keinen Supercomputer, sondern „nur“ einen sehr leistungsfähigen Grafikprozessor, der die Bildverarbeitung übernimmt und einen weiteren Prozessor, der die Kollisionswege auswertet und eine Kamera. „Wir sehen uns die Merkmale im Bild an, die detektierbar sind und schauen, wie sie sich über das Bild bewegen“, beschreibt Burschka.

Zweidimensionale Bilder als Grundlage: Wie bei der stehenden Peilung in der Schifffahrt

Der TUM-Professor benötigt für die Berechnung der aktuellen Gefahr einer Kollision nur zweidimensionale Bilder aus einer Perspektive, wie die Wespe, die einzelne Punkte fixiert und deren Veränderung wahrnimmt. Oder wie ein Seemann, der nach der stehenden Peilung vorgeht. Ein Schiff ist nach Definition der „stehenden Peilung“ dann auf Kollisionskurs, wenn sich bei Annäherung der Fahrzeuge die Peilung nicht oder nur geringfügig ändert. „Ein Zusammenstoß ist dann am besten detektierbar, wenn man darauf achtet, welche Objekte um einen herum sich nicht bewegen“, sagt Burschka. Der Wissenschaftler der TUM berechnet, wo und in welcher Entfernung Objekte an der Kamera vorbeifliegen, also die „Beobachtungsebene durchstoßen“. Herkömmlicherweise nutzen etwa Experten für das autonome Fahren mehrere Kameras, die die Abstände zu anderen Objekten über Vektoren im Nahbereich berechnen. „Wenn die Objekte weit von der Kamera entfernt sind, liefert das 3-D-Verfahren keine zuverlässigen Ergebnisse mehr“, erläutert Burschka. Dann ist die Bewegung der einzelnen Punkte zwischen den Bildern nicht mehr wahrnehmbar.

Paradigmenwechsel: Time to Interaction löst die metrische Zustandsbestimmung ab

Mit der neuen Methode werden Objekte, die noch weit weg sind, aber dem Betrachtenden sehr schnell direkt entgegenkommen, als gefährlicher erkannt als andere, die augenblicklich näher sind, sich aber in die gleiche Richtung wegbewegen. „Damit wird die Priorisierung nicht aufgrund der Bewegung, sondern aufgrund der dynamischen Kollisionsverhältnisse durchgeführt“, so Burschka. Sämtliche „Merkmale“ im Bild sind nun unter Beobachtung und die potenziell gefährlichen lassen sich entsprechend kennzeichnen. „Wir messen die Time to Interaction“, sagt Burschka, also die Zeit, die vergeht, bis es zu einer Kollision kommt. Die neue Methode erlaubt es den Wissenschaftler:innen Bewegungen mit einer einzelnen Kamera zu analysieren, wobei sich die Kamera ebenso bewegt wie das Objekt. “Im Gegensatz zur metrischen Rekonstruktion ist dieser Ansatz deutlich günstiger und robuster“, ist Burschka überzeugt. Der Einsatz der Time to Interaction wäre also ein Paradigmenwechsel für die Forschung. Einsetzen will der Professor seine Erfindung bei Drohnen, in vernetzten Fahrzeugen und in der Servicerobotik.

Publikationen

Estimating dense optical flow of objects for autonomous vehicles; Ee Heng Chen, Jöran Zeisler, Darius Burschka; IEEE Intelligent Vehicles Conference 2021

Task representation in robots for robust coupling of perception to action in dynamic scenes; Darius Burschka; Robotics Research 2020 

Weitere Informationen und Links

Prof. Darius Burschka ist Principal Investigator und Co-Head für Perzeption im Munich Institute of Robotics and Machine Intelligence (MIRMI). Mit dem MIRMI hat die TUM ein integratives Forschungszentrum für Wissenschaft und Technologie geschaffen, um innovative und nachhaltige Lösungen für zentrale Herausforderungen unserer Zeit zu erarbeiten. Die Einrichtung verfügt über führende Expertise auf zentralen Gebieten der Robotik, Perzeption und Data Science. Im Rahmen des Forschungs- und Anwendungsschwerpunktes “Zukunft der Gesundheit” wird in den Bereichen maschinelles Lernen in der Medizin, Data Mining & Analyse, Virtual und Augmented Reality, Sensorsysteme in der Robotik sowie sichere Mensch-Roboter Interaktion (MRI), Soft-Robotik Design und Regelung geforscht. Weitere Informationen finden Sie unter https://www.mirmi.tum.de/.

Technische Universität München

Kontakte zum Artikel:

Prof. Dr.-Ing. Darius Burschka

Lehrstuhl für Robotik, Künstliche Intelligenz und Echtzeitsysteme

Technische Universität München (TUM)

burschka@tum.de

089-289-17638

 

Andreas Schmitz

Corporate Communication Center 

Presse Robotik und maschinelle Intelligenz

Andreas.schmitzspam prevention@tum.de

089 289 18198

HSTS