Direkt zum Inhalt Direkt zur Navigation
Sie sind hier: Startseite Berichte Wissenschaft Fliegende 3D-Augen

Fliegende 3D-Augen

Archivmeldung vom 10.05.2012

Bitte beachten Sie, dass die Meldung den Stand der Dinge zum Zeitpunkt ihrer Veröffentlichung am 10.05.2012 wiedergibt. Eventuelle in der Zwischenzeit veränderte Sachverhalte bleiben daher unberücksichtigt.

Freigeschaltet durch Thorsten Schmitt
Die 3D-Kamera im Flugroboter erkennt aus sieben Metern Entfernung kleinere Objekte von 20 mal 15 Zentimeter.
Quelle: © Fraunhofer IMS (idw)
Die 3D-Kamera im Flugroboter erkennt aus sieben Metern Entfernung kleinere Objekte von 20 mal 15 Zentimeter. Quelle: © Fraunhofer IMS (idw)

Ob als Einsatzhelfer bei Großveranstaltungen oder als hochauflösende 3D-Vermesser von Straßenzügen: Intelligente Schwärme aus Flugrobotern eignen sich als universelles Werkzeug für Polizei, Krisenmanager oder Städteplaner. Für einwandfreie Flugmanöver ohne Kollisionen sorgt ein spezieller 3D-Sensor von Fraunhofer-Forschern.

Wie auf Kommando steigt das Team langsam laut surrend in die Luft. Gut zwei Dutzend Flugroboter fliegen über der Menschenmenge aus Tausenden von Fußballfans. Aufgebrachte Rowdys haben das Spielfeld gestürmt und bengalische Feuer gelegt. Es kommt zu Schlägereien, Rauch verhindert die Sicht, es herrscht Chaos. Nur der Flugroboter-Schwarm behält die Übersicht. Die unbemannten Flugroboter sind eine Art Mini-Hubschrauber mit einer Spannweite von etwa zwei Metern. Auf den beiden seitlichen Schwenkflügeln sitzt jeweils ein Propeller. Sie verleihen dem Fluggerät eine schnelle und präzise Manövrierbarkeit. Beim Flug über das Spielfeld fangen die Kameras und Sensoren die wichtigsten Bilder und Daten ein und funken sie zur Zentrale. Wo gibt es Schwerverletzte? Wo müssen Feuer gelöscht werden? Über welchen Weg lässt sich die rivalisierende Meute am besten auseinanderbringen? Dank der Informationen können die Einsatzleiter schneller wichtige Entscheidungen treffen, während die Roboter wie ein Vogelschwarm selbstständig über die Arena navigieren – ohne dabei miteinander oder mit anderen Hindernissen zu kollidieren.

Herzstück der Technologie, die Kollisionen verhindert, ist ein CMOS-Sensor von Fraunhofer-Forschern des Instituts für Mikroelektronische Schaltungen und Systeme IMS in Duisburg. »Der Sensor kann sehr effizient dreidimensionale Abstände vermessen«, sagt Werner Brockherde, Leiter der Entwicklungsabteilung. Wie bei einer Schwarz-Weiß-Kamera erfasst jeder Bildpunkt auf dem Sensor einen Grauwert. »Obendrein bekommt man zu jedem Pixel aber noch einen Abstandswert«, erklärt Brockherde. Auf diese Weise kann der Flugroboter die Position von anderen Objekten im Raum genau bestimmen.

Sensor löst höher auf als Radar

Gegenüber dem Radar, das mit Hilfe von reflektierten Echos Abstände von Objekten erfasst, bietet der IMS-Abstandssensor erhebliche Vorteile: »Die örtliche Auflösung ist sehr viel höher«, sagt Brockherde. »Ein Radar wäre bei dieser Nahfeldmanövrierung viel zu grob.« Auf eine Entfernung von bis zu 7,5 Metern erkennen die Flugroboter selbst kleinere Objekte von bis zu 20 mal 15 Zentimeter. Zudem werden die Abstandsinformationen mit einer sehr hohen Rate von 12 Bildern pro Sekunde übertragen.

Selbst bei starkem Störlicht, etwa wenn die Sonne direkt blendet, liefert der Sensor präzise Bilder. Dieser arbeitet nach dem Time-of-Flight-Verfahren (TOF). Dabei senden Lichtquellen kurze Impulse aus, die von den Objekten reflektiert und vom Sensor wieder eingefangen werden. Um zu verhindern, dass zu starkes Hintergrundlicht das eigentliche Signal überdeckt, öffnet sich der elektronische Verschluss nur für wenige Nanosekunden. Zudem erfolgt eine Differenzmessung, bei der jeweils eine Aufnahme nur mit Hintergrundlicht und eine zusammen mit dem eigentlichen Signal erfolgen. Die Differenz liefert die Informationen über das gewünschte Signal. »Das alles geschieht in Echtzeit«, sagt Brockherde.

Eingebaut sind die 3D-Abstandssensoren in Kameras der Firma TriDiCam, einer Ausgründung des Fraunhofer IMS. »Für uns bietet dieses Forschungsprojekt neue Herausforderungen in Bezug auf Umgebungsbedingungen und die Sicherheit dieser Sensortechnologie«, sagt Jochen Noell, Geschäftsführer von TriDiCam. Die Entwicklung ist Teil des Projekts AVIGLE, das zu den Gewinnern des Spitzentechnologie-Wettbewerbs »Hightech.NRW« gehört und vom Land Nordrhein-Westfalen und der EU gefördert wird. Am 12. und 13. Juni stellen die IMS-Ingenieure ihre Sensortechnologie beim Fraunhofer CMOS Imaging Workshop in Duisburg vor.

Die Flugroboter sollen nicht nur bei der intelligenten Luftüberwachung von Großereignissen zum Einsatz kommen. Katastrophenhelfer könnten von ihnen ebenso profitieren wie etwa Städteplaner, die mit ihnen detaillierte 3D-Modelle von Straßenzügen erstellen oder großflächig Dächer auf ihre Eignung für Solar-Anlagen prüfen könnten. Ob virtuelle Karten von schwer zugängigen Gebieten, Überwachung von Baustellen, Kontaminationsmessungen auf AKW-Anlagen – für viele Anwendungen wären teure Luft- oder Satellitenaufnahmen nicht mehr notwendig.

Quelle: Fraunhofer-Gesellschaft (idw)

Videos
Daniel Mantey Bild: Hertwelle432
"MANTEY halb 8" deckt auf - Wer steuert den öffentlich-rechtlichen Rundfunk?
Mantey halb 8 - Logo des Sendeformates
"MANTEY halb 8": Enthüllungen zu Medienverantwortung und Turcks Überraschungen bei und Energiewende-Renditen!
Termine
Newsletter
Wollen Sie unsere Nachrichten täglich kompakt und kostenlos per Mail? Dann tragen Sie sich hier ein:
Schreiben Sie bitte radium in folgendes Feld um den Spam-Filter zu umgehen

Anzeige