Eine Kamera, zwei Fotos, drei Dimensionen: Einfacher und schneller zu 3D-Bildern
Archivmeldung vom 21.03.2012
Bitte beachten Sie, dass die Meldung den Stand der Dinge zum Zeitpunkt ihrer Veröffentlichung am 21.03.2012 wiedergibt. Eventuelle in der Zwischenzeit veränderte Sachverhalte bleiben daher unberücksichtigt.
Freigeschaltet durch Manuel SchmidtDreidimensional sehen: Eine Kamera benötigt in Zusammenarbeit mit einem PC drei Fotos und viel Zeit zum Rechnen, um genügend Informationen über die Gestalt von Objekten in ihrer Umwelt zu erhalten und zu einem 3D-Bild zu verarbeiten. Noch. Denn an der FernUniversität in Hagen ist ein mathematischer Algorithmus entwickelt worden, mit dem zwei Aufnahmen aus „freier Hand“ mit einer einfachen Kamera genügen. Anwendungen dürften in vielen Bereichen möglich sein, von der Modellierung von Produkten über die Präsentation von Innenräumen bis hin zu PC-Spielen. Zudem dürfte sich das Verfahren auch für die Anwendung in 3D-Kino und -TV weiterentwickeln lassen.
Dreidimensional sehen: Dafür braucht das Gehirn zwei Augen und winzige Bruchteile von Sekunden. Eine Kamera benötigt in Zusammenarbeit mit einem PC drei Fotos und viel Zeit zum Rechnen, um genügend Informationen über die Gestalt von Objekten in ihrer Umwelt zu erhalten und zu einem 3D-Bild zu verarbeiten. Noch. Denn an der FernUniversität in Hagen ist ein mathematischer Algorithmus entwickelt worden, mit dem zwei Aufnahmen aus „freier Hand“ mit einer einfachen Kamera genügen. Entwickelt wurde der Ansatz von Sergey Cheremukhin, studentische Hilfskraft im Lehrgebiet Mensch-Computer-Interaktion von Prof. Dr. Gabriele Peters. Sein Verfahren wurde als beste Einreichung bei den Informatiktagen 2012 nominiert, die am 23. und 24. März 2012 in Bonn stattfinden.
Anwendungsmöglichkeiten sehen Prof. Gabriele Peters und ihr Team in vielen Bereichen, von der Modellierung von Produkten über die Präsentation von Innenräumen bis hin zu PC-Spielen. Sogar die Planung von Theaterdramaturgien ist vorstellbar. Zudem dürfte sich das Verfahren auch für die Anwendung in 3D-Kino und -TV weiterentwickeln lassen.
Bisher sind drei Aufnahmen notwendig, um Rückschlüsse auf das Kamerasystem und seine Entfernung und Lage in Bezug auf das fotografierte Objekt, z.B. eine Clownminiatur oder ein Lego-Auto, ziehen zu können: Welche Kenngrößen kennzeichnen das Objektiv? Welche Brennweite hat es? Wie weit ist es vom Clown oder dem Auto entfernt? Wie ist seine relative Lage zu der Figur? Erst durch diese und noch viel mehr Informationen lassen sich drei oder mehr Fotos so einfach zusammenfügen, wie dies mit einem Programm zum Erstellen von Panorama-Fotos möglich ist (das aber keine 3D-Ansichten ermöglicht). Es entsteht ein dreidimensionales Objekt: eine Wolke aus vielen Punkten.
Beim herkömmlichen Verfahren mit drei Fotos gibt es zahlreiche Konstellationen, die Punktewolken erzeugen. Unter ihnen muss diejenige gefunden werden, die die Realität wiedergibt. Cheremukhin reduzierte die Kombinationsmöglichkeiten mathematisch so geschickt, dass zwei Fotos reichen, die sich nur geringfügig unterscheiden müssen.
Die Punktewolke wird anschließend mit einer Textur überzogen. Dieser „Überzug“, eine Computergrafik, macht aus dem 3D-Modell eine farbige Wiedergabe des fotografierten Motivs.
Natürlich bildet ein Flachbildschirm dieses dreidimensionale Objekt nur zweidimensional ab. Man kann es – wie ein herkömmliches Foto – um bis zu 360 Grad drehen. Es ist aber auch möglich, es um eine seiner Achsen rotieren zu lassen. So sieht man dem Clown nicht nur in die Augen, sondern kann auch sein Profil und sogar seinen Hinterkopf betrachten.
Um ein vollständiges Modell zu berechnen, das auch von hinten realistisch aussieht, benötigt man bisher etwa 7 bis 8 Aufnahmen, für eine teilweise 3D-Wiedergabe mindestens drei. Nach der Methode von Sergey Cheremukhin genügen für eine solche Teilrekonstruktion nun zwei Ansichten. Wie viele Aufnahmen für eine komplette Rundumansicht notwendig sind muss noch getestet werden: „In der Praxis entstehen Fehler, wenn die Objektivstandpunkte zu weit voneinander entfernt sind“, erläutert Projektleiter Dr. Klaus Häming. Deshalb sind auch weiterhin mehrere Aufnahmen notwendig, Cheremukhins Berechnung spart aber selbst in extremen Ausnahmesituationen einige ein: „Weniger Zeit, weniger Kosten, aber nicht weniger Qualität“, das war dem jungen Mathematiker wichtig.
Sein Verfahren wurde als beste Einreichung bei den Informatiktagen 2012 nominiert, die am 23. und 24. März 2012 in Bonn stattfinden. Die Informatiktage der Gesellschaft für Informatik e.V. (GI) gelten als die jährliche Veranstaltung für den wissenschaftlichen Nachwuchs der Informatik. Ausgewählte Studierende können ihre Einzelarbeiten vorstellen und in Workshops, Präsentationen und persönlichen Gesprächen Wissenschaftlerinnen und Wissenschaftler sowie Unternehmen kennenlernen. Eine Nominierung für den „Best Paper Award“ hat für die deutschen Informatik-Studierenden etwa die Bedeutung einer „Oscar-Nominierung“. Die diesjährige Preisverleihung findet am 24. März in Bonn statt.
Das Projekt wurde von der Deutschen Forschungsgemeinschaft gefördert, nach dem Ende wird Sergey Cheremukhin vom Lehrgebiet Mensch-Computer-Interaktion aus eigenen Mitteln beschäftigt.
Quelle: FernUniversität in Hagen (idw)