Virtual Reality für Film- und Theaterproduktionen
Archivmeldung vom 25.08.2017
Bitte beachten Sie, dass die Meldung den Stand der Dinge zum Zeitpunkt ihrer Veröffentlichung am 25.08.2017 wiedergibt. Eventuelle in der Zwischenzeit veränderte Sachverhalte bleiben daher unberücksichtigt.
Freigeschaltet durch Manuel SchmidtDer erste Prototyp eines Virtual-Reality-Systems, das an der Universität Bremen entwickelt wurde, ermöglicht die intuitive Gestaltung von Szenen und Bühnenbildern vor Beginn der tatsächlichen Produktion
Die Veranschaulichung von Szenen während der konzeptionellen Phase einer Film- oder Theaterproduktion ist oft zeitraubend und teuer. Ein Virtual-Reality-System kann helfen, diesen Prozess wesentlich effizienter zu gestalten, indem es den Regisseuren ermöglicht, viele Ideen in kurzer Zeit auszuprobieren. Darüber hinaus kann ein derartiges System die Technologie für die sogenannte Prävisualisierung von Szenen an den Bedürfnissen von Nutzerinnen und Nutzern mit geringen technischen Fähigkeiten ausrichten. Nicht zuletzt kann es eingesetzt werden, um gemeinsam an einer Szene zu arbeiten, selbst wenn die Mitglieder des Produktionsteams sich an verschiedenen Orten aufhalten. Das Technologiezentrum Informatik und Informationstechnik der Universität Bremen (TZI) entwickelt ein derartiges System zurzeit im Rahmen des Projekts „first.stage“. Der erste Prototyp wurde jetzt fertiggestellt.
Regisseur kann selbst in die 3D-Welt eintauchen
Mit Hilfe eines Headsets können die Nutzerinnen und Nutzer des Systems eine Szene in einer 3D-Umgebung betrachten. Zwei Controller, die sie in den Händen halten, ermöglichen es ihnen, Objekte oder Personen anzuklicken und neu zu positionieren – ähnlich wie bei der bekannten „drag & drop“-Funktion mit der Maus am PC, nur innerhalb einer 3D-Welt. Nutzerinnen und Nutzern können auch ihre eigene Perspektive ändern, indem sie sich – in der realen Welt – bewegen oder die Controller entsprechend einsetzen. Auf diese Weise lassen sich Szenen vollkommen intuitiv anpassen – auch von jemandem, der das System zum ersten Mal benutzt. Dies steht in scharfem Kontrast zu aktuell am Markt verfügbaren Technologien für die Prävisualisierung: Sie erfordern meist ein Team aus spezialisierten Mitarbeiterinnen und Mitarbeitern, um Szenen am Bildschirm zu bauen und anschließend gemäß den Vorstellungen des Regisseurs anzupassen. Dieser Vorgang zieht sich häufig über Monate hin. „Unser Virtual-Reality-System beschleunigt das Verfahren erheblich“, erklärt TZI-Wissenschaftler Thomas Münder. „Und Regisseure können es selbst bedienen.“
Unterstützung für kleine Unternehmen und Kultureinrichtungen
Bevor mit einer Szene experimentiert werden kann, müssen zunächst die gewünschten Objekte und Personen hinzugefügt werden. Das „first.stage“-System bietet dafür 1000 vordefinierte „Assets“, die sofort genutzt werden können, beispielsweise Gebäude, Möbel oder Figuren. Diese können an die eigenen Bedürfnisse angepasst oder durch komplett neue Kreationen ergänzt werden. Dabei kommen noch die klassischen Technologien wie Maus und Tastatur zum Einsatz.
Ein Hauptziel des Projekts „first.stage“ besteht darin, auch kleinen Kreativunternehmen und Theatern fortgeschrittene Technologien für die Prävisualisierung zugänglich zu machen, indem die Schwellen bei den Kosten und dem benötigten Know-how gesenkt werden. Die TZI-Wissenschaftler achten daher darauf, dass kostengünstige Standard-Hardware eingesetzt werden kann.
Wissenschaftler beobachten intuitives Nutzerverhalten
Eine Herausforderung bei der Entwicklung besteht darin, dass die Virtual-Reality-Technologien noch sehr neu sind und es bisher wenige Erkenntnisse gibt, wie die Nutzerinnen und Nutzer am besten durch die Funktionen geführt werden. Im Rahmen des Projekts testen Partner aus Produktionsfirmen und Theatern daher das System schon in frühen Stadien. „Wir nutzen diese Rückmeldungen, um die Technologie zu optimieren und sie so zu gestalten, dass sie sich möglichst einfach anwenden lässt“, erläutert Thomas Fröhlich, der den Prototypen zusammen mit Thomas Münder entwickelt hat.
Im weiteren Verlauf des Projekts soll das System mit weiteren Funktionen ausgestattet werden. Unter anderem geht es darum, die Personen und Objekte direkt innerhalb der virtuellen Welt in Bewegung setzen zu können. In späteren Ausbaustufen sollen dann auch Interaktionen möglich werden, sodass die Nutzerinnen und Nutzer beispielsweise mit einem der Charaktere die Hände schütteln können. Darüber hinaus wird es möglich sein, die eigenen Bewegungen mit Hilfe von Sensoren aufzunehmen und in die Szene einzuspielen.
Konsortium mit acht Partnern aus fünf Ländern
An dem Projekt, das noch bis Mai 2019 läuft und von der Europäischen Union im Rahmenprogramm „Horizon 2020“ mit rund 3 Millionen Euro gefördert wird, sind neben dem TZI sieben weitere Partner beteiligt: Moviestorm (UK), Rokoko (Dänemark) und Next Limit Technologies (Spanien) als Technologiepartner, das Landestheater Linz, Vogel Audiovision und Arx Anima (alle Österreich) als Anwendungspartner sowie InfoConsult (Deutschland) als Partner für die Projektabwicklung.
Quelle: Universität Bremen (idw)