MPEG-I

Über MPEG-I

MPEG-I wird der neue Standard für Virtual und Augmented Reality Anwendungen sein. Mit ihm entstehen realistische, natürliche und völlig überzeugende VR-Erlebnisse. Und das nicht nur optisch, sondern auch akustisch.

Die Technologie soll es Besuchern eines VR-Konzerts schon bald möglich machen, es nicht mehr nur von einem bestimmten Platz aus zu erleben, sondern sogar in der Konzerthalle umherzugehen – eine unglaubliche Erfahrung! Auch bei einem eSport oder Sport-Event wird es dann möglich, sich als Zuschauer frei durchs Stadion zu bewegen.

Neue Möglichkeiten

BMW in Augmented Reality
© Fraunhofer IIS

Bisherige VR-Technologien basieren auf den sogenannten drei Freiheitsgraden (three Degrees of Freedom: 3DoF) und ermöglichen visuelles und akustisches Erleben, das an einem bestimmten Ort stattfindet. Hiermit kann man in einer VR-Umgebung den Kopf frei bewegen, sich also nach allen Seiten drehen. Der neue MPEG-I Standard unterstützt volle sechs Freiheitsgrade (six Degrees of Freedom: 6 DoF) und macht es dem Nutzer so möglich, sich frei im virtuellen Raum zu bewegen. Man kann also umherlaufen, verschiedene Blickwinkel ausprobieren und sogar mit der virtuellen Welt interagieren. Zum Beispiel könnte man eine Gruppe virtueller Musiker im eigenen Wohnzimmer platzieren und so ein ganz privates Konzert genießen.

Das Erzeugen eines derartig überzeugenden und immersiven Klangerlebnisses, das die Regeln der Akustik abbildet, erfordert eine hochkomplexe Technologie. Diese muss unter anderem die Klangübertragung in Räumen und um Hindernisse herum nachbilden können. Zudem gibt es nicht nur statische, sondern auch bewegliche Geräuschquellen, die den sogenannten Dopplereffekt verursachen. Diese sollten realistische Abstrahlmuster und -größen haben. Das bedeutet zum Beispiel beim Hörbarmachen von Wellen am Strand, dass eine Geräuschquelle von über einem Kilometer Länge nachgebildet werden muss. Aktuell wird ein weiteres komplexes Phänomen und seine effiziente Echtzeitwiedergabe erforscht, nämlich die von Hindernissen oder Ecken verursachte Beugung von Schallwellen.

Virtuelle Basketballhalle
© Fraunhofer IIS

Das unten gezeigte Video ist eine sehr einfache Umsetzung der MPEG-I Technologie, bei der noch nicht das volle Potenzial ausgeschöpft wird. Es ermöglicht jedoch einen guten ersten Eindruck dessen, was in Zukunft möglich sein wird. (Bitte Kopfhörer benutzen!)

Ein Blick in die Zukunft

Es wird noch eine Weile in Anspruch nehmen, bis diese komplexen Forschungsprojekte abgeschlossen sind. Das Wissen aus der MPEG-H-Entwicklung ist eine wichtige Basis der Standardisierung von 3DoF-Anwendungen. Es sind jedoch noch viele technische Fortschritte nötig, bis die Wiedergabe von völlig immersivem 6 DoF-Sound möglich ist. Verläuft die Entwicklung nach Plan, könnte MPEG-I ungefähr im Jahr 2025 auf Endgeräten verfügbar sein. Die Vision des Projekts ist es, ein Format für komplexe VR- und AR-Inhalte zu entwickeln, dass über lange Zeit hinweg Bestand hat und dank dem Inhalte auch in zehn oder 20 Jahren noch genauso einfach wiedergegeben werden können wie am Tag ihrer Entstehung. Ein gutes Beispiel für einen solchen Standard ist das am Fraunhofer IIS entstandene mp3-Format, das noch heute – 30 Jahre nach seiner Fertigstellung – problemlos überall wiedergegeben werden kann. Die Wiedergabe muss dabei sowohl auf speziellen Geräten als auch auf alltäglichen Smartphones möglich sein. So sollen VR- und AR-Inhalte als neue Generation von Videodiensten über existierende Kanäle ausgestrahlt werden und dem Publikum spannende und immersive Erfahrungen bei Unterhaltung, Dokumentationen, Bildungs- und Sportinhalten bieten.