Epic Games hat eine Technologie entwickelt, die es erlaubt in Echtzeit computer-generierte Grafiken in einen Film einzubauen.
So haarsträubende wie hirnrissige Stunts ist man sich seit einigen Jahren gewohnt. In Filmen wie «Wanted» – als Angelina Jolie noch schön war –, der «Fast and the Furious»-Serie und jede Menge anderer Action-Produktionen fliegen die Fetzen und vor allem die Autos. Das Können liegt oft mehr in der Choreografie abstruser Stunt-Sequenzen, als in deren Umsetzung am Computer. Die CGI-Künstler haben inzwischen ein Niveau erreicht, das es immer schwieriger macht, Realität und Virtualität auseinander zu halten. Das gilt insbesondere, wenn es um Maschinen und glatte Objekte geht, bei menschlicher Haut tun sich die CGI-Magier immer noch etwas schwer.
Doch bis dato erfolgten diese Bearbeitungsschritte in der Post-Production-Phase und nehmen Monate in Anspruch. Im Rahmen der GDC 2017 in San Francisco hat nun Epic Games, Entwickler von Bestsellern wie Unreal Tournament und dem MOBA Paragon, einen Software-Erweiterung ihrer Unreal Engine angekündigt, die wahrlich bahnbrechendes verheisst.
Virtuelle Komponenten sehen – hier und jetzt
Zusammen mit dem VFX-Studio The Mill hat Epic Games eine Technologie entwickelt, die CGI-Komponenten nicht erst nach Monaten Arbeit in den Film integriert, sondern augenblicklich sichtbar macht. «Wir haben eine virtuelle Werkzeugkiste gebaut, die gleich visualisiert, was im Film zu sehen sein wird», sagt Boo Wong, Global Director of Emerging Technology bei The Mill. «Es kann alles mögliche dargestellt werden eine Filmfigur, ein Gegenstand etc. Aus Sicht der Visual-Effects-Macher ist das super spannend.»
Vorgeführt wurde an der GDC ein Werbespot, der im Auftrag von Chevrolet erstellt wurde. In «The Human Race» tritt ein Rennfahrer gegen eine virtuelle, von einer künstlichen Intelligenz gesteuerte Konkurrentin an. Der CGI-Chevi kann in Form und Farbe laufend angepasst werden. Unter dem CGI-Modell fährt der Blackbird, ein Vehikel, das an die Buggys aus «Mad Max»-Filmen erinnert. Das Auffällige am Blackbird ist, dass dieser komplett mit QR-Codes und anderen Referenzpunkten übersäht ist. Diese können vom Filmemacher angetippt und nach seinen Vorgaben in Echtzeit verändert werden. Die so angepassten Sequenzen laufen mit 24 Bildern pro Sekunde, was deutlich unter den 60 fps von Videospielen ist, aber für Spielfilme komplett ausreicht.
Gemäss Variety will Epic eine Version der Unreal Engine, die solches Echtzeit-Rendering beherrschen wird, im Laufe des Jahres veröffentlichen. Es kann also schon bald sein, dass man zu Hause am Bildschirm aus dem Chevrolet Camaro einen BMW i8 formt oder das Kleid der Prinzessin von kitschigem Pfirsich-Rosa in eine schicke schwarz-graue Tracht umwandelt. Film 4.0 halt.