Produkt: Helene Fischer Stadion-Tour
Helene Fischer Stadion-Tour
3 Bühnen, 1 Show – 24 Seiten über die spektakuläre Helene Fischer Produktion!
ProMediaNews
Ein Blick auf die Technologie

„Tomorrowland Around the World“: Electro-Festival erstmals virtuell

Die zweitägige Musikveranstaltung verbindet am 25. und 26. Juli Technologien in den Bereichen 3D-Design, Videoproduktion, Spiele und Spezialeffekte und schafft auf diese Weise einen ganz neuen, diesmal digitalen Festival-Standort. Die virtuelle Welt, in der sich Besucher frei bewegen können, ist in Zusammenarbeit mit Dogstudio, stYpe, Epic Games und Unreal entstanden – Studios, die für ihre Arbeit bei den MTV Video Music Awards, dem Super Bowl oder den Olympischen Spielen bekannt sind.

Tomorrowland Around the World_Mainstage(Bild: FACTORY 92/Tomorrowland)

Anzeige

In der digitalen Festival-Umgebung sollen Musikperformances mit besonderer Showeinlage wie Feuerwerk und Lasershows gezeigt werden sowie eine realistische Menschenmenge. Mehr als 60 weltbekannte Künstler haben dafür ihre Auftritte in vier großen Green-Screen-Studios auf der ganzen Welt aufgezeichnet, auf zwei verschiedenen Plattformen werden alle Elemente zusammengefügt. Das digitale Universum von Tomorrowland Around the World hat laut Veranstalter im Vergleich zu einem modernen Computerspiel zehnmal mehr Polygone und jede Bühne eine Fläche von 16 km² mit 32.000 Bäumen und Pflanzen sowie über 280.000 virtuellen Menschen, die jeweils mit eigenen Attributen wie Flaggen oder Lichtern versehen sind.

Die Technologien wurden vom hauseigenen Kreativteam und den 3D-Künstlern von Tomorrowland, die für die Gestaltung der charakteristischen Bühnen und Kunstwerke des Festivals bekannt sind, in Zusammenarbeit mit den oben genannten Partnern entwickelt. Die letzten Monate boten, so der Veranstalter, die einmalige Gelegenheit, alle Teams gleichzeitig zur Verfügung zu haben und gemeinsam ein neuartiges technisches Set-Up auf die Beine zu stellen, das die Kluft zwischen der realen und virtuellen Welt überwindet und auf ein hohes Niveau setzt.

Derzeit befindet sich das Festival in der Endphase des Aufbaus seiner neuen 3D-Inselumgebung Pāpiliōnem, in der sowohl die Reaktionsfähigkeit der verschiedenen Geräte als auch die visuellen Details optimiert werden. Pāpiliōnem ist eine magische Insel in Form eines Schmetterlings mit Stränden, Nachthimmel, Bergen, Wäldern und Sonnenuntergängen – mit einem echten Spielgefühl. Festivalbesucher können sich mit einem PC, Laptop, Smartphone oder Tablet ohne spezielle VR-Brille einfach durch die Insel navigieren und das gesamte Festivalgelände auf interaktive Weise gemeinsam mit Freunden erkunden. Dabei erleben sie alle vier Jahreszeiten auf einem einzigen Tagesausflug. Beim Betreten der Insel wird den Festivalbesuchern ein voll gefüllter Zeitplan mit vielen Erlebnissen angeboten. Zu entdecken gibt es acht verschiedene, in 3D entworfene und gebaute Bühnen. Wie bei einem echten Festival, sind natürlich auch Künstler bei Live-Auftritten zu sehen. Sobald man sich für eine bestimmte Bühne entscheidet, wird die Besetzung sichtbar und die Bühnenumgebung kann betreten werden.

Neue Standards für webbasierte Online-Musik-Erlebnisse

Die Plattform ist in Zusammenarbeit mit Dogstudio – einem multidisziplinären Kreativstudio mit Büros in Belgien, Chicago und Mexiko-Stadt, das bereits für Unternehmen wie Microsoft, das Museum of Science and Industry in Chicago, das Kennedy Center in Washington, Dragone und viele andere gearbeitet hat – von Grund auf neu geschaffen worden.

Henry Daubrez, CEO und kreativer Leiter von Dogstudio: „Wir arbeiten derzeit Tag und Nacht daran, das gesamte virtuelle Inseluniversum unter Zeitdruck zu entwerfen und zum Leben zu erwecken. Wir arbeiten Hand in Hand mit den hauseigenen 3D-, Kreativ- und Entwicklungsteams von Tomorrowland, um ein fesselndes, benutzerfreundliches, aber auch hochklassiges Erlebnis zu schaffen. Wir bauen ein webbasiertes Erlebnis, und wir alle gehen wirklich an die Grenzen dessen, was in einem Webbrowser effektiv gemacht werden kann. Unsere größte Herausforderung – abgesehen davon, dass es sich offensichtlich um eine enorme technische Herausforderung handelt – besteht darin, dafür zu sorgen, dass die Festivalbesucher das Gefühl haben, Teil von etwas Größerem als ihrem Computer und ihrer Internetverbindung zu sein. Die Menschen werden nicht nur in das neue Universum von Tomorrowland eintauchen, sondern sie werden auch in der Lage sein, mit anderen Festivalbesuchern zu kommunizieren. Ich kann mit Stolz sagen, dass wir neue Standards für webbasierte Online-Musik-Erlebnisse setzen, indem wir die Grenzen der neuesten verfügbaren Technologie ausreizen, andererseits aber auch dafür sorgen, dass die Plattform sogar auf einem Gerät funktioniert, das schon ein paar Jahre alt ist”.

Über die Entstehung des digitalen Musikfestivals

Mehr als 60 Künstler sollen auf acht verschiedenen Bühnen spielen. Um all diese Auftritte einzufangen, hat Tomorrowland vier verschiedene Greenscreen-Studios auf der ganzen Welt gebaut. Die meisten Auftritte wurden auf den „holy grounds“ des Tomorrowland in Boom (Belgien) aufgezeichnet, wo das Festival regulär stattfindet. In Nord- und Mittelamerika ansässige Künstler nahmen ihr Set in einem Studio in Los Angeles (USA) auf, während lateinamerikanische Künstler in ein Studio in Sao Paolo (Brasilien) gingen und australische DJs in Sydney (Australien) auftraten. Alle Studios mussten so umgebaut werden, dass dem kreativen Team genügend Raum blieb, um aus dem Material eine Tomorrowland-würdige Show zu machen. Alle Zykloramen (oder Infinity-Walls) waren 6 m oder höher, mindestens 8 m breit und mindestens 8 m tief. Im Studio wurde ein DJ-Booth in voller Größe aufgebaut und an allen Standorten wurde exakt derselbe Aufbau gemessen. Die Videoproduktionsteams, die an Tomorrowland Around the World arbeiten, seien bekannt für ihre Arbeit mit den Olympischen Spielen, dem Super Bowl, internationalen Spielfilmen und der Welt der Spieleentwicklung.

Bevor man die Kameras aufgestellt hatte, wurden die Studioeinrichtungen technisch überholt, um sie für Augmented-Reality-Produktionen vorzubereiten. Ein großes Raster von Infrarot-Reflektoren wurde an der Decke installiert, damit die Tracking-Geräte die genaue Position jedes Kamerakopfes messen können. Alle anderen Parameter der Kamera und der Objektive wurden live an Server übertragen, die die Daten aufzeichneten und eine niedrig aufgelöste Version der virtuellen Welt für die Kameramänner und Regisseure renderten. Zusätzlich zu den sechs 4K-Ultra-HD-Kameras wurde eine Anzahl virtueller Kameras pro Bühne erstellt, so dass der Regisseur bis zu 38 Kameras auf der Hauptbühne auswählen konnte. Selbst für moderne 4K-Außenübertragungswagen sei eine Konfiguration mit zwei Bildraten und mehreren Auflösungen eine Herausforderung, insbesondere bei der Menge der virtuellen Aufnahmen, die ausgelöst werden müssten. Jede Bühne hat einen anderen technischen Aufbau: Ähnlich wie beim Umzug des Übertragungswagens von einer Bühne zur anderen wurde die Wagenkonfiguration von einer Bühne zur anderen geändert. Zusammen mit dem technischen Set-up ändert sich auch die Beleuchtung des Künstlers je nach Standort der Bühne und der Tageszeit während der Übertragung.

Tomorrowland arbeitete eng mit stYpe zusammen, das eine hochmoderne Kamera-Tracking-Technologie zur Verfügung gestellt hat, um Augmented-Reality-Effekte in Echtzeit und virtuelle Studioeffekte bei Live-Übertragungen zu erzielen. Die stYpe-Technologie wurde schon bei den MTV-VMAs, dem Eurovision Song Contest, den Olympischen Spielen, dem Super Bowl und vielen anderen Veranstaltungen eingesetzt.

Stype Cajic, Gründer und CEO von stYpe: „Das digitale Festival von Tomorrowland unterscheidet sich von den Live-Übertragungen, die wir normalerweise machen, und von den typischen Filmproduktionen, die wir machen, in dem Sinne, dass es die Anforderungen von beiden kombiniert. Bei Live-Broadcast-Projekten, wie zum Beispiel den Olympischen Spielen, gibt es sehr hohe Standards für Geschwindigkeit, virtuelle Szenenoptimierungen und zuverlässiges Kamera-Tracking. Da die Aufnahmen nur einmal gemacht werden, gibt es den Luxus, sie zu wiederholen, nicht, da alles live sein muss. Filmproduktionen hingegen haben Anforderungen an hochauflösende und fotorealistische virtuelle Effekte, wie sie in Blockbuster-Filmen vorkommen. Tomorrowland Around the World hat beide Anforderungen gleichzeitig, und das bedeutete, dass wir eine interessante technische Herausforderung zu lösen hatten. Die Künstler führten ihre Performance einmal aus, ohne Wiederholungsaufnahmen, und sie mussten die virtuelle Umgebung, in der sie spielten, in Echtzeit sehen. Das bedeutete, dass die Geschwindigkeit und Szenenoptimierungen der Live-Übertragung erforderlich waren. Andererseits musste alles in hoher Auflösung aufgenommen werden und fotorealistisch sein, um den anspruchsvollen Geschmack der Festivalbesucher zu befriedigen. Bei der Planung für dieses Projekt haben wir einige Lösungen für die Kameraverfolgung in Betracht gezogen und uns schließlich für das RedSpy-System entschieden. Es erwies sich als eine gute Wahl, da es tagelang ohne Probleme mit doppelter Bildfrequenz arbeitete und die Genauigkeitsanforderungen von Tomorrowland für 4K-Aufnahmen übertraf. Das bedeutete, dass der Kamera-Tracking-Teil der Herausforderung gelöst war. Das zweite, was benötigt wurde, waren hochauflösende fotorealistische Echtzeit-Renderings. Zu diesem Zweck verwendeten wir unser StypeLand Unreal-Plugin, das wir modifizierten, um die volumetrischen Lichter auf das Talent zu bekommen, was dem ganzen Set ein realistischeres Aussehen verlieh“.

Zwei verschiedene Plattformen, um alle Elemente zusammenzufügen

Zu guter Letzt gibt es zwei verschiedene Plattformen, auf denen alle zuvor benannten Elemente zusammengefügt werden. Die von Tomorrowland entworfenen 3D-Bühnen werden importiert und Ebenen aus Showelementen, Lichtern, Attributen und Umgebungen hinzugefügt. Depence, eine Plattform, die normalerweise zur Visualisierung von Showelementen wie Licht, Laser, Visuals und anderen Effekten verwendet wird, wird für die meisten Indoor-Bühnen verwendet, bei denen die Showelemente der Schlüssel der Performance sind. Die Software wurde nicht dafür entwickelt, um Video von realem Filmmaterial hinzuzufügen. Mit der Hilfe der Entwickler ist es nun möglich, die Talente im Set volumetrisch zu beleuchten. Diese Umgebungen haben ein realistischeres Aussehen erhalten. Alle technischen Elemente, aus denen sich die Show zusammensetzt, werden auf die gleiche Art und Weise vom gleichen Team programmiert und gesteuert, wie auch die anderen regulären Ausgaben von Tomorrowland. Das Ergebnis ist ein realistisches Bild mit Hinweisen auf ikonische Bühnenbilder der Vergangenheit. Für diese Bühnen wurde eine Menschenmenge mit einigen zusätzlichen Funktionen entworfen, um einen noch spezielleren Effekt zu erzeugen.

Die anderen Bühnen werden in der Spielengine Unreal Engine gerendert, die eine fotorealistische Landschaftsgestaltung und Skripterstellung für bestimmte Elemente ermöglicht. Die Landschaften für jede Bühne wurden so gestaltet, dass sie Elementen des Festivalgeländes ähneln: Die Core Bühne befindet sich in einem Wald, während die Main Stage eine natürliche Amphitheaterlandschaft ähnlich des Festivalgeländes in Boom aufweist.

Tomorrowland hat mit Epic Games und Unreal Engine zusammengearbeitet, einer hochmodernen Echtzeit-3D-Erstellungsplattform und Spielengine, die sich durch fotorealistisches Rendering, dynamische Physik und Effekte sowie lebensechte Animationen auszeichnet und in vielen Spielen wie Fortnite, Minecraft und Mortal Kombat weit verbreitet ist. Ben Lumsden, Business Development Manager bei Epic Games – Unreal Engine:

„Wie bringen wir neue Erfahrungen von großen Künstlern zu einem globalen Publikum? Das ist die drängende Frage, die gestellt wird, und eine, die jetzt durch die Echtzeit-Technologie beantwortet wird. Unreal Engine hat sich schnell zum Standard für schöne virtuelle Sets in der Film- und Fernsehproduktion entwickelt und wird nun verstärkt bei Live-Übertragungen eingesetzt. Tomorrowland Around the World vermischt gekonnt traditionelle Techniken wie Live-Kameraschneiden mit unserer neuen DMX-Lichtsteuerungsintegration, und das alles innerhalb der Immersion von Unreal Engine, wodurch eine neue digitale Reise entsteht, die die Menschen auf der ganzen Welt in ihren Bann ziehen wird. Was das Team von Tomorrowland in einer sehr kurzen Zeitspanne geschafft hat, ist wirklich beeindruckend. Die Live-Action-Performances der Künstler in wunderschönen, hochauflösenden virtuellen Welten zu kombinieren, war eine logistische und technologische Meisterleistung“.

Auch hier waren Sonderanfertigungen der Software notwendig, um die Kamera-Verfolgungsdaten anders als bei Standard-Broadcast-Lösungen verarbeiten zu können, die DMX-Daten von Lichtpulten zu lesen und in nichtlineare Schnittsysteme zu integrieren, um zwischen allen virtuellen Kameras umschalten zu können. Es wurden spezifische APIs geschrieben, um Softwarepakete zu verbinden, die nie zuvor interagierten, und es wurde keine Mühe gescheut, um den Künstler in die magisch geschaffenen Umgebungen einzufügen. Ein großes Team von Audio-Mastering-Engineers arbeitet daran, realistische Geräusche des Publikums, Jubel, Applaus und Singalongs zu erzeugen, alles zeitlich abgestimmt auf die Sets der Künstler.

>> Mehr Infos und zur Anmeldung unter www.tomorrowland.com

Produkt: Production Partner 06/2019 Digital
Production Partner 06/2019 Digital
REVOLVERHELD +++ Meyer Sound LINA +++ Salzbrenner NIO +++ Stage Tec Avatus +++ Übersicht: Automatisierte Follows +++ Luke Mockridge Luckyland +++ Bitfocus Companion +++ ADB Lexpert Profile +++ Drohnen bei Lindenberg

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Das könnte Sie auch interessieren