Bilder mit Character

Grafiken, Bauchbinden & Logos in Kamerabildern

Viele Wege führen ins Kamerabild. Wer Bauchbinden, Logos, Grafiken und Animationen zum Einsatz bringen möchte, hat zahllose Möglichkeiten. Mit einem Auge auf die Broadcasttechnik schielend, sollten wir nicht die kreativen Mittel aus der Bühnengestaltung vergessen.

Key and Fill combination(Bild: Alexander Heber)

 

Anzeige

 


Übersicht

Position von Grafiken in der Sendekette

Inhalte vor der Kamera

Wie bindet man Texte und Grafiken in Live-Bilder ein?

Wie erstellt man Grafiken und Bauchbinden?

Sonderfall Stinger-Animation

Forschen lohnt sich


Ohne jetzt wieder lange auf der Vermischung aus Broadcast und Veranstaltungswelt herumreiten zu wollen: mit dem Thema Character-/Graphics- Generator sehen wir uns inzwischen nun einmal regelmäßig konfrontiert.

Während vor ein paar Jahren die gelegentliche Bauchbinde im Kamerabild so manchen das Handbuch zum Schlagwort Chroma-Keying zücken ließ, sollte diese Aufgabe inzwischen keine Herausforderung mehr sein.

Oder etwa doch?

So viele Varianten – alle mit ganz eigenem Für und Wider. Mit einem Überblick über Technologien, deren Platzierung in der Signalkette und Auswahlkriterien entzerren wir das Durcheinander an Optionen und helfen bei der Wahl der richtigen Lösung.


Position von Grafiken in der Sendekette

Einbinden von Grafiken in Sendekette
Ein Kamerabild mit Grafiken und Text zu kombinieren, gehört zu den Standardanforderungen im Produktionsalltag. Zur Lösung dieser Aufgabe stehen viele Möglichkeiten zur Verfügung. Welche ist die richtige? (Bild: Alexander Heber)

Texte, Grafiken, Animationen und Logos sollen entweder Informationen transportieren oder einfach nur gut aussehen. Wir arbeiten schon immer nach diesem Prinzip. Eine Kamera im Setup hielt lange Zeit lediglich fest, was auf unseren schönen Bühnen geschieht, um es auf Bildwände zu übertragen oder aufzuzeichnen. Mit dem Streaming-Boom haben wir uns inzwischen eher am gemeinen Fernsehbild und typischen Online-Content ausgerichtet.

Plötzlich sind die Namen der Referierenden nicht mehr per Aufsteller auf dem Rednerpult oder im Hintergrund auf der projizierten Powerpointfolie zu sehen, sondern werden später dem Sendebild hinzugefügt. Firmenlogos landen in einer Bildecke, anstatt die Bühne zu zieren – aber warum eigentlich? Die Platzierung von Inhalten kann noch immer vor der Kamera passieren.

Wir haben selbstverständlich noch weitere Optionen – alle mit ihren eigenen Vor- und Nachteilen. Eine klassische Signalkette im Eventbereich könnte so aussehen:

  • Kameras → Bildmischer → Datenmischer → Streaming- Encoder → Streaming-Plattform → Wiedergabe

An beinahe jeder Stelle und auch zwischen den einzelnen Bestandteilen kann die Grafikeinblendung durchgeführt werden.

In vielen Setups sind Bildmischer, Datenmischer und Streaming-Encoder in einem Gerät oder in einer Software vereint. Wir sollten uns bei der Planung bereits die Frage stellen, an welcher Stelle wir Grafiken und Text einbinden wollen. Hierbei entscheiden nicht nur die Funktionen der einzelnen Lösungen, sondern es geht auch darum, wer die Grafiken bedient und wer diese vor dem „Abfeuern“ sehen und freigeben muss.

Barco e2 lower third
Im Datenmischer: Der Vorteil bei der Einbindung im Datenmischer ist, dass auch andere Inhalte, die nur mit Signalwandlungen an ein Videomischpult angeschlossen werden könnten, mit Grafiken und Bauchbinden versehen werden können. Das trifft besonders auf Liveschalten mit Teams, Zoom & Co. zu. Man muss jedoch daran denken, eine Vorschau für die Operator am Videomixer vorzuhalten, sonst kann es schnell zum versehentlichen Schnitt kommen und die Bauchbinde nicht mehr zum Bild passen (Bild: Alexander Heber)

// Ein Beispiel: Die Kamerasignale einer Streaming-Veranstaltung werden mit einem Bildmischer gemischt und an einen Datenmischer übergeben. Dort werden weitere Signale von Liveschalten eingebunden, die aus einem beliebigen Konferenztool kommen. Bauchbinden sollen sowohl bei den Liveschalten, den Gästen vor Ort und vielleicht auch noch bei einer Videobotschaft eingebunden werden. Die Grafiken müssen also nach dem (oder im) Datenmischer eingebunden werden. Am Bildmischplatz muss aber bekannt und klar sein, wann eine Grafik über dem Kamerabild liegt, damit nicht an unpassenden Stellen geschnitten wird und plötzlich unfreiwillig Teilnehmende „umgetauft“ werden. Also braucht es hier mindestens eine Vorschau mit dem finalen Programmbild am Bildmisch-Platz. Besser wäre aber, wenn man auch an diesem Platz eine Vorschau der Grafik hätte, bevor diese ausgespielt wird. Nicht, dass noch ein Bild über den Gesichtern der Protagonisten erscheint, weil der Kameraschwenk doch ein paar Zentimeter zu kurz kam. Der Großteil der Zuspiellösungen für Grafiken kann recht beliebig in der Sendekette platziert werden. Das Beispiel soll nur daran erinnern, dass jede Positionierung in der Kette andere Folgen für Preview und Workflow hat. //

>>zurück zum Anfang


Inhalte vor der Kamera

Namen, Bilder, Grafiken und selbst Gäste aus Liveschalten können durchaus noch immer vor der Kamera ins Bild gebracht werden und müssen keine spätere Ergänzung sein. Das ARD-Tagesschau-Studio funktioniert schließlich auch nach diesem Prinzip. Das ist also unsere erste Option für die Platzierung von Inhalt: vor der Kamera. Bildschirme, Projektionen, LED-Wände und Dekorationen sind nach wie vor gute Mittel, mit denen wir Informationen transportieren können.

Live,Event,With,Brand,New,Products,Reveal:,Keynote,Speaker,Presents
Vor der Kamera. Informationen können noch immer im Bühnenbild integriert werden. Namensschilder, die Aufnahme durch ein transparentes OLED mit der Unschärfefahrt auf den nächsten Programmpunkt, Projektionen, LED-Wände, Displays im Bühnenbild, Logos in der Deko: Vor der Kamera kreativ zu werden, hebt eine Show von der Masse ab, fordert aber minutiöse Abläufe und Proben (Bild: Copyright (c) 2020 Gorodenkoff/Shutterstock. No use without permission.)

Auch diese Signale müssen natürlich verwaltet werden und irgendwoher kommen, aber hier haben wir Erfahrung. Damit das gut funktioniert und den gewünschten Effekt erzielen kann, sollten wir sorgfältiger bei der Planung von Kamerapositionen sein und vielleicht auch zu Kamerakränen, Pumpstativen auf Rolle oder Dollies greifen. Die gewünschten Effekte und Positionen wollen genau geprobt sein, denn oft lässt sich das Ergebnis nicht auf einem Bildschirm vorschauen. Häufig kann in diesem Fall Ablauf- und Bildregie nicht mehr in Personalunion fungieren. Auch die Akteure müssen zur rechten Zeit in die richtige Kamera schauen. Komplexe Veranstaltungen mit Gästen, Liveschalten, Talkrunden, Show-Acts und vielen wechselnden Programmpunkten haben zahlreiche Zahnräder, die auch ohne zusätzliche Kamerastellproben nur mit viel Arbeit perfekt ineinandergreifen. Es liegt also nahe, bestimmte Inhalte von der Bühne zu entkoppeln, um diese unabhängig vom Bühnengeschehen einbinden zu können.

>>zurück zum Anfang


Wie bindet man Texte und Grafiken in Live-Bilder ein?

Entscheidet man sich für die Einbindung vor der Kamera, so greift man natürlich zu den passenden Geräten und Software für die Zielbildschirme: Medienserver, Videozuspielsoftware, Powerpoint usw. Wenn man Grafiken vor der Kamera mit Overlays kombinieren will, möchte man womöglich alles aus einem System zuspielen. Dann wird es komplexer, denn dann müssen auch die Signale für die Überlagerung im Bild korrekt ausgegeben werden. Die Einblendung von Overlays erfolgt entweder über Videosignale inkl. Alpha-Kanal oder über Keying.

Luma-Key – pragmatisch

„Luma“ steht für Luminanz. In einer Software oder in einem Bild- oder Datenmischer lässt sich ein Schwellenwert für die Helligkeit (Luminanz) im Videobild festlegen über (oder unter) welchem Bildinhalte entfernt werden sollen. So lassen sich zum Beispiel schwarze Inhalte entfernen und durch einen Hintergrund bzw. das Kamerabild ersetzen. Da die Information darüber, was schlussendlich gezeigt werden soll und der Schwellenwert für das Keying aus dem gleichen Bild stammen, ist man bei der Erstellung der Bildinhalte eingeschränkt. Eine weiße Bauchbinde auf schwarzem Grund lässt sich zwar exakt trennen und der schwarze Hintergrund wird sauber durch das Kamerabild ersetzt. Hat man aber einen schwarzen Text in der Bauchbinde verwendet, so wird dieser ebenfalls durchsichtig und eben nicht schwarz dargestellt. Für Inhalte, in denen ein großer Kontrastumfang vorliegt, ist diese Variante also eher ungeeignet. Für einfache und kontrastarme Inhalte, wie beispielsweise bei monochromen Sendelogos, mag ein Luma-Key ausreichen, für komplexeren Content wird der Griff zum Chroma-Key notwendig.

Beim Lumakey entscheidet man, ob dunkle oder helle Bereiche aus dem Bildsignal entfernt werden
Dazu legt man einen „Threshold“ (Schwellenwert) fest. Alles was heller ist als der Wert, verbleibt im Bild, alles dunklere wird durchsichtig und gibt den Hintergrund frei. Je nach Mixer oder Software lässt sich das auch umkehren und dunkleres bleibt sichtbar und hellere Werte werden durchsichtig
Schwellenwert bei etwa 16% – Die Angabe des Schwellenwertes ist unterschiedlich je nach Gerät und Software. Manchmal in Prozent, manchmal in bitbasierten Abstufungen (z.B. 0-256) o.ä.
Farben werden davon auch beeinflusst. Ein Key mit einem Threshold von 50% lässt bereits einen Teil des roten Balkens verschwinden

 

>>zurück zum Anfang


Chroma-Key – Farbverzicht

Für einen Chroma-Key genügt ebenfalls ein einzelnes Bildsignal, um den tatsächlichen Inhalt vom „Durchsichtigen“ zu trennen. Hierzu dient nicht die Luminanz als Indikator für transparente Bildinhalte, sondern eine Farbe. Dieses Prinzip findet beim Green-Screen die geläufigste Anwendung. Die Farbe, die aus dem Bild entfernt wird, muss natürlich nicht Grün sein. Die Inhalte, die zu sehen bleiben sollen, dürfen nicht die Key-Farbe tragen, da diese sonst ebenfalls entfernt werden. Das schränkt die Verwendung bereits ein wenig ein. Selbst in preisgünstigen Bildmischern sind die Keyer inzwischen oft gut genug, dass man kaum noch ausgefranste Kanten und farbige Schlagschatten im resultierten Bild befürchten muss.

Die große Schwäche liegt jedoch in der Verwendung von semitransparenten Inhalten. Zwar lässt sich auf der Mischer-Seite mit dem Key tricksen und mit verschiedenen Farben und Graustufen im Signal sind auch halbtransparente Flächen möglich. Spätestens beim Verlauf von 100 % zu 0 % Deckkraft kommen wir an Grenzen. Eine halbtransparente rote Grafik auf einem grünen Hintergrund erzeugt beispielsweise gelbliche Mischfarben. Das Resultat hat dann nichts mehr mit semitransparentem Rot zu tun. Deckkraft-Verläufe von schwarzen oder weißen Grafiken verzeihen das besser, da hier keine Mischfarben entstehen, das Ergebnis bleibt aber kompromissbehaftet. Volle Flexibilität erreichen wir also nur, wenn die Transparenz des Bildsignals und der zu zeigende Inhalt klar voneinander getrennt werden.

Beim Chromakey wird eine Farbe aus dem Bildsignal entfernt und damit durchsichtig. Die verbleibenden Inhalte werden über das Kamerabild gelegt. In diesem Fall wird auf Grün gekeyt – diese Farbe also aus dem Bild entfernt
Während Abstufungen in der Transparenz bei schwarzen und weißen Inhalten noch gut funktionieren, entstehen beim Verblassen von farbigen Inhalten Mischfarben, die das gewünschte Ergebnis verfälschen: erkennbar am Verblassen des roten Streifens über Orange und Gelb

>>zurück zum Anfang


Videoquellen mit Alphakanal

Wenn eine Videoquelle – egal ob live generiert oder unveränderbar als kodiertes Video – zum normalen Content auch die Transparenzinformation enthält, erlangen wir die volle Flexibilität bei der Weiterverarbeitung. Die Quelle verfügt dann auch über einen Alpha-Kanal. Der Alphakanal beschreibt die Deckkraft der Bildinhalte. Da diese Beschreibung unabhängig vom Inhalt erfolgt, können nun alle Farben und Luminanzwerte im Inhalt verwendet werden, ohne dabei Kompromisse eingehen zu müssen. Für die Einbindung dieser Quellen haben wir unterschiedliche Möglichkeiten: je nach dem an welchem Punkt in der Sendekette wir die Inhalte einspielen möchten.

Key & Fill

Die Einbindung per Key- und Fill-Signal ist im Broadcast geläufig. Im Bildmischer wird ein Key-Signal für die Transparenz festgelegt. Dieses Signal bestimmt, an welchen Stellen im Bild welche Deckkraft vorliegt. Das Signal ist ein schwarz-weißes Videobild, bei dem 100% Weiß volle Deckkraft bedeuten und 0% Weiß – also Schwarz – vollständig durchlässig sind. Das Key-Signal bildet also eine Maske für den Inhalt. Diese Maske wird dann auf das Fill-Signal angewendet. Mit diesem Key lassen sich auch Bild-in-Bild-Situationen mit außergewöhnlichen Formen realisieren. Das Key-Signal kann in vielen Geräten auch von einer Bilddatei mit Alphakanal generiert werden und muss keinem Live-Input am Gerät entsprechen. Dies ist aber nur bei den angesprochenen Bild-in-Bild-Momenten oder bei anderen statischen Inhalten sinnvoll.

Für animierte Bauchbinden und Grafikeinblendungen muss das Bildsignal für die Inhalte synchron zum Bildsignal der Maske laufen muss. Der Bildmischer legt das resultierende Bildsignal dann über den gewünschten Mix. Die Bereitstellung der beiden Signale erfolgt über die Abspiellösung, welche diese meist über SDI-Grafikkarten ausgibt.

Key-Signal bei der Verwendung von Key & Fill. Die Grauabstufungen im Signal geben die Deckkraft für das Fill-Signal vor
Das hier gezeigte Bild entspricht keinem Signal im Key & Fill Workflow, sondern soll nur verdeutlichen, wie das Key-Signal vom Mischer interpretiert wird und welche Teile des Signals volle Deckkraft haben oder in Abstufungen durchsichtig werden
Fill-Signal: Dieses Signal wird nun über den Inhalt gelegt. Welche Teile sichtbar sind und welche nicht, ergibt sich aber aus dem Key-Signal
Kombination aus Key- und Fill-Signal. Aus beiden Signalen setzt sich nun eine Grafik zusammen, die uneingeschränkt in Deckkraft und Farben variiert werden kann, da Transparenz und Inhalt getrennt voneinander eingespielt werden

 

>>zurück zum Anfang


IP- und Code-Schnittstellen

Die Erstellung von Bauchbinden & Co. erfolgt inzwischen fast ausschließlich softwarebasiert. Mit zunehmend IP-gestützter Signalverwaltung ist eine Aufteilung in Key- und Fill-Signal unter Umständen nicht mehr nötig und die Grafiken werden per NDI, ST-2110 oder gar HTML inkl. Alpha eingebunden. Wer z. B. ohnehin mit vMix, Wirecast, mimoLive oder OBS streamt, kann die Grafiken so direkt als eigenen Layer über Netzwerk einbinden. Streaming-Encoder, die mehrere Signale verwalten können, bieten mitunter auch die Option, Signale zu überlagern. HTML-basierte Grafiken lassen sich sogar erst auf der Wiedergabe-Ebene einbinden und greifen mitunter erst im Player oder Browser der Zuschauenden. Letzteres hat den Vorteil, dass sogar unterschiedliche Grafiken in Abhängigkeit vom Abspielgerät (z. B. Handy oder Laptop) eingebunden werden können – wenn man die Individualisierung auf die Spitze treiben möchte.

Web to NDI mit Vingester
Weiterverarbeitung von Web-Inputs: Vingester ist nur ein Beispiel für die Weiterverarbeitung von Grafiken, die per HTML ausgespielt werden. Unter Wahrung des Alphakanals kann das Signal so an NDI-fähige Mischer oder auch Encoder übergeben werden. CasparCG, vMix, Mitti 2 oder auch OBS erlauben die Übersetzung einer Webseite in Key- und Fill-Signal. (Bild: Alexander Heber)

>>zurück zum Anfang


Wie erstellt man Grafiken und Bauchbinden?

Mit dem Wissen um die Integrationsmöglichkeiten muss man nur noch entscheiden, mit welchem System die Grafiken erzeugt und wiedergegeben werden sollen. Leichter gesagt, als getan! Zu den Auswahlkriterien gehören der gestalterische Freiraum beim Design, die Bedienung und natürlich die Art der Einbindung. Die geläufigsten Optionen fassen wir im Folgenden zusammen.

PowerPoint – man nehme, was man hat

Was nicht kaputt ist, braucht man nicht zu reparieren. Dem geneigten Fernsehtechniker mag es vermutlich absurd vorkommen, aber PowerPoint ist durchaus eine Option für gute Grafikeinblendungen. Rechteck, Textbox, Folienanimation: fertig ist die animierte Bauchbinde.

Die Bedienung ist denkbar einfach, Operatoren sind schnell gefunden und Text und Grafik sind vektorbasiert. Die Animationen sind flüssig und skalieren sauber. Wenn alle Inhalte mit den Mitteln von Powerpoint erstellt sind, muss man sich keine Sorgen um verpixelte Texte und Formen machen. Ein weiteres Plus ist die einfache Verwendung dynamischer Inhalte. Informationen können ohne viel Aufwand aus einer Exceltabelle in PowerPoint importiert werden. Die besagte Tabelle wiederum lässt sich mit Excel-Bordmitteln mit Livedaten über das Internet und eigene Schnittstellen füllen.

Bauchbinden mit Powerpoint erstellen
Vektorbasiert und einfach! Bauchbinden und Logos in PowerPoint sind schnell program- miert. Auch Schatten und Verläufe sind möglich, wenn dabei keine Mischfarben durch die zu keyende Farbe entstehen und der Keyer im Mischer die Nuancen erkennt und verarbeiten kann. Man ist auf Chroma- oder Lumakey beschränkt, findet aber schneller Operator für Powerpoint als für andere Programme. (Bild: Alexander Heber)

Natürlich hat Powerpoint auch Nachteile. Von Hause aus bietet es keine Möglichkeit, einen Key- und einen Fill-Output zur Verfügung zu stellen. Das bedeutet, dass wir einen Chroma- oder Luma-Key im Bildmischer bemühen müssen. Wer nicht von Powerpoint abweichen möchte und dennoch getrennte Key- und Fill-Signale generieren will, findet in SimpleSupers (nur für Windows) ein Powerpoint-Plugin für genau diesen Zweck. Das kleine Tool kostet 199 Dollar und kann zusätzlich zum Fill-Content auch den Key-Kanal mit den Luma-Informationen generieren und über einen weiteren Videoausgang ausspielen. Diese Funktion muss vor dem Start der Präsentation einmal den Content rendern und dann steht zur Bedienung ein sehr kleines und unkomfortables Fenster zur Verfügung. Die bequeme Powerpoint-Bedienung geht so verloren und auch die Vorschau und Referenten-Ansicht sind hier leider Geschichte: Man muss wissen, welche Foliennummer man klickt. Für geradlinige und wiederkehrende Show-Abläufe kann das Plugin trotzdem eine Lösung sein.

>>zurück zum Anfang


High-End Character Generators

Während die Powerpoint-Lösung ein wenig improvisiert daherkommt, sind professionelle, broadcasttaugliche „Character Generators“ für nichts anderes gedacht, als Grafiken und Text in Kamerabilder zu animieren. Der Begriff des „Character“ ist dabei etwas in die Jahre gekommen, schließlich geht es schon lange Zeit um viel mehr als nur Texteinblendungen. Oft wird deshalb auch von „Live Graphics“ oder „Computer Graphics“ gesprochen.
Man kann die meisten Geräte mit Medienservern vergleichen. Hard- und Software sind aufeinander abgestimmt und man kommt mit dem dahinterliegenden Betriebssystem selten oder gar nicht in Kontakt. Da Computer „von der Stange” aber preisgünstiger sind und der Trend Richtung software- und cloudbasierter Medienproduktion nicht aufzuhalten ist, sind auch professionelle Varianten immer häufiger als reine Softwarelizenzen verfügbar.

Für Technikanbieter, die Studios betreiben oder wiederkehrende Shows produzieren oder sich einfach professionalisieren wollen, lohnt sich ein Blick auf die komplexen Lösungen. Die Schnittstellen zum Abgriff von Livedaten sind umfangreich und wenn es auf schnelle Reaktion ankommt, sind die High-End-Varianten auch die besten. Die Betonung bei diesen Systemen liegt in vielerlei Hinsicht auf dem „Real-Time-Aspekt“ – das gilt eben nicht nur für die Animation in Echtzeit, sondern auch für das Einpflegen und Ändern von Inhalten. Viele Optionen schaffen aber auch steilere Lernkurven und auf der Suche nach einer Alternative zum Powerpoint-Workaround sind Broadcastlösungen mitunter überdimensioniert und zu kostspielig für unsere Bedürfnisse. Die „großen“ Lösungen bieten immer Key & Fill als Ausgabemöglichkeit und auch die IP-basierten Varianten sind immer häufiger vertreten. Beispiele für professionelle Real- Time-Graphics-Generatoren sind u. a. Ross XPression, Chyron Mosaic, Dale Cube NG, Vizrt Viz Trio.

>>zurück zum Anfang


Softwarebasierte Grafikeinblendungen

Es muss nicht gleich die teure Komplettlösung für die Live- Fußball-Berichterstattung sein. Die Lücke zwischen Notnagel und dem oberen Ende der Fahnenstange schließt Software. Von Open Source bis zum Abo-Modell ist hier alles vertreten. Die Art des Ausspiels kann schnell zum Knackpunkt werden. Wir sollten Integrationen bevorzugen, bei denen der Alphakanal gewahrt bleibt. Hier wird unterschiedliche Hardware zur Ausgabe unterstützt und die Software nimmt damit direkten Einfluss auf die benötigte Computertechnik. Aber auch wenn die gewünschte Software keine direkte Ausgabe über eine Grafikkarte unterstützt, ist das nicht das Ende für gute Einblendungen. Zwischenschritte über OBS, vMix, Wirecast, Sienna NDI Outlet oder auch CasperCG können Signale von anderen Programmen in Key- und Fill-Signal zerlegen und an Grafikausgänge übergeben.

NDI zu Key und Fill
Eine Quelle für Video und Grafiken: Hat man erst ein- mal ein NDI-Signal mit Alphakanal, kann auch der Videoplayer zur Quelle der Grafiksignale werden. Mitti ist in der Lage, die Inhalte in Key- und Fill-Signale an Out- put-Karten von Blackmagic Design zu übergeben. Wenn kein Video läuft, könnte Mitti so auch zur Schnittstelle für die Grafiken werden. Seit Version 2.1 unterstützt Mitti auch die direkte Einbindung vom Webinhalten und ein Umweg über NDI wird unnötig. (Bild: Alexander Heber)

CasperCG kann z. B. auch direkt zum Dreh- und Angelpunkt für das Zuspiel werden. Die Open-Source-Software ist für diesen Zweck designt und kann in mehreren Ebenen Video, Text und Grafik animieren und kombinieren. Das Programm ist aus den Anforderungen des Broadcast geboren und seit 2006 in diesem Feld erprobt. Die Bedienung der Server/Client-konzipierten Software gehört nicht zu den intuitivsten, dafür kann man sich auf eine gute Performance und ein belebtes Forum verlassen.

Andere Produkte erinnern in ihrer Bedienung eher an Schnitt- und Animationsprogramme wie beispielsweise After Effects. Titler Live 5 von NewBlue, AxelTech CG Live oder Characterworks sind Beispiele für Programme, die den Fokus ganz auf die Animation von Text und Grafik legen. Hier kann natürlich direkt über die entsprechende Hardware mit Key- und Fill-Signal gearbeitet werden. Eine Integration von Adobe-After-Effects-Projekten, wie bei dem Produkt von NewBlue kann attraktiv sein, wenn man eng mit Designern zusammenarbeitet.

Wenn der Umweg über eine dritte Software zu umständlich erscheint, kann man aber in der Creative Cloud verbleiben und Premiere als Ausgabesoftware verwenden. Eine gerenderte Timeline per NDI abzuspielen ist möglich und zumindest für eine Backupvariante im Hinterkopf gut aufgehoben.

H2R Graphics for Lower Thirds
Einfach und preiswert: Die Pro-Lizenz von H2R Graphics kostet 80 US-Dollar für zwei Aktivierungen. Es können Presets angelegt werden, Livedaten verarbeitet werden und es gibt mehrere Ausspielmöglichkeiten. Die kostenlose Version lädt zum Probieren ein und kann bereits für einfache Anwendungen ausreichen. (Bild: Alexander Heber)

Dass es noch einfacher und preisgünstig gehen muss, haben sich vermutlich die Entwickler von „Here to Record“ gedacht, als sie H2R Graphics entwickelt haben. Zwar kann man nicht detailliert und mit Keyframes für passgenaue Animationen sorgen, für Timer, Logos und Bauchbinden funktioniert das Tool aber bereits recht gut. Das Videosignal kann für Chroma- oder Lumakeys angepasst werden. Der Clue jedoch: Wenn man den HTML-Output der Software nutzt, kann man auch mit Transparenz arbeiten. Entweder nutzt man dann eines der erwähnten Programme zu Aufsplittung in Key und Fill, oder man integriert den Weboutput direkt im Softwaremischer oder Encoder. Auch andere Entwickler haben HTML als eine praktische Art der Programmiergrundlage für sich entdeckt. Holographics ist ein weiterer, junger Anbieter in diesem Segment.

Singular Live für Bauchbinden
Online-Gestaltung und -Steuerung: Mit Singular.Live wird der Browser zur Medienzentrale. Grafiken, Animationen und Inhalt sind live editierbar und werden über eine einfache Oberfläche ein- und ausgeblendet. Ausgespielt wird über eine URL. (Bild: Alexander Heber)

Es funktioniert auch gänzlich ohne Installation. Das beweist Singular.Live. Ein komplexer Editor und eine App zur Steuerung der designten Inhalte ist online verfügbar. Ausgegeben wird über eine Webadresse. Einer Übersetzung auf Key und Fill steht also auch hier nichts im Weg, eine stabile Internetverbindung ist beim Cloudservice jedoch Voraussetzung. Die Grafiken direkt im Netz verfügbar zu haben, ist insbesondere für Bildmischer, die ebenfalls in der Cloud arbeiten, eine Variante Inhalte aufzuwerten. Die Browserlösung lässt sich in eine Vielzahl von Produktionsumgebungen integrieren: u. a. AWS MediaLive, Sony Virtual Production, Sienna, TVU Networks und viele weitere.

>>zurück zum Anfang


Selektiv aus All-In-One

Bei vielen Events wollen wir nicht auf die Flexibilität und Ausfallsicherheit von Hardwaremischern verzichten. Die Rechner mit den Softwaremischern bleiben dann im Regal. Dabei können wir diese auch nur für die integrierten CG-Fähigkeiten nutzen. Mit GT Designer von vMix kann man den meisten Kundenwünschen entspannt entgegensehen und die Palette an integrierten Presets macht den Start entsprechend einfach. Der Output über Decklink-Karten ist auch hier gegeben und der Abgriff von Livedaten ist auch kein Problem. Gleiches gilt für mimoLive, womit ebenfalls nur Text und Grafik zugespielt werden können. Womöglich schlummert das Potenzial zur ansprechenden Grafikeinblendung in ungenutzten Features längst erworbener Software – es hat sich nur noch niemand die Zeit nehmen können die Funktionen zu erproben.

>>zurück zum Anfang


Medienplayer im Bildmischer

Bildmischer sind in der Lage Grafiken oder auch Animationen zu speichern und über den Kameramix zu legen. Wenn die Anzahl der Einblendungen überschaubar bleibt und die Speicherplätze ausreichen, lässt sich die Bauchbinden- und Sendelogo-Thematik oft ganz einfach mit diesen Mitteln abhaken. Mischer, die auf Software basieren, wie beispielsweise NewTek Tricaster oder Panasonic Kairos, haben auch integrierte Character-Generatoren. Die Anpassung der Inhalte passiert dann in diesen Systemen. Damit die ganze Arbeit aber nicht an einer Person hängenbleibt, sind die Optionen zur Fernsteuerung besonders wichtig, wenn sich ein System um alles kümmern soll. Doch auch das funktioniert inzwischen problemlos und entweder kommen die Bordmittel der Hersteller zum Einsatz oder Companion wird zur Eingabemaske für neue Textinhalte.

>>zurück zum Anfang


Warum nicht Medienserver?

Für weniger dynamische Inhalte sind auch Medienserver eine adäquate Option. Aber auch wenn viele Variablen in den Timelines der gängigen Modelle animiert werden können, so sind Medienserver in der Regel auf das Abspielen vorproduzierter Inhalte optimiert. Der Clue bei der Verwendung dedizierter Character-Generatoren liegt jedoch darin, dass Inhalte in Echtzeit gerendert werden und eben keine Vorproduktion benötigen. In dieser Hinsicht können professionelle Animationsanwendungen, wie Ross XPression, Medienservern sogar den Rang ablaufen und die Animationen und Zwischenfolien vom Event viel schneller und dynamischer bereitstellen. Damit wird man Notch oder gar Unreal nicht ersetzen – logisch. Aber der Schritt zu flexiblen Inhalten kann nicht nur knapp geplante Shows retten, sondern auch einen bleibenden, positiven Eindruck bei Endkunden hinterlassen.

>>zurück zum Anfang


Sonderfall Stinger-Animation

Bei einer Stinger-Animation wird die Überblendung von einem Signal zum anderen durch eine grafische Animation ersetzt. Bei Sportübertragungen werden Wiederholungen oder Zeitlupen gern über eine solche Blende eingeleitet. Eine „echte“ Stinger-Animation ist mit dem Take-Button bzw. der Wippe des Bildmischers verknüpft. Die Abspielgeschwindigkeit ist somit dynamisch. Je nach Stinger können auch beide Signalquellen, zwischen denen gewechselt wird, gleichzeitig zu sehen sein und Videowiedergaben starten womöglich (auch zu einem ganz bestimmten Zeitpunkt innerhalb der Animation). Diese Blenden sind oft durch technische Mittel in einem Bildmischer zu lösen. Sie lassen sich aber in vielen Fällen auch durch eine geschickte Programmierung mit einer Mediensteuerung nachahmen. Am einfachsten gelingt die „gefakte“ Stinger-Animation, wenn diese zumindest für ein paar Frames das gesamte Bild ausfüllt. Dann kann dieser Moment zum Umschalten zwischen den Signalen im Hintergrund dienen.

>>zurück zum Anfang


Forschen lohnt sich

Live-Events fordern Live-Content. Sicher freuen wir uns, wenn schon zwei Tage vor der Veranstaltung alle Inhalte da sind, die Reihenfolge von Rednerinnen und Rednern feststeht und die Entscheidungen für Logo und Claim getroffen sind. Die Realität sieht oft anders aus und diesen Momenten mit Gelassenheit entgegen sehen zu können, macht die Arbeit für alle leichter. Die Regel „Das richtige Tool für den richtigen Job“ bleibt unangetastet, aber nicht von Speicherplätzen in Datenmischern oder unterlegenen Key-Methoden abhängig zu sein, zahlt sich aus. Dafür muss der ein oder andere Arbeitsablauf über Bord geworfen und neu gedacht werden: Besser jetzt als zu spät. Die computeraffinen Kreativen und erfahrenen Broadcaster werden hier überzeugen.

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.