Vom Sensor bis zum Auge

Über Sinn und Unsinn von 8K Video

„8K“ – diese beiden Zeichen beschreiben eine Bildauflösung. Seit Bilder digital aufgenommen und verbreitet werden, können wir Bildpunkte zählen. Aber wann lohnt es sich überhaupt, die hohen Datenmengen von 8K in Kauf zu nehmen?

4K-LED-Kinoleinwand
4K-LED-Kinoleinwand Heller, kontrastreicher, schärfer: Statt eines Projektors kommt im Cinecittà Nürnberg eine 10,2 x 5,4 m große Samsung Onyx LED-Wand zum Einsatz (Bild: Cinecittà Nürnberg)

Anzeige


Übersicht:

Meilensteine in der Auflösung bei Olympia

Bildqualität liegt im Auge des Betrachters

Produzieren in 8K

Sonderfall 360°-Video

Digital Signage, Bühnenhintergründe, Videowände

Bühnentechnik

Showrooms, Museen, Messestände

Kontrollräume, Bilder von Überwachungskameras

Medizinische Anwendungen 

Industrielle Anwendungen

Desktop-Anwendungen

Computerspiele

Hochauflösende LED-Wände als Alternative zu Greenscreenhintergründen

Fazit


8K steht für 8.000, man bezieht sich mit dieser Angabe auf die ungefähre horizontale Auflösung eines digitalen Bildes. Meist meint man ganz genau eigentlich ein Bild mit der Bildgröße 7.680 × 4.320 Pixel. Strenggenommen also 7,68 K, aber das klingt nicht so griffig. Man sagt dazu aber auch 4.320p, dann meint man die vertikale Anzahl von Pixeln, oder auch Zeilen. Eine weitere Bezeichnung für 8K ist UHD-II.

Und wenig zufällig ist 7.680 das Doppelte von 3.840, was wir als Breite eines 4K-(UHD-I)-Bildes bereits kennen. Die Verdoppelung der Pixelzahl in einer Dimension bedeutet eine Vervierfachung der Gesamtzahl der Bildpunkte und damit auch der aufzunehmenden und zu übertragenen Datenmenge. Da stellt sich natürlich die Frage: Lohnt sich das überhaupt?

Bevor wir dieser Frage weiter nachgehen, sollten wir festhalten, dass Bildauflösung nicht gleichbedeutend ist mit Bildqualität. Weitere Parameter spielen für den subjektiven Schärfeeindruck eine Rolle:

  • Helligkeit des Bildes (Die Schärfeleistung unseres Auges nimmt bei Dunkelheit ab)
  • Dynamikumfang / Kontrastumfang: Verhältnis zwischen hellstem und dunkelstem darstellbaren Bildpunkt
  • Farbtiefe (Anzahl der Abstufungen bei der Kodierung von Farben)
  • Qualität, „Trennschärfe“ der Pixel
  • Bei Filmaufnahmen: Bildfrequenz
  • Komprimierung des Bildes

Alle diese Faktoren beeinflussen unseren Eindruck von der „Bildqualität“. Eines ist allerdings klar: Wurden alle oben genannten Aspekte optimiert, können mehr Informationen (Details) nur durch eine Erhöhung der Pixelanzahl übertragen werden.

Frühes Fernsehbild
Frühes Fernsehbild (um 1930) Fernseher mit Nipkowscheiben (vertikale Zeilenanordnung) (Bild: Foto Eckhard Etzold, Wikipedia, CC BY-SA 3.0)

In diesem Artikel konzentrieren wir uns daher auf die Bildauflösung. Diese ist seit der Erfindung des Fernsehens in den 20er Jahren des letzten Jahrhunderts massiv angestiegen. Die ersten Fernsehbilder (um 1930) bestanden jeweils aus ca. 30 Zeilen.

>>zurück zum Anfang


Meilensteine in der Auflösung bei Olympia

Interessanterweise dienten stets olympische Spiele dazu, nicht nur sportliche Rekorde, sondern immer wieder Auflösungsrekorde aufzustellen. Folgende Errungenschaften stechen besonders heraus:

  • 1936: Erste Live-Übertragung überhaupt: 11. Olympische Spiele in Berlin. Vertikale Bildauflösung: ca. 90 Zeilen, natürlich in Schwarzweiß. Die frühen TV-Aufnahmesysteme hatten einen sehr geringen Dynamikumfang, geringer als fotografischer Film. Deshalb wurde in Berlin dafür ein spezieller Übertragungswagen eingesetzt. Auf dem Dach war eine Filmkamera montiert. Der Film, mit dem diese aufnahm, wurde durch ein Loch im Dach ins Innere des Fahrzeugs geführt, wo er in nur 45 Sekunden entwickelt und im Anschluss daran noch nass abgetastet und so in ein Fernsehbild verwandelt wurde, das in 28 Fernsehstuben übertragen wurde, wo 150.000 Menschen die Spiele (fast) live verfolgen konnten.
  • 1964: Erstmals weltweit via Satellit übertragene Spiele mit 480 Zeilen in Farbe (NTSC-Format).
  • 1984: Erstmals Aufzeichnung von Olympischen Spielen in analoger HDTV-Technik (1.125 Zeilen) in Los Angeles.
  • 2004: Erste Live-Übertragung in Full-HD (1.080 Zeilen) von den 28. Olympischen Sommerspielen in Athen.
  •  2012: Erste Live-Übertragung in 4K von den 30. Olympischen Sommerspielen in London.
  • 2016: Erste Live-Übertragung in 8K von den 31. Olympischen Sommerspielen in Rio de Janeiro.
„Olympia-Kanone“
Die „Olympia-Kanone“ Fernsehkamera auf der Olympiade 1936 (Bild: Wikipedia, XI Olympic Games, Berlin, 1936 Official Report, v.1)

Interessanterweise wurden die Meilensteine in Sachen Bildauflösung seit Jahrzehnten von japanischen Firmen gesetzt. Auch heute ist Japan das Land, in dem ein TV-Programm in 8K ausgestrahlt wird. Die japanische Sendeanstalt NHK betreibt seit 2018 den Sender BS8K, der ausgewählte Filme und Serien in 8K ausstrahlt. Auch altes Filmmaterial zeigt sich 8K-tauglich, wie der Science- Fiction-Kultfilm „A Space Odyssey“, der 1968 (!) auf 70-mm-Film aufgenommen und digital auf 8K „remastered“ wurde. Allerdings darf bezweifelt werden, dass ein analoger 70mm-Film an die Bildqualität eines heute 8K gedrehten Films herankommt.

Die Videoplattform YouTube unterstützt bereits seit März 2015, Vimeo seit Ende 2017 8K-Videos.

>>zurück zum Anfang


Bildqualität liegt im Auge des Betrachters

Und das ist diesmal wörtlich gemeint. Unser Auge ist ein faszinierendes Organ, aber schlecht mit einem Kameraobjektiv zu vergleichen. Würde man ein menschliches Auge als Objektiv verwenden, wäre die Bildqualität unterirdisch. Scharf nur auf einem kleinen Fleck in der Mitte, gerade Linien völlig krumm und schief. Aber unser Gehirn rechnet sich die aufgenommen Daten schön. Ähnlich wie ein Smartphone, nur krasser.

Fest steht: Wir sehen nur in einem kleinen Bereich wirklich scharf. Da wir aber diesen Bereich durch Augenbewegung schnell verändern können, nimmt das Gehirn die Umwelt in einem größeren Bereich als scharf wahr. Zwei Punkte in unserer Umgebung, die wir gerade noch voneinander getrennt wahrnehmen können, haben auf der Netzhaut einen Abstand von ca. 4 μm, was einen Seewinkel von 1 Bogenminute ergibt.

Die Preisfrage lautet nun: Können wir den Unterschied zwischen 4K und 8K überhaupt sehen? So gefragt lautet die Antwort natürlich „Ja“ – wenn wir nur nah genug an den Bildschirm herangehen können. Eine empirische Studie von Warner Bros. aus dem Jahre 2020 mit 139 auf ihre Sehkraft hin getesteten Teilnehmern zeigte, dass die meisten Menschen den Unterschied zwischen 4K und 8K auf einem 88-Zoll-8K-Fernseher (195 cm Bildbreite) selbst aus der geringen Entfernung von 1,5 m kaum oder gar nicht sehen konnten. Und wer setzt sich schon so nah vor einen so großen Fernseher?

Ob man einen Unterschied sieht, hängt allerdings auch vom gezeigten Content ab. Je weniger Bewegung im Bild ist, desto eher sieht man den Auflösungsunterschied. Warum das so ist? Zunächst hat das Auge bei blitzschnellen Bewegungen gar nicht die Zeit, die Kantenschärfe eines sich bewegenden Objekts zu analysieren. Schwerer wiegt jedoch, dass es diese Kantenschärfe in der Regel auch nicht gibt. Und es gibt sie absichtlich nicht. Stellen wir uns einen horizontalen Kameraschwenk über eine Stadt vor und stellen wir uns weiterhin vor, jedes Einzelbild wäre gestochen scharf. Bei 25 Bildern in der Sekunde würden Sie den Abstand einer vertikalen Kante von einem Bild zum nächsten auf dem Bildschirm als unschönes Zittern wahrnehmen. Um das zu vermeiden, verwendet man beim Filmen eine Belichtungszeit von ca. 1/50 Sekunde. Das sorgt für ein Verwischen von schnell bewegten Objekten („Bewegungsunschärfe“). Dieses Verwischen lässt die Bewegung weich und flüssig aussehen. Es liegt allerdings auf der Hand, dass diese Bewegungsunschärfe jeden Auflösungsvorteil zunichte macht. Das ist auch der Grund, warum Demo-Aufnahmen für 4K und 8K in der Regel Natur- und Drohnenaufnahmen zeigen: Viele Details, wenig Bewegung.

Will man den Auflösungsverlust durch Bewegungsunschärfe vermeiden, muss man die die Verschlusszeit kürzer machen und im Gegenzug die Bildfrequenz erhöhen. Mindestens auf 60 Bilder/s. Aber 8K mit 60 fps? Da sprechen wir von gigantischen Datenmengen: Unkomprimiert 60 × 100 MB = 6 Terabyte … pro Sekunde! Sicherlich, die tatsächlichen Datenmengen sind durch komprimierende Codecs deutlich geringer. Der neueste Standard, gemeinsam entwickelt von Google, Amazon, Netflix, Intel, AMD und NVIDIA heißt AV1 und wurde 2018 veröffentlicht. Er reduziert die Datenrate für Videostreaming gegenüber Vorläufer-Codecs nochmal um 30 – 50 %.

Jetzt wissen wir, dass der Betrachtungsabstand nicht besonders groß sein darf, wenn man ein möglichst scharfes und detailreiches Bild sehen will. Womit auch klar ist, dass man sich im Kino besser nicht in die letzte Reihe setzt. Wobei die allermeisten Kinos die Filme nur in 2K zeigen. Der Standard der Digital Cinema Initiatives (DCI), dem alle großen Hollywood-Studios angehören, ist 2.048 × 1.080. Wenige Kinos zeigen Filme in 4K (DCI 4.096 × 2.160) und kaum welche in 8K (DCI 8.192 × 4.320). Die Kinoformate sind mit einem Seitenverhältnis von 256:135 (ungefähr 17:9) etwas breiter als die Consumer-Formate 16:9.

Wir können schon mal festhalten, dass 8K für die Wiedergabe von Videos und Filmen in den allermeisten Fällen nicht sinnvoll ist, zumal 8K-Geräte ca. 40 % mehr Strom verbrauchen als 4K-Geräte. Aber warum gibt es dann so viele Kameras, die 8K aufzeichnen können? Selbst einige spiegellose Digitalkameras für Consumer können 8K- Video aufnehmen (z. B. Canon R5, Nikon Z9, Sony A1). Für den professionellen Einsatz ist mit der Blackmagic Design Ursa Mini Pro 12K eine Kamera auf dem Markt, die bereits 12K mit 60 fps oder 8K mit 120 fps filmen kann. Und das mit einem Dynamikumfang von 14 Blendenstufen. Ein einziges Frame ist hier bereits 80 Megapixel (12.288 × 6.480 Pixel) groß!

Für industrielle Anwendungen gibt es Zeilenkameras, die 16K in der
Breite aufnehmen, aber nur eine einzige Zeile. Anwendungen sind u. a. die zerstörungsfreie Werkstoffprüfung oder das Digitalisieren von Dokumenten.

>>zurück zum Anfang


Produzieren in 8K

Antwort: Es hat Vorteile, in 8K zu drehen, auch wenn man nur in 4K oder 2K vorführt / sendet. Zum einen hat man damit einen gewissen Spielraum beim Bildausschnitt. Den kann man nachträglich ohne Qualitätsverlust optimieren. Oder man nutzt das höher aufgelöste Quellmaterial für digitale Zoomeffekte. Selbst wenn man auf beides verzichtet, bleibt ein weiterer Vorteil: Ein 4K-Bild, das durch Downscaling (Kleinrechnen) eines 8K-Bildes entsteht, ist schärfer als ein Bild, das kameraseitig in 4K aufgenommen wurde. Warum ist das so?

Praktisch alle gebräuchlichen Bildsensoren von digitalen Film- und Fotokameras arbeiten nach dem Konzept der Bayer-Matrix. Eine einzelne Fotozelle kann nur Helligkeitswerte erfassen. Durch winzige Filter über den Photodioden werden diese jeweils für eine bestimmte additive Grundfarbe empfindlich gemacht. Additive Grundfarben sind Rot, Grün und Blau (RGB). Das menschliche Auge kann Grün viel besser wahrnehmen als Rot oder Blau, weil es sich im Laufe der Evolution dem Leben in der Natur angepasst hat. Analog zur spektralen Empfindlichkeit des menschlichen Auges gibt es auf einem Kamerasensor wesentlich mehr Fotozellen mit einem grünen Filter (72 %) als mit einem roten (21 %) oder blauen (7 %). Die maximale Schärfe eines Bildes ist daher nur bei einer Schwarzweiß-Vorlage (Graustufen) gegeben, dicht gefolgt von grünen Objekten. Durch die Bayer- Matrix gehen etwa 30 % der Schärfeleistung einer Kamera verloren. Dieser Verlust kann dadurch kompensiert werden, dass man mit einer höheren Auflösung aufnimmt und diese dann kleinrechnet.

Ein weiterer Grund, in 8K aufzunehmen wäre, eine besonders historische Situation für die Nachwelt zu dokumentieren, in dem Wissen, dass dies später nicht mehr möglich sein wird. So gibt es seit 2022 auch Filmaufnahmen vom Wrack der Titanic in 8K, das sich in einem ständigen Verfall befindet.

Doch in 8K zu produzieren hat seinen Preis: 8K bedeuten mehr und bei gleicher Sensorgröße kleinere Pixel. Das bedeutet: Beugungsbegrenzung setzt früher ein, Schärfentiefe ist geringer. Da kleinere Pixel weniger Licht einfangen können, muss das Bildsignal stärker verstärkt werden, was das Bildrauschen erhöht. Man braucht teurere Kameras, aber auch teurere Objektive, denn Objektivfehler sieht man bei 8K deutlicher. Es ist zudem notwendig, sauberer zu arbeiten. Das gilt sowohl für die Kameraleute als auch für das Maskenbild.

Auch die Postproduktion braucht deutlich mehr Ressourcen. Selbst wenn man schnellere Rechner einsetzt, braucht man für jeden Produktionsschritt mehr Zeit, denn es müssen gegenüber 4K viermal so viele Daten verarbeitet werden. Während Full-HD und oftmals 4K meist nativ bearbeitet werden können, so ist es bei 8K so gut wie unumgänglich, mit Proxys zu arbeiten. Das bedeutet: Man erstellt vom gesamten Ausgangsmaterial Kopien in geringer Auflösung, nutzt diese für einen zügigen Schnitt, bei dem Effekte auch in Echtzeit angezeigt werden können. Erst beim Rendering der finalen Fassung wird wieder das Originalmaterial verwendet.

>>zurück zum Anfang


Sonderfall 360°-Video

Spoiler Alert: Bei der Aufnahme von 360°-Video bringen 8K gegenüber 4K einen drastischen, sehr deutlich sichtbaren Qualitätsgewinn. Warum denn das auf einmal?

Dazu muss man sich vergegenwärtigen, wie 360°-Filme in der Regel aufgenommen und gespeichert werden. Korrekterweise muss man sagen: 360°-Filme, die mit einer einzigen Kamera aufgenommen werden. Man kann nämlich auch mit vielen Kameras gleichzeitig ein Gesamtbild in verschiedenen Richtungen aufnehmen. Die Videodateien der einzelnen Kameras können dann hinterher zu einem großen, zylindrischen Video zusammengerechnet werden. Wir sprechen hier allerdings von Kameras, die die gesamte Umgebung (360° horizontal sowie 90° nach oben und 90° nach unten) in einer einzigen Videodatei aufnehmen. Man spricht hierbei von Kugel- oder sphärischen Panoramen. Diese werden üblicherweise in einem Bildformat 2:1 gespeichert. Die Bilddaten werden für die Speicherung in eine äquirektangulare Projektion umgerechnet. Das sieht dann ähnlich aus wie eine Weltkarte im Erdkundeunterricht: In der Mitte einigermaßen normal, zu den Polen aber drastisch verzerrt.

Seßlach, Kirche
360-Grad Gesamtbild in äquirektangulärer Projektion, daneben Ausschnitte in gewohnter Perspektive (Bild: Michael von Aichberger)

Die Bildbreite einer solchen Datei entspricht den horizontalen 360° der Aufnahme. Wird so ein Videobild in 4K aufgezeichnet, so stehen am Horizont für 1 Grad Bildwinkel 3.840 / 360 = 10,6 Pixel zur Verfügung.

Nun schaut sich aber niemand diese Datei so wie sie ist an. Stattdessen bedient man sich eines Software-Video- Players, der einen Ausschnitt in gewohnter Fluchtpunktperspektive und in einem gewohnten Blickwinkel darstellt. Den Ausschnitt kann man dann interaktiv selbst verändern. Auch Youtube oder Facebook können entsprechend kodierte 360°-Videos interaktiv anzeigen. Mit dem „gewohnten Blickwinkel“ ist allerdings nicht der ca. 170° umfassende Blickwinkel unseres peripheren Sehens gemeint, sondern der approximierte Bildwinkel innerhalb dessen räumliches Sehen möglich ist. Dieser Bildwinkel entspricht dem eines Objektivs mit einer Brennweite zwischen 35 mm und 50 mm einer Kleinbildkamera. Das wären horizontal ca. 50°.Oftmals betrachtet man 360°-Videos auch mit VR-Brillen (Virtual Reality). Hierbei wird der oben beschriebene Ausschnitt beiden Augen gleichzeitig angeboten.

Wurde das Video in 4K gedreht, so hat der Ausschnitt dennoch nur 50° / 360° × 3.840 Pixel = 533 Pixel. Damit hat das Bild nur noch die Qualität eines VHS-Videorekorders. Und wer etwas älter ist weiß: Das war nach heutigen Maßstäben nicht so toll.

Eine Speicherung des 360°-Videos in 8K hingegen bietet dem Auge horizontal immerhin 1.066 Pixel. Wollte man in der VR-Brille jedoch ein schönes Full-HD- Bild sehen (1.980 Pixel Bildbreite), müsste das Ausgangsbild eine Breite von 14.256 Pixeln haben. Dafür bräuchte man fast schon 16K. Für ein 4K-Bild des gewohnten Blickwinkels wären sogar fast 32K nötig – ca. 30.000 Pixel Bildbreite.

Halten wir fest: 360°-Video freut sich über jedes Pixel mehr, das es kriegen kann!

>>zurück zum Anfang


Digital Signage, Bühnenhintergründe, Videowände

Und Was bringen uns 8K für Digital Signage oder Videowände?
Stellen Sie sich vor, Sie gehen zu Ihrem Fotohändler oder Drogeriemarkt und lassen sich Abzüge von ihren schönsten Fotos machen. Wissen Sie, in welcher Auflösung Sie diese Fotos dann in der Hand haben? Es sind 300 dpi. 300 Bildpunkte pro Inch (188 Bildpunkte pro cm). Sie verlassen den Drogeriemarkt und sehen an einer Hauswand ein Werbeplakat, auch Großflächenplakat genannt. Der Klassiker heißt 18/1 (Sprich „Achtzehn Eintel“) und ist 3,56 × 2,52 m groß. Welche Auflösung hat wohl dieses Plakat? Es sind keine 300 dpi. Es sind nur noch 60 dpi. 23 Punkte pro cm. Wenn Sie auf das Foto in ihrer Hand schauen und dann auf das Plakat, werden sie wahrscheinlich keinen Unterschied sehen. Es ist alles eine Frage des Betrachtungsabstands. Würde man ein Großflächenplakat mit 300 dpi drucken … niemand würde den Unterschied sehen.

Digital Signage sind die Reklameplakate von heute. Auch zu ihnen hat man in der Regel ordentlich Abstand. Je größer die LED-Displays, desto weiter ist man in der Regel von ihnen entfernt. Demnach gilt dasselbe, was für Ihr Heimkino gilt: Mehr Bildauflösung als Full-HD oder eventuell noch 4K ist wegen des Betrachtungsabstandes praktisch nie nötig.

Auch hier gibt es Ausnahmen: Manche Zeitungshäuser ersetzen heute ihre Zeitungsaushänge durch interaktive digitale Displays. Eine Zeitungsseite aber enthält viel kleingedruckten Text. Für die Darstellung einer solchen Zeitungsseite, die ja auch aus einer Armlänge heraus betrachtet wird, sorgen nur höhere Auflösungen als Full-HD für ein scharfes Schriftbild.

>>zurück zum Anfang


Bühnentechnik

Die Frage des Betrachtungsabstands stellt sich auch bei Videowänden, die als Hintergrund für Live-Events wie Konzerte eingesetzt werden.

LED-Wand
LEDcave-Studio Berlin LED-Wand und Decke als Hintergrund für Filmproduktionen (Bild: LEDcave)

Die derzeit wohl anspruchsvollste und technisch weit in die Zukunft weisende Bühnentechnik kann man seit dem 27. Mai 2022 in London bewundern: Im Olympiapark von 2012 hat die schwedische Popgruppe ABBA eine Arena errichtet, in der jeden Tag rund 3.000 Zuschauer eine Bühnenshow vom Feinsten geboten bekommen, bei der die Pop-Titanen sich von CGI generierten Avataren vertreten lassen. Ziel ist es natürlich, dass das Publikum nicht erkennen können soll, ob es sich bei den Akteuren auf der Bühne um echte Menschen oder computergenerierte Avatare handelt.

Hinter einer Bühne, auf der tatsächlich auch echte Musiker spielen, erhebt sich eine 55 Meter breite und 9,5 Meter hohe Videowand, auf der die Illusion einer Live-Performance von Björn, Benny, Anni-Frid und Agnetha erzeugt wird. Die Module haben einen Pixel-Pitch von 2,8 mm, das entspricht 3.344 Pixel in der Bildhöhe. Das ist von der Bildhöhe her im Bereich von 6K. Einzelne Pixel sind aus dem Saal heraus nicht zu erkennen.

Also auch hier: Mehr als 4K als Ausgangmaterial dürfte bei Konzerten und Events nie notwendig sein. Wiedergabeseitig werden die Signale sowieso aufgesplittet. Die Abba- Videowand besteht aus über 2.000 einzelnen quadratischen LED-Displays mit je 176 × 176 Pixeln.

>>zurück zum Anfang


Showrooms, Museen, Messestände

Wo immer große Flächen in kleinen Räumen bespielt werden, kann eine 8K-Auflösung hingegen sinnvoll sein. Einige Museen präsentieren rahmenlos auf ganze Wände und ermöglichen dadurch eine immersive Wahrnehmung von Kunst. Messestände sind meist eng, Betrachtungsabstände kurz. Dasselbe gilt für Showrooms und Ladenlokale. Je nach Produkt kann hier eine qualitativ hochwertige Präsentation auf 8K-Bildschirmen sinnvoll sein.

Museum of the Future Barco Rigiflex:
Museum of the Future Barco Rigiflex: State of the Art der Projektion (Bild: Atelier Brückner Roenneke)

>>zurück zum Anfang


Kontrollräume, Bilder von Überwachungskameras

Und in Kontrollräumen müssen oft große Datenmengen gleichzeitig angezeigt werden: Texte, Grafiken, Karten. Hier sitzt das Personal in der richtigen Entfernung und kann alle dargestellten Details ohne Hilfsmittel erfassen.

LED-Wand in Kontrollzentrum
LED-Wand in Kontrollzentrum Hochaufgelöste LED-Wand in 8K auf der Integrated Systems Europe 2023 (Bild: Dominik Roenneke)

Hochauflösende Überwachungskameras könnten Bilder von großen Plätzen übertragen. Eine hochauflösende Wiedergabe auf großen Monitoren erlaubt die Erfassung der Lage ohne Einzoomen zu müssen. Oft müssen sehr komplexe Schaltpläne oder Fahrwege angezeigt werden, wofür 8K bestens geeignet ist.

>>zurück zum Anfang


Medizinische Anwendungen

Neueste endoskopische Kameras können Bilder aus dem Innern eines Körpers in 8K übertragen. Üblich sind bisher noch 2K-Kameras. Doch eine niedrigere Auflösung bedeutet, dass die Kamera nahe an das aufzunehmende Objekt herangeführt werden muss. Dort jedoch stört sie oftmals die Chirurgen, die ja zusätzlich zur Kamera noch Bewegungsspielraum für die ganzen chirurgischen Werkzeuge benötigen und das meist auf engstem Raum. Durch die höhere Auflösung von 8K kann die Kamera die Szene von weiter weg erfassen, einen besseren Überblick vermitteln und so die Operation sicherer machen.

Darüber hinaus ermöglichen hochaufgelöste Systeme die Identifikation von sehr feinen Blutgefäßen oder Nervensträngen. Beispielsweise Bypass-Operationen oder das Verbinden kleinster Gefäße oder Nervenstränge können mit einer höheren Genauigkeit ausgeführt werden.

Auch die Unterscheidung zwischen gesundem Gewebe und Krebszellen wird durch eine hohe Bildauflösung einfacher.
Eine Herausforderung für die Hersteller von endoskopischen 8K-Kameras bleibt jedoch die Tatsache, dass die Kameras sehr kompakt und gleichzeitig möglichst lichtempfindlich sein müssen. Die Entwicklung geeigneter Sensoren und Optiken für diesen besonderen Anwendungsfall steckt noch in den Kinderschuhen.

>>zurück zum Anfang


Industrielle Anwendungen

In der Industrie gibt es häufig die Situation, Objekte untersuchen bzw. ausmessen zu müssen, ohne sie zu berühren, häufig in Bewegung (auf dem Fließband). So werden beispielsweise in der Automobilindustrie Karosserieteile bei ihrer Fertigung auf Abweichungen von Toleranzen untersucht. Neben Laserscans werden hierbei heute vermehrt Aufnahmen mit hochauflösenden Digitalkameras verwendet. Das Verfahren nennt sich Photogrammetrie. Ein Objekt wird von mehreren Seiten aufgenommen. Markierungen am Objekt ermöglichen es einer Software, aus den Bildern ein 3D-Modell vom Bauteil zu errechnen, welches in der Folge automatisch ausgemessen werden kann. Höhere Auflösungen ermöglichen hier eine höhere Genauigkeit.

>>zurück zum Anfang


Desktop-Anwendungen

Wer wie die meisten Computernutzer ca. 50 cm vor seinem Bildschirm sitzt, sähe natürlich einen Unterschied zwischen 8K und 4K (vorausgesetzt der Bildschirm wäre entsprechend groß). Die Vorteile hier liegen auf der Hand: Es können mehr Fenster nebeneinander dargestellt, mehr Informationen auf einen Blick erfasst werden. Besonders sinnvoll wären hohe Auflösungen für Kreative: z. B. Fotografen, Grafiker oder Videoproduzenten. Auf einem 8K-Monitor könnten Fotografen ein Bild auch hochformatig noch in guter Auflösung betrachten. Anwender von Videoschnitt-Programmen könnten sich das Schnittfenster, diverse Paletten und verschiedene Programmansichten (Quelle, Master) gleichzeitig anzeigen lassen. Der Konjunktiv in obigen Ausführungen ist allerdings der Tatsache geschuldet, dass Stand heute 8K-Monitore und Grafikkarten, die 8K unterstützen noch verhältnismäßig rar und teuer sind. Einige Monitore sind extrem breit und bieten eine Auflösung in der Breite von 8K, in der Höhe aber nur 4K (2.160 Zeilen). Meist verwenden Kreative aber heute einfach noch mehrere Full- HD oder 4K-Monitore nebeneinander, so dass echte 8K auch hier nicht zwingend notwendig sind.

>>zurück zum Anfang


Computerspiele

Der Betrachtungsabstand beim Computerspielen wäre ebenfalls ausreichend gering für 8K. Allerdings erinnern wir uns an die weiter oben beschriebene Tatsache, dass 8K für schnelle Bewegungen wenig bringt. Eine 4K-Auflösung mit einer Framerate von 120 fps ist für Gamer allemal sinnvoller als eine 8K-Auflösung mit 60 oder gar nur 30 fps.

>>zurück zum Anfang


Hochauflösende LED-Wände als Alternative zu Greenscreenhintergründen

Schon in der Anfangszeit des Films wurden Darsteller im Studio platziert und bewegte Hintergründe per Rückprojektion hinzugefügt. Rückprojektion bedeutete, dass hinter den Schauspielern eine halbtransparente Leinwand aufgebaut wurde, auf deren Rückseite die Hintergrundszenen mittels eines Filmprojektors projiziert wurden. Alfred Hitchcock galt bereits als Meister dieser Technik.

In jüngerer Zeit wurde die Rückprojektion durch Green- oder Bluescreens ersetzt. Die jeweilige Farbe der Hintergründe konnte dann in der Postproduktion ausgestanzt und durch beliebiges Filmmaterial getauscht werden.

Aber auch in der Filmindustrie hat die Zukunft bereits Einzug gehalten, in Form von riesigen LED-Wänden, vor denen Requisiten und Schauspieler platziert werden. Auf die Wände können per Mausklick beliebige Inhalte gezaubert werden, so dass verschiedene Einstellung ohne Location- Wechsel hintereinander abgedreht werden können, was natürlich die Effizienz deutlich erhöht und die Aufwände in der Postproduktion verringert.

Meist ist das so gedrehte Filmmaterial bereits „fertig“. Allerdings reduzieren sich die Möglichkeiten nachfolgender Korrekturen. Hinterher den Hintergrund nochmal auszutauschen, das geht nicht mehr.

Mit den LEDcave-Studios in Mannheim, Berlin und Erft- stadt bei Köln sind Europas größte LED-Studios entstanden. Je nach Standort variiert die Bildbreite der Studios zwischen 32 und 45 m mit einer Höhe von imposanten 6,5 bis 7,5 m. Während im Studio in Erftstadt mit variablen LED- Deckenelementen gearbeitet wird, ist am Standort in Berlin eine komplette hochauflösende LED-Decke mit 22 m Breite und 14 m Tiefe fest installiert.

Gesamt stehen mehr als 700 m2 LED-Material mit einem Pixel Pitch von 2,6 mm an den drei Standorten zur Verfügung. Die Pixel können eine Farbtiefe von bis zu 10 Bit darstellen bei einer maximalen Helligkeit von 1.200 Nits. Alle technischen Komponenten sind miteinander per Genlock verknüpft. Über ein Tracking-System wird die Kameraposition in die virtuellen und in Echtzeit berechneten Hintergründe übertragen. Die sogenannte Parallaxe, also die Tiefenverschiebung im Raum, stimmt dabei immer mit der Kameraposition in der „echten“ Welt überein.

>>zurück zum Anfang


Fazit

Wir haben gesehen: 8K ist nur in wenigen Bereichen wirklich sinnvoll, wird sich aber in den beschriebenen Nischen durchsetzen. Ansonsten gilt auch hier das Gesetz vom abnehmenden Grenznutzen: Einer Erhöhung der Bildauflösung steht ein immer geringerer Nutzen gegenüber. Daher wird es eine allgemeine Verbreitung von 8K, wie die, die der PAL-Standard (576 sichtbare Zeilen) bei uns über Jahrzehnte innehatte, wohl nicht geben.

>>zurück zum Anfang

Kommentar zu diesem Artikel

  1. Sehr interessanter Artikel, danke dafür.
    Zu kurz kommt meiner Meinung nach der ökonomisch / ökologische Aspekt.
    Unsere Branche macht in ihren “höher-schneller-weiter” Ritualen weiter, als ob um uns herum nichts passiert. Warum muss denn jede Feuerwehrkapelle großformatige LED Wände mit banalen Inhalten mit sich herumfahren ?
    8K nutzt doch nur der Industrie, oder ?
    Schreibt doch mal einen Artikel über die Nutzungszyklen im Video / broadcastbereich. In welchen Zeitabständen brauchts denn mal wieder neues Equipment ? Größeren Strombedarf, größeren Transportaufwand etc.pp

    Auf diesen Kommentar antworten

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.