Die HDR-Technologie ist mittlerweile so weit verbreitet, dass beliebte Streaming-Dienste wie Amazon Prime, Disney+ und Netflix damit begonnen haben, HDR-Inhalte zu unterstützen. Wenn Sie heute nach einem neuen Fernseher oder Monitor suchen würden, wären Sie überrascht, wie fast jedes Produkt HDR auf seiner Spezifikationsliste bietet.

Was die Frage aufwirft: Was ist HDR genau? Wie funktioniert HDR und wie ist es im Vergleich zu normalem SDR?

Was ist SDR?

Der Standard Dynamic Range (SDR) ist ein Videostandard, der seit CRT-Monitoren verwendet wird. Trotz des Markterfolgs von HDR-Bildschirmtechnologie, SDR ist immer noch das Standardformat, das in Fernsehern, Monitoren und Projektoren verwendet wird. Obwohl es in alten CRT-Monitoren verwendet wurde (und tatsächlich durch die Einschränkungen der CRT-Technologie behindert wird), ist SDR auch heute noch ein akzeptables Format. Tatsächlich verwendet die überwiegende Mehrheit der Videoinhalte, ob Spiele, Filme oder YouTube-Videos, immer noch SDR. Wenn das Gerät oder der Inhalt nicht als HDR eingestuft ist, verwenden Sie wahrscheinlich SDR.

instagram viewer

Was ist HDR?

High Dynamic Range (HDR) ist der neuere Standard für Bilder und Videos. HDR wurde zuerst bei Fotografen beliebt, die eine Komposition mit zwei Motiven mit einem Unterschied von 13 Stufen im Belichtungswert richtig belichten wollten. Ein so großer Dynamikbereich würde eine angemessene Belichtung realer Szenen ermöglichen, die zuvor mit SDR nicht möglich waren.

Bildnachweis: Richard Huber/Wikimedia Commons

In jüngerer Zeit wurde HDR in Filmen, Videos und sogar Spielen eingeführt. Während SDR-Inhalte einen übertriebenen Himmel, nicht unterscheidbare Schwarztöne und Banding-Probleme während der Wiedergabe lieferten Szenen mit hohem Kontrast, HDR stellt diese Szenen realistisch mit einem ausgedehnteren Farbraum, Farbtiefe, und Leuchtdichte.

Ein breiterer Farbraum, eine größere Farbtiefe und eine höhere Leuchtdichte machen HDR besser als SDR – aber um wie viel?

Vergleich HDR vs. SZR

Wenn Sie jemals nach einem Monitor gesucht haben, sind Ihnen wahrscheinlich bestimmte Spezifikationen wie sRGB, Nits und cd/m2 sowie 10-Bit-Farben aufgefallen. Diese Spezifikationen beziehen sich auf Farbraum, Leuchtdichte und Farbtiefe. All diese Spezifikationen machen lebendige, gut gemischte und angemessen belichtete Motive in einem Bild aus.

Um den Unterschied zwischen HDR und SDR besser zu verstehen, vergleichen wir die beiden anhand ihrer Farbskala, Helligkeit und Farbtiefe. Beginnen wir mit dem Farbraum.

Farbskala

Ein Farbraum ist ein theoretisches Farbspektrum, das digital dargestellt werden kann. Um alle möglichen Farben darzustellen, die das Auge sehen kann, verwendet die Industrie die sogenannte CIE 1931-Farbtafel. Dieses Diagramm ist der Standard, mit dem verschiedene Farbräume verglichen werden. SDR verwendet einen Farbraum namens Rec 709 und HDR mit Rec 2100. Das Dreieck stellt dar, wie viel Platz sie in der folgenden Abbildung verwenden:

Bildnachweis: Sakurambo/Wikimedia Commons

Wie Sie sehen können, ist der von HDRs Rec 2100 verwendete Farbraum deutlich größer als der von SDRs Rec 709.

Mit dem großen Farbraum von HDR steht Filmemachern und verschiedenen Erstellern von Inhalten ein deutlich größeres Spektrum an Grün-, Rot- und Gelbtönen zur Verfügung, um ihre Arbeit genau und künstlerisch darzustellen. Das bedeutet, dass Zuschauer, die HDR ansehen, lebendigere Farben sehen, insbesondere in Grün, Gelb, Rot und allem dazwischen.

Da der Farbraum bei SDR proportionale Mengen an Primärfarben enthält, können Koloristen ihre Arbeit immer noch schön darstellen, wenn auch mit erheblichen Einschränkungen.

Helligkeit

Sie haben gesehen, wie die Farbskala in 2D dargestellt wird, wie die zuvor verwendete. Der gesamte CIE 1931-Farbraum ist jedoch eigentlich ein 3D-Diagramm. Die 3. Dimension des Diagramms repräsentiert die wahrgenommene Helligkeit der Farbe. Helligkeit und Sättigung bestimmen die Qualität der Farben, die Menschen sehen können.

Ein Display, das höhere Luminanzmengen ausgeben kann, ist besser in der Lage, alle Farbtöne zu modifizieren, die die 2D-Farblandschaft darstellt, und kann somit mehr Farbe anzeigen, die für das menschliche Auge sichtbar ist. Die Leuchtdichte wird in Nits oder Candela/m2 gemessen.

SDR kann 100nits oder 100cd/m2 ausgeben. Im Gegensatz dazu kann HDR10 (der gängigste HDR-Standard) bis zu 1.000 Nits ausgeben. Das bedeutet, dass Zuschauer in HDR10 mehr Arten von Primär- und Sekundärfarben sehen können.

Farbtiefe

Obwohl das menschliche Auge alles analog sieht, müssen digitale Displays diese analogen Lichtwellen in digitalen Bits nachahmen, damit Prozessoren sie nachbilden können. Diese digitalen Informationsbits werden als Farbtiefe oder Farbbits bezeichnet.

Das menschliche Auge nutzt die Wahrnehmung, um verschiedene Farben zu sehen. Digitale Displays verwenden Farbtiefe oder Bittiefe, um einem Pixel mitzuteilen, welche Farbe angezeigt werden soll. Je mehr Bit ein Pixel blinken kann, desto mehr Farben kann es darstellen.

SDR kann 8 Bit Farbe anzeigen, was bedeutet, dass ein Pixel eine Primärfarbe in 256 Varianten anzeigen kann. Da es drei Primärfarben gibt, kann ein 8-Bit-Panel maximal 16.777.216 Farbschattierungen darstellen.

Zum Vergleich: Das menschliche Auge kann nur etwa 10 Millionen Farben unterscheiden. Das bedeutet, dass SDR sehr gut in der Lage ist, Farben darzustellen, die unser menschliches Auge sehen kann, weshalb 8-Bit-Farbe auch heute noch der Standard für visuelle Medien ist.

Im Gegensatz dazu kann HDR10 eine Farbtiefe von 10 Bit erreichen, was maximal 1,07 Milliarden Farbschattierungen zulässt!

Beeindruckend, aber da das menschliche Auge nur etwa 10 Millionen Farben unterscheiden kann, ist eine 10-Bit-Farbtiefe nicht zu viel des Guten? Kannst du überhaupt den Unterschied sehen?

Ja, das könntest du absolut! Aber wie?

Menschen können mit einer Tiefe von 10 Bit mehr Farben wahrnehmen, weil das menschliche Auge die Farbtöne nicht gleich wahrnimmt.

Bildnachweis: Sakurambo/Wikimedia Commons

Wenn Sie sich die CIE 1931-Chromatizitätsskala (oben abgebildet) ansehen, können Sie sehen, dass das menschliche Auge viel mehr Grün und Rot als Blau sehen kann. Obwohl eine 8-Bit-Farbtiefe alle Blautöne, die Ihre Augen wahrnehmen können, maximieren kann, kann sie dies nicht mit Rot und insbesondere mit Grün tun. Obwohl Sie in 8- und 10-Bit etwa den gleichen Blaubereich sehen, zeigen andere Primärfarben wie Rot und Grün auf einem System mit 10-Bit-Farbtiefe mehr.

Vor- und Nachteile von HDR und SDR

Bildnachweis:tdlucas5000/Flickr

HDR und SDR sind zwei Standards, die in visuellen digitalen Medien verwendet werden. Die Verwendung eines Standards von einem anderen wird seine Straßen und Schwächen haben. Hier ist eine Tabelle, die Ihnen zeigt, wie sich das eine mit dem anderen vergleicht:

In Bezug auf Farbe und Darstellung ist HDR in jeder Hinsicht besser als SDR. Es bietet deutliche Verbesserungen in Farbraum, Leuchtdichte und Farbtiefe. Wenn Sie also die Möglichkeit haben, Filme anzusehen, Bilder anzuzeigen oder Spiele in HDR zu spielen, sollten Sie dies immer tun – aber können Sie das?

Das Problem mit HDR ist, dass die meisten Verbrauchsmedien nicht HDR-kompatibel sind. Oft wird das Betrachten von HDR-Medien auf einem SDR-Bildschirm Ihr Seherlebnis schlechter machen als das Betrachten auf einem normalen SDR-Panel.

Ein weiteres Problem ist, dass die meisten HDR-Geräte HDR10 verwenden, das lose standardisiert ist, während seine Vermarktung weitgehend einheitlich ist. Beispielsweise finden Sie das HDR10-Logo auf einem unterdurchschnittlichen Panel, das nicht so gut funktionieren kann wie das 1.000-Nits-Panel, das in HDR10-Werbung gezeigt wird.

Obwohl SDR die üblichen Anzeigestandards bietet und nicht mit HDR konkurrieren kann, wenn es funktioniert, ist seine Benutzerfreundlichkeit, Kompatibilität und niedrigere Kosten der Grund, warum viele Menschen es immer noch bevorzugen.

Sie benötigen sowohl HDR als auch SDR

Nachdem Sie nun den Unterschied zwischen SDR- und HDR-Standards kennen, wird deutlich, dass HDR der klare Sieger ist, wenn es darum geht, unterhaltsame Inhalte anzusehen. Dies bedeutet jedoch nicht, dass Sie auf die Verwendung von SDR verzichten sollten. Die Wahrheit ist, dass SDR immer noch der bessere Standard ist, wenn Sie keine HDR-spezifischen Inhalte ansehen oder abspielen.

Wenn Sie ein neues Display kaufen, ist es ratsam, in ein teureres HDR-fähiges Panel zu investieren, da Sie damit sowohl HDR- als auch SDR-Inhalte ansehen können. Da SDR-Inhalte in HDR10 schlecht aussehen, können Sie HDR jederzeit deaktivieren, wenn Sie SDR-Inhalte und -Anwendungen ansehen, spielen oder anzeigen.

Hoffentlich gibt Ihnen das eine Vorstellung davon, wie viel Einfluss HDR auf den Tisch hat. Obwohl SDR immer noch die Art und Weise sein wird, wie Sie verschiedene Inhalte genießen, ist es nur eine Frage der Zeit, bis HDR eine bessere Unterstützung erhält. Dann wird es wahrscheinlich der zukünftige Standard sein, den jeder verwendet.