UHD Blu-Ray Standard kurz vor Fertigstellung

@roman70 Dunkel abzusaufen scheint "das übliche HDR Problem" zu sein. Auch bei Beamern...

Als ich letzten Sommer dieses Setup hatte, gab's noch keine Amazon App dafür. Panasonic hat sich mit ihrer Smart-TV Plattform etwas verzockt (Firefox OS wurde eingestellt). Hatte noch div. andere Probleme damit, kam daher nicht dazu Netflix auf dem TV zu probieren.

Aber auf dem LG ist Netflix mit Dolby Vision wohl eines der besten Bilder im Moment. Halt leider nur mit kleiner Auswahl.

 
Leider folgt auch Sony mit ihrem ersten hier erhältlichen UHD-BD Player dem Billig-Trend kein Display mehr zu verbauen. :(

TEST: Sony Ultra HD Blu-ray-Player UBD-X800

Auch so Dinge die ich nicht mag: Plastik Gehäuse, aktive Kühlung = brummende Lüfter, fix eingebaute Netzkabel, fehlende analog Ausgänge, ect.

 
Na, ja. Wenn HDR10+ HDMI 2.1 voraussetzt (welches noch gar nicht erhältlich ist), setzt es eben doch spezielle Chips voraus...
Ja gut, nach der Logik setzt jegliches Feature jeglicher Form überall einen "speziellen" Chip voraus ... aber ich denke, du verstehst, was ich meine. HDMI 2.1 kommt in alle zukünftige Geräte dieser Branche, egal ob der Kunde das will oder sich für "dynamic HDR" interessiert oder nicht. HDMI ist kein "spezieller" Chip, es ist eine Grundvoraussetzung für solche Geräte, im Prinzip wie eine CPU im Smartphone oder Computer (die CPU ist auch kein "spezieller" Chip).

Aktuell ist das Vaporware - eine Idee die nur auf Papier existiert. Wahrscheinlich Strategie um Dolby das gegenwärtige Geschäft zu vermiesen, bis man selber eine Alternative anbieten kann.
Da haben wir aber unterschiedliche Definitionen von "Vaporware". HDMI 2.1 kommt definitiv diesen Sommer und wird definitiv dynamisches HDR unterstützen. Das ist keine "heisse Luft".

Niemand garantiert uns Heimkino Fans, das übernächstes Jahr kein HDR10++ kommt, welches HDMI 3.0 voraussetzt.
Also was ich dir garantieren kann ist, dass HDMI 3.0 eines Tages kommen wird und du dann wieder einen neuen TV, AVR und Video-Player brauchen wirst ;)  ... aber das ist ja nicht der Punkt bez. HDR. Der ärgerliche Punkt bez. HDR ist, wie du ja richtig gesagt hast, dass HDR10 ein unausgereifter Schnellschuss war, den man nun natürlich auf dem Buckel der Konsumenten zu korrigieren versucht. Da ich jetzt daran bin, mir im Homecinema eine HDR fähige Generation von Geräten zuzulegen, möchte ich das natürlich möglichst nur einmal machen (naja, bis dann eben mal HDMI 3.0 kommt mit was-auch-immer, das den nächsten "habenwill" Reflex bedient ...). Die perfekte Lösung wird es nicht geben und deshalb suche ich mir nun den für mich besten Weg. Der führt für mich zur Zeit eher über HDMI 2.1 / dyn.HDR / HDR+ als über Dolby Vision. Was evtl. auch bedeutet, dass ich noch etliche Monate warten werde, bis HDMI 2.1 in den Geräten verbaut ist. Da es vorher sowieso käumlich einen für mich bezahlbaren 4k/HRD Wunsch-Projektor geben wird, werde ich mir den UHD Blu-Ray bis dahin evtl. auch verkneifen (auch wenn der dann deutlich einfacher und billiger zu ersetzen ist als ein 4k Projektor ... deshalb schwanke ich noch).

Aber es gibt in der jüngeren Geschichte ja genügend Beispiele, wo sich nicht die beste Technik durchgesetzt hat. Sondern die, welche vom grössten Konsortium mit dem meisten Geld dahinter gepushed wurde (vgl. VHS Videorecorder).
Ja genau. Und deshalb vermute ich eben, dass ein in HDMI bereits direkt integrierter Standard, der mit dem neuen HDMI 2.1 "sowieso" in alle neuen Geräte kommt, eine grössere Chance hat, sich durchzusetzen, also so etwas wie "Dolby Vision", das zusätzliche Lizenzgebühren kostet und eine proprietäre Zertifizierung braucht. Welcher der beiden HDR Standards eigentlich der bessere wäre, ist dann eben irrelevant (wäre in dem Falle hier wahrscheinlich eigentlich Dolby Vision).

Zum Thema "HDR ist zu dunkel":

Das kommt eben daher, dass HDR leider nicht "plug&play" ist, zumindest nicht in den jetzigen Implementationen. Heisst, wenn die UHD Blu-Ray auf 1000nits gemastert wurde, das Display aber auf 10'000nits, 4000nits oder 2000nits kalibriert ist, was sehr häufig der Fall ist, dann säuft das Bild eben ab. Wenn dann das Display keine Kalibrierungsmöglichkeiten hierzu hat, schaut man in die (dunkle) Röhre. Und selbst wenn es Kalibrierungsmöglichkeiten gibt, muss man teilweise diese Regler zwischen SDR und HDR sogar jedes Mal manuell umstellen. Ein totaler Graus.

Die erste Generation von HDR-tauglichen Projektoren hatte genau solche Probleme (TVs meines Wissens auch, zumindest mit externen Quellen). Aktuelle Generationen von Projektoren erkennen meist wenigstens automatisch HDR und stellen Farbraum, Gammakurven, etc. automatisch um, also nahezu Plug&Play. "Nahezu", weil man trotzdem meist zuerst den Projektor auf die 1000nits noch kalibrieren muss. Das macht man allerdings nur einmal, dann ist gut. Naja, es ist solange gut, bis jemand damit beginnt, neue UHD Blu-Rays z.B. auf 2000nits zu mastern, dann beginnt man wieder zwischen jeder Scheibe manuell herum zu kalibrieren ...  :rolleyes:

 
Ist alles für den normale Benutzer nicht anzuwenden. Aber war und ist leider schon immer so.

 
Ja, für den 08/15 Anwender ist das ganze HDR Kalibrierungs-Theater schlichtweg nicht praktikabel. Das wird nochmals 1-2 Geräte-Generationen brauchen, bis das für den "Normalanwender" einfach Plug&Play funktioniert. Mit dem "Nebeneffekt", dass sich all diese Konsumenten dann in 1-2 Jahren nochmals neue TVs kaufen dürfen. Wie frantic eben richtig sagte: HDR war ein unausgereifter Schnellschuss.

Genauer betrachtet ist es aber auch so, dass sich >90% aller Konsumenten für so etwas wie "HDR" schlichtweg nicht interessieren werden, egal ob's funktioniert oder nicht. In Deutschland wurden ja erst im 2016 zum ersten Mal mehr (Full-HD) Blu-Rays verkauft als DVDs. Da werden UHD und HDR noch lange ein Nischendasein fristen. Für "Homecinema Freaks" wie mich ist das natürlich anders, aber da bin ich diesbezüglich sehr weit weg von "repräsentativ".

 
Ja gut, nach der Logik setzt jegliches Feature jeglicher Form überall einen "speziellen" Chip voraus ... aber ich denke, du verstehst, was ich meine.
Ja, verstehe ich. ;)

Aber lieber einen Chip mehr und es funktioniert, als einen weniger und es funktioniert dann eben nicht...

Zitat aus John Ruskin, Das Gesetz der Wirschaft:

"Es gibt kaum etwas auf dieser Welt, das nicht irgend jemand ein wenig schlechter machen kann und etwas billiger verkaufen könnte..."

Volle Version hier: http://www.iposs.de/1/gesetz-der-wirtschaft/

Da haben wir aber unterschiedliche Definitionen von "Vaporware". HDMI 2.1 kommt definitiv diesen Sommer und wird definitiv dynamisches HDR unterstützen. Das ist keine "heisse Luft".
Es ist angekündigt, aber es gibt noch nichts zu kaufen. Du benutzt etwas viel "definitiv", ohne dass es dies ist...

Sind denn schon HDMI 2.1 Chips lieferbar? Erst vorab Versionen in kleinen Stückzahlen zum testen im Labor, oder schon fertige Versionen in genügend hohen Stückzahlen zum Start einer Grossserien Produktion? Ist die Software dort drin schon fertig entwickelt? Oder wird das der ex-und-hopp "+" Schnell-Fix zum Schnell-HDR10 Standard, welcher eben auch nicht so richtig tut was er eigentlich sollte?

Nach meinen schlechten HDR Praxis Erfahrungen traue ich den Marketing-Blabla-Feature-Laferis nicht mehr. Das will ich zuerst selbst testen, einen entsprechenden Player + Display zusammenhängen und sehen, dass es ohne Bastlerei funktioniert. Dann wird es real - bisher ist es nur heisse Luft.

Die perfekte Lösung wird es nicht geben und deshalb suche ich mir nun den für mich besten Weg. Der führt für mich zur Zeit eher über HDMI 2.1 / dyn.HDR / HDR+ als über Dolby Vision. Was evtl. auch bedeutet, dass ich noch etliche Monate warten werde, bis HDMI 2.1 in den Geräten verbaut ist.
Das ist eine gute Annahme zum heutigen Zeitpunkt. Noch lange zuwarten schmeckt mir zwar nicht, ist unterdessen aber sicher die bessere Variante als kurzfristig Geld verpulvern (wenn man nicht aus einem Defekt dazu gezwungen wird). Aktuell kauft man schon etwas die Katze im Sack.

Und deshalb vermute ich eben, dass ein in HDMI bereits direkt integrierter Standard, der mit dem neuen HDMI 2.1 "sowieso" in alle neuen Geräte kommt, eine grössere Chance hat, sich durchzusetzen, also so etwas wie "Dolby Vision", das zusätzliche Lizenzgebühren kostet und eine proprietäre Zertifizierung braucht. Welcher der beiden HDR Standards eigentlich der bessere wäre, ist dann eben irrelevant (wäre in dem Falle hier wahrscheinlich eigentlich Dolby Vision).
Das befürchte ich auch. Aber eben: Es setzt sich leider häufig nicht die technisch beste Lösung durch...

Zum Thema "HDR ist zu dunkel":

Das kommt eben daher, dass HDR leider nicht "plug&play" ist, zumindest nicht in den jetzigen Implementationen. ... Ein totaler Graus.
Bin da ganz Deiner Meinung. HDR ist wesentlich komplexer in der Umsetzung als z.B. nur die Auflösung von HD -> UHD zu steigern.

Mir geht es beim "Kampf" von HDR10+ und Dolby Vision auch weniger um die erweiterten Möglichkeiten der dynamischen statt statischen Bildgebung (das wäre das Zückerchen oben drauf). Sondern vielmehr darum, dass HDR für den Endkunden überhaupt herstellerunabhängig zuverlässig funktioniert!

Wenn man z.B. denselben UHD-BD Film, im selben Player, entweder an einen LCD-TV, an einen OLED-TV oder an einen Beamer anschliesst, haben die unterschiedlichen Bilddarsteller völlig andere native Möglichkeiten und Begrenzungen.

Damit man die so aufeinander abgleichen kann, dass das Bild eben nicht absäuft, sondern tatsächlich ein besseres Bild (im Rahmen der Möglichkeiten des Geräts) abspielt, erstellt Dolby diese Geräteprofile. Ich wüsste auch nicht, wie man das sonst seriös hinbekommen sollte. Wenn das bei HDR10+ ohne Profile gehen soll, wäre das ein Wunder...

Die Geräte werden bei Dolby getestet, ein individuelles Profil dafür erstellt und im Chip gespeichert. Ein LCD hat oben raus mit der Helligkeit mehr Reserven und ist unten mit Schwarz eingeschänkt. Ein OLED genau umgekehrt, der hat unten ein super Schwarz und ist oben heraus mit der Helligkeit eingeschränkt. Das kann der Player dann im Profil des TV auslesen und seine Bildausgabe so anpassen, damit es zwar ein anderes, aber passendes HDR Bild ohne absaufen oder überstrahlen gibt.

Dolby Vision ist eben "plug'n'play"! Darum mag ich es. Es ist schon seit einem Jahr real. Nur deren Lizenz-Geschäftsmodell verdirbt es, nicht die Technik.

Ob HDR10+ da als "billig Nachzügler" mit weniger Aufwand ein gleich gutes Endresultat bringen kann...? Ich bezweifle das stark. Es wäre schön - aber das will ich aber zuerst sehen, bevor ich es glaube.

 
Klar, ich bin ja nicht hier, um Dolby Vision schlecht zu reden. Mich überzeugt Dolby Vision vom technischen Ansatz her absolut. Nur bin ich mir ziemlich sicher, dass der Markt (d.h. sowohl Hersteller als auch Konsument) dieses Verfahren nicht adaptieren wird, aus diversen Gründen. Und was nützt es mir, wenn ich auf eine super Technik setze, die sich im Markt nicht durchsetzt? Da wären wir wieder beim vielzitierten VHS Beispiel. Dolby hat sich den Weg wohl leider selbst verbaut mir ihren Hardware- und Zertifizierungs-Anforderungen. Da ging Kontrolle und Geldgier halt wieder einmal über Praktikabilität.

HDMI 2.1 wird definitiv kommen und wird definitiv dynamisches HDR mit sich bringen. Diese "definitivs" sind wirklich definitiv ;)  

Dass es zur Zeit noch nicht auf dem Markt ist, ändert nichts an der "Definitivität" :)

Fragt sich halt, will man was "genau jetzt" oder kann man auch noch 3-6 Monate warten. Da für mich das Hauptgerät für 4k/HDR sowieso erst in frühestens 6 Monaten mutmasslich verfügbar wird (ein bezahlbarer 4k Projektor mit gewissen Eigenschaften), spielt es für mich keine grosse Rolle, ob HDMI 2.1 jetzt schon auf dem Markt ist oder erst in 3-6 Monaten. Ändert nichts an den Features, die es mit sich bringen wird. Wie gut das dann funktioniert, ist natürlich eine andere Frage, die man in den ersten Praxis-Test beantworten wird. Aber was nützt mir ein gut funktionierendes Dolby Vision, wenn potentiell nur ein kleiner Bruchteil vom für mich relevanten Video-Material diesen Standard unterstützt. Last but not least ist es in meiner Situation extrem unwahrscheinlich, dass dann mein Wunsch-Projektor, der schwierig genug zu finden sein wird, auch noch Dolby Vision unterstützen wird. Und es zeigt sich auch, dass die Hersteller mit jeder neuen Gerätegeneration mit den Hindernissen von HDR besser umgehen können. Kann somit nicht schaden, nochmals eine kleine Generation abzuwarten. Bei einzelnen Herstellern braucht es auch mit HDR10 nicht mehr so viel bis zum langersehnten "Plug&Play".

Da wie überall jede Anschaffung neuer Geräte schlussendlich ein Kompromiss zwischen verschiedenen Anforderungen sein wird, und der "Dolby Vision Wunsch" bei mir massive Kompromisse bei unzähligen anderen für mich wichtigen Kriterien nach sich ziehen wird, und das gepaart mit den meiner Meinung nach sehr bescheidenen Markt-Aussichten von Dolby Vision ... da muss ich diesen Wunsch zugunsten anderer Anforderungen höchstwahrscheinlich ganz einfach fallen lassen. Deshalb setze ich meinen Fokus vorläufig mal auf HDMI 2.1 / HDR10+.

 
Tja, die Studios und Rechteinhaber wollen es halt einfach nicht wahrhaben. Jeder Kopierschutz wird wohl früher oder später geknackt. Sollte das bei der UHD Blu-Ray wirklich so schnell gegangen sein, dann wäre das ja schon fast belustigend.

 
Nach Oppo hat auch LG sein Versprechen gehalten und ein Firmware Update inkl. Dolby Vision Aktivierung für seinen Player freigegeben:

LG gibt Dolby-Vision-Firmware frei

Der LG ist aktuell der günstigste UHD-BD Player mit Dolby Vision Fähigkeit.