DOLBY VISION, HDR10+ e IMAX ENHANCED

DF0B12DD-CA97-473C-8C2A-E0BDC5941B42.jpeg


1) Better picture quality

It should make HDR picture quality better. The HDR10 industry standard provides a display with only a single luminance guide value from each HDR title that has to apply across that title’s entire running time.

With HDR10+, content creators can use an extra layer

2) HDR quality, for less

It can deliver a more uniform HDR experience across the TV world. The idea behind this is that cheaper, lower quality TVs usually don’t have enough picture processing power and know-how to handle HDR properly using the limited amount of information available with HDR10.
So adding dynamic extra data should have the most positive impact on the lowest quality TVs, hopefully meaning you no longer have to spend a fortune on a TV to get a decent HDR experience.of data to add updated luminance information wherever they want to – potentially scene by scene, or even frame by frame. Having this extra data to work with should help TVs deliver a more consistently impressive HDR picture. Cue HDR10+’s second raison d’etre…


3) It’s free!

HDR10+ is free. Even though it has chiefly been developed by Samsung, any brand can use it without having to pay Samsung a royalty. This is significant because the only other “dynamic” HDR format currently in play, Dolby Vision HDR, does come with a royalty fee attached.
In fact, Samsung’s refusal to pay Dolby its royalty is one of the key reasons that it’s gone to the trouble of developing HDR10+.


727AA865-374D-4805-9624-63F784489144.jpeg


4) And offers more freedom…

HDR10+ is apparently less prescriptive than Dolby Vision. By which I mean it leaves a little more freedom for different HDR displays to bring their own strengths and processes into play.

Both Samsung and Panasonic have previously argued that they trust their own processing and in-depth knowledge of their own screen capabilities to deliver better results than Dolby Vision’s “locked in” approach.

2FA86018-5825-4331-9002-7551C63CCF89.jpeg


5) An open standard

HDR10+ is an open standard. This means that unlike Dolby Vision, it can constantly be evolved by anyone who uses it.

6) Easier to create with

HDR10+ is apparently easier to use in the mastering process. I have only anecdotal evidence of this from knowledgeable sources so far, to be clear.
But if true, it could play a big part in the format’s potential success, as content creators generally lean towards the simpler – and thus cheaper – of two solutions where a choice is available. That being said, the presence of Dolby Vision HDR is growing by the year.


FONT

giphy.gif
 
El que vea "diferencias" en esa "comparación"...está un poco mal de lo suyo, eh?

Además que estas cosas se deben valorar in situ, al menos la cámara suele "putear" en estos casos, enfatizando las diferencias más de lo que en realidad son, y es que...¡no hay diferencias!.

Entonces, el fanatismo de algunos pues es que no se entiende, de verdad.

Es más, el propio Vicentito en SU propio vídeo lo dice:

To sum up, the differences we're seeing between HDR10 plus and HDR10 were more subtle than those we saw between Dolby Vision and HDR10.
 
Ya, os pego mi comentario de esta mañana en el foro amigo avmaniacos:

Excelente vídeo de Teoh. Seguramente en pelis 4000 nits que hagan un uso más extensivo del rango dinámico las diferencias hubieran sido mayores, porque esos documentales que ha utilizado Teoh son masters 1000 nits, que hay poco que rascar.

Seguramente en una led las diferencias serían más apreciables si como dice Samsung los metadatos dinámicos ayudan a optimizar el rendimiento de los sistemas de retroiluminacion de pantallas LED, sobre todo en áreas oscuras donde pudiera haber blooming”

En mi vídeo habían pocas diferencias porque al igual que en el de hdtvtest las pelis eran 1000 nits, pero si cogéis títulos como Pan, las diferencias sí que son importantes, o sea, depende de los masters.

Al final depende de los masters y de la propia pantalla, porque como sabemos los metadatos dinámicos sirven para optimizar el vídeo en pantallas de menos capacidad que no llegan a las especificaciones del máster uhd
 
No entiendo. Si los metadatos dinámicos sirven para optimizar en pantallas de menos capacidad ¿por qué se va a ver mejor en una LED a 4000nits si teóricamente esa capacidad está superada? ¿No debería ser más notable en una OLED?
 
En el estado actual del HDR, no se puede afirmar categóricamente que "tal pantalla" es "mejor" que "tal otra", porque sencillamente NO tenemos la referencia absoluta sobre la que basarse que es "cómo se ve en el monitor de masterizado". Con el SDR era relativamente fácil, pero el HDR supone un cambio tan tremendo que es un "todo es correcto" y "todo es incorrecto" a la vez.

Dicho esto, habrá gente que con diferencias sutiles gritará como poseso por los foros diciendo "miraaaa, miraaaaa, que brutalidad, que pedazo de diferencia" y otros...pues ni se darán cuenta de que hay alguna diferencia. Prefiero aliarme con los segundos que con los primeros, ya se sabe a donde lleva eso de los aspavientos y de las hiperventilaciones en Internet...postureo máximo.

Hay que ser consecuente con lo que se dice, porque luego el tiempo pone a cada uno en su sitio o peor aún, leer como alguien defendía a muerte tal cosa para semanas después decir que reniega de eso, que "esto otro" es mejor, y semanas después volver de nuevo a dar la contra...y pasan los meses, y de nuevo el numerito de blanco-negro-blanco-negro...entonces el criterio se va por donde va toda la mierda...al WC

En fin, que me voy a hacer la compra. :mparto
 
No entiendo. Si los metadatos dinámicos sirven para optimizar en pantallas de menos capacidad ¿por qué se va a ver mejor en una LED a 4000nits si teóricamente esa capacidad está superada? ¿No debería ser más notable en una OLED?

En el caso de las LED, Samsung afirma que ayuda al algoritmo de atenuación, ya que al conocer el APL con la suficiente antelación la retroiluminacion funciona mejor y se evitan efectos como el blooming. Esto, lo dice Samsung.

Por otra parte, no es por presumir, pero aquí el único que no ha variado ni un milímetro su discurso sobre HDR desde el 2015, es un servidor. Ahí queda majetes

Una abrazo
 
No entiendo. Si los metadatos dinámicos sirven para optimizar en pantallas de menos capacidad ¿por qué se va a ver mejor en una LED a 4000nits si teóricamente esa capacidad está superada? ¿No debería ser más notable en una OLED?

En el caso de las LED, Samsung afirma que ayuda al algoritmo de atenuación, ya que al conocer el APL con la suficiente antelación la retroiluminacion funciona mejor y se evitan efectos como el blooming. Esto, lo dice Samsung.

Por otra parte, no es por presumir, pero aquí el único que no ha variado ni un milímetro su discurso sobre HDR desde el 2015, es un servidor. Ahí queda majetes

Una abrazo
Tiene todo el sentido si :)
La queja siempre de estos paneles es que ha veces el algoritmo va con un poco de retraso y entonces en escenas complicadas es como si no le diese tiempo y entonces es cuando se vuelve un poco "loco".....

Si entonces como bien dices el algoritmo se puede adelantar.....sería más preciso que es el único "pero" que le veo yo a esta tele en escenas complicadas , si eso es así sería GENIAL !!!!

Respecto al HDR me parece que fuiste uno de los primeros en probarlo con la 920 hace ya casi 4 años (Yo me la compré unos meses después)

Un abrazo!!!
 
Con el HDR llevo yo experimentando 20 años...así que...sé "maomeno" como funciona ésto. Desde 1998, cuando Paul Debevec presentó ésto:

Recovering High Dynamic Range Radiance Maps from Photographs

Aunque existen "cosas" antes de esto, este momento exacto marca un punto de inflexión en cuanto al tratamiento de la imagen HDR. Por aquel entonces ni siquiera existían displays que pudiesen enseñar las imágenes y obviamente su objetivo primario era otro. Pero la BASE es la misma.

Que alguien "públicamente" en un foro dijese que "fue el primero" no significa que "otros" hayan estado haciendo y probando cosas desde mucho antes. Y por supuesto, tengo mucho que callar, porque como PROFESIONAL, no puedo desvelar según que cosas que no quiero desvelar, por supuesto.
 
Si hasta el momento las diferencias entre HDR10 y HDR10+ son mínimas, es alegato pagar por contenidos, reproductores o TVs que brindan compatibilidad hacia este formato.

También esperando comparativas entre HDR10+ y asignación de tonos dinámico de LG que dicen logran el mismo efecto.
LG C9, E9, and W9 have 4K resolution and support for four HDR formats (HDR10, HLG, Dolby Vision and Advanced HDR). The Korean company has so far chosen to ignore arch-rival Samsung’s HDR10+ format, arguing that it can achieve the same effect on the TV via dynamic tone-mapping processing
 
El HDR a nivel doméstico nace bajo el desarrollo por parte de laboratorios Dolby de las especificaciones para UHD, concretamente PQ, y ve por fin la luz con la salida al mercado de los primeros títulos UHD a principios del 2016. Después llegaría Netflix, Amazon vídeo,iTunes, etc. Lo que hubiera antes...sencillamente no tiene nada que ver con el HDR domestico, brothers.

DVman. yo creo que no se deberían sacar precipitadamente conclusiones por un título, dos, tres o los que sean, porque los metadatos dinámicos HDR10+ o Dolby Vision como muy bien sabemos y sabes, están para indicarle a la pantalla (en función de sus especificaciones internas) como ha de mostrar un contenido dado, por lo que el resultado final puede variar bastante dependiendo de la pantalla, su tecnología o del propio contenido y como haya sido masterizado finalmente.

Y sobre la asignación de tonos dinámica que implementa LG, que dice puede obtener los mismos resultados que HDR10+, no lo discuto, y posiblemente sea así brothers, pero en el caso de HDR10+ sabemos que es ya un estándar adoptado por la BDA e incluido en sus especificaciones cuyo algoritmo está basado en la curva de Bezier.
Pregunto, del algoritmo de LG se sabe algo? Pues hasta que no se sepa, lo primero para mí es una especificación aprobada, y lo segundo de LG marketing.
 
Chicos, permitidme que me auto corrija en un dato antes de que alguien acertadamente lo haga jeje. Que creo que es conveniente hacerlo para no confundir a nadie.

Lo que es un estándar y especificación de facto para alto rango dinámico es PQ.

DV, HDR10+ y HDR10 son formatos HDR basados y que por tanto se adhieren a la especificación PQ, que además han sido adoptados por la BDA para los discos físicos UHD, de los cuales HDR10 es el único obligatorio, DV y HDR10 + son opcionales

Ahora estaría bien...

Saludos :cafe
 
El HDR a nivel doméstico nace bajo el desarrollo por parte de laboratorios Dolby de las especificaciones para UHD, concretamente PQ, y ve por fin la luz con la salida al mercado de los primeros títulos UHD a principios del 2016. Después llegaría Netflix, Amazon vídeo,iTunes, etc. Lo que hubiera antes...sencillamente no tiene nada que ver con el HDR domestico, brothers.

DVman. yo creo que no se deberían sacar precipitadamente conclusiones por un título, dos, tres o los que sean, porque los metadatos dinámicos HDR10+ o Dolby Vision como muy bien sabemos y sabes, están para indicarle a la pantalla (en función de sus especificaciones internas) como ha de mostrar un contenido dado, por lo que el resultado final puede variar bastante dependiendo de la pantalla, su tecnología o del propio contenido y como haya sido masterizado finalmente.

Y sobre la asignación de tonos dinámica que implementa LG, que dice puede obtener los mismos resultados que HDR10+, no lo discuto, y posiblemente sea así brothers, pero en el caso de HDR10+ sabemos que es ya un estándar adoptado por la BDA e incluido en sus especificaciones cuyo algoritmo está basado en la curva de Bezier.
Pregunto, del algoritmo de LG se sabe algo? Pues hasta que no se sepa, lo primero para mí es una especificación aprobada, y lo segundo de LG marketing.
Vamos Ronda que la aplicación de la curva de Bezier en HDR10+ bastante promocionado por Samsung no es de uso propio, lo utilizan en masterización justamente HDR para lograr transiciones más suaves o expandir detalles, si Dynamic Tone Mapping se ve igual comparado a HDR10+, es más decir que también lo emplea. LG lo usa también en su app webOS Bezier linear y cúbica como anecdota.
Lo de formatos de metadata dinámica aprobados o no dentro de la BDA, como pues para tomarlo con una pizca de sal en este mundo del HDR, para decidir que TV elegir por ejemplo.
 
Última edición:
Ya, ya sé que no es propia...Dicho esto, para elegir tele al menos para mí, lo más importante es la uniformidad, aunque esto desgraciadamente no lo sabes hasta que no tienes la tv en casa.

Y sobre los formatos HDR y su importancia. Creo que debería interesar que como mínimo lleven los formatos HDR dinámicos aceptados por la BDA, y al que no le interese me parece genial. A mí sí que me interesa porque hay material editado en ambos formatos y va a seguir creciendo, en cambio HDMI 21 no me interesa un pijo, así que cada cual que se compre lo que más le interese y a disfrutar con salud que son dos días y esto son solo juguetes jeje.
 
Pues parece que el HDR10+, más allá del marketing, es una realidad que está recibiendo el apoyo de la industria gracias a estudios importantes de la relevancia de Fox con títulos tan emblemáticos como Alien
 
Pues parece que el HDR10+, más allá del marketing, es una realidad que está recibiendo el apoyo de la industria gracias a estudios importantes de la relevancia de Fox con títulos tan emblemáticos como Alien
Cuando Disney se apodere de FOX ¿Crees que este acuerdo con hdr10+ lo respeterán? porque Disney trabaja con Dolby.
 
Los contratos y acuerdos estás para respetarse aunque las empresa cambien de dueños, eso, o indemnizar. No obstante, esto es como el tiempo, que hoy hace sol y mañana llueve. Hoy Disney está con DV y mañana podría estarlo con HDR10+ y/o ambas. En realidad todo es mucho más fácil de lo que parece...
 
Los contratos y acuerdos estás para respetarse aunque las empresa cambien de dueños, eso, o indemnizar. No obstante, esto es como el tiempo, que hoy hace sol y mañana llueve. Hoy Disney está con DV y mañana podría estarlo con HDR10+ y/o ambas. En realidad todo es mucho más fácil de lo que parece...
Sería raro que apostara sólo por el HDR en sus Blu-ray y no por el HDR10+ que es igual de gratuito que el otro. Sin embargo incorporar el Dolby Vision en sus discos, Disney tiene que pagarlo.
 
Arriba Pie