UHD Blu-ray y HDR. Lanzamientos y ediciones

Mucha gente olvida que OLED, al tener un negro absoluto, no necesita llegar a los mismos NITS que una LED para ofrecer la misma sensación de contraste.

El contraste no es el tema. El tema, es que no llegar a los nits afecta directamente a la imagen y al color de las imágenes de una forma evidente si se compara con un display que llegue a los nits del monitor de masterizacion.

El artículo es claro y está redactado por unos de los mayores expertos en IMAGEN del mundo. Pero es que,m sus conclusiones no son nuevas ni sorprendentes para los que entendemos. Era un secreto a voces que ahora es público

Que los negros oled son la leche estamos todos de acuerdo, y es la mejor opción si se asume los problemas de exactitud que presentan con HDR 10
 
Pero Ronda, también se está diciendo que el HDR es adaptable, o debería serlo a los diferentes dispositivos. No puede ser que la visualización correcta quede relegada a sólo el puñado de teles que lleguen a esos picos.

Lo suyo es que cada fabricante mediante su propio firmware sea capaz de adaptar el HDR a las posibilidades de la tele en concreto de forma que por lo menos el color se reproduzca correctamente.
 
Creo que los problemas de algunos dispositivos como proyectores y televisores OLED son por no alcanzar 1000 nits. A partir de ahí, creo que no habría problemas independientemente de que la película fuese masterizada a 4000 por poner un ejemplo.

Me fio de tus conocimientos Ronda, yo me bajé del tren HDR al entender que está en fase "beta". Corrijeme si estoy equivocado:

Si la peli está masterizada a 1000 nits y el visualizador solo llega a 600 nits, ¿no estamos en el mismo caso de cara a comprimir rango que si la peli ha sido masterizada a 4000 nits y el visualizador solo llega a 1000 nits?

En ambos casos habrá que comprimir rango, como resultado tendremos colores fuera de gamut, etc. Si se preserva luminancia el hue y saturacion se ven afectados, si se hace clipping perdemos detalle, etc.

desat1.jpg


desat2.jpg


desat3.jpg


Y dependiendo de la escena una solucion será mas correcta (o menos incorrecta) que otras, pero en otras escenas esa misma solución será la peor.

¿Como lo ves?
 
Insisto, el tema no es más nits o menos nits, sino en la interpretación correcta de "MaxCLL" y "MaxFall", dos metadatos importantes que le "dicen" al display como debe ajustarse.

Yo que tengo material nativo en HDR y puedo subir a 10.000 nits si quiero, no veo diferencias a nivel de color. Insisto, son pruebas sobre las que no hay un control al 100% con lo que tampoco las quiero dar por válidas. El tema está en que si yo genero un HDR y me pongo a "jugar" con los nits de salida de MadVR, obtengo resultados diferentes. Y aún "matcheando" los nits de la OLED, en ella no veo exactamente lo mismo que la "adaptación" de MadVR.

Al final, como digo, solo el monitor de masterizado sobre el que se hace el HDR, es el correcto. El resto realizan adaptaciones más o menos correctas, que no siempre darán un resultado correcto.

Y en cualquier caso, ¿quién dice si lo que ves es correcto o no?. Sobre todo sin saber como se ve en el monitor de masterizado. Porque yo puedo ver una imagen que entiendo que "es así como debe verse", y no tener problemas con ella, aunque "no sea así como debe verse".

Que sí, que para eso está el calibrado, las sondas y su madre...pero asumámoslo...la inmensa mayoría de gente ni configura las teles, pone modo dinámico o vivos y a correr.

Yo prefiero quedarme en un término medio, pues usar una sonda para buscar defectos solo me creará más incertidumbre sobre lo que veo, sobre todo si lo veo en dos monitores diferentes calibrados perfectamente. ¿Cual es el correcto? Los dos.

Como digo, si ya la calibración sobre 709 es complicada (lo que uno quiera complicarse), en HDR añadimos muchas más variables que hacen que no estemos viendo realmente el contenido tal y como se masterizó, pues cambia dinámicamente con el Tone Mapping aplicando sobre estos dos parámetros. ¿Un follón?. Sí.
 
Pero Ronda, también se está diciendo que el HDR es adaptable, o debería serlo a los diferentes dispositivos. No puede ser que la visualización correcta quede relegada a sólo el puñado de teles que lleguen a esos picos.

Lo suyo es que cada fabricante mediante su propio firmware sea capaz de adaptar el HDR a las posibilidades de la tele en concreto de forma que por lo menos el color se reproduzca correctamente.

Yo estoy siguiendo el tema, y estoy de acuerdo con todo lo que ha dicho el sr goran, de hecho, yo siempr dije que eso no se veía correctamente hasta que al final, él mismo lo ha corroborado afirmando que hace falta una conversión porque en HDR la visualización en JVC, por el motivo que sea, no es correcta, por lo tanto, goran y yo estamos de a acuerdo por mucho que a alguno le gustaría que no fuese así...tú ya me entiendes jeje :D

En lo que diferimos, no es en lo técnico, es en la forma de "llamarlo", pero estar, estamos completamente de acuerdo

Sobre la forma de llamar las cosas:
Para mí es una conversión a SDR, por lo tanto, SDR es. El dice que es una conversión suavizada de HDR, HDR light. Diferimos en la forma de llamarlo, solo en eso.

Es como si yo te digo que el café descafeinado no es café y él te dice que es un café suavizadito que sigue siendo café, pero los dos estamos de acuerdo en recomendarle el café descafeinado al enfermo porque su estado de salud así lo indica, o sea, estamos de acuerdo aunque tengamos una forma distinta de llamar al proceso de descafeinado del café
 
Pero Ronda, es que los nits en proyección no pueden ser los mismos que en una tele, por lo tanto no es viable el HDR de la forma que lo ves en la tele a verlo en proyección. Hay que adaptarlo.

Y vamos, el HDR no va a desbancar a la proyección como forma de ver cine, sería totalmente absurdo.
 
Pero Ronda, es que los nits en proyección no pueden ser los mismos que en una tele, por lo tanto no es viable el HDR de la forma que lo ves en la tele a verlo en proyección. Hay que adaptarlo

Claro, claro que hay que adaptarlo, y eso es lo que hace el reproductor Panasonic o cualquier reproductor UHD. Vosotros utilizáis el fury para pasar el color expandido, pero la conversión que te va a hacer el panasonic, excepto en el color, es la misma con FURY que sin FURY.

Yo he visto en casa de David el fury pasando SDR/BT2020 para un proyector láser LS 10.000, empleando la calibración SDR del proye y su perfil de color de cine digital DCI-P3 que cubría al 100% con una exactitud entre tonos y niveles de saturación asombrosa, y lo que vi siendo sincero no acabó de convencerme porque veía los colores un poco fuera de lugar a como yo entiendo que deberían verse esas películas que probé teniendo como referencia lo qu había visto, pero igual se debimos dar más tiempo y experimentar más a fondo, cosa que mister goran seguro que habrá hecho.

Mira esta tarde voy otra vez a ver y medir el Epson LS 10500...a ver qué tal la experiencia
 
Samsung ha registrado la marca "HDR 1500" "Q HDR" y "Black Real" para 2017.
Por lo que se rumorea es que 2017 va a haber muchos avances en el HDR.
 
Por añadir algo más que acabo de leerle a goran

. hola, myllaki con que te ajusten la escala de griseses será suficiente, tu proyector ya te hace una adaptación adecuada del HDR y de fábrica el gamma y los colores vienen bien. Con el tiempo, ya se verá, pero vamos con eso creo que será suficiente. No creo que te tengan que hacer grandes ajustes, no te preocupes. el HDR/BT2020 usa el mismo punto de blanco que SDR/709, así que en ese aspecto no hay mayor problema.

ya sabes que tienes que elegir el modo más adecuado para cada disco, en la mayoría será el HDR2 y en alguno el HDR3, me puedes ayudar con mi lista de pelis...

mylaki es David y el individuo que va a ir a ajustar, soy yo.
Lo que dice goran es cierto y estoy de acuerdo con él, y eso es precisamente lo que iba y vamos a hacer :ok

La ventaja, es que no hay prisa porque podemos dedicarle varias sesiones al margen de la de hoy para afinar, ya que me pilla relativamente cerca y puedo ir las veces que haga falta.

El software chromapure ha sufrido con la última actualización un cambio total y no he tenido tiempo de familiarizarme con la nueva interfaz y características.
 
Sierra esta tarde te respondo :ok

Sin prisa Ronda, cuando te venga bien.

En tu parrafo:
Creo que los problemas de algunos dispositivos como proyectores y televisores OLED son por no alcanzar 1000 nits. A partir de ahí, creo que no habría problemas independientemente de que la película fuese masterizada a 4000 por poner un ejemplo.

Entiendo que en la primera frase te refieres a que por debajo de uno de los mínimos definidos por la UHD Alliance no se considera HDR (lo aclaro por si te referías a eso no pierdas tiempo explicandolo). Es la segunda frase la que me descoloca por el tema de la reduccion de rango que comenté en función de los nits en que masteriza la peli y los que alcanza el visualizador.
 
La UHD alliance dice 540nits para OLED como mínimo, algo que cumplen con creces todos los TVs OLED de la gama 2016. no veo donde está el problema:

Resolution: 3,840x2,160 pixels, otherwise known as 4K.

Color depth: 10-bit (important for HDR, as most other TVs are just 8-bit).

Color gamut: Wide, including the ability to show at least 90 percent of the P3 color gamut (check out Ultra HD 4K TV color, part 1 and part 2 for more on this).

High dynamic range: Specifically the ability to use SMPTE ST2084's electro-optical transfer function, which Dolby helped create.

Minimum brightness and contrast ratios: This is probably the most interesting one, as it's great for consumers and shows the different players here at work. There are two possible minimum specs. A minimum brightness of 1,000 nits, along with a black level of a maximum of 0.05 nits (20,000:1 contrast ratio), or a minimum brightness of 540 nits, along with a black level of a maximum of 0.0005 (1,080,000:1).

Que yo sepa todas las OLED de este año cumplen con estas exigencias. ¿Donde está el problema?

Pues el problema está en cuando alguien decide "porque sí", masterizas a 4000 nits, algo que sobre lo que hay día no existe display comercial. Todos los displays tendrán que ADAPTARSE a esos 4000 nits, mediante un Tone Mapping.

Puedes leer más sobre ésto, aquí:

FUTUREPROOFING
Once the grade is nearly finalized, there’s a couple of things that you may consider doing to clean up the grade and make it ‘futureproof’, or, to make sure that things you do now don’t come back to haunt the grade later.

If you’ve been grading by eye, any value above the maximum brightness of your reference display will be invisible, clipped at the maximum display value. If you’re only ever using the footage internally, and on that display only, don’t worry about making it future proof. If, however, you’re intending on sharing that content with anyone else, or upgrading your display later, you’ll want to actually add the clip to your grade.

The reasoning here I think is pretty easy to see: if you don’t clip it your video signal, your master will contain information that you can’t actually see. In the future, or on a different display with greater latitude, it may be visible.

De aquí:

HDR Video Part 5: Grading, Mastering, and Delivering HDR

Son temas bastante complejos y todo esto evoluciona de forma un tanto incontrolable (lo que vale para hoy, igual para mañana no).

HDR está en un estado verde en cuanto a displays y como enseñar el contenido, pero su manipulación ha estado 10-15 años atrás sin problemas.
 
Creo que los problemas de algunos dispositivos como proyectores y televisores OLED son por no alcanzar 1000 nits. A partir de ahí, creo que no habría problemas independientemente de que la película fuese masterizada a 4000 por poner un ejemplo.

Me fio de tus conocimientos Ronda, yo me bajé del tren HDR al entender que está en fase "beta". Corrijeme si estoy equivocado:

Si la peli está masterizada a 1000 nits y el visualizador solo llega a 600 nits, ¿no estamos en el mismo caso de cara a comprimir rango que si la peli ha sido masterizada a 4000 nits y el visualizador solo llega a 1000 nits?

En ambos casos habrá que comprimir rango, como resultado tendremos colores fuera de gamut, etc. Si se preserva luminancia el hue y saturacion se ven afectados, si se hace clipping perdemos detalle, etc.

desat1.jpg


desat2.jpg


desat3.jpg


Y dependiendo de la escena una solucion será mas correcta (o menos incorrecta) que otras, pero en otras escenas esa misma solución será la peor.

¿Como lo ves?

Hola. Ya estoy aquí!

Me gustan esas fotos porque reflejan bastante bien lo que está pasando y es de lo que yo me voy quejando desde que empecé con el HDR en una OLED 920 (la oled 920 cuando salió al mercado y la compré me pareció excelente en sdr, pero meses después al llegar la era HDR mi opinión varió...me la pegaron con queso)

Lo que planteas es una excelente cuestión. Pasará lo mismo cuando los televisores cubran los 1000 nits y las películas se mastericen sucesivamente a más nits como pico de referencia para blanco? No creo. Le he preguntado a Tom y opina lo mismo, que no cree. No cree porque en HDR los 1000 nits no representan la referencia blanca de la escala de grises. La escala de grises HDR (10 bits) tiene el negro en el valor digital 64 y el blanco en 940, o sea, 64-940 ( en 8 bits vídeo es 16-235)

En definitiva, que 1000 nits equivalen al 75% del vídeo y 10.000 nits al 100%. No llegar a los 1000 nits o 75% de vídeo de alguna manera afecta al APL medio de las imágenes y esto afecta a la imagen y color, como se expone en el artículo de Vicent teoh, y por eso la UHD aliance exige 1000 nits mínimos para la certificación como televisor preparado para la correcta reproducción de contenidos HDR.

Entonces por qué las oled obtiene certificación UHD premium con tan solo 540 nits?


IMG_2065.JPG


Mi siguiente mensaje es del Epson LS10500 y está muy relacionado este tema
 
Última edición:
Ayer estuvimos otra vez con el Epson LS10.500, solo que esta vez, además de películas con patrones, dos sondas X-rite i1pro Display3 y el portátil con chromapure 3.1

Lo primero, ahora se entiende perfectamente que algunos vieran mal títulos como Pacific Rim, pero esto, después.

Es vital entender lo siguiente.

10.000 nits es el 100% vídeo (equivalente a 235 y 100 nits en 8 bits)

4.000 nits representa el 90% de vídeo

1000 nits el 75%

El Epson tiene cuatro modos HDR. HDR1, 2, 3 y 4, y cada uno es el ideal según se haya masterizado el UHD, ya sea a 1000, 4000 nits o lo que sea.

Ejempmo: HDR1 va hasta 1000 nits, a partir de ahí clipping por encima del 75% de vídeo, o sea, clipping de niveles digitales de blanco de 75 a 100%. Que significa esto?? Pues que HDR1 vale para películas que hayan sido masterizadas a 1000 nits. Si ponemos Pacific Rim en HDR1 se ve horrible, con todas las altas luces y detalles quemados a causa del clipping. Pasamos a HDR2 y donde se veían manchurrones blancos quemados en las luces de los robots aparece todo tipo de detalles y la película se ve correctamente, ligeramente oscura, pero correctamente, aunque lejos de la exactitud y sensación HDR ofrecida por una buena tele HDR

En HDR1 se veían correctamente todas las películas masterizadas a 1000 nits

En HDR2 se veían bien las pelis masterizadas a más de 1000 nits, aunque un poco oscuras porque un proyector no puede competir con una tele y este formato está hecho para televisores

Y HDR 3 y 4 para pelis que vayan más allá de 4000 nits.

Lógicamente estas curvas de gamma yo no las tocaría porque Epson las ha diseñado para adecuar el HDR en sus proyectores, con lo cual yo no las tocaría sin estar seguro de lo que se hace. Si así se ve bien...mejor dejarlo así porque está claro que cada modo HDR tiene su finalidad según la masterizacion de la película

El proyector en HDR daba una salida de aproximadamente 80 nits en modo natural, HDR lamp alta.

El blanco presentaba exceso de azul verificado con dos sondas diferentes, con lo cual, procedimos a su ajuste básico a dos puntos.

Los patrones Masciors que además de patrones incluyen imágenes de referencia se veían correctamente en cuanto a color, aunque de nuevo, no como en una tele HDR 1000

Las películas que probé, como La vida de Pi se veía bien de colores. Dentro del laberinto también se veía bien y Pacific Rim en HDR2 se veía correctamente sin luces quemadas ni colores desvirtuados, todo se veía bien, tanto las películas como los patters de Masciors

Haremos más pruebas más adelante...pero la conclusión que saco es la misma. Para ver perfectamente HDR ha de ser en un televisor HDR que cumpla con el estándar, y ni siquiera mi OLED 2016 lo cumple...mucho menos un proyector, claro.
 
Última edición:
IMAGEN : Modo HDR que como se puede ver da cobertura / detalles hasta 4000 nits 90% vídeo

IMAGEN 2: Modo HDR que como se puede ver da cobertura detalles has 10000 nits 75% video
IMG_2068.JPG
IMG_2069.JPG
 
Última edición:
Por fin he podido ver un Panasonic 900 pasado por el HD Fury y la experiencia ha sido totalmente satisfactoria. Estoy que no me lo creo. Pacific Rim ha vuelto a cobrar vida y tengo tanto que rectificar... Tengo tanta vergüenza por haber defendido con uñas y dientes algo que era incorrecto... Lo siento de verdad.

Me ha costado tanto entender que no llegar a unos nits determinados afecta al color...

Afortunadamente tiene arreglo y la proyección no está perdida. Los fabricantes están aprendiendo a adaptar los discos y el método Fury es un método externo válido a tenor de los increíbles resultados que he disfrutado esta noche.

Ahora tengo la sensación de que es en el 2017 cuando voy a empezar a ver UHD porque hasta ahora era una aberración por culpa de la mala aplicación que hacen los JVC de serie...
 
El HD Fury ¿serviría de algo en un proyector 1080p NO HDR?
No porque el fury lo único que hace es falsear el el edid de la pantalla. En mi caso me sirve para indicarle al reproductor que me lo pase todo menos el HDR nativo. Me sigue pasando el 4K, los 10bits y el espacio de color extendido que soporta mi proyector.

Si tu proyector sólo soporta 1080 puedes decirle misa al fury que tu proyector va a mantener sus capacidades intactas. Y al fin y cabo si le conectas un reproductor UHD la única forma de ver los discos es con una conversión completa desde el propio reproductor a 1080, SDR y espacio de color tradicional (REC 709). Y para eso no es necesario el Fury.
 
  • Me gusta
Reacciones: WRC
No entiendo King, entonces, ¿no ves las imágenes CON HDR?. Es decir, eliminas el componente HDR y se ven mejor?.

Yo pienso que es más un problema de Tone Mapping, que se puede arreglar vía firmware. Al final, el HDR no es más que una LUT que dice a cada pixel donde tiene que estar dentro del volumen de color, intensidad, etc. Simplificando mucho, claro.

El tema está en lo que ya he repetido más veces...solo en el monitor de masterizado se verá exactamente como se ha diseñado. Eso con Rec.709 no era demasiado complicado de empatar, pero con HDR son demasiadas variables a tener en cuenta.

Se me ocurre hacer un experimento con una serie de patrones que genere y meterle HDR a diferentes niveles, a ver...no se si dará el resultado que busco, pero oye, voy a intentarlo...
 
goran lo explica bien en lo que cité hace un par de días.

En un proyector actual no puedes ver HDR porque es imposible aunque admita la señal. Me ha costado que entre en mi dura mollera pero es lo que hay. El método Fury y la conversión que hace el Panasonic permite que saque los máximos picos de brillo posibles dentro de los ciento y pico nits que tienen los proyectores actuales, pero manteniendo un color correcto. De serie, cuanto más efecto HDR tenga el disco peor se veían los colores.

No queda otra, los nuevos modelos que van saliendo que admiten HDR hacen ese proceso interno de adaptación de la gamma porque sigue siendo imposible mostrar el HDR que va en los discos pensado para la luminosidad de las teles. Por lo tanto mientras en los discos no venga información HDR pensada para proyectores tiene que haber una adaptación por cojones, sea por fuera o por dentro.

El resultado del método externo es mostrar los brillos máximos que permiten las bombillas de los proyectores pero con una gamma correcta, los colores en su sitio, el 4K y los 10bits. No es el HDR tal y como lo han diseñado, pero es que no se ha diseñado para proyectores así que la adaptación es imprescindible.

O bien se hace internamente como lo hacen los nuevos Epson o los futuros JVC o la nueva calibración ISF para HDR no accesible para gente normal, o bien hay que entregarle desde fuera al proyector una imagen que pueda procesar correctamente.

Ahora mismo es lo que hay y por lo que vi anoche fue un tremendo alivio poder ver 4K impresionante sin extravagancias.

Y esto es lo que me hace sentir una vergüenza enorme, haber estado defendiendo hasta hace muy poco una imagen incorrecta. Es verdad de me he quejado de numerosos discos, pero la realidad es que de los discos que más me he quejado se debe a que son los que tienen el HDR más acentuado y por tanto mi proyector peor mostraba debido a que su software interno no lo procesa / adapta correctamente.

En enero sale una leve renovación de JVC. El X5500 y el X7500 que básicamente llevan perfiles ajustados de HDR y detección automática, así que internamente harán algo parecido a lo que hago yo externamente.

Dicen que con las más recientes herramientas para calibradores ISF se puede adaptar el HDR en la gama actual o incluso está la puesta abierta a que JVC lance un FW que añada más modos.

Pero lo que ya me queda más claro que el agua es que el HDR de los discos necesitan de una adaptación para ser proyectados ya que no tienen en cuenta la diferente luminosidad de la proyección con respecto a las teles.
 
  • Me gusta
Reacciones: WRC
Arriba Pie