DOLBY VISION, HDR10+ e IMAX ENHANCED

Interesante artículo Sierra.

Siempre he dicho que el HDR es una bestia salvaje difícil de dominar. En SDR, como bien dice el artículo, las cosas eran simples y ajustar un televisor con patrones es ridículamente fácil. Con HDR, ésto no funciona. Porque tenemos un TONE MAPPING adaptativo según la fuente y el display, y las formas "creativas" de cada fabricante.

Acceder a la imagen ANTES de aplicar ese Tone Mapping ciertamente ayudaría, pero no estoy seguro del procedimiento, pues yo que estoy con el "culo pelao" de verlas, no se como se haría. Sobre todo sin llegar a los extremos de usar sondas. Hay que facilitar las cosas, los patrones llevan siendo vigentes desde hace muchísimos años, y es la herramienta más sencilla para ajustar la imagen a un 99%. El 1% restante ya son desviaciones de color (si las hay, y si son realmente graves).

Está claro que tiene que haber un procedimiento que se estandarice, luego está el Tone Mapping como "capa" superior, o lo que venga en el futuro (que probablemente sea diferente), pero que el HDR es un chocho de mucho cuidao, lo tengo más que claro.

Por eso hay que huir de radicalismos extremos en plan "un display "tal" no puede dar HDR bien" y semejantes majaderías. Quien afirma eso no solo es in ignorante, sino un necio y un extremista muy peligroso. Cuidao.
 

El tema de la calibración para HDR es complejo hasta tal punto, que casi mejor dejarlo como viene de fábrica, por lo menos en los televisores OLED, que son complejos por muchas razones. Una de ellas es por el propio espectro de luz que producen, que hace que la sonda no sea 100% eficaz a la hora de tomar medidas precisas, o sea, fallan las matemáticas, con lo cual, poco se puede hacer científicamente hablando si se quiere calibrar correctamente tomando como referencia las lecturas de las sondas.

Con los proyectores la movida es otra porque se necesitarán varias curvas de gamma y ajustes, ya que si utilizas una curva de gamma con corte a 1000 nits todas las películas masterizadas en monitores de 4000 nits que contengan información por encima de los 1000 nits quemaran algo de blancos y luces (¿cuánto? depende de la película y del uso que el colorista haya hecho del rango dinámico) y si utilizas una curva de 4000 nits entonces no recortarás blancos en ningún caso pero las películas que sean de 1000 nits las verás algo más ténues que si utilizas una gamma de 1000 nits, ya que el proyector mapeará los tonos tomando como referencia máxima 4000 nits en lugar de 1000 nits, y a mayor mapeo de tonos=imagen más ténue.

Un conocido mío tiene un Epson LS-10.500 y está utilizando varias gammas y ajustes, creo recordar que de 500 nits, de 700, de 1000 y 1200 nits respectivamente donde la de 500 es la más brillante y la de 1200 la más oscura, que va cambiando según la película. Si tienes una película masterizada a 1000 nits con un MAXCLL de 480 nits, le vale la de 500 nits y hacemos hasta palmas con las orejas, pero si es de 4000 nits con un MAXCLL de 1500, entonces hay que utilizar la gamma más alta y la imagen es algo más ténue porque mapeará más tonos, pero al final con mucha paciencia y un montón de visitas hemos conseguido que se vea de lujo en casi todas las películas.

Lo ideal para la industria serían los metadatos dinámicos (agua de Mayo) lo que no sé es cómo lo podrían implementar en videoproyección, pero si se pudiera, sería miel sobre hojuelas porque esto se haría fotograma a fotograma.

O sea, entre proyectores y televisores la movida es importante.
 
Última edición:
Y tan complejo.

Van saliendo las primeras previews del SMPTE

There were also some good papers on color science that I won’t try to summarize here. These are all very important because we don’t have a good color appearance model for HDR, and a model is needed for calculation of color volume and color accuracy. A color appearance model should adjust measured data to correlate with the way the eye perceives colors. This is based upon the ambient light in the room, the spectral composition and location of this light and the adaption state of your eyes. Many models have been developed for SDR displays and printed materials, but current research is focused on developing new model for the HDR range and viewing environments.

Gary Demos gave a paper and followed up with small group demonstrations at the house of Joe Kane. He has been developing an update to the ACES 1.0 color management system that was implemented before HDR displays came around. He proposed a different method for color and tone mapping that he hopes is a candidate for ACES 2.0. His demos showed color patterns and images where ACES 1.0 has problems and clips colors in HDR content. His approach does a much better job.

Highlights from the 2017 SMPTE Conference
 
Yo pienso que aún estando en los primeros pasitos del HDR, al final se convertirá en algo que usaremos día a día. No se cuanto tardaremos en verlo, pero está clara la evolución hacia ello.

Ya se han presentado los primeros displays que son capaces de llegar a 2000 nits en área completa, pero su precio está no solo lejos, sino solo alcanzable por productoras con mucha pasta.

Llegará un punto en el que haya monitores de estudio realmente económicos y potentes, y probablemente se popularicen los monitores de escritorio, pero no me aventuro a decir fechas, es todo aún muy complicado.
 
YCbCr-vs-ICtCp-Blue-768x403.jpg


Virtually all forms of consumer video—from broadcast to streaming to DVD, Blu-ray, and UHD Blu-ray—use Y’CbCr (or Y’C’bC’r for HDR) and 4:2:0 chroma subsampling in order to minimize the storage and bandwidth requirements. However, the lost color information must be restored before it can be displayed. This works surprisingly well for content in SDR, but Y’C’bC’r runs into trouble with content in HDR, which includes colors that are more saturated than those found in SDR.

When Y’C’bC’r 4:2:0 or 4:2:2 is converted to RGB for display, highly saturated color information “leaks” into the luminance channel, causing visible noise. This is inherent in the model itself, not an artifact of the processor that performs the conversion. By contrast, ICtCp exhibits much less crosstalk when converted to RGB. Why? Because “I” is a much more accurate representation of EOTF-encoded luminance than Y’.

(...)

As I mentioned earlier, YCbCr is used in virtually all consumer video at this point. The only exception I know of is Netflix, which uses ICtCp for its Dolby Vision titles. ICtCp has been proposed for ATSC 3.0, the next-generation standard for over-the-air broadcasting. However, it is not included in the UHD Blu-ray spec.

All Dolby Vision-capable TVs
—and most other displays—can decode ICtCp directly. But until more content is delivered using this color-representation model, that capability will go largely unused. I hope that more content providers learn about the advantage of ICtCp and use it for future HDR content.

www.avsforum.com/dolby-demonstrates-ictcp-color-model-smpte-2017/
 
Coño, que interesante eso. Está claro que el esquema antiguo no vale para lo nuevo. El uso de la compresión YUV hace estragos y aguas por todos lados. Es obvio que aún tenemos que seguir lidiando con esos trucos hasta llegar a un sistema verdadero RGB wavelet (que exige más ancho de banda y tamaño final de archivo, pero que ofrece prácticamente el master original sin paliativos).

A ver hacia donde va el tema...
 
YCbCr-vs-ICtCp-Blue-768x403.jpg


Virtually all forms of consumer video—from broadcast to streaming to DVD, Blu-ray, and UHD Blu-ray—use Y’CbCr (or Y’C’bC’r for HDR) and 4:2:0 chroma subsampling in order to minimize the storage and bandwidth requirements. However, the lost color information must be restored before it can be displayed. This works surprisingly well for content in SDR, but Y’C’bC’r runs into trouble with content in HDR, which includes colors that are more saturated than those found in SDR.

When Y’C’bC’r 4:2:0 or 4:2:2 is converted to RGB for display, highly saturated color information “leaks” into the luminance channel, causing visible noise. This is inherent in the model itself, not an artifact of the processor that performs the conversion. By contrast, ICtCp exhibits much less crosstalk when converted to RGB. Why? Because “I” is a much more accurate representation of EOTF-encoded luminance than Y’.

(...)

As I mentioned earlier, YCbCr is used in virtually all consumer video at this point. The only exception I know of is Netflix, which uses ICtCp for its Dolby Vision titles. ICtCp has been proposed for ATSC 3.0, the next-generation standard for over-the-air broadcasting. However, it is not included in the UHD Blu-ray spec.

All Dolby Vision-capable TVs
—and most other displays—can decode ICtCp directly. But until more content is delivered using this color-representation model, that capability will go largely unused. I hope that more content providers learn about the advantage of ICtCp and use it for future HDR content.

www.avsforum.com/dolby-demonstrates-ictcp-color-model-smpte-2017/

Todo eso está muy bien, pero la comprensión del streaming de Netflix provoca otros muchos artefactos que no están presentes en un disco. Incluso me parece mejor el streamimg de iTunes, pero esto es solo una opinión mia basada en mi propia experiencia personal.

Lo otro. Difícil solución. Vídeo doméstico es YCC 4:2:0 por cuestiones de ancho de banda, y no hay expectativas de que en un futuro próximo vaya a cambiar, por lo tanto todos los problemas que se puedan derivar del proceso de muestro de cromomancia y conversión RGB, van a seguir ahí. En ese sentido lo único que podemos hacer es contar con un buen reproductor que haga el muestreo superior 4:4:4 de la mejor manera posible, ya que por lo que parece este proceso ya no es tan trivial como lo era para HD, donde hasta casi cualquier reproductor barato ya te lo hacía igual de bien que uno top
 
Entonces habría que probar esa conversión con un oppo 203/205 o el panasonic 900 , y ver los resultados :pensativo . ¿Alguien se anima?
Un saludo.
 
Te da igual la conversión que hagas, si el problema es la fuente, el origen...no vas a lograr absolutamente nada.

Es como esos lumbreras que conocí un día que me enviaban un JPEG ultracomprimido y yo les decía, mira, mejor en TGA, que va sin comprimir. Pues me enviaban el JPEG convertido a TGA. ¡Y tan panchos!. Pues exactamente lo mismo, si el problema está en la codificación de la propia imagen, no se puede sacar absolutamente nada, porque no hay nada que sacar, está todo desechado.
 
No se a que clase de conversión te refieres, pero de donde no hay no se puede sacar, vamos...que aunque puedas convertir de Ycbcr a Ictcp, los resultados visuales serán los de Ycbcr, ¿entiendes?. No se puede sacar "mágicamente" nada porque en la imagen original codificada como Ycbcr NO existe la ventaja que ofrece Ictcp.

Insisto, como salvar un JPEG a TGA. Seguirá teniendo la calidad de JPEG, pero ocupando mucho más. Ninguna ventaja.
 
Coño, que interesante eso. Está claro que el esquema antiguo no vale para lo nuevo. El uso de la compresión YUV hace estragos y aguas por todos lados. Es obvio que aún tenemos que seguir lidiando con esos trucos hasta llegar a un sistema verdadero RGB wavelet (que exige más ancho de banda y tamaño final de archivo, pero que ofrece prácticamente el master original sin paliativos).

A ver hacia donde va el tema...

Si que es interesante, si. Ya leí sobre el tema cuando madshi estaba implementando HDR en madvr y comentó que estaba usando ICtCp en los algoritmos que utilizaba para HDR mapping:

madVR - high quality video renderer (GPU assisted) - Page 1931 - Doom9's Forum

Interesante debate aquel
 

El tema de la calibración para HDR es complejo hasta tal punto, que casi mejor dejarlo como viene de fábrica, por lo menos en los televisores OLED, que son complejos por muchas razones. Una de ellas es por el propio espectro de luz que producen, que hace que la sonda no sea 100% eficaz a la hora de tomar medidas precisas, o sea, fallan las matemáticas, con lo cual, poco se puede hacer científicamente hablando si se quiere calibrar correctamente tomando como referencia las lecturas de las sondas.

Con los proyectores la movida es otra porque se necesitarán varias curvas de gamma y ajustes, ya que si utilizas una curva de gamma con corte a 1000 nits todas las películas masterizadas en monitores de 4000 nits que contengan información por encima de los 1000 nits quemaran algo de blancos y luces (¿cuánto? depende de la película y del uso que el colorista haya hecho del rango dinámico) y si utilizas una curva de 4000 nits entonces no recortarás blancos en ningún caso pero las películas que sean de 1000 nits las verás algo más ténues que si utilizas una gamma de 1000 nits, ya que el proyector mapeará los tonos tomando como referencia máxima 4000 nits en lugar de 1000 nits, y a mayor mapeo de tonos=imagen más ténue.

Un conocido mío tiene un Epson LS-10.500 y está utilizando varias gammas y ajustes, creo recordar que de 500 nits, de 700, de 1000 y 1200 nits respectivamente donde la de 500 es la más brillante y la de 1200 la más oscura, que va cambiando según la película. Si tienes una película masterizada a 1000 nits con un MAXCLL de 480 nits, le vale la de 500 nits y hacemos hasta palmas con las orejas, pero si es de 4000 nits con un MAXCLL de 1500, entonces hay que utilizar la gamma más alta y la imagen es algo más ténue porque mapeará más tonos, pero al final con mucha paciencia y un montón de visitas hemos conseguido que se vea de lujo en casi todas las películas.

Lo ideal para la industria serían los metadatos dinámicos (agua de Mayo) lo que no sé es cómo lo podrían implementar en videoproyección, pero si se pudiera, sería miel sobre hojuelas porque esto se haría fotograma a fotograma.

O sea, entre proyectores y televisores la movida es importante.
Entonces Ronda para los que tenemos proyectores el panasonic es un reproductor muy recomendable. Pero ¿como sabes como si la pelicula esta remasterizada en 500, 700...? Y otra duda con dolby vision ¿tendria este tipo de problemas?

Gracias.
 
Con metadatos dinámicos, en teoría, no habrían estos problemas de tone mapping porque se realiza escena a escena, y se podrían implementar bien por Dolby o HDR10+. El problema es cómo implementarlo, pero si lo logran será un gran avance en videoproyeccion doméstica

Para proyectores la mejor opción no cabe duda que es un Panasonic porque cuenta con la opción personalizada de rango dinámico, y en ese sentido te puede permitir esto, fíjate en las imágenes que pertenecen a un proyector HDR de los top.
G3s5y1E.jpg

lUXWWnk.jpg

dm41TqX.jpg

YB7qI0j.jpg


zQaClYq.jpg


Para saber la información de la película no sé si algún proyector incorpora ya la información pertinente en su menú, si no es bien simple fijándose en los aspectos destacados de la imagen como nubes o luces, y si las ves quemadas, como con falta de detalle o algo parecido, solo es cuestión de cambiar a una gamma que cubra un mayor rango dinámico, y si al hacerlo ves que aparecen detalles que antes estaban clipeados como en las imágenes que he puesto, que son un magnífico ejemplo, es porque estabas utilizando un tone mapping incorrecto para esa película, y esto se puede hacer mediante el ajuste del Panasonic o bien seleccionando una gamma personalizada distinta desde el proyector, que los más actuales ya empiezan a incorporar estas opciones.

Películas problemáticas en esta aspecto no hay tantas. King Kong, Pan, Batman vs Superman, Pacific Rim y seguramente alguna más, pero para la mayoría de casos con una gamma de 700 o 1000 nits va a ser suficiente y no haría falta un tone mapping que vaya más allá de los 1000 nits.
 
Última edición:
Archercito también dice lo mismo. Enhorabuena a los de Sony, por fin tienen DV. En Panasonic aún están esperando xD
 
En cine el concepto es diferente, es más tirando hacia buscar un look oled que una mayor luminancia. De hecho las películas tienen que estar especialmente coloreadas solo para este formato de proyección, no vale para ningún otro.

Ah, que has eliminado el comentario, vale xD
 
Se necesita MUCHA pasta para montar algo así. Conocimientos aparte, que son probablemente aún más valiosos que toda la cacharrería. Un crack el tipo.
 
SpectraCal dijo:
ICtCp
The increasingly aged Delta E metrics the industry relies on were designed in a Standard Dynamic Range world, and they definitely show their weakness in an HDR age. The best metric to emerge so far for meaningfully describing color differences in HDR is Delta ICtCp. Stay tuned for more informational updates on Delta ICtCp. CalMAN 2017 R2 gives ICtCp a starring role, and the new HDR Analysis Workflow in particular makes heavy use of Delta ICtCp.

CalMAN 2017 R2
 
Arriba Pie