TVS OLED 2020, 2021 (TODAS LAS MARCAS)

Gracias por la explicación, Ronda. Si me permites, me saltan algunas dudas al respecto.

-Si la PQ es una curva absoluta bajo criterios muy estrictos, ¿Qué les impide a los fabricantes de TVs cumplir la normal a la perfección en sus visualizadores "out of the box" y se requiere, en la mayoría de los casos, una calibración exhaustiva y casi casi profesional para igualar la curva?

Eso habría que preguntárselo a ellos, a los fabricantes, pero todo se vuelve más complejo cuando los displays actuales de consumo no son capaces de cubrir con garantías las especificaciones HDR por limitaciones inherentes a las propias tecnologías que producen. Tampoco hay auténticos televisores PQ todavía, sino que los que hay siguen trabajando en gamma tradicional a partir de la cual realizan una conversión a HDR PQ. Después, la especificación ya nacería seriamente cuestionada, algo de lo que ya se le aviso a Dolby durante el desarrollo de la misma, por eso se ha tenido que revisar modificando el blanco difuso hasta 203 nits en lugar de los 100 de origen, cosa que solo ha solucionado el potencial problema mínimamente, y por eso Dolby se ha sacado de la chistera el Dolby IQ, que no vale para nada, ya que no es más que marketing.

As mentioned above, with PQ based HDR the Average Picture Level (APL) will approximately match that of regular SDR (standard dynamic range) imagery. The result is that in less than ideal viewing environments, where the surrounding room brightness level is relatively high, the bulk of the PQ HDR image will appear very dark, with shadow detail potentially becoming very difficult to see. This is still true with a diffuse white target of 200 nits, rather than the original 100 nits diffuse white.

To be able to view PQ based 'absolute' HDR imagery environmental light levels have to be very carefully controlled. Far more so than for SDR viewing. This really does mean using a true home cinema environment.

Or, the PQ EOTF (gamma) has to be deliberately 'broken' to allow for brighter images - as Dolby's IQ implementation does.

To back this statement up, the average surround illumination level that is specified as being required for PQ based HDR viewing is 5 nits, while for SDR it has always been specified as 10% of the maximum brightness of the display. Unfortunately, the surround illumination specification for SDR has since been (incorrectly) changed to 5 nits as well...


Si dicha curva emula/iguala la realidad, el cómo vemos realmente, ¿Se pierde espectacularidad? Dicho de otro modo, nosotros salimos a la calle y no vamos diciendo "wow, como se ve ese edificio". Quizá esto pueda explicar mi consulta del primer punto

-Salirse de la curva, ¿Qué implica realmente? ¿Perder detalle en sombra? ¿Suelo de negros? ¿Clipping en altas? ¿O simplemente no cumplir lo establecido?

Se pierde precisión pues ya no reproduciríamos las imágenes bajo las directrices con las que fueron creadas, y en unos casos habrá aplastamiento de detalles en sombra, en otros clipping de altas luces, posterización, niveles de brillo inadecuados, etc. Todo como consecuencia de no seguir las matemáticas correctamente, pero claro, como partimos de una base mal definida tal y como indica Steve Shaw, pues los fabricantes han de adoptar medidas propias, tanto para exhibir una imagen precisa como para combatir las propias limitaciones de las tecnologías que producen, además de los potenciales inconvenientes que plantea la propia especificación mencionado anteriormente.

Pero si hasta la propia Dolby, siendo consciente de la problemática ha creado o patentado un sistema IQ que precisamente rompe deliberadamente con la curva que ellos han creado desvirtuando la imagen original mediante un simple sensor de luz.

Captura de pantalla 2020-09-29 a las 17.40.03.png


Dicho por Steve Shaw de su puño y letra:

think it needs to be pointed out that 'calibration' to a given standard is defined based on the viewing environment, as per the info I linked to previously.

If you have a non-grading environment then the calibration target changes, again as per the info I linked to.
For SDR, 200+ nits, and a gamma 2.2 is entirely desirable if the viewing environment is light contaminated.

Unfortunately PQ based HDR never took that into account, and was only valid for a 'grading' environment.
Something we pointed out to Dolby when the first iteration of PQ was defined.

And that is why IQ now exists - to break the PQ standard for non-critical viewing environments.
But, basing it on a non-calibrated light sensor, and dynamically changing the image based on the sensor is, well, just bollox.



Pa mear y no echar gota! Poco menos que los ha llamado tontos del haba!

tenor.gif


Por eso hay fabricantes que no siguen la curva de manera estricta. Unos porque no pueden por el ABL y la separación RGB que a partir de 400 nits se les va a tomar por culo, y otros porque no les da la gana y entre seguir las directrices estrictas de la especificación y ofrecer la mejor experiencia de visualización posible a sus clientes, han optado por esto último.
 
Última edición:
Pues lo de Dolby Vision IQ ya lo habíamos comentado los hallazgos encontrados por LesNumeriques en OLED HZ1000, claro está que también ocurre con CX/GX implementados este año : "rompe con desvergüenza la curva EOTF para obtener imágenes más brillantes con el fin contrarrestar la luz ambiental, además de esto una colorimetría decente se va al tacho con esta opción"

Saludos.
 
Última edición:
¿Realmente volumen de color y ABL puntos débiles de OLED TV?

Hola cómo estáis. Sobre volumen de color ya se ha comentado mediante medición volumétrica de color, la no gran diferencia entre WOLED con sus 500 nits valga el término RGB vs LCD RGB más brillantes.


Rtings es uno de los pocos portales que realiza medición de volumen de color de manera standarizada. No es de emplear metodologías diferentes de acuerdo a tecnología de TV, pues no tendría sentido los resultados tabulados ó herramienta a emplear como comparative.

Ellos son claros en lo referente a medición de volumen de color: si lo que buscáis son colores brillantes, este no es el score vaya vaya chaval a Peak Brightness score.
Brighter TVs can produce brighter colors, but this is already accounted for in the 'Peak Brightness' score

Aquí también podeís comprobar, que el valor medido para evitar sesgo de pico de brillo, que no es lo mismo que volumen de color, es comparado con el del TV ideal y expresado en %
The result is given as a percentage of the DCI P3 volume in the ICtCp color space which an ideal TV of the same brightness would cover. Any parts of the measured volume which fall outside of the target volume (too bright or too saturated compared to an ideal TV reference) are not included in the result.




Sobre ABL , Steve Shaw lo dice bien claro el fundamento de su existencia:

Another of the often overlooked potential issues with HDR has to do with the (legal) need to limit the power requirement of the display, as obviously extreme brightness causes excessive power consumption. That in itself is a cause for concern, based both on the power costs, and potential environmental issues.

However, in an attempt to overcome extreme power requirements, just about all HDR displays use one form or another of ABL (Auto Brightness Limiting - often called Power Limiting in HDR terminology). In very simple terms ABL reduces the power to the screen dependant on the percentage screen area that goes over a predetermined brightness level, so reducing the overall brightness of the scene.


ABL no es exclusivo de OLED, los mejores LCD FALD también lo padecen.
1601464098111.png

Para este caso 580 nits resulta insuficiente , si hipotéticamente tenéis scena HDR pantalla completa a 1000 nits, masterizado en el monitor X310H como cualidad caracteriza no tener ABL (puede representar 1000 nits a 10% de ventana como a pantalla completa, que difiere del monitor X300 que a 10% de ventana representa 1000 nits, mientras a pantalla completa 170 nits )

Un dato muy interesante que nos dice Shaw hablando de ABL es lo siguiente:

The PQ HDR specification defines what is known as MaxCLL (Maximum Content Light Level) and MaxFALL (Maximum Frame-Average Light Level) which are intended to be part of the HDR mastering metadata, from which the viewing display will calculate how to show the image, limiting potentially high power requirements.

Obviously, this causes the same image to be viewed differently on different displays, with different shots of the same scene, with different framing, to also be seen differently on the same display as the average picture brightness level will be different depending on the shot framing
, potentially causing different power limiting to be applied by the display in an almost perceptually random way.


Lo importante para HDR TV entonces va encaminado, que tan convincente nos representa la percepción de alto rango dinámico que no es lo mismo alto brillo, así como riqueza cromática según la intención artística que se nos quiere transmitir en un UHD HDR.

Saludos.
 
Última edición:
La resolución se está cargando el videojuego desde hace años. Por otro lado, impresionante TV, imagino como su inalcanzable precio.
 
Es que el fondo de la cuestión no está en las complicadas gráficas aportadas por @DVman, sino en lo estrictamente visual y la forma en la que percibimos el contraste, color, etc. Y es a partir de ahí donde toda esa avalancha y cosmética de datos, gráficos y números se derrumban como un castillo de naipes.

15840-28578-que-dificil-es-hacer-y-que-facil-es-destruir-300-200-20140223180002@LaVanguardia-Web.gif

No, hombre. La vista se educa, igual que el oído.
 


Pues que queréis que te diga, lo mejor del mundo OLED TV este 2020. Se agradece Leoni.

Saludos.

Lo agradezco de verdad , ha sido muy difícil y complicado grabar esto e "intentar" plasmar en pantalla lo que se vé realmente....muy difícil con una cámara....mover muebles, cables etc una locura la verdad.....si os digo la verdad estoy deseando devolver ya las teles y centrarme en mis juegos y pelis jehehe

Un abrazo!!
 
No me refería a eso.

Si, lo que sueles comentar es que la norma puede decir X, pero luego por como funciona nuestra vista y cerebro al percibir la luz, el color y el contraste nuestros ojos pueden preferir Y (como por ejemplo una mayor luminosidad y punch a costa de dejar de seguir la curva EOTF en HDR ), pero de lo que se trata es de ceñirse todo lo que uno pueda a la norma en función del visualizador que uno tenga, al menos si uno entiende el cine como un arte, porque si no esto sería un sincristo. Y corregir los vicios de nuestro cerebro en la medida de lo posible.
 
Gracias por la explicación, Ronda. Si me permites, me saltan algunas dudas al respecto.

-Si la PQ es una curva absoluta bajo criterios muy estrictos, ¿Qué les impide a los fabricantes de TVs cumplir la normal a la perfección en sus visualizadores "out of the box" y se requiere, en la mayoría de los casos, una calibración exhaustiva y casi casi profesional para igualar la curva?

Eso habría que preguntárselo a ellos, a los fabricantes, pero todo se vuelve más complejo cuando los displays actuales de consumo no son capaces de cubrir con garantías las especificaciones HDR por limitaciones inherentes a las propias tecnologías que producen. Tampoco hay auténticos televisores PQ todavía, sino que los que hay siguen trabajando en gamma tradicional a partir de la cual realizan una conversión a HDR PQ. Después, la especificación ya nacería seriamente cuestionada, algo de lo que ya se le aviso a Dolby durante el desarrollo de la misma, por eso se ha tenido que revisar modificando el blanco difuso hasta 203 nits en lugar de los 100 de origen, cosa que solo ha solucionado el potencial problema mínimamente, y por eso Dolby se ha sacado de la chistera el Dolby IQ, que no vale para nada, ya que no es más que marketing.

As mentioned above, with PQ based HDR the Average Picture Level (APL) will approximately match that of regular SDR (standard dynamic range) imagery. The result is that in less than ideal viewing environments, where the surrounding room brightness level is relatively high, the bulk of the PQ HDR image will appear very dark, with shadow detail potentially becoming very difficult to see. This is still true with a diffuse white target of 200 nits, rather than the original 100 nits diffuse white.

To be able to view PQ based 'absolute' HDR imagery environmental light levels have to be very carefully controlled. Far more so than for SDR viewing. This really does mean using a true home cinema environment.

Or, the PQ EOTF (gamma) has to be deliberately 'broken' to allow for brighter images - as Dolby's IQ implementation does.

To back this statement up, the average surround illumination level that is specified as being required for PQ based HDR viewing is 5 nits, while for SDR it has always been specified as 10% of the maximum brightness of the display. Unfortunately, the surround illumination specification for SDR has since been (incorrectly) changed to 5 nits as well...


Si dicha curva emula/iguala la realidad, el cómo vemos realmente, ¿Se pierde espectacularidad? Dicho de otro modo, nosotros salimos a la calle y no vamos diciendo "wow, como se ve ese edificio". Quizá esto pueda explicar mi consulta del primer punto

-Salirse de la curva, ¿Qué implica realmente? ¿Perder detalle en sombra? ¿Suelo de negros? ¿Clipping en altas? ¿O simplemente no cumplir lo establecido?

Se pierde precisión pues ya no reproduciríamos las imágenes bajo las directrices con las que fueron creadas, y en unos casos habrá aplastamiento de detalles en sombra, en otros clipping de altas luces, posterización, niveles de brillo inadecuados, etc. Todo como consecuencia de no seguir las matemáticas correctamente, pero claro, como partimos de una base mal definida tal y como indica Steve Shaw, pues los fabricantes han de adoptar medidas propias, tanto para exhibir una imagen precisa como para combatir las propias limitaciones de las tecnologías que producen, además de los potenciales inconvenientes que plantea la propia especificación mencionado anteriormente.

Pero si hasta la propia Dolby, siendo consciente de la problemática ha creado o patentado un sistema IQ que precisamente rompe deliberadamente con la curva que ellos han creado desvirtuando la imagen original mediante un simple sensor de luz.

Ver el archivo adjunto 21245

Dicho por Steve Shaw de su puño y letra:

think it needs to be pointed out that 'calibration' to a given standard is defined based on the viewing environment, as per the info I linked to previously.

If you have a non-grading environment then the calibration target changes, again as per the info I linked to.
For SDR, 200+ nits, and a gamma 2.2 is entirely desirable if the viewing environment is light contaminated.

Unfortunately PQ based HDR never took that into account, and was only valid for a 'grading' environment.
Something we pointed out to Dolby when the first iteration of PQ was defined.

And that is why IQ now exists - to break the PQ standard for non-critical viewing environments.
But, basing it on a non-calibrated light sensor, and dynamically changing the image based on the sensor is, well, just bollox.



Pa mear y no echar gota! Poco menos que los ha llamado tontos del haba!

tenor.gif


Por eso hay fabricantes que no siguen la curva de manera estricta. Unos porque no pueden por el ABL y la separación RGB que a partir de 400 nits se les va a tomar por culo, y otros porque no les da la gana y entre seguir las directrices estrictas de la especificación y ofrecer la mejor experiencia de visualización posible a sus clientes, han optado por esto último.

Seguir las directrices estrictas de las especificación en la medida que nos lo permita nuestro visualizador OFRECE la mejor experiencia de visualización posible a los clientes. Que guste más una cosa u otra es irrelevante.
 
Si, lo que sueles comentar es que la norma puede decir X, pero luego por como funciona nuestra vista y cerebro al percibir la luz, el color y el contraste nuestros ojos pueden preferir Y (como por ejemplo una mayor luminosidad y punch a costa de dejar de seguir la curva EOTF en HDR ), pero de lo que se trata es de ceñirse todo lo que uno pueda a la norma en función del visualizador que uno tenga, al menos si uno entiende el cine como un arte, porque si no esto sería un sincristo. Y corregir los vicios de nuestro cerebro en la medida de lo posible

Pues no, ni mucho menos me refería a eso.

Seguir las directrices estrictas de las especificación en la medida que nos lo permita nuestro visualizador OFRECE la mejor experiencia de visualización posible a los clientes. Que guste más una cosa u otra es irrelevante

En eso estoy 100% de acuerdo, y no de ahora, de hace ya muchos años!!


Creo que no has entendido nada de lo que quería decir, pero da igual.

:ok
 
Si, lo que sueles comentar es que la norma puede decir X, pero luego por como funciona nuestra vista y cerebro al percibir la luz, el color y el contraste nuestros ojos pueden preferir Y (como por ejemplo una mayor luminosidad y punch a costa de dejar de seguir la curva EOTF en HDR ), pero de lo que se trata es de ceñirse todo lo que uno pueda a la norma en función del visualizador que uno tenga, al menos si uno entiende el cine como un arte, porque si no esto sería un sincristo. Y corregir los vicios de nuestro cerebro en la medida de lo posible

Pues no, ni mucho menos me refería a eso.

Seguir las directrices estrictas de las especificación en la medida que nos lo permita nuestro visualizador OFRECE la mejor experiencia de visualización posible a los clientes. Que guste más una cosa u otra es irrelevante

En eso estoy 100% de acuerdo, y no de ahora, de hace ya muchos años!!


Creo que no has entendido nada de lo que quería decir, pero da igual.

:ok

Explicame esto, entonces (sin ironías ni dobles sentidos ni nada, estoy de buen rollo):

Por eso hay fabricantes que no siguen la curva de manera estricta. Unos porque no pueden por el ABL y la separación RGB que a partir de 400 nits se les va a tomar por culo, y otros porque no les da la gana y entre seguir las directrices estrictas de la especificación y ofrecer la mejor experiencia de visualización posible a sus clientes, han optado por esto último.
 
Explicame esto, entonces (sin ironías ni dobles sentidos ni nada, estoy de buen rollo):

Y yo, y yo :ok

Por eso hay fabricantes que no siguen la curva de manera estricta. Unos porque no pueden por el ABL y la separación RGB que a partir de 400 nits se les va a tomar por culo, y otros porque no les da la gana y entre seguir las directrices estrictas de la especificación y ofrecer la mejor experiencia de visualización posible a sus clientes, han optado por esto último.

Pero si precisamente en ese mismo post la explicación viene precedida al: ..."por eso hay fabricantes que no"...

En SDR, un proyector o televisor de los que habitualmente hablamos por aquí se puede dejar perfectamente calibrado, e incluso entre tecnologías tan dispares como la OLED y QLED dejarlos literalmente de libro de manera que puestos uno al lado del otro, me refiero a una OLED GZ950 y una Q9fn, se vean prácticamente iguales salvo por algún que otro pequeño matiz. Sin embargo, esto no pasa en HDR. Y eso es lo que precisamente habría que preguntarse, ¿por qué?.

Es lo que llevamos diciendo hace tiempo. "Que es muy fácil ver la paja en ojo ajeno pero no la viga en el propio"

Por eso, si hay que seguir la curva, lo primero que tendrían que hacer las OLED es cortar a su nivel máximo (el verdadero, no el del marketing de 750 nits) de brillo, que es el de alrededor de 450/500 nits, y no hacer ningún tipo de tone mapping estático/dinámico asignación de tonos porque los monitores de estudio empleados en la masterización de contenidos HDR no aplicarían ningún tipo de tone mapping, algo que tampoco contempla la especificación, con lo cual, haciendo tone mapping se atentarían contra la forma original en la que fueron creados los contenidos, y esto no es una limitación tecnológica, como el ABL, que sí que lo es, es simplemente una decisión arbitraria que obedece a otro tipo de cuestiones. El ABL, también atenta contra la curva PQ, pero como esto sí que es una limitación tecnológica, ya que sin ese limitador de brillo una TV OLED en HDR tendría problemas, vamos a omitirlo.

De hecho ahora mismo la abanderada en saltarse las especificaciones HDR es Dolby con su DOLBY VISION IQ, o sea, la propia creadora de la especificación, de la famosa curva, atendiendo al problema que ellos mismos han creado van y patentan Dolby IQ, que no es más que una forma totalmente desvirtuada de ver los contenidos bajo la arbitrariedad de un sensor de luz. Por eso Steve Shaw, que tiene la emperesa que se dedica a calibrar los monitores de los estudios más importantes de cine, poco menos que los ha llamado tontos del haba.

Después, están todas esas gráficas absurdas sacadas de contexto que solo muestran una pequeña parte de la verdad, porque al final hay errores que por debajo de <3 para escala de grises y <1.5 para la gama de colores serían indistinguibles para la visión a no ser que seas un X MEN o un águila, por lo que ahí acaban las gráficas y empieza la forma en la que percibimos las imágenes más allá de datos y gráficas. Es como el negro, el negro lo diferencias perfectamente en un patrón del 0% en cuarto oscuro, pero en cuanto haya algo de imagen en la propia imagen o simplemente pongas una pequeña luz de sesgo, dos televisores con diferentes niveles de negro se pueden llegar a igualar. Es la ciencia de la imagen, y esto no se puede educar porque es la forma en la que funcionan nuestros ojos y se adaptan a la luz.

De todas formas, si uno es un exacerbado fanboy de LG, que cree que lo suyo en lo mejor de lo mejor y el resto una kk, allá él, pero eso no significa que el resto debamos comulgar con ruedas de molino.
 
Ahora si, mil gracias. O sea que en HDR, a día de hoy y con la tecnología de visualización actual (tanto OLED como QLED, cada una con sus cosas), la palabra clave que define el panorama que nos encontramos es COMPROMISO. ¿Voy bien?. Porque con la tecnología actual, sencillamente, en HDR NO SE PUEDE respetar tal cual la dichosa norma, por limitaciones tecnologicas de las pantallas de consumo.

¿Correcto?
 
Ahora si, mil gracias. O sea que en HDR, a día de hoy y con la tecnología de visualización actual (tanto OLED como QLED, cada una con sus cosas), la palabra clave que define el panorama que nos encontramos es COMPROMISO. ¿Voy bien?. Porque con la tecnología actual, sencillamente, en HDR NO SE PUEDE respetar tal cual la dichosa norma, por limitaciones tecnologicas de las pantallas de consumo.

¿Correcto?

¡Correcto! ¡Correcto! :ok :birra
 
Entonces, y yendo mas allá... ¿que es preferible?. ¿El HDR de las OLED, que pese a tener menos nits lo compensan con su contraste infinito y sus pixeles autoemisivos, o el HDR de las QLED de gama alta, que pese a no tener un negro absoluto tienen mayor nivel de luminancia?


¿Preferencias personales?
 
Hola cómo estáis. Si partimos por error de concepto lo que significa Alto Rango Dinámico pues oiga terminamos recomendando LCD como el mejor display para HDR sólo por el hecho de contar con más nits. Ya con el supuesto añadido que no realiza tone mapping a 1000 nits. El empleo de mapeo de tonos no es inválido para HDR es más todas las TVs lo emplean. También se quiso extrapolar a los metadatos dinámicos, que es definir el brillo dinámicamente en la imágen fotograma por fotograma.

Pero realmente ¿es malo los metadatos dinámicos?

Para Steve Shaw que no es moco de pavo lo dice: cuando se realiza el grading de una película, el resultado se emplea para definir emoción, colmando las expectativas del espectador en cuanto a lo que el director de la película intenta retratar. Pues alterar el brillo se corre el riesgo de alterar lo planificado como intención artística. La recomendación es que los metadatos dinámicos deben ser definidos por el colorista/DOP a través de un grading secundario, que yo sepa sólo Dolby Vision lo realiza así, no HDR10+.

Pero si hay que seguir la curva HDR que deberían priorizar las TVs de hoy con sus limitaciones tecnológicas, lo dice Shaw:

In reality, as nominal diffuse white is defined to be approximately 100 nits, with just spectral highlight information beyond that level, the inherent visual intent of the image will be contained below the 100 nits level, meaning that for correctly graded HDR, the theoretical 'best' approach to displaying the image on a lower peak luminance display would be to simply clip at the display's maximum luminance, potentially with the use of roll-off to prevent highlight 'blocking', with no use of dynamic metadata at all.



Es decir la intención visual inherente de la imágen estará contenida por debajo del nivel de 100 nits (ahora 203 nits), lo que significa para HDR correctamente masterizado y es lo que se debe preservar con fidelidad. Para SDR muy bien de hablar de calibración y sus bemoles ó ausencia de diferenciar errores DeltaE. Para HDR seguimiento de curva EOTF es otro cantar.



Saludos.
 
Arriba Pie