TVS OLED 2020, 2021 (TODAS LAS MARCAS)

Hola cómo estáis. Uno de los motivos de carencia de stock de CX48, es que el corte del panel para este modelos se hace de hojas OLED para CX77.



Hombre!, sinceridad ante todo caracteriza. Ojalá una comparativa con HZ2000.
Congratulations. You are direct, clear, objective.

Saludos.

Muchas gracias hombre :) !! Siempre he dicho que soy solo un aficionado que he aprendido de los foros y de internet , nada más jehe gracias

Pues la CX es una buena tele en mi opinion, tiene buena uniformidad, buen HDR sobre todo por el tone mapping , movimiento ha mejorado , el color un poco y encima es la mejor en gaming , solo puedo decir lo que veo ;)

Buenas noches a todos:)
 
Hace 11 dias que encargué la Panasonic HZ2000 y todavía no sé nada.
Jo

Tranqui que llegar llegará. A mi uno de los jefazos de ECI me comentó que el Coronavirus había hecho verdaderos estragos en la producción de los nuevos modelos y en los compromisos que los fabricantes más importantes tenían adquiridos con las grandes superficies sobre fechas y cantidades, y que como consecuencia de ello habían vendido muchas teles que ahora no se podían entregar en las fechas de entrega pactadas, y que era un marronazo importante porque los clientes se acercaban al centro muy cabreados y los vendedores ya no saben ni dónde esconderse!
 
Me llama la atención el tema del OLED-Brillo-LED-HDR. Consultando las opiniones aquí (en el subforo) vertidas, un OLED no tiene mucho que hacer en temas HDR vs un FALD-LED.

Repasando RTings (lo hago a diario) veo que, para ellos, el mejor TV para HDR es un OLED (el LG CX), aun con sus limitaciones de brillo, ABL y demás. Un compañero de aquí alude constantemente a la supremacía del OLED y su HDR gracias al contraste.

Creo que sería interesante profundizar más en este tema, sin guerras. La otra vez hicisteis un buen repaso del asunto con el tema de los "Stops", donde DVman aludía a los "Stops" pero hacia atrás, en lugar de hacia delante (más capacidad de brillo).

Por cierto, de nuevo la XH95 aparece como referencia, en este caso en lo que a HDR y precisión de color se refiere. A poco que la rebajen cerca de los 1000€ (la 65" pulgadas) ni me lo pensaré.
 
Hay opiniones para todo, pero la de un productor de cine es importante:

A film producer recently told HDTVTest, “You don’t know what HDR is supposed to look like until you’ve watched Chappie on a 4000-nit Dolby Pulsar monitor”

 
Hola cómo estáis. OLED TV de 2016 ha tenido una evolución vertiginosa en HDR, tan es así que a partir del 2017 viene ganando los shootout como mejor TV para HDR (no sólo para Rtings es OLED), no tanto por el pico máximo de brillo como podéis colegir obviamente.


Josh Limor vice presidente Technicolor en una ponencia sobre HDR, en primera diapositiva simplifica el significado sobre alto rango dinámico para vídeo.
1601063052641.png


Saludos.
 
Última edición:
Lo de negros más profundos en HDR es un pretexto tan absurdo como recurrente del marketing, pues esos negros profundos ya se disfrutaban de la misma manera en HD SDR, luego la verdadera mejora y salto cualitativo del HDR respecto a la era HD SDR viene precedida por los highlights, que es ese margen que va más allá de los niveles máximos del estándar SDR, y no por los negros, que ya estaban ahí con anterioridad.

HDR - Shadows Too

The reality is PQ based HDR does nothing for black levels, and that is true of shadow detail too - no matter what those less knowledgeable or marketing material may say.


Más claro, agua.

Y como una imagen vale más que 1000 palabras, una representación gráfica de lo anteriormente expuesto lo define todo a la perfección

hdr_range.png


Por esa razón para muchos usuarios, entre los que se encuentra un servidor, pasar con tecnología OLED de SDR a HDR no suponía una diferencia tan abrumadora, pues el verdadero salto ya se experimentó en HD con las primeras OLED.


Sin embargo, en LED FULL ARRAY si la tele es buena, el salto respecto a SDR es pco menos que revolucionario.

Dicho esto. Sí, las sombras y los negros son importantes en HDR...pero también lo eran y lo son en SDR, y eso algo que ya se disfrutaba desde que salió al mercado la primera OLED FHD (y en menor medida con las mejores plasmas de antaño) O sea, solo se trata de tener algo más de memoria y algo menos de prejuicios.
 
Última edición:
Gran explicación, Ronda.

No soy yo defensor de OLED (de hecho quiero un FALD) pero hay algunas cosas que quisiera conocer mejor.

Lo de negros más profundos en HDR es un pretexto tan absurdo como recurrente del marketing, pues esos negros profundos ya se disfrutaban de la misma manera en HD SDR, luego la verdadera mejora y salto cualitativo del HDR respecto a la era HD SDR viene precedida por los highlights, que es ese margen que va más allá de los niveles máximos del estándar SDR, y no por los negros, que ya estaban ahí con anterioridad.

Me ha encantado esta explicación, y es totalmente cierta. Si me permites opinar al respecto, lo hago. El LED tradicional (Edge LED) carece de unos negros y detalle en sombra de buen nivel, ¿Cierto? Por altos Highlights que estos tengan (similares o por encima de los OLED) su impacto HDR es bajo o incluso nulo, por lo que, volviendo al principio, sí, los negros serían esenciales para el HDR según parece.

Los OLED ya tenían esos negros y detalle en sombra en SDR, en TVs con picos de nits muy bajos, pero quizá ahora, al ser compatibles con HDR y subir sus picos de nits en los TVs OLED actuales (sin llegar a los extremos de los FALD) el HDR toma otro nivel.

Llegados hasta aquí podríamos decir que el HDR es superior en TVs con negros y contraste absolutos y picos de nits medios, que en TVs con negros y contraste vulgares y picos de nits altos.

Y llegamos a los FALD, TVs con picos de nits ganadores y negros y contrastes casi absolutos (pero sin llegar a ello).

¿Podríamos estar en un empate? ¿Quizá lo que le falte en nits a un OLED respecto a un FALD lo compense con su contraste y negro absoluto, terminando una imagen final de alto nivel? Y lo mismo para el FALD, ¿Compensaría con sus altos Hilights el no llegar al máximo en negro y contraste?
 
Hola cómo estáis, en el HDR el suelo en negro es importante, pues claro Javier Suarez de avpasion también lo entiende así. Pero más que eso para HDR el CONTRASTE es lo más importante. Es falso que la verdadera mejora HD SDR de 8 bit para HDR 10 bit es highlights. Por eso para los mejores expertos y proyectándonos al futuro el mejor display HDR es y será de iluminación autoemisiva.

1601122518664.png

Lightillusion
Que describe el siguiente histograma para no salirnos del contexto:

The following histogram is a simplified view of the difference between a SDR (Standard Dynamic Range) image, and its PQ HDR equivalent.
Note that the APL (Average Picture Level) remains approximately consistent between the SDR and ST2084 HDR images, with just the contrast range and specular highlight levels increasing.
Remember that the difference between 100 nits and 200 nits is a logarithmic difference, not a doubling of brightness, so is actually rather small.

Para imágenes HDR el contenido muchas veces por no deciros permanentemente se encuentra en el rango SDR.

Para Josh Limor shadows son inclusive más importantes que highlights, es correcto la siguiente afirmación para shadows near black en HDR: The reality is PQ based HDR does nothing for black levels, and that is true of shadow detail too - no matter what those less knowledgeable or marketing material may say.

A lo que agrega en el mismo párrafo: And in reality, due to the EOTF curve in use on PQ based HDR the black under normal home viewing conditions will often be 'crushed' when compared to SDR versions of the same image. This is born out by the surround illumination level that is specified as being preferred for HDR as being 5 nits, while for SDR it was originally specified as 10% of the maximum brightness of the display. That large discrepancy, and shows that HDR black/shadows will often be washed-out/clipped when viewed in any environment where the ambient light levels cannot be controlled.

Ahora vayamos al display que para Lightillusion( portal que permanece actualizado) hoy en día es lo correcto para representar HDR.
1601123320912.png


No se habla de displays de 0.05 nit black level ni por lo menos 0.1 nit sino 0.0005 nit, que obviamente se entiende que OLED TV lo puede alcanzar. A esto Shaw lo denomina BLACK CLIPPING: There is a further potential issue with black levels, as no display can hit zero black, and so would natively clip the input signal at the bit value relative to the display's min black, due to the 'absolute' nature of the PQ EOTF.

¿Detalle en sombra es importante para HDR?
La respuesta es SI. Para ello es exigencia condiciones adecuadas de visualizado. Un DVD, bluray es SDR 8 bit que tiene un promedio de 6 stops unidad de medida de rango dinámico, mientras para SDR 10 bit es de 10 stops. Referencia.

SDR 0 a 100 nits de 8 bit -> 6 stops
SDR 0 a 100 nits de 10 bit -> 10 stops.:atope

Para el mismo valor luminancia ó brillo máximo de 100 nits. Lo que podemos concluir 10 stops que se reflejarán en no mayor sino mejor detalle en sombra para HDR10. Imaginaros para Dolby Vision FEL preparada para los futuros displays a 12 bit.

Lightillusion
It is worth noting that no matter what is said elsewhere, no HDR standard can produce 'darker blacks', as they are set by the min black level the display technology can attain, and the present day SDR (Standard Dynamic Range) Rec709 standard already uses the minimum black attainable on any given display. And equally, HDR cannot generate improved shadow detail, ignoring the difference in today's 8 bit SDR Blu-ray standard, vs. 10 bit for HDR. 10 Bit SDR would have far better actual shadow detail.

BBC White Paper HDR
Standard dynamic range consumer television (8 bit video, e.g. DVD, SD and HD DVB) only
supports about 6 stops of dynamic range, as discussed below. Professional SDR video (10 bits)
supports about 10 stops. But the human eye can see up to about 14 stops (1) of dynamic range in
a single image. Higher dynamic range results in an experience closer to reality, and hence of
greater impact or “immersion”. Furthermore higher dynamic range also increases the subjective
sharpness of images and so provides a double benefit.

Some debate has confused high dynamic range with high brightness. The two are not the same.
You can have high dynamic range in a dark movie environment, with pictures of only 48cd/m2.
Alternatively you can have standard dynamic range on very bright screens of hundreds, or even
thousands, of cd/m2
. What high brightness does allow is to see high dynamic range without
needing a very dark viewing environment.
It might be thought that higher dynamic range could be achieved by simply making displays
brighter. But this is analogous to suggesting that you can increase the dynamic range of audio by
turning up the volume. With audio, turning up the volume merely emphasises the noise. The same
is true for video. With video the “noise” is quantisation noise, where the steps between quantisation
levels become clearly visible. This is manifest as “banding”, “contouring, or “posterisation”


Saludos.
 
Última edición:
Y llegamos a los FALD, TVs con picos de nits ganadores y negros y contrastes casi absolutos (pero sin llegar a ello).

¿Podríamos estar en un empate? ¿Quizá lo que le falte en nits a un OLED respecto a un FALD lo compense con su contraste y negro absoluto, terminando una imagen final de alto nivel? Y lo mismo para el FALD, ¿Compensaría con sus altos Hilights el no llegar al máximo en negro y contraste?

Claro, y es lo que llevamos diciendo desde hace tanto tiempo, que a partir de ese instante es cuando los números dejan de tener relevancia y comienza a tenerla el contraste percibido, que es el que va a hacer que una tele sin llegar a ese negro absoluto de cero nits se lo percibas como si lo tuviera, es la ciencia de la imagen. Por eso cuando pones una Q9f al lado de una OLED a efectos prácticos se ven igual en cuanto a negros. Sin embargo, te va a marcar la diferencia en los highlights.

Por cierto, en HDR son 10 bits porque a diferencia de SDR (8 bits) hay que cubrir un rango más amplio que no se detiene en BT.709 100 nits, sino que a de cubrir un volumen mucho más amplio que puede llegar hasta 10000 nits para el que una profundidad de color de 8 bits serían insuficiente y tendríamos banding. Pero los negros y detalle en sombra según Steve Shaw, al que se recurre de manera habitual incluso modificando el texto de sus articules, lo dice muy claramente:

HDR - Shadows Too

The reality is PQ based HDR does nothing for black levels, and that is true of shadow detail too - no matter what those less knowledgeable or marketing material may say.
 
HDR - Shadows Too

The reality is PQ based HDR does nothing for black levels, and that is true of shadow detail too - no matter what those less knowledgeable or marketing material may say.


Está en lo correcto, pero decidme ustedes que display LCD va representar cabalmente niveles de negro < 0,05 nit para un contraste percibido tan igual que OLED en contenido real.

A ello agregarle lo que potecialmente ocurre en display retroiluminado para HDR donde la retroiluminación LED válgame la redundancia se llevará al máximo. Como bien lo dice Vincent Teoh. Aún sean FALD (30 x 16) donde cada recuadro ó zona de atenuación os comporta como LCD tradicional.

1) Native blacks will be at least 3 times brighter than in SDR. And when there's no corresponding increase in peak white, the perceived contrast and dynamic range actually reduces. Hypothetically:

SDR = 100 nits white / 0.05 nits black = 2000:1 contrast ratio
HDR = 200 nits white / 0.15 nits black = 1333:1 contrast ratio


Does this drop in contrast fulfill the creative intent?

2) Any backlight uniformity issues such as clouding or backlight bleed will be more visible in areas that are not helped by local dimming.

3) When an elevated native black level of 0.15 nits with backlight driven to maximum is added to all colours (coz they need to be illuminated, innit), the colours are diluted and colour purity suffers especially in darker scenes.

Does this reduced colour accuracy fulfill the creative intent?

4) In HDR mode, the colour calibration and gamma controls on most TVs are significantly more limited in range and effectiveness than corresponding controls in SDR mode. So there are less tools available to correct the inaccurate colours. Does this fulfill the creative intent?

Saludos.
 
Última edición:
..............

Me ha encantado esta explicación, y es totalmente cierta. Si me permites opinar al respecto, lo hago. El LED tradicional (Edge LED) carece de unos negros y detalle en sombra de buen nivel, ¿Cierto? Por altos Highlights que estos tengan (similares o por encima de los OLED) su impacto HDR es bajo o incluso nulo, por lo que, volviendo al principio, sí, los negros serían esenciales para el HDR según parece.

Los OLED ya tenían esos negros y detalle en sombra en SDR, en TVs con picos de nits muy bajos, pero quizá ahora, al ser compatibles con HDR y subir sus picos de nits en los TVs OLED actuales (sin llegar a los extremos de los FALD) el HDR toma otro nivel.

Llegados hasta aquí podríamos decir que el HDR es superior en TVs con negros y contraste absolutos y picos de nits medios, que en TVs con negros y contraste vulgares y picos de nits altos.

Y llegamos a los FALD, TVs con picos de nits ganadores y negros y contrastes casi absolutos (pero sin llegar a ello).

¿Podríamos estar en un empate? ¿Quizá lo que le falte en nits a un OLED respecto a un FALD lo compense con su contraste y negro absoluto, terminando una imagen final de alto nivel? Y lo mismo para el FALD, ¿Compensaría con sus altos Hilights el no llegar al máximo en negro y contraste?


Un edge led malo tendra malos negros en HDR y EN SDR estas mezclando defectos de una Tv concreta con las necesidades o especificaciones necesarias para visualizar contenido HDR a buena calidad.


Llegados hasta aquí podríamos decir que el HDR es superior en TVs con negros y contraste absolutos y picos de nits medios, que en TVs con negros y contraste vulgares y picos de nits altos.

Acabas de resumir porque los IPS son una mierda, tienes modelos como los LG SM 9000 con picos de nits altisimos pero luego su contraste de 1000:1 y negros horribles manda la imagen final a tomar....


Y llegamos a los FALD, TVs con picos de nits ganadores y negros y contrastes casi absolutos (pero sin llegar a ello).

¿Podríamos estar en un empate? ¿Quizá lo que le falte en nits a un OLED respecto a un FALD lo compense con su contraste y negro absoluto, terminando una imagen final de alto nivel? Y lo mismo para el FALD, ¿Compensaría con sus altos Hilights el no llegar al máximo en negro y contraste?

Es que el problema y aqui hablo por mi a nivel particular, cunado veo un OLED se ven de la ostia, pero se ve de la ostia en lo que encaje en el oled, incluso un poco mas pero para mi, repito para mi el ABL sobre todo, y la falta de volumen de color lo manda todo a la mierda.

En mi opinion un FALD gama alta salva mucho mejor los muebles en negros que un OLED las escenas de alto APL, pero por mucho, el Oled le salva que muchas de las peliculas se mueven dentro de los niveles de oled en su mayor parte, pero en cuanto te salgas ....


Si tu comparas por citar una pelicula que se hablo hace poco Aquaman entre una FALD y una OLED la diferencia es abrumadora, y esa pelicula la vi en la C9 al poco de haberla visto en la Q90R.si comparas blade runner 2049 con sus 400 nits de maximos, la diferencia , y aqui ganara el oled , la diferencia no es tan grande.

Las demos demos son lo que son y valen para lo que valen, eso es otra historia



Ahora bien el Oled tiene sus ventajas es obvio, y si sus ventajas encajan en tus gustos pues ya lo tienes puesto en bandeja.

Pero yo no puedo con una tecnologia que me baje a niveles de risa si el % de HDR en la pantalla supere el 10%, lo siento pero no, y creo que bastante se esta obviando este problema por parte de los "profesionales que analizan TV" y no es solo que brille menos, es que pierdes tal cantidad de volumen de color que te da la risa.

Pero parece que el negro puro es la moda ahora, lo demas es secundario, ah y las curvas, que siga la curva, curva que cada vez que se activa el ABL se va a tomar por culo pero da igual.


En oled no es que lo que mas necesite sea mas nits, o no deberia ser lo primordial a arreglar, con los 800 que saca va bien de momento, pero necesita no tener ABL

SI sale el QD-OLED y no tiene ese ABL tan agresivo seria la ostia, veremos.
 
Hola como están.
Estos temas del negro profundo, contraste del oled y tantos bla-bla-bla ya son mas conocidos por nuestro fan-boy a mil y sobre todo hiper-repetidos.

La explicación de Ronda es clarísima como para párvulos = niños de 5 años .
El Negro ya estaba "casi-perfecto" con los primero OLEDS y como digo siempre esto del HDR van de la mano NEGRO-NITS .
Mas abajo ya no vas a ir con la OLED lo que necesita es subir y sacar el ABL clavado que tiene.
Por ejemplo AQUAMAN se ve impresionante en las FALDS la probé en todas como en las OLEDS , en la única oled que se ve mejor que en una FALD es con la GZ2000 pero MEG se ve mejor en la FALD que en la GZ2000.
Como dice Ashtyr algunas pelas van muy bien en las OLEDS y otras en las FALDS.
Hace un tiempo me dio mucha risa lo que escribió nuestro fan-lg por estos lares, que había que ver la calidad de nits?????.
salu2.
 
Ya os digo que un buen referente como ejemplo de CALIDAD DE NITS en highlights es OLED, a diferencia de lo que ocurre con la luminancia máxima dependiendo el área de medición en LCD FALD

FlatpanelsHD nos lo pone fácil según los gráficos siguientes, la escalas y metodología de medición son las mismas para ambas TVs. Es reproducible en diferentes evaluaciones no sólo de esta web y/o TV con atenuación local.

OLED TV
oled.jpg

LCD FALD TV
fald lcd.jpg


Argumento por parte de FlatpanelsHD :
Switching our attention to HDR video, Q90R hits 1700 nits peak brightness on a 10% window (meaning that the white area covers 10% of the screen that is otherwise black) but peak brightness falls drastically as window coverage increases or decreases....

This happens because of the LCD panel's relatively modest number of dimming zones (480). As the bright spot in the picture decreases in size, each dimming zone operates beyond the borders of the white spot. And when the white spot becomes too large and covers a large portion of the LCD panel, brightness drops to ease pressure on the power supply unit.


Saludos.
 
Última edición:
Ya os digo que un buen referente como ejemplo de CALIDAD DE NITS en highlights es OLED, a diferencia de lo que ocurre con la luminancia máxima dependiendo el área de medición en LCD FALD

FlatpanelsHD nos lo pone fácil según los gráficos siguientes, la escalas y metodología de medición son las mismas para ambas TVs. Es reproducible en diferentes evaluaciones no sólo de esta web y/o TV con atenuación local.

OLED TV
Ver el archivo adjunto 21177
LCD FALD TV
Ver el archivo adjunto 21179

Argumento por parte de FlatpanelsHD :
Switching our attention to HDR video, Q90R hits 1700 nits peak brightness on a 10% window (meaning that the white area covers 10% of the screen that is otherwise black) but peak brightness falls drastically as window coverage increases or decreases....

This happens because of the LCD panel's relatively modest number of dimming zones (480). As the bright spot in the picture decreases in size, each dimming zone operates beyond the borders of the white spot. And when the white spot becomes too large and covers a large portion of the LCD panel, brightness drops to ease pressure on the power supply unit.


Saludos.

Entiendo lo que quieres exponer. Es decir, al poner un Q90R en un HDR de un 10% window, saca todo su potencial (brutal) alcanzando picos absolutos de nits (hasta 1700 nits) y el área de brillo es tan poca (solo el 10% de la pantalla) que el resto del panel FALD tiene un excelente contraste.

El problema vendría cuando en ese Q90R (o cualquier otro FALD) el HDR (o Highlight) ocupa el total (o casi) de la ventana (pantalla) de ese TV, que todas las zonas FALD deben iluminarse, perdiendo la capacidad de contraste.

Entiendo que es por eso cuando te refieres a "calidad de nits" en tus exposiciones. Diciendo de otro modo, "cantidad no significa calidad". Bueno, me parece una exposición interesante y que me gustaría corroborar por mí mismo. No obstante, la calidad de HDR del FALD que mencionan (el Q90R) es Superb (sobresaliente), como también es cierto que proclaman al LG CX mejor TV para HDR, a pesar su ABL y limitación de nits.

Edito: LG CX como "uno de los mejores TVs para HDR, no el mejor".
 
Última edición:
Ya os digo que un buen referente como ejemplo de CALIDAD DE NITS en highlights es OLED, a diferencia de lo que ocurre con la luminancia máxima dependiendo el área de medición en LCD FALD

FlatpanelsHD nos lo pone fácil según los gráficos siguientes, la escalas y metodología de medición son las mismas para ambas TVs. Es reproducible en diferentes evaluaciones no sólo de esta web y/o TV con atenuación local.

OLED TV
Ver el archivo adjunto 21177
LCD FALD TV
Ver el archivo adjunto 21179

Argumento por parte de FlatpanelsHD :
Switching our attention to HDR video, Q90R hits 1700 nits peak brightness on a 10% window (meaning that the white area covers 10% of the screen that is otherwise black) but peak brightness falls drastically as window coverage increases or decreases....

This happens because of the LCD panel's relatively modest number of dimming zones (480). As the bright spot in the picture decreases in size, each dimming zone operates beyond the borders of the white spot. And when the white spot becomes too large and covers a large portion of the LCD panel, brightness drops to ease pressure on the power supply unit.


Saludos.

Entiendo lo que quieres exponer. Es decir, al poner un Q90R en un HDR de un 10% window, saca todo su potencial (brutal) alcanzando picos absolutos de nits (hasta 1700 nits)
El área considerada máxima para highlights ó pico de brillo máximo se realiza la medición generalmente en un área del 10%. Pero el detalle especular de por sí es < a ese 10%, prestad atención a los valores de 5%, 2% y 1% en LCD FALD, brillo que van descendiendo progresivamente, tanto así que al 1% obtiene un valor inferior al de OLED. Ahora fijaos constancia en OLED para esos valores, los conserva fielmente aún para detalles especulares <1%.

Os pongo como ejemplo una bombilla incandescente que tiene como área en el fotograma de contenido HDR del 1%, deberá iluminarse a 1700 nits según la intención DOP/colorista. En OLED que logra un pico máximo de 725 nits se apreciará a 725 nits, mientras LCD FALD que logra un pico máximo de 1700 nits, el valor alcanzado de la bombilla debería ser de 1700 nits pero NO, será de 611 nits menor al de OLED.

1601157093256.png

Saludos
 
Última edición:
Ya os digo que un buen referente como ejemplo de CALIDAD DE NITS en highlights es OLED, a diferencia de lo que ocurre con la luminancia máxima dependiendo el área de medición en LCD FALD

FlatpanelsHD nos lo pone fácil según los gráficos siguientes, la escalas y metodología de medición son las mismas para ambas TVs. Es reproducible en diferentes evaluaciones no sólo de esta web y/o TV con atenuación local.

OLED TV
Ver el archivo adjunto 21177
LCD FALD TV
Ver el archivo adjunto 21179

Argumento por parte de FlatpanelsHD :
Switching our attention to HDR video, Q90R hits 1700 nits peak brightness on a 10% window (meaning that the white area covers 10% of the screen that is otherwise black) but peak brightness falls drastically as window coverage increases or decreases....

This happens because of the LCD panel's relatively modest number of dimming zones (480). As the bright spot in the picture decreases in size, each dimming zone operates beyond the borders of the white spot. And when the white spot becomes too large and covers a large portion of the LCD panel, brightness drops to ease pressure on the power supply unit.


Saludos.

Entiendo lo que quieres exponer. Es decir, al poner un Q90R en un HDR de un 10% window, saca todo su potencial (brutal) alcanzando picos absolutos de nits (hasta 1700 nits) y el área de brillo es tan poca (solo el 10% de la pantalla) que el resto del panel FALD tiene un excelente contraste.

El problema vendría cuando en ese Q90R (o cualquier otro FALD) el HDR (o Highlight) ocupa el total (o casi) de la ventana (pantalla) de ese TV, que todas las zonas FALD deben iluminarse, perdiendo la capacidad de contraste.

Entiendo que es por eso cuando te refieres a "calidad de nits" en tus exposiciones. Diciendo de otro modo, "cantidad no significa calidad". Bueno, me parece una exposición interesante y que me gustaría corroborar por mí mismo. No obstante, la calidad de HDR del FALD que mencionan (el Q90R) es Superb (sobresaliente), como también es cierto que proclaman al LG CX mejor TV para HDR, a pesar su ABL y limitación de nits.

Edito: LG CX como "uno de los mejores TVs para HDR, no el mejor".



Deja de hacer caso a este tío, el mismo que decía que en la escena de Matrix los fald no podrían hacerla porque al tener tanto brillo lag partes oscuras saldrían lavadas,aún le estará doliendo el morro de la ostia que se llevó.

Y si bajan los nits conforme aumenta el tamaño del por sí decirlo "highlight"pero es que en su oled de sus amores se pone en 140nits, así que mejor se mire la viga en lugar de ir buscando paja.

Y no es por ser fald de hecho la nueva Terrace de Samsung no baja,manteniendo unos 1900 nits al 100% en el sostenido,no es que un fald no pueda hacerlo,no es una limitacion de la tecnologia,cosa que si es en el caso del oled!!!!


Y ya cansa tener que rebatir las mismas tonterias una y otra y otra vez.

Que por cierto o de los nits de calidad ya lo iba poniendo otro "experto" de qleds por EOL hace muchos meses.


Que originalidad
 
Hola cómo estáis. La visión humana es excelente para ver detalles a no muy altos nits, pero no es tan buena para distinguir diferencias sutiles en áreas muy brillantes.

Para HDR-> PQ ( Perceptual Quantization) es el nombre de la curva EOTF estandarizada por la SMPTE como ST.2084, diseñado para asignar bits más eficientes de acuerdo cómo la visión humana percibe cambios de los niveles de luz.

Según Dolby Vision PQ está diseñado para operar a 12 bit, lo cual garantiza que los valores digitales estén siempre por debajo de la rampa de Barten. Es decir sin bandas, contorneados ó posterización. Para 10 bit que está por encima de la rampa de Barten realmente las bandas no san problemáticas como debería ser.

En general más bits se traduce en menor guarrería en imágen, así como mayores matices de color. Os publico lectura recomendada sobre profundidad de bits. Según gráfica adjuntada es más beneficiosa para shadows near black, indirectamente para OLED TV. Si tenéis mayor noción de ello, por favor corrobar lo afirmado.

1601306241200.png

Saludos.
 
Última edición:
Hola cómo estáis. La visión humana es excelente para ver detalles a no muy altos nits, pero no es tan buena para distinguir diferencias sutiles en áreas muy brillantes.

Para HDR-> PQ ( Perceptual Quantization) es el nombre de la curva EOTF estandarizada por la SMPTE como ST.2084, diseñado para asignar bits más eficientes de acuerdo cómo la visión humana percibe cambios de los niveles de luz.

Según Dolby Vision PQ está diseñado para operar a 12 bit, lo cual garantiza que los valores digitales estén siempre por debajo de la rampa de Barten. Es decir sin bandas, contorneados ó posterización. Para 10 bit que está por encima de la rampa de Barten realmente las bandas no san problemáticas como debería ser.

En general más bits se traduce en menor guarrería en imágen, así como mayores matices de color. Os publico lectura recomendada sobre profundidad de bits. Según gráfica adjuntada es más beneficiosa para shadows near black, indirectamente para OLED TV. Si tenéis mayor noción de ello, por favor corrobar lo afirmado.


Saludos.

Leído en diagonal el link que adjuntas, saco en conclusión que a partir de 9 bits (pongamos 10 bits para ajustarnos a los paneles de TV) el ojo humano no va a poder distinguir más bits. El uso de hasta 16 bits se utiliza expresamente en y para la edición de fotografía. Esto me recuerda a la histeria de alcanzar cada vez más fotogramas por segundo en los videojuegos (PC mayormente) cuando el ojo humano deja de distinguir más allá de 70/80 fps, pero aún y así cada vez hacen monitores de PC-Gamer con más Herzios para poder jugar más fluido, que tendría su sentido para la velocidad de respuesta de ciertos shooters, no para lo anteriormente dicho, que veamos que vaya más fluido.
 
Hola cómo estáis. La visión humana es excelente para ver detalles a no muy altos nits, pero no es tan buena para distinguir diferencias sutiles en áreas muy brillantes.

Para HDR-> PQ ( Perceptual Quantization) es el nombre de la curva EOTF estandarizada por la SMPTE como ST.2084, diseñado para asignar bits más eficientes de acuerdo cómo la visión humana percibe cambios de los niveles de luz.

Según Dolby Vision PQ está diseñado para operar a 12 bit, lo cual garantiza que los valores digitales estén siempre por debajo de la rampa de Barten. Es decir sin bandas, contorneados ó posterización. Para 10 bit que está por encima de la rampa de Barten realmente las bandas no san problemáticas como debería ser.

En general más bits se traduce en menor guarrería en imágen, así como mayores matices de color. Os publico lectura recomendada sobre profundidad de bits. Según gráfica adjuntada es más beneficiosa para shadows near black, indirectamente para OLED TV. Si tenéis mayor noción de ello, por favor corrobar lo afirmado.


Saludos.

Leído en diagonal el link que adjuntas, saco en conclusión que a partir de 9 bits (pongamos 10 bits para ajustarnos a los paneles de TV) el ojo humano no va a poder distinguir más bits. El uso de hasta 16 bits se utiliza expresamente en y para la edición de fotografía. Esto me recuerda a la histeria de alcanzar cada vez más fotogramas por segundo en los videojuegos (PC mayormente) cuando el ojo humano deja de distinguir más allá de 70/80 fps, pero aún y así cada vez hacen monitores de PC-Gamer con más Herzios para poder jugar más fluido, que tendría su sentido para la velocidad de respuesta de ciertos shooters, no para lo anteriormente dicho, que veamos que vaya más fluido.
Hola. Lo que puedo entender es 10 bit para HDR vídeo resulta todavia insuficiente para lo que es ruído de quantización, Dolby Vision recomienda 12 bit, pero claro la mejora de detalles en SDR de 8 bit a 10 bit es innegable. Observáis en el spoiler que la mejora de bandas es más objetivable en el extremo izquierdo que el derecho a más bits.
Saludos
 
Última edición:
PROFUNDIDAD DE COLOR.png


A ver, no nos liemos que tanto DV como HDR10 funcionan bajo las directrices del estándar para HDR SMPTE 2084, algo que fue desarrollado por Dolby y ratificado como estándar por SMPTE, y que se trata de una función electroóptica EOTF a la que Dolby bautizó como PQ. Y esto funciona así:

PQ viene a reemplazar a las curvas de gamma tradicionales que fueron creadas hace alrededor de 80 tacos basándose en la forma en la que funcionaba la tecnología CRT, por lo que son unas curva viejas de otra época que no fueron especialmente concebidas para contener un amplio rango dinámico, pues los televisores CRT de antaño ( y no tan antaño) estaban muy limitados en cuanto al contraste y tal.

Ahora, esta nueva curva EOTF está hecha para representar los valores de luz reales tal y como los vemos en la realidad, y se trataría de una curva EOTF que asignaría un nivel de brillo especifico a cada valor digital de la señal de vídeo, por lo que es una curva absoluta que define con exactitud los niveles de brillo para cada valor de código digital de la señal de vídeo entre el negro absoluto y el brillo máximo del límite de la curva que fue establecido bajo rigurosos estudios a 10.000 NITS.

Y como PQ es una curva de luminancia que se basa en como vemos, pues en realidad se trataría de una curva que se adapta a las vicisitudes de la visión humana, que lo hace de forma logarítmica, no lineal, por lo tanto, los bits se reparten a lo largo y ancho de la señal de vídeo en base a ello y no por igual, sino que lo hacen atendiendo a las características y sensibilidades de la visión humana para adaptarse a la luz, de ahí que se destinen menos bits a las partes más brillantes de la imagen.

Pero al final se trata de que para completar un rango dinámico volumétrico de luz y color tan amplio, como es el de la especificación HDR para vídeo, que va desde el negro hasta los 10.000 nits de brillo en BT.2020, pues obviamente se requerirá de una profundidad de color mucho mayor que la de 8 bits para SDR, de lo contrario, pues veríamos banding por un tubo, pero esto no significa que para SDR 8 bits sean insuficientes perse, solo significa que para HDR al tratarse de algo tan amplio volumétricamente hablando, pues hace falta más!.

Lo dicen bien claro:

HDR - Shadows Too

The reality is PQ based HDR does nothing for black levels, and that is true of shadow detail too - no matter what those less knowledgeable or marketing material may say.
 
Última edición:
Gracias por la explicación, Ronda. Si me permites, me saltan algunas dudas al respecto.

-Si la PQ es una curva absoluta bajo criterios muy estrictos, ¿Qué les impide a los fabricantes de TVs cumplir la normal a la perfección en sus visualizadores "out of the box" y se requiere, en la mayoría de los casos, una calibración exhaustiva y casi casi profesional para igualar la curva?

-Si dicha curva emula/iguala la realidad, el cómo vemos realmente, ¿Se pierde espectacularidad? Dicho de otro modo, nosotros salimos a la calle y no vamos diciendo "wow, como se ve ese edificio". Quizá esto pueda explicar mi consulta del primer punto.

-Salirse de la curva, ¿Qué implica realmente? ¿Perder detalle en sombra? ¿Suelo de negros? ¿Clipping en altas? ¿O simplemente no cumplir lo establecido?
 
Hola cómo estáis. La realidad del HDR es incorrecto que el rango volumétrico de luz es muy amplio. Generalmente en representaciones gráficas de la curva EOTF de 0 a 10 000 nit se representa linealmente, pero Steve Shaw nos lo representa como tal logarítmicamente, de tal modo que sea perspectivamente correcto para el ojo humano:
1601381039856.png


Donde el rango SDR de 0 a 100 nit corresponde al 50% de la extensióm total HDR de 0 a 10000 nit, y 0 a 203 nits 58%. Según ello podemos nuevamente inferir que los detalles muchas veces son más importantes que los nits.

BBC los creadores del standard HDR HLG en el manual white paper lo dicen más claro que el agua:

Some debate has confused high dynamic range with high brightness. The two are not the same.
You can have high dynamic range in a dark movie environment, with pictures of only 48cd/m2.
Alternatively you can have standard dynamic range on very bright screens of hundreds, or even
thousands, of cd/m2.



"Algunos debates han confundido un alto rango dinámico con un alto brillo. Los dos no son lo mismo.
Puede tener un alto rango dinámico en un entorno de película oscuro, con imágenes de solo 48 cd / m2.
Alternativamente, puede tener un rango dinámico estándar en pantallas muy brillantes de cientos, ó incluso
miles, de cd / m2"

-Salirse de la curva, ¿Qué implica realmente? ¿Perder detalle en sombra? ¿Suelo de negros? ¿Clipping en altas? ¿O simplemente no cumplir lo establecido?

Sobre salirse de la curva para HDR, dependiendo de que parte de la curva ocurre. Siendo procaz si ello sucede en el rango blanco difuso nominal es decir 100 nits, ahora 203 nits, ya que la intención artística inherente del contenido HDR estará contenida debajo de esos valores mayormente, por no decir en su totalidad.

Los resultados de salirse de la curva no serán siempre mejores en lo que respecta a calidad ó intención artística que se nos quiso transmitir.

Lightillusion lo denomina Deviation from the HDR Specification:

A final issue with a lot of displays, specifically home TVs, is the manufacturers deliberately deviating from the HDR specification, in an attempt to generate what they view as 'better' images.

This obviously means the same source footage will be seen very differently on different displays, even if the displays are defined as being 'calibrated'.

However, this issue is actually something we have sympathy for, because as mentioned previously above, the PQ HDR specification is flawed, as the standard is 'absolute', and includes no option to increase the display's light output to overcome surrounding room light levels. The result is that in less than ideal viewing environments, where the surrounding room brightness level is relatively high, the bulk of the HDR image will appear very dark, with shadow detail potentially becoming very difficult to see.

Many home TV manufacturers therefore deliberately 'distort' the PQ HDR EOTF (gamma curve) to attempt to overcome this issue.
Saludos.
 
Última edición:
Arriba Pie