QLED SAMSUNG (todas las series 2019, 2020 y 2021)

I have reviewed and calibrated many sub-1000-nit LED LCDs with significantly less dimming zones, and on these displays, HDR content that is mastered to a peak brightness of 200 or even 400 nits will look worse than SDR in the following ways (due to the LED backlight being driven to maximum):

1) Native blacks will be at least 3 times brighter than in SDR. And when there's no corresponding increase in peak white, the perceived contrast and dynamic range actually reduces. Hypothetically:

SDR = 100 nits white / 0.05 nits black = 2000:1 contrast ratio

HDR = 200 nits white / 0.15 nits black = 1333:1 contrast ratio

Does this drop in contrast fulfill the creative intent?

2) Any backlight uniformity issues such as clouding or backlight bleed will be more visible in areas that are not helped by local dimming.

3) When an elevated native black level of 0.15 nits with backlight driven to maximum is added to all colours (coz they need to be illuminated, innit), the colours are diluted and colour purity suffers especially in darker scenes.

Does this reduced colour accuracy fulfill the creative intent?

4) In HDR mode, the colour calibration and gamma controls on most TVs are significantly more limited in range and effectiveness than corresponding controls in SDR mode. So there are less tools available to correct the inaccurate colours. Does this fulfill the creative intent?
Qué pasa chavales!. Voilà!!!!!!
Interesante lectura, que desnuda limitación tecnológica una vez más de LCD. A sabiendas que el blanco de referencia esperado (blanco difuso nominal) es de 203 nits para HDR y lo otro importante la curva EOTF es logarítmica.

Saludos.
 
Luego, el contexto de Teoh, es sobre todas las LED en general? ¿O las Edge o las FALD?

Obviamente se refiere a las Edge Led, que digamos son las teles led que al entrar en modo HDR sitúan su luz de fondo al máximo elevando con ello su nivel de negros sin un sistema de atenuación local dimming (FALD) que lo compense, algo que lógicamente con material HDR muy oscuro de escasos nits penalizaría mucho la calidad de imagen en términos de contraste en esta clase de TVs
 
Cuando probé la Q70T de saque se notaba la diferencia con la Q70R eso ni se discute.

El problema de la Q75T es el HDR, que simplemente ni está ni se le espera. En SDR se defiende gracias a su buen contraste e imagen, pero en HDR...exceptuando alguna que otra cosa que da el pego...el resto...:pensativo

En HDR hay cosas que se ven bien, pero otras que directamente vas a ver mal, por lo que a veces ver el Bluray de la mimas película que en UHD va a se mejor opción. Por ejemplo, ayer me descargué los clásicos de Alfred Hitchcock, y los estuve probando y comparando con el bluray en la Q75T y directamente puedo decir que a nivel general se veían mejor los bluray que los UHD. Eso sí, en cuanto a texturas y composición de las estructuras de grano lógicamente eran mejores los UHD, pero en cuanto a colores y contrastes los bluray se veían claramente mejor. Incluso Psicosis que es blanco y negro se veía mejor el bluray que el UHD simplemente por la diferencia en el contraste.

No entiendo como comercializan productos así bajo etiqueta HDR cuando sencillamente no tienen ni el contraste ni la gama de colores apropiados para una reproducción mínimamente digna, y si una Q75T no es óptima en ese sentido, ¿cómo será todo el maremágnum de televisores LED que hay inferiores a ella en el mercado? No me lo quiero ni imaginar!

EDITO PARA AÑADIR:

Este mensaje de Vicent Teoh expone perfectamente la problemática a la que me refiero con este tipo de televisores cuando se trata de HDR, leedlo y lo entenderéis perfectamente:

I see a few of you claiming that The Mandalorian looks good own a Sony ZD9, which is one of the best LED LCDs ever made with more than 650 local dimming zones, and capable of 1800 nits of peak brightness. I have reviewed and calibrated many sub-1000-nit LED LCDs with significantly less dimming zones, and on these displays, HDR content that is mastered to a peak brightness of 200 or even 400 nits will look worse than SDR in the following ways (due to the LED backlight being driven to maximum):

1) Native blacks will be at least 3 times brighter than in SDR. And when there's no corresponding increase in peak white, the perceived contrast and dynamic range actually reduces. Hypothetically:

SDR = 100 nits white / 0.05 nits black = 2000:1 contrast ratio
HDR = 200 nits white / 0.15 nits black = 1333:1 contrast ratio

Does this drop in contrast fulfill the creative intent?

2) Any backlight uniformity issues such as clouding or backlight bleed will be more visible in areas that are not helped by local dimming.

3) When an elevated native black level of 0.15 nits with backlight driven to maximum is added to all colours (coz they need to be illuminated, innit), the colours are diluted and colour purity suffers especially in darker scenes.

Does this reduced colour accuracy fulfill the creative intent?

4) In HDR mode, the colour calibration and gamma controls on most TVs are significantly more limited in range and effectiveness than corresponding controls in SDR mode. So there are less tools available to correct the inaccurate colours. Does this fulfill the creative intent?

When HDR looks visibly worse than SDR on the majority of displays outside the 1800-nit Sony ZD9/ Z9D, we have a problem, creative intent (which isn't definitely established to our knowledge) or not. And when such HDR content are increasing TV power consumption yet result in worse picture quality, we have a problem. If nothing else, our hope is that our video helps studios and post-production facilities understand how their grading translates onto everyday consumer sets, and to use the appropriate medium for delivery. If you want a subdued SDR look, don't grade in a 4000-nit HDR container; just grade in SDR, accept that you can't charge as much, but at least you'll deliver a better picture for the masses.
la Q70T tiene pocos nits, 549 de fabrica y calibrado nos dio 511.
donde patalea feo es viendo DARK.
Eso si tiene mejores controles.
 
Cuando probé la Q70T de saque se notaba la diferencia con la Q70R eso ni se discute.

El problema de la Q75T es el HDR, que simplemente ni está ni se le espera. En SDR se defiende gracias a su buen contraste e imagen, pero en HDR...exceptuando alguna que otra cosa que da el pego...el resto...:pensativo

En HDR hay cosas que se ven bien, pero otras que directamente vas a ver mal, por lo que a veces ver el Bluray de la mimas película que en UHD va a se mejor opción. Por ejemplo, ayer me descargué los clásicos de Alfred Hitchcock, y los estuve probando y comparando con el bluray en la Q75T y directamente puedo decir que a nivel general se veían mejor los bluray que los UHD. Eso sí, en cuanto a texturas y composición de las estructuras de grano lógicamente eran mejores los UHD, pero en cuanto a colores y contrastes los bluray se veían claramente mejor. Incluso Psicosis que es blanco y negro se veía mejor el bluray que el UHD simplemente por la diferencia en el contraste.

No entiendo como comercializan productos así bajo etiqueta HDR cuando sencillamente no tienen ni el contraste ni la gama de colores apropiados para una reproducción mínimamente digna, y si una Q75T no es óptima en ese sentido, ¿cómo será todo el maremágnum de televisores LED que hay inferiores a ella en el mercado? No me lo quiero ni imaginar!

EDITO PARA AÑADIR:

Este mensaje de Vicent Teoh expone perfectamente la problemática a la que me refiero con este tipo de televisores cuando se trata de HDR, leedlo y lo entenderéis perfectamente:

I see a few of you claiming that The Mandalorian looks good own a Sony ZD9, which is one of the best LED LCDs ever made with more than 650 local dimming zones, and capable of 1800 nits of peak brightness. I have reviewed and calibrated many sub-1000-nit LED LCDs with significantly less dimming zones, and on these displays, HDR content that is mastered to a peak brightness of 200 or even 400 nits will look worse than SDR in the following ways (due to the LED backlight being driven to maximum):

1) Native blacks will be at least 3 times brighter than in SDR. And when there's no corresponding increase in peak white, the perceived contrast and dynamic range actually reduces. Hypothetically:

SDR = 100 nits white / 0.05 nits black = 2000:1 contrast ratio
HDR = 200 nits white / 0.15 nits black = 1333:1 contrast ratio

Does this drop in contrast fulfill the creative intent?

2) Any backlight uniformity issues such as clouding or backlight bleed will be more visible in areas that are not helped by local dimming.

3) When an elevated native black level of 0.15 nits with backlight driven to maximum is added to all colours (coz they need to be illuminated, innit), the colours are diluted and colour purity suffers especially in darker scenes.

Does this reduced colour accuracy fulfill the creative intent?

4) In HDR mode, the colour calibration and gamma controls on most TVs are significantly more limited in range and effectiveness than corresponding controls in SDR mode. So there are less tools available to correct the inaccurate colours. Does this fulfill the creative intent?

When HDR looks visibly worse than SDR on the majority of displays outside the 1800-nit Sony ZD9/ Z9D, we have a problem, creative intent (which isn't definitely established to our knowledge) or not. And when such HDR content are increasing TV power consumption yet result in worse picture quality, we have a problem. If nothing else, our hope is that our video helps studios and post-production facilities understand how their grading translates onto everyday consumer sets, and to use the appropriate medium for delivery. If you want a subdued SDR look, don't grade in a 4000-nit HDR container; just grade in SDR, accept that you can't charge as much, but at least you'll deliver a better picture for the masses.

Interesante. Primero que todo, ¿650 zonas la ZD9?¿Por qué nunca hablamos de esta TV? : ) : )

Luego, el contexto de Teoh, es sobre todas las LED en general? ¿O las Edge o las FALD?

Hemos hablado en muchas ocasiones, pero es una TV que tiene poca gente, que está descatalogada y prácticamente imposible conseguir.

Saludos.
 
Última edición:
Ostias!. Black level Q90R LCD FALD según flatpanelsHD.
BLACK LEVEL Q90R.jpg

Saludos.
 
Última edición:
¿Tanto se notará la diferencia de 0,0 a 0,022 nits? 🤔

Lo único que está claro es que el problema grabe, que ocurre en ocasiones muy muy muy puntuales, de la q90r o de cualquier fald es cuando tiene que decidir entre apagar una zona o encenderla para algún detalle ínfimo.

Por otro lado, como he dicho en el post de los oleds lo que no entiendo es por qué la distinta vara de medir entre fald y oled.

Brillo en oled con 725 llenamos casi el máximo (gráfica sacada de FlatpanelsHD - Guide to TVs, media streamers & monitors de la LG C9):

1600271369367.png


La misma gráfica sacada del mismo sitio de la qled:

1600271524246.png


Tenemos un pico máximo en la qled de 1.694 nits, mas del doble que la oled LG C9, sin embargo a primera vista, a groso modo, parece peor.

Este tipo de cosas, que según entiendo es tomar escalas diferentes según interesa, me recuerda a la política y los datos que nos venden durante las campañas..... jajajajajajaja

Y que conste que para mi las dos tecnologías son muy buenas y se ven muy muy bien, cada una con sus pros y sus contras.

Lo mejor es tener ambas ;)

Saludos.
 
Última edición:
Hemos hablado en muchas ocasiones, pero es una TV que tiene poca gente, que está descatalogada y prácticamente imposible conseguir.

Lo que dice Teoh en ese post no está en lo literal, sino en lo contextual, o sea, él toma como ejemplo una ZD9 pero igual le hubiera valido para el caso una XF9005, Q90R o Q80T, porque habla en términos de contraste en ambos extremos, que es de lo que se trata, por lo que el problema no está con la tecnología full array, sino con la edge led.

Y si ahora veis con atención estos 4 vídeos de Vicent Teoh, que nuestro amigo @DVman nunca los hubiera puesto porque entonces toda su mitología alrededor de los conceptos HDR le explotarían en la cara en 1000 pedazos, lo entenderéis todavía mejor.

Y mejor verlos en ese mismo orden:







EDITO PARA AÑADIR:

Y si ya le echamos un vistazo a este, apaga y vámonos, adios al concepto HDR :mparto

 
Última edición:
Y si ya le echamos un vistazo a este, apaga y vámonos, adios al concepto HDR :mparto



Visto este vídeo únicamente. Me quedo con lo de los "Stops". Si Teoh dice que estamos equivocados con el HDR al asociarlo a los nits, sino que lo correcto son los "Stops", y pone ejemplos del mínimo admisible, creo entender que más allá de 8 Stops hacia arriba, y pelis como Alita, que no tienen más de 2 Stops y traen logos coloreados HDR (cita de Teoh), ¿Qué pelis realmente tienen suficientes "Stops" para decir que son puro HDR? Y si alguien puede explicar un poco más claro el tema de los "Stops" se lo agradecería.
 
Pues que títulos de pocos nits con respecto a SDR, no serían HDR, sino SDR dentro de contendores HDR, o sea, fakes. Vamos, que todo el concepto HDR que @DVman nos ha estado vendiendo bajo sus estrictos criterios sobre lo que es HDR, solo serían según los criterios de Teoh fakes HDR por falta de nits.

@DVman Es verdad, los has puesto en el otro hilo, que es como darse un tiro en el pie, pero como es un hilo por el que no suelo pasarme, no me había dado ni cuenta.
 
¿Tanto se notará la diferencia de 0,0 a 0,022 nits? 🤔
Todas las mediciones se realizaron con los mismos equipos, con las mismos patrones, siguiendo los mismos protocolos.
Notaréis diferencia de 0.0 nist a 0.022 nits dependiendo las condiciones (viewing environment) de visualizado ¿ notaréis diferencia para HDR 0.0 nits con 0.105 nits? ¿Verdad?.

Se ha estado comentando a rajatabla los resultados maxCLL /maxFALL (‘Maximum Frame Average Light Level) obtenidos en el ultraHD blu ray UB9000 que Ted lo dijo muy claro realiza cálculo aleatorio para obtener el valor, por el cual lograban apreciar imágenes muy brillantes a pantalla completa como ejemplo Proyecto Géminis, pues se quedó corto este UHD HDR comparado a lo obtenido en Alita.
alita.jpg


Pero para el vectorscopio del monitor profesional HDR Canon DP-V3120, no supera los 400 nits. Oh my God!.

alita2.jpg


La respuesta correcta para la encuesta de Teoh, basándonos en el comentario del colorista Alexis Van Hurkman en The Mandalorian es: creative intent, NO fake HDR.:ok

Saludos.
 
Última edición:
Y si ya le echamos un vistazo a este, apaga y vámonos, adios al concepto HDR :mparto



Visto este vídeo únicamente. Me quedo con lo de los "Stops". Si Teoh dice que estamos equivocados con el HDR al asociarlo a los nits, sino que lo correcto son los "Stops", y pone ejemplos del mínimo admisible, creo entender que más allá de 8 Stops hacia arriba, y pelis como Alita, que no tienen más de 2 Stops y traen logos coloreados HDR (cita de Teoh), ¿Qué pelis realmente tienen suficientes "Stops" para decir que son puro HDR? Y si alguien puede explicar un poco más claro el tema de los "Stops" se lo agradecería.

Hola cómo estáis. Así como para luminancia tenéis la unidad medible llamada cd/m2 ó nits, para rango dinámico del mismo modo la unidad se llama "stops". De verdad es complejo su interpretación, invoco a los cracks sobre el tema, si podéis iluminarnos por favor.
Que es el rango que gira entorno la relación reproducible/capturada por una cámara, más brillante y más oscura de una imágen sin perder detalles.

Estoy de acuerdo con Teoh, de basarnos para HDR NO en nits sino stops. Para elegir la mejor TV HDR deberíamos guiarnos de esta unidad. :L

dinamic range.jpg

Como bien lo dijo Vincent de 128 nits a 256 nits tenemos 1 stops, de 256 a 512 otro stops, de 512 a 1024 un stops más, si queréis de 1024 a 2048. En el otro dominio HDR podemos también afirmar de 1 a 0.5 nits un stops, de igual manera de 0.25 - 0.125, 0.125 - 0.0625, 0.0625 - 0.0312, 0. 0312 - 0.015, 0.015 - 0.0075 . ¿Para que extremo obtenéis más stops?. Respuesta: izquierdo del gráfico presentado.

Saludos.
 
Última edición:
Ostias!. Black level Q90R LCD FALD según flatpanelsHD.
Ver el archivo adjunto 20925
Saludos.

Tio que estamos ya casi en el 2021 y aun sigues leyendo reviews de la Q90R para buscar mierda que tirar por aqui?

Superalo hombre!!!


Y esas mediciones me la paso por los..... cuando les da un contraste de solo 7600:1 algo estan haciendo mal, bastante bastante mal.

Asi que voy a usar al "Vicente" grandisimo profesional por todos conocidos por su amor a Samsung, y veo que le da....


RF5P0Br.jpg



¿Tanto se notará la diferencia de 0,0 a 0,022 nits? 🤔

Lo único que está claro es que el problema grabe, que ocurre en ocasiones muy muy muy puntuales, de la q90r o de cualquier fald es cuando tiene que decidir entre apagar una zona o encenderla para algún detalle ínfimo.

Por otro lado, como he dicho en el post de los oleds lo que no entiendo es por qué la distinta vara de medir entre fald y oled.

Brillo en oled con 725 llenamos casi el máximo (gráfica sacada de FlatpanelsHD - Guide to TVs, media streamers & monitors de la LG C9):

Ver el archivo adjunto 20931

La misma gráfica sacada del mismo sitio de la qled:

Ver el archivo adjunto 20933

Tenemos un pico máximo en la qled de 1.694 nits, mas del doble que la oled LG C9, sin embargo a primera vista, a groso modo, parece peor.

Este tipo de cosas, que según entiendo es tomar escalas diferentes según interesa, me recuerda a la política y los datos que nos venden durante las campañas..... jajajajajajaja

Y que conste que para mi las dos tecnologías son muy buenas y se ven muy muy bien, cada una con sus pros y sus contras.

Lo mejor es tener ambas ;)

Saludos.

El se refiere al negro en HDR, pero ni puto caso, para variar.

Esas mediciones estan mal, el contraste de la Q90R esta sobre los 11000:1, los nits estan mas o menos en los numeros que les da al resto de reviews, asi que ya sabes por que le da ese contarste tan bajo, midieron mal el nivel de negro.

No hay mas, evidentemente Dvman lo ha hecho sin mala intencion, ha tenido la mala suerte de ir a leer justo la review que tiene datos mal , y que por desgracia son peores que en la realidad, pero lo dicho ha sido sin querer, verdad @DVman ?


Por cierto y esto es MUUUY INTERESANTE, mira por donde ver de nuevo el video de la Q90R de Teoh me ha servido para darme cuenta del cambio de discurso tan BRUTAL que ha tenido en un apartado concreto de esta TV.


Los motivos ya cada uno que saque sus conclusiones.



4o54uOA.jpg

qzjnsVb.jpg

pUnPZ3O.jpg



QTjFEeX.jpg






A ver Vicente!! que me mareas, el local diming funciona o no funciona en el modo juego?, a ver en que quedamos eh, EHHHH!!! 🤣 🤣 🤣 🤣


Madre mia que pillada, al final va a ser bueno revisar videos del año de la polka como nuestro experto en Qleds.


@Ronda @arenas @pedro_valsekillo

A ver debatamos, venga dos opciones:

A) Samsung desactivo el local diming en el modo juego en un firmware posterior

B) El local diming nunca dejo de funcionar en el modo juego, y esta mintiendo en los videos recientes?

Que por cierto ya me choco que rescatara la Q90R del armario cuando ya estaba la Q90T, solo para hacer un video de lo mierda que era el modo juego , y luego se hiciera el indignado cuando en foros la gente QUE SI TIENE ESTA TV, estas ahi @DVman y demas patrulla OLED, decia que ni de coña se veia asi.

Eso si le toco subir el ISO a la camara hasta valores absurdos para poder sacar los negros levantados, que si no le daba esto y no era plan

qSaxNIg.jpg


Z1UmvVm.jpg




Que sera seraaaaa seraaaaa

Si es que te tienes que reir, luego los fanaticos haciendo caso a gente que depende de patrocinadores en lugar de a gente que tiene la TV, y no me refiero ni a mi ni a nadie en particular, si no a todos en general, si en todos los foros te dicen que la TV "x" se ve de tal forma es dificil justificar que todos mienten y mas cuando ni se conocen ni son del mismo pais.



Luego lo de Alita angel de combate.

No necesito que venga Teoh a decirme que su numero de nits es bajo, se ve a simple vista, la pelicula se ve de la ostia de bien, pero es obvio que Aquaman o MEG no es en ese aspecto!!

Lo que pasa es que en tu Oled no creo que puedas diferenciar mucho si la pelicula va a 500 o a 2000, por decir un numero, es lo que pasa, no me culpes a mi,
 
Última edición:
¿Para que extremo obtenéis más stops?. Respuesta: izquierdo del gráfico presentado.

Disculpa, pero yo no lo veo tan claro. Esto no va ni de izquierdas ni derechas. Esto va de que SDR, tal y como indica, no Teoh, sino la asociación de directores de fotografía de la que forma parte Roger Deakins

Captura de pantalla 2020-09-17 a las 13.17.25.png


afirman que no existiendo una definición clara de lo que debería ser HDR, entienden que al menos se deberían alcanzar los 13 stops

Captura de pantalla 2020-09-17 a las 13.13.46.png


También se dice que SDR, que es hasta 100 NITS, son 6 stops, y que el blanco difuso para HDR después de la revisión de la norma es ahora de hasta 203 NITS, que digamos es el margen SDR mínimo dentro del contenedor HDR y que se va a los 7 stops. La clave de todo esto está en que tú afirmas que a partir de esos 203 nits entraríamos en márgenes HDR pues es la zona reservada a partir de la cual se crean los highlights para alto rango dinámico, cierto? Cierto.

Captura de pantalla 2020-09-17 a las 13.11.34.png


Ya, pero resulta que títulos masterizados a un máximo de 400 nits, por poner un ejemplo, se quedarían aún así en tan solo 8 stops, que estaría algo alejado de esos 13 stops que la asociación americana recomienda para HDR. Y esto es lo que choca de manera diametralmente opuesta con lo que tu consideras como conceptos HDR, luego no es una cuestión de contraste ON-OFF, sino de ir también incrementado (además del negro) los valores de luminancia máximos hasta alcanzar los stops necesarios para que un contenido sea considerado HDR. Y no es que lo diga ni Teoh ni yo, que también, es que te lo dicen desde la propia ASC (American Society of Cinematographers)

Que sí, que todo eso de la intención original se respeta y se entiende (leer mi firma), pero eso es una cosa y otra las etiquetas que se le ponen a los productos para venderlos mejor, y si se es critico con el hecho de que muchos UHD 4K no son 4K auténticos porque parten de reescalados de DI 2K, y se entiende y se acepta la crítica, pues igual también se debería aceptar la crítica de ciertos productos HDR que en realidad igual no lo son.

Creo que a partir de ahora te toca reflexionar y replantearte de nuevo ciertas cosas y conceptos, ya que queda bastante claro que partías de ideas de base un tanto erróneas.

tenor.gif
 
Luego lo de Alita angel de combate.

No necesito que venga Teoh a decirme que su numero de nits es bajo, se ve a simple vista, la pelicula se ve de la ostia de bien, pero es obvio que Aquaman o MEG no es en ese aspecto!!

Y hablando de Alita, lo que ya es "pa mear y no echar gota", es que te metan metadatos dinámicos HDR10+ en un título de 400 nits para que luego la gente se vuelva loca comparando HDR10 vs HDR10+ y no vean ni la más mínima diferencia. ¡Joer, claro que no ven diferencias! ¿Qué diferencias en imagen van a existir en un título de 400 nits con el que puede cualquier TV? ¡¡Pues ninguna!!

Y eso no es lo peor, lo peor es que van y meten metadatos que indican erróneamente que el título es 10000 nits, con lo cual habrá tvs que lo traten como tal con la merma consiguiente en la calidad de imagen. Lo dicho, pa mear y no echar gota.

Este hombre en análisis de TVs no me parece 100% fiable por aquello de los patrocinadores y tal, pero en el tema de las películas el menda lo está bordando.
 
También se dice que SDR, que es hasta 100 NITS, son 6 stops, y que el blanco difuso para HDR después de la revisión de la norma es ahora de hasta 203 NITS, que digamos es el margen SDR mínimo dentro del contenedor HDR y que se va a los 7 stops. La clave de todo esto está en que tú afirmas que a partir de esos 203 nits entraríamos en márgenes HDR pues es la zona reservada a partir de la cual se crean los highlights para alto rango dinámico, cierto? Cierto.

...Ya, pero resulta que títulos masterizados a un máximo de 400 nits, por poner un ejemplo, se quedarían aún así en tan solo 8 stops, que estaría algo alejado de esos 13 stops que la asociación americana recomienda para HDR.

Hola. No habéis echado un ojo del cuadro de rango de nivel de luminancia adjuntado, donde para SDR ( azul) le corresponde 10 stops. Gráfica proporcionada por la SMPTE ( Society of Motion Picture and Television Engineers) entidad que regula las directrices para HDR. Extraído de una conferencia de John Humphrey ex gerente de la SMPTE.

El punto de los 6 stops Teoh se equivoca, según la SMPTE para SDR que va hasta 0 - 100 nits 10 bit contenidos en PQ EOTF (HDR), le corresponde 10 stops, a ello si consideramos el valor de referencia blanco difuso nominal 203 nits ahora el valor de stops va aproximadamente a 11. Alita tiene un máximo de 400 nits por lo que agregamos 1 stop más dando el valor 12 stops muy cercano a 13 stops (8000:1).:yes

Shaw lo dijo en su momento, el sistema visual nuestro sólo es capaz de operar una fracción de ese enorme rango dinámico total que es posible apreciar para el ojo humano que es 24 stops. Fracción que él lo denomina rango dinámico estático, que está supedidato por excelencia a su capacidad adaptativa según intensidad de luz, que es de un valor promedio de <12 stops.

PUzGRGf3_o.gif


Saludos.
 
Última edición:
Muy interesante lo que dicen los de ASC (American Society of Cinematographers).

Defining the parameters of Dynamic Range

Dynamic range refers to the range of reproducible tonal values within a photographic image from the deepest shadow detail to the brightest highlight detail. These tonal values originate as scene luminance values that are also known as scene brightness values that can be measured with a spot photometer, either in foot-lamberts or in camera T-stops, to establish a scene contrast ratio.

To best understand how to control exposures for both High Dynamic Range (HDR) and Standard Dynamic Range (SDR), it is important to understand how to measure scene luminance.

Motion picture images consist of variable ranges of scene luminance values (brightness vs. darkness), also known as: reflected scene tones, which can be measured photometrically in foot-lamberts (reflected foot - candles) or directly in lens T-stops using a spot photometer. The ratio of the darkest reproducible shadow detail to the brightest reproducible highlight detail can be calculated in footlamberts or in lens T-stops.

For example, a scene luminance with a dynamic range of .02 foot-lamberts to 80 foot-lamberts is 4,000:1 and is equivalent to a 12 stop dynamic range. Also, by way of example, a T-stop range from T-1 to T-64 represents a 12 stop dynamic range. A 13 stop range is 8,000:1; a 14 stop range is 16,000:1; and a 15 stop range is 32,000:1.
 
Última edición:
@DVman, eres una máquina incansable de gráficas, textos, conceptos y artículos varios copy paste de todo tipo...y haces que a veces me pregunte si no serás un BOT :pensativo Desde el cariño que te tengo te lo digo, porque ufff, cuantos datos todos mezclados dándoles un sentido que muchas veces no tienen.

No es porque lo diga TEOH, es que lo de los 6 stops para SDR es algo que he leído en más de una ocasión, así que me inclino a creer que es la gráfica de SMPTE la que estaría equivocada.

Y si lo analizamos tranquilamente a mí me parece que para 10 stop en SDR 8 bits limitado 16-235 te faltaría espacio y nivel de procesamiento, o sea, no.

Daría igual en PQ porque no existen pantallas nativas que trabajen en PQ, sino que lo hacen en gamma tradicional 2.2 a partir de la cual hacen la conversión, con lo cual...

De hecho, a mí no me sorprende que SMPTE se equivoque en alguna gráfica ya que esa que has puesto @DVman proviene de un artículo donde precisamente se pueden encontrar varias gráficas erróneas. Como por ejemplo, ésta:

Captura de pantalla 2020-09-17 a las 18.12.41.png


O esta otra muy popular

Captura de pantalla 2020-09-17 a las 19.25.47.png


Esas gráficas de arriba son incorrectas y provienen del mismo artículo que la gráfica adjuntada por @DVman, de la que curiosamente no ha puesto link, pero ya lo pongo yo.


INCORRECTA
Captura de pantalla 2020-09-17 a las 19.27.24.png


CORECTA
Captura de pantalla 2020-09-17 a las 19.28.13.png


La diferencia, es obvia, verdad? Por cierto, tanto la corrección como la gráfica correcta provienen de un artículo de Steve Shaw, aquel que te dijo en avsforums que era valido utilizar una luz de sesgo para HDR y al que le modificaste un artículo, con premeditación, alevosía y nocturnidad para darle un giro de 180º a la interpretación que del mismo pudiéramos hacer.


En definitiva, creo que deberías comprobar un poco más antes de postear la veracidad de tus fuentes... Por cierto, ¿por qué no pusiste el link? ¿no sería por esto, verdad?

0cacbeea7a9e4c73510c596667588be5f166b917.gif


De todas formas, incluso dando por bueno todo tu enrevesado teorema de Pitagoras, lo cierto, es que los títulos masterizados a un máximo de 400 nits tampoco te llegarían de ninguna manera a los 13 stops mínimos para HDR que indica la ASC (American Society of Cinematographers), por lo tanto, si damos por bueno lo indicado por la ASC, incluso dándote la razón con los 10 stops, toda tu argumentación basada en los conceptos HDR que nos has estado vendiendo durante tanto tiempo se desmoronaría igualmente.
 
Última edición:
No es porque lo diga TEOH, es que lo de los 6 stops para SDR es algo que he leído en más de una ocasión, así que me inclino a creer que es la gráfica de SMPTE la que estaría equivocada.

Lamentablemente @Ronda estáis en un ERROR sobre HDR, por lo cual pues justificar porque un LCD puede ser tan bueno en HDR por más nits, pero no 500 nits en un display de pixel autoemisivo es por demás más convincente para HDR. John Humphrey tiene toda la razón sí señor.
  • Videos SDR de 8 bit muestra un rango dinámico de 6 stops
  • Videos SDR de 10 bit muestra un rango dinamico de 10 stops.
A las pruebas me remito, adjunto evidencia bibliográfia de la BBC White Paper A “Display Independent” High Dynamic Range Television System

**Esto trae consigo un trasfondo muy interesante para detalle en sombra HDR10.

Estáis de acuerdo que los diplays actuales, para SDR ó HDR pueden generar el mismo nivel de negro, obviamente dependiendo del tipo de tecnología de iluminación, por lo que decir que SDR parte de 0.05 nits que favorecería a LCD y para HDR de 0.0005 NO es lo correcto. OLED por ejemplo tranquilamente puede alcanzar 0.0005 nits.

CORRECT
1600425950385.png

Lightillusion

Puede que consideráis es comprensible marketing el siguiente gráfico, pero tiene sentido su interpretación.

stops LG.jpg


ASC (American Society of Cinematographers) pone de ejemplo para rango dinámico lo siguiente: 0.02 foot-lamberts to 80 foot-lamberts is 4,000:1 and is equivalent to a 12 stop dynamic range, donde 0.02 f lamberts equivale a 0.068 nits y 80 f lamberts equivale a 274.10 nits.

Os invito en el gráfico anterior contar los stops de 0.063 a 256 : resultado 12 stops!!!!!.

neo1.gif

Saludos.
 
Última edición:
estáis en un ERROR sobre HDR, por lo cual pues justificar porque un LCD puede ser tan bueno en HDR, pero no 500 nits en un display de pixel autoemisivo es por demás más convincente para HDR actualmente.

Claro que me parecen buenas las OLED. No es que me parezca buenas, es que me parecen muy pero que muy buenas para lo que hay actualmente. Si es que yo y los que estamos por aquí nunca hemos dicho lo contrario. Es más, ahora tengo en casa un display LCD Qled edge led de 525 nits 75Q75T, y ya he dicho que es un despropósito en HDR, y que por la parte que me toca eso no lo puedo considerar HDR porque sencillamente lo veo muy lejos de lo que debería ser un display HDR mínimamente digno, pero de ahí a admitirte que una Samsung Q90R sea un infecto ñoco de moco como dices, pues oiga, no.
 
Lo vuelvo a recalcar Q90R es uno de los mejores LCD HDR , no he mecionado como tal lo que estáis afirmando. Pero seamos objetivos y no sobredimencionemos de lo que realmente ES. Q90R podrá provocar sensación de espectacularidad eso es claro.
 
Última edición:
Yo tenía el concepto, a groso modo, de que el HDR, es decir, el alto rango dinámico es algo que se implementó en las cámaras para combatir lo que de toda la vida se ha conocido como "contraluz". Vamos, las fotos esas que echábamos con el sol deslumbrando y las caras o las cosas que queríamos que aparecieran en la foto no salían, se veían oscuras o negras.

Lo que entiendo que el HDR se inventó o se ha hecho como un avance para que aunque el sol o un foco o la iluminación deslumbrase saliera lo que queríamos fotografiar.

Entonces, partiendo de esta base, que seguramente me estaré equivocando, pues lo que interesa es que la TV nos muestre esa luz cegadora que se comía la imagen y la imagen que esa luz se comía, es decir, que saque detalle incluso "deslumbrando" la cámara.

¿A donde quiero ir con esto? Pues que lo que me interesa que la TV tenga bastantes nits para que me muestre esa luz cegadora y también los detalles que esta eliminaba por estar "a contra luz".

Porque el detalle en sombra, del que tanto se habla, es necesario tanto para HDR como para SDR, donde creo que HDR se diferencia del SDR es en la "luz cegadora" de la que hablo anteriormente.

El mayor problema que tenemos con estas dos tecnologías es escoger entre detalle en sombra con la "luz cegadora" NO tan cegadora (oled) o en MUY MUY contadas ocasiones menos detalle en zonas oscuras y con luz cegadora de verdad (fald top).

También algún problema más que tienen ambas tecnologías, pero ahora no estamos hablando de eso.

En esto creo que se resume todo, en la preferencia que tenga cada uno. Y las gráficas, el invento de los stops, etc. está muy bien para tener unas referencias, un control y exigir unos mínimos para una forma de reproducción de la imagen, pero es más una guía, unos minimos exigidos para poder reproducir esa imagen correctamente.

Y como siempre digo, lo mejor es tener las dos y disfrutarlas. Qled en salón y oled en dormitorio.

Saludos
 
Última edición:
(Lo vuelvo a recalcar Q90R es uno de los mejores LCD HDR , no he mecionado como tal lo que estáis afirmando. Pero seamos objetivos y no sobredimencionemos de lo que realmente ES. Q90R podrá provocar sensación de espectacularidad eso es claro. )

ESTO ES DE RISA!!!
SOBREDIMENCIONEMOS Y OBJETIVIDAD......???-y las W-OLEDS no llegan al mínimo en HDR.
SOLO VIENE A TIRAR mela a las FALDS y ni idea tiene,nunca tendrá una.
Tergiversa todo adrede y no es fanático?? ,lo peor le salen defensores,no le digas PÁRVULO??
Lo mas raro de esto ,como dice RONDA nadie aquí habla mal de las oleds!!,pero este caballero muy desubicado tira todo en contra de las falds.
diría LG hizo un buen trabajo con este bb.
 
Arriba Pie