OLED: el post

Por limitaciones de la propia tele o por qué? Porque entiendo que 4K 120 será algo más que habitual en la próxima generación de consolas, ¿verdad?
 
Por limitaciones de la propia tele o por qué? Porque entiendo que 4K 120 será algo más que habitual en la próxima generación de consolas, ¿verdad?

Ayer tarde después de publicar un post diciendo que era imposible llegar a los 4k100hz siquiera como algunos afirmaban que era posible... hable después con un forero americano y el me decía que cree que hasta que el marco negro o HFR este activado en los modelos actuales para los 100hz/120hz (LG lo enseño en las Vegas el año pasado) va ser posible.

Y me temo mucho que esto va ser asi.

Con las nuevas generaciones de consolas lo mas razonable es que las consolas que están por llegar soporten los 4k120hz y 8k 60hz (estándar HDMI 2.1) .... pero ya veremos como de potentes son luego estas para que lleguemos a ver juegos con estas resoluciones aun siendo rescaladas.
 
Como mala noticia es que como maximo por ahora se seguimos sin poder llegar a los 4k@120hz.... :(
Pero ese es un problema que dudo mucho que pueda solucionarse por software, ya sea con drivers o firmware.

Las LG C9/E9 tienen puertos HDMI 2.1 de 48Gbps que soportan 4K a 120Hz, pero actualmente ninguna gráfica tiene HDMI 2.1 sino que vienen con HDMI 2.0 de 18Gbps, así que no hay nada que rascar por ahí. O en otras palabras: el HDMI de las gráficas no puede sacar 4K a 120Hz.

Por otra parte, las gráficas de PC solo soportan 4K a 120Hz mediante DisplayPort, que es un conector que no tiene ninguna tele y del que no creo que haya ningún adaptador o conversor a HDMI 2.1.

Es decir, yo no tendría expectativas de poder sacar 4K a 120Hz desde una gráfica actual a una LG C9/E9 o cualquier otro televisor venidero. Cuando salgan nuevas gráficas con HDMI 2.1 o nuevas consolas entonces no debería haber problemas.
 
Muy bien explicado sí, pero yo personalmente dudo que las consolas del futuro incluya DP. ¿Existe alguna especificación para poder sacar 4K a 120 Hz en el futuro vía HDMI?
 
Entonces no me he explicado tan bien... 🧐

HDMI 2.1 soporta 4K a 120Hz y 8K a 60Hz, y es de esperar que cualquier consola y tarjeta gráfica de gama media/alta que salga en 2020 lo soporte. Y, ya digo, los puertos HDMI de estas LG ya son 2.1, así que sólo faltan dispositivos externos con la misma especificación para alimentarles con 4K a 120Hz.
 
Entonces no me he explicado tan bien... 🧐

HDMI 2.1 soporta 4K a 120Hz y 8K a 60Hz, y es de esperar que cualquier consola y tarjeta gráfica de gama media/alta que salga en 2020 lo soporte. Y, ya digo, los puertos HDMI de estas LG ya son 2.1, así que sólo faltan dispositivos externos con la misma especificación para alimentarles con 4K a 120Hz.
Gracias, he estado obtuso yo...
 
Como mala noticia es que como maximo por ahora se seguimos sin poder llegar a los 4k@120hz.... :(
Pero ese es un problema que dudo mucho que pueda solucionarse por software, ya sea con drivers o firmware.

Las LG C9/E9 tienen puertos HDMI 2.1 de 48Gbps que soportan 4K a 120Hz, pero actualmente ninguna gráfica tiene HDMI 2.1 sino que vienen con HDMI 2.0 de 18Gbps, así que no hay nada que rascar por ahí. O en otras palabras: el HDMI de las gráficas no puede sacar 4K a 120Hz.

Por otra parte, las gráficas de PC solo soportan 4K a 120Hz mediante DisplayPort, que es un conector que no tiene ninguna tele y del que no creo que haya ningún adaptador o conversor a HDMI 2.1.

Es decir, yo no tendría expectativas de poder sacar 4K a 120Hz desde una gráfica actual a una LG C9/E9 o cualquier otro televisor venidero. Cuando salgan nuevas gráficas con HDMI 2.1 o nuevas consolas entonces no debería haber problemas.

La marca Club3D fue la que nos envío un adaptador Dp 1.4>2.0b (con el que estuvimos haciendo las pruebas) y creíamos que iba a funcionar en 4k 120 porque es técnicamente posible en 4: 2: 0 8bit (18 Gbps) con hdmi 2.0 a... (Algunos comentan que si tendra algo que ver el HDCP 2.3 aun no esta activado o el BFi)

Según el distribuidor que es el que nos le facilito, nos comento que creen que a primeros de año estará el adaptador DP1.4>HDMi 2.1 y en cuanto sepa algo nos avisara.

Ahora la otra parte buena noticia es que G-Sync es una realidad y esta oficialmente añadido en las teles... y esta va ser la primera de muchas que van a ir detrás y para todos los que jugamos en PC excelente noticia.

Y os puedo decir al 100% que va perfecto como va en mi monitor de con chip G-Sync integrado. Eso si precisamente la falta del BFI los monitores si tienen, en la tele dependiendo la persona sera mas propenso a ver un pequeño parpadeo o no.




Lo peor de esta actualización para mi, es la perdida de sonido envolvente que sacaba desde la grafica por HDMI y es una puta** no tenemos 7.1
Edito: Por ahora solo llego a conseguir Dolby Atmos ... pero el multicanal por ahora nada.

En este otro video del NFS:Heat intento enseñar qué sucede cuando se sale de los los limites del G-Sync y porque es importante configurarlo bien.

Antes de nada recordar que el rango de actuación del G-Sync en la resolución de los 2550 x1440 @ 120Hz va de 40 - 120, dicho esto ahora fijaros en...

1º Cuando se pasa 120 ya no estamos dentro del rango G-Sync y es cuando entra en acción la sincronización vertical (activada en el panel de control de Nvidia) que evita él desgarro pero no tirones producidos por por caídas de FPS.
Por esta razón es importante usar bloqueador de FPS dentro o fuera del juego.

2º Fijaros en la gran variación de FPS que tenemos durante el juego, tenemos siempre una imagen absolutamente perfecta, sin desgarros ni tirones porque se mantiene siempre dentro de la zona de actuación del G-Sync.



Si tenéis alguna duda...
 
Última edición:
Quiero que queda claro y lo pongo públicamente. He solicitado la baja en este foro, y espero que sea efectiva en breve.

No me echan, me voy. Quiero que quede muy claro, para que nadie vaya diciendo por ningún otro lado que "a este gilipollas se le echó de NosoloHD". Aún así, estoy seguro que lo dirán. Así es la gente, supongo.

Muchas gracias a todo el mundo, han sido muchos años con altibajos y estos últimos apenas aportaba nada aquí, así que cara a 2020 creo necesaria una renovación en muchos sentidos.

Los que me conocen de verdad ya saben donde estoy y donde pueden encontrarme.

Feliz 2020 para todos.


Ni se te ocurra, es lo que lleva años buscando.

Éste hilo lo abriste tú hace ya más de 7 años y está claro que desencaminado no andabas. Gracias a LG y a sus OLED hoy en día tenemos una calidad de televisores impresionante y que además está obligando al resto de competidores a ponerse las pilas.

Hay un refrán muy cierto y es que " no hay mayor desprecio que no hacer aprecio " y es lo que debes de hacer, aporta lo que creas conveniente que nosotros ya somos mayorcitos para escoger lo que nos interesa.

Enga ánimo, y a los moderadores les diría que no le hagaís caso y que se joda ;D
 
Pues no sale muy bien parada la tecnología Oled, porque de alguna manera viene a certificar sus carencias, que son las que muchas veces hemos comentado por aquí acerca del volumen de color, falta de nits, etc.

La verdad es que para SDR son lo máximo, putos monitores de estudio, pero en HDR chochean un poquito, que le vamos a hacer!
 
Tampoco nos emocionemos tanto, lo mas parecido que he visto yo con respecto a un monitor de estudio ni siquiera era OLED,era un Led Sony de gama alta no recuerdo el modelo
 
Última edición:
Yo para sdr me quito el sombrero con mi tele, es que lo hace cojonudo, jeje, me importan bien poco las críticas o no tener actualmente una oled, ya la tuve, pero ya es buena en hdr y dolbyvision, pero en sdr, lo flipo, pero aún veo verde verde verde el mundo hdr, 4K, 8k, etc etc, así que la ansia de cambiar de tv se me pasó hace dos años, me conformo con veros “debatir” sobre lo que va saliendo, que no veo avance ninguno salientable, ni en led ni en oled.

Poner un bluray en esta tv, espectacular, hasta cambiar la resolución de salida a sdr de algún 4K hdr el resultado es fantástico.

Creo que el amigo teoh, la calificó como una de las mejores para sdr.

saludos y a disfrutar de lo que se tiene.
 
Si tengo que elegir entre HDR con chopocientos mil nits y OLED, lo tengo clarísimo. Que le den por el ojal al HDR.
 
Por eso yo para ver blurays o tv me voy a mi oled Panasonic, que es como si estuviera delante de un monitor de estudio, y cuando quiero emborracharme con el festival de luz y color que viene de la mano del HDR, que son palabras mayores, entonces me voy a una Q9 de 2000 nits aunque necesite gafas de sol y crema solar factor 2 millones, y ahí ya la exactitud del color y el seguimiento PQ me importan tres pimientos jeje
 
Es que OLED no gana los shootouts por la premisa a quien le importa el seguimiento PQ!. Sino muy por contrario cumplimiento de luminancia según la directriz o reglamentación de gamma HDR ó preservar la intención del productor en el contenido HDR , así como precisión de colorimetría SDR y porsupuesto HDR. Como sería del gusto de un purista.

El otro aspecto importante para HDR entorno de visualización.

Y tercero ser juicoso que los contenidos UHD HDR de hoy en día están contenidos el 90% en el rango de los 100-200 nits. Que el monitor BVM-X300 no es de grado I por ello no gana LCD, Whiters magníficamente lo dice en su último artículo,una de las más importantes razones por las cuales los profesionales se están mudando a un nuevo monitor LCD dual para dominar el trabajo, es la vida útil más corta del monitor X300, claro es OLED RGB, ya bien conocido la degradación rápida del sustrato azul.

Comentarios sobre HDR de interés.
En el "mundo SDR" el concepto NITS no existe, o no como en HDR. Hay una escala llamada IRE que define cómo es la imagen. Esa escala va de 0 a 100. Y esa escala se corresponde, a su vez, con la emisión de luz de ella misma. Esa escala es analógica y se refiere al voltaje, es decir, son impulsos eléctricos que "generan luz".

Esta definición proviene del mundo analógico y al pasar al mundo digital se ha trasladado porque se siguen midiendo voltajes y señales a la antigua usanza. Bien.

En SDR la luminosidad máxima son 100 IRE que corresponde a 100cd/m2 como máximo. En los displays actuales esta cantidad de emisión de luz está más que superada, pero hace 40 años eso no era tan fácil. Por eso, hace 30 o 20 años, subir la luminosidad de la emisión de un televisor no conllevaba demasiado problema, pues apenas se superaban los 150cd/m2.

Es más, cuando se hacía, en los LCD prehistóricos se obtenía ese negro azulado asqueroso que hoy día se sigue obteniendo en muchos displays baratos.

La única forma de mitigar ese gran defecto de la "maravillosa tecnología digital", era bajando la intensidad de la imagen, Y usando una luz que hiciese un contraste lo suficientemente grande para percibir el negro más negro (la famosa luz incidental trasera que se ha usado muchísimo y se sigue usando en estudios de postpro, pero que tiene a su vez otros motivos que no vienen al caso. No para evitar fatiga, sino para "simular" un alto contraste.

Cuando los televisores (sobre todo los televisores) empezaron a dar más luminosidad de lo que realmente marcaba la norma, la gente se "acostumbró" a poner a tope esa luminosidad. Aún siendo incorrecto y fuera de toda escala. Total, con la luz del día no se perciben los defectos (¿recordáis lo de la luz incidental trasera para simular un alto contraste?. Ahí la tenemos, de forma natural), pero por la noche...ay por la noche...

Volvemos al problema de base...demasiada producción de luz para un ESTANDAR que está definido internacionalmente y que todos los que trabajan en imagen saben usarlo y aplicarlo.

INTERLUDIO

Estoy seguro que muchos de vosotros habéis ido al cine. Bien. Muchos habréis dicho..."pero es que mi tele da más luz". EXACTO. Porque estáis FORZANDO algo que no debería ser así.

En el mundo del cine todo está milimétricamente calculado. Da igual si el proyector puede superar los 48 Full Lamberts que es considerado como la BASE de todo, la luz se REGULA para que ofrezca exactamente esa luminosidad. Ni más, ni menos. Porque cuando se graba una película, una serie, un "lo que sea", se tiene en mente esa serie de reglas, que todos, absolutamente todos tienen que seguir.

¿Todos?. Noooo, todos no. La cadena se ROMPE al llegar al usuario final. El cual, por desconocimiento o adrede, decide finalmente "cómo quiero ver la imagen". Pero este tema es más peliagudo así que lo dejo en el cajón guardadito.

Volvamos de nuevo a nuestro mundo mágico de la caja tonta...

HDR

Cuando llega la nueva norma, todo es un caos. En cierta forma, lo sigue siendo actualmente. Se definen NUEVAS REGLAS, para las que poca gente está preparado, se toman nuevos vicios, y surgen nuevos inconvenientes.

Si resulta que la nueva meta son esos 10.000 nits (que son una absoluta burrada de luz), ¿cómo van a llegar a ellos estos displays que no son capaces de llegar a 200 nits?. Oh, vaya.

La solución, obviamente, pasa por "meter más luz", pero eso significa más consumo, y los reguladores energéticos no están por la labor...no nos van a dejar tan fácilmente hacer lo que queramos.

Es decir...¿se puede ACTUALMENTE tener un display que ofrezca...5000 nits?. SI. Pero no te van a dejar. Porque primero...consume muchísimo. Segundo, genera un calor abrasador (que se lo digan a los que "sufren" el Dolby Pulsar). Tercero, "la potencia sin control"...¿os suena ésto?. REGLAS.

Cuando hace unos 15 años se empieza a grabar con cámaras digitales que permiten HDR (sí, esto no es algo de hace 5 o 6 años), se empieza a valorar el poder ver esas imágenes en un display acorde. Hasta entonces, han dormido el sueño de los justos.

Vale, no exactamente porque precisamente gracias a esa latitud con la que graban, permiten más flexibilidad en postpro, y poder sacar el máximo jugo a la imagen. Pero aún así, se perdían cosas por el camino.

Pese a que en una imagen "tipo" el 90% de ésta está contenida en el rango de los 100-200 ire, hay o puede haber partes de la imagen que se beneficien de ese "extra" de luminancia. Sea el que sea.

De esto ya en su día Paul Debevec sabía mucho, al generar por vez primera los llamados "probes", entornos 360º HDRI, que se toman realizando varias fotos reales a una esfera con diferentes exposiciones. El resultado, aplicando estos "probes" a animaciones 3D, son unos reflejos en las superficies REALES, así como una iluminación GLOBAL que responde a la realidad.

Como véis, todo va unido e hilado. Yo precisamente estuve experimentando con ellos durante largo tiempo, cuando se presentó en el Siggraph y la industria entera se volcó en algo que a día de hoy es la piedra angular de la verosimilotud en las animaciones y en los efectos digitales. El control de la luminancia.

Pero volviendo pasos atrás y centrándonos en esos primeros displays, nos encontramos que los fabricantes no saben bien como aplicar una nueva norma que todos desconocen.

Hay que poner un poco de orden, así que la UHD Alliance propone un término (que para algunos resulta un tanto marketiniano pero que no lo es) llamado UHD Premium, que intentar definir un poco todo, dando las cifras ya conocidas sobre las dos tecnologías de display actuales:

0.05cd/m - 1000nits
0.0005cd/m - 540nits

¿Porqué esa disparidad?. Es fácil: CONTRASTE. A un mayor contraste, necesitas menos luminancia para dar la misma sensación. Por eso, y solo por eso, un panel autoemisivo a nivel de pixel, necesita menos nits de potencia para igualar a otro que no puede ofrecer esa tasa de contraste.

Y esto no lo afirmo yo, lo afirma la ciencia y la percepción visual, cualquier oftalmólogo os lo dirá si lo visitáis. Es fácil.

Ahora bien, ¿esto que tiene que ver con esa obsesión de los "miles de nits"?. NADA.

Al final, es el mal uso de una palabra el que genera un ruido innecesario y confusión a la gente. La gente, como ovejas, se guian por el pastor. Si el pastor dice "aquí", las ovejas dirán "aquí". Siempre hay ovejas descarriadas, para eso está el perro pastor. Si alguna se pierde...ya sabéis que pasa...que viene el lobo.

¿Que sucede cuando el pastor se equivoca?. El rebaño entero se va al precipio, y se acabó la historia. Fin.

Cuando alguien que no tiene ni idea va a elegir nuevo televisor y "ha oído" eso que llaman HDR, que da "mucha más luz y color", quiere buscar exactamente eso, aunque las cosas no sean...exactamente como cree. Por el camino se encuentra con "pastores" que le guiarán por el camino...pero el resultado puede no ser el que uno pensaba o esperaba.

Hay pastores bienintencionados que guían y ayudan a las ovejas a cruzar el camino hacia el pasto bueno, y otros no tan bienintencionados que hacen pasar a las ovejas por campos de espinas, ortigas y todo para llegar a un descampado ramplón.

Pero volvamos al inicio de toda esta cuestión. Los nits. Los famosos miles de nits. ¿Qué son, donde están?. ¿Quién los mide o como sabemos si lo que vemos tiene cientos o miles?. Ahhhh, eso no o sabemos. Sabemos que según "alguien", ese televisor maravilloso dicen que ofrece 2000 nits...ohhhhh, eso es mucha luuuuuz, oooooohhhhh...y ahí es donde entra la trampa.

Se tiende a pensar que esos "miles de nits" se van a ver siempre, en toda la imagen. Y no solo no es así, sino que probablemente en 500 horas de contenido...igual logras ver un minuto a esa intensidad. ¿Pero seguro que lo que piensas que crees que está a 2000 nits...lo está?

Acordaros lo que dije antes...contraste...

¿Porqué si ponemos un blanco de 500 nits sobre un negro absolutamente cero absoluto, nos parece más intenso que ese mismo blanco de 500 nits sobre un negro que ya no es absoluto?

Contraste. Relación. de. contraste.

Física.

Nuestra vista es adaptativa, pero tiene límites. Estos están bien definidos y son conocidos. No podemos "exponer" a la vez el detalle en sombra de un objeto mientras tenemos una luminosidad fuerte al otro lado. O nos enfocamos en uno, u en otro. El HDR viene a ser un poco lo mismo, pero algo más limitado.

¿Qué sucede cuando alguien os enfoca con una linterna a los ojos?. Nos molesta, ¿verdad?. ¿Qué hacen nuestras pupilas?. Se contraen. Dejamos de ver "detalle en sombra" que se convertirá en negro absoluto para intentar "ver" esa luz tan intensa que nos enfoca.

Así es como funciona nuestra vista y ese es el truco para el HDR. No hay que fijarse en los "miles de nits", sino en que éstos sean MEJORES.

Sí, la norma es clara y define un escenario al que llegaremos...10.000 nits. Pero insisto, esos teóricos 10.000 nits serán usados de forma consciente y limitada para solo, y solo algunos momentos fugaces. Y no siempre.
 
Última edición:
Es que OLED no gana los shootouts por la premisa a quien le importa el seguimiento PQ!. Sino muy por contrario cumplimiento de luminancia según la directriz o reglamentación de gamma HDR ó preservar la intención del productor en el contenido HDR , así como precisión de colorimetría SDR y porsupuesto HDR. Como sería del gusto de un purista.

El otro aspecto importante para HDR entorno de visualización.

Y tercero ser juicoso que los contenidos UHD HDR de hoy en día están contenidos el 90% en el rango de los 100-200 nits. Que el monitor BVM-X300 no es de grado I por ello no gana LCD, Whiters magníficamente lo dice en su último artículo,una de las más importantes razones por las cuales los profesionales se están mudando a un nuevo monitor LCD dual para dominar el trabajo, es la vida útil más corta del monitor X300, claro es OLED RGB, ya bien conocido la degradación rápida del sustrato azul.

Comentarios sobre HDR de interés.
HDR

Cuando llega la nueva norma, todo es un caos. En cierta forma, lo sigue siendo actualmente. Se definen NUEVAS REGLAS, para las que poca gente está preparado, se toman nuevos vicios, y surgen nuevos inconvenientes.

Si resulta que la nueva meta son esos 10.000 nits (que son una absoluta burrada de luz), ¿cómo van a llegar a ellos estos displays que no son capaces de llegar a 200 nits?. Oh, vaya.

La solución, obviamente, pasa por "meter más luz", pero eso significa más consumo, y los reguladores energéticos no están por la labor...no nos van a dejar tan fácilmente hacer lo que queramos.

Es decir...¿se puede ACTUALMENTE tener un display que ofrezca...5000 nits?. SI. Pero no te van a dejar. Porque primero...consume muchísimo. Segundo, genera un calor abrasador (que se lo digan a los que "sufren" el Dolby Pulsar). Tercero, "la potencia sin control"...¿os suena ésto?. REGLAS.

Cuando hace unos 15 años se empieza a grabar con cámaras digitales que permiten HDR (sí, esto no es algo de hace 5 o 6 años), se empieza a valorar el poder ver esas imágenes en un display acorde. Hasta entonces, han dormido el sueño de los justos.

Vale, no exactamente porque precisamente gracias a esa latitud con la que graban, permiten más flexibilidad en postpro, y poder sacar el máximo jugo a la imagen. Pero aún así, se perdían cosas por el camino.

Pese a que en una imagen "tipo" el 90% de ésta está contenida en el rango de los 100-200 ire, hay o puede haber partes de la imagen que se beneficien de ese "extra" de luminancia. Sea el que sea.

De esto ya en su día Paul Debevec sabía mucho, al generar por vez primera los llamados "probes", entornos 360º HDRI, que se toman realizando varias fotos reales a una esfera con diferentes exposiciones. El resultado, aplicando estos "probes" a animaciones 3D, son unos reflejos en las superficies REALES, así como una iluminación GLOBAL que responde a la realidad.

Como véis, todo va unido e hilado. Yo precisamente estuve experimentando con ellos durante largo tiempo, cuando se presentó en el Siggraph y la industria entera se volcó en algo que a día de hoy es la piedra angular de la verosimilotud en las animaciones y en los efectos digitales. El control de la luminancia.

Pero volviendo pasos atrás y centrándonos en esos primeros displays, nos encontramos que los fabricantes no saben bien como aplicar una nueva norma que todos desconocen.

Hay que poner un poco de orden, así que la UHD Alliance propone un término (que para algunos resulta un tanto marketiniano pero que no lo es) llamado UHD Premium, que intentar definir un poco todo, dando las cifras ya conocidas sobre las dos tecnologías de display actuales:

0.05cd/m - 1000nits
0.0005cd/m - 540nits

¿Porqué esa disparidad?. Es fácil: CONTRASTE. A un mayor contraste, necesitas menos luminancia para dar la misma sensación. Por eso, y solo por eso, un panel autoemisivo a nivel de pixel, necesita menos nits de potencia para igualar a otro que no puede ofrecer esa tasa de contraste.

Y esto no lo afirmo yo, lo afirma la ciencia y la percepción visual, cualquier oftalmólogo os lo dirá si lo visitáis. Es fácil.

Ahora bien, ¿esto que tiene que ver con esa obsesión de los "miles de nits"?. NADA.

Al final, es el mal uso de una palabra el que genera un ruido innecesario y confusión a la gente. La gente, como ovejas, se guian por el pastor. Si el pastor dice "aquí", las ovejas dirán "aquí". Siempre hay ovejas descarriadas, para eso está el perro pastor. Si alguna se pierde...ya sabéis que pasa...que viene el lobo.

¿Que sucede cuando el pastor se equivoca?. El rebaño entero se va al precipio, y se acabó la historia. Fin.

Cuando alguien que no tiene ni idea va a elegir nuevo televisor y "ha oído" eso que llaman HDR, que da "mucha más luz y color", quiere buscar exactamente eso, aunque las cosas no sean...exactamente como cree. Por el camino se encuentra con "pastores" que le guiarán por el camino...pero el resultado puede no ser el que uno pensaba o esperaba.

Hay pastores bienintencionados que guían y ayudan a las ovejas a cruzar el camino hacia el pasto bueno, y otros no tan bienintencionados que hacen pasar a las ovejas por campos de espinas, ortigas y todo para llegar a un descampado ramplón.

Pero volvamos al inicio de toda esta cuestión. Los nits. Los famosos miles de nits. ¿Qué son, donde están?. ¿Quién los mide o como sabemos si lo que vemos tiene cientos o miles?. Ahhhh, eso no o sabemos. Sabemos que según "alguien", ese televisor maravilloso dicen que ofrece 2000 nits...ohhhhh, eso es mucha luuuuuz, oooooohhhhh...y ahí es donde entra la trampa.

Se tiende a pensar que esos "miles de nits" se van a ver siempre, en toda la imagen. Y no solo no es así, sino que probablemente en 500 horas de contenido...igual logras ver un minuto a esa intensidad. ¿Pero seguro que lo que piensas que crees que está a 2000 nits...lo está?

Acordaros lo que dije antes...contraste...

¿Porqué si ponemos un blanco de 500 nits sobre un negro absolutamente cero absoluto, nos parece más intenso que ese mismo blanco de 500 nits sobre un negro que ya no es absoluto?

Contraste. Relación. de. contraste.

Física.

Nuestra vista es adaptativa, pero tiene límites. Estos están bien definidos y son conocidos. No podemos "exponer" a la vez el detalle en sombra de un objeto mientras tenemos una luminosidad fuerte al otro lado. O nos enfocamos en uno, u en otro. El HDR viene a ser un poco lo mismo, pero algo más limitado.

¿Qué sucede cuando alguien os enfoca con una linterna a los ojos?. Nos molesta, ¿verdad?. ¿Qué hacen nuestras pupilas?. Se contraen. Dejamos de ver "detalle en sombra" que se convertirá en negro absoluto para intentar "ver" esa luz tan intensa que nos enfoca.

Así es como funciona nuestra vista y ese es el truco para el HDR. No hay que fijarse en los "miles de nits", sino en que éstos sean MEJORES.

Sí, la norma es clara y define un escenario al que llegaremos...10.000 nits. Pero insisto, esos teóricos 10.000 nits serán usados de forma consciente y limitada para solo, y solo algunos momentos fugaces. Y no siempre.

No hay ningún televisor comercial actualmente que se acerque a la directriz o reglamentación para HDR.

Un saludo.
 
Es que OLED no gana los shootouts por la premisa a quien le importa el seguimiento PQ!. Sino muy por contrario cumplimiento de luminancia según la directriz o reglamentación de gamma HDR ó preservar la intención del productor en el contenido HDR , así como precisión de colorimetría SDR y porsupuesto HDR. Como sería del gusto de un purista.

El otro aspecto importante para HDR entorno de visualización.

Y tercero ser juicoso que los contenidos UHD HDR de hoy en día están contenidos el 90% en el rango de los 100-200 nits. Que el monitor BVM-X300 no es de grado I por ello no gana LCD, Whiters magníficamente lo dice en su último artículo,una de las más importantes razones por las cuales los profesionales se están mudando a un nuevo monitor LCD dual para dominar el trabajo, es la vida útil más corta del monitor X300, claro es OLED RGB, ya bien conocido la degradación rápida del sustrato azul.

Comentarios sobre HDR de interés.
HDR

Cuando llega la nueva norma, todo es un caos. En cierta forma, lo sigue siendo actualmente. Se definen NUEVAS REGLAS, para las que poca gente está preparado, se toman nuevos vicios, y surgen nuevos inconvenientes.

Si resulta que la nueva meta son esos 10.000 nits (que son una absoluta burrada de luz), ¿cómo van a llegar a ellos estos displays que no son capaces de llegar a 200 nits?. Oh, vaya.

La solución, obviamente, pasa por "meter más luz", pero eso significa más consumo, y los reguladores energéticos no están por la labor...no nos van a dejar tan fácilmente hacer lo que queramos.

Es decir...¿se puede ACTUALMENTE tener un display que ofrezca...5000 nits?. SI. Pero no te van a dejar. Porque primero...consume muchísimo. Segundo, genera un calor abrasador (que se lo digan a los que "sufren" el Dolby Pulsar). Tercero, "la potencia sin control"...¿os suena ésto?. REGLAS.

Cuando hace unos 15 años se empieza a grabar con cámaras digitales que permiten HDR (sí, esto no es algo de hace 5 o 6 años), se empieza a valorar el poder ver esas imágenes en un display acorde. Hasta entonces, han dormido el sueño de los justos.

Vale, no exactamente porque precisamente gracias a esa latitud con la que graban, permiten más flexibilidad en postpro, y poder sacar el máximo jugo a la imagen. Pero aún así, se perdían cosas por el camino.

Pese a que en una imagen "tipo" el 90% de ésta está contenida en el rango de los 100-200 ire, hay o puede haber partes de la imagen que se beneficien de ese "extra" de luminancia. Sea el que sea.

De esto ya en su día Paul Debevec sabía mucho, al generar por vez primera los llamados "probes", entornos 360º HDRI, que se toman realizando varias fotos reales a una esfera con diferentes exposiciones. El resultado, aplicando estos "probes" a animaciones 3D, son unos reflejos en las superficies REALES, así como una iluminación GLOBAL que responde a la realidad.

Como véis, todo va unido e hilado. Yo precisamente estuve experimentando con ellos durante largo tiempo, cuando se presentó en el Siggraph y la industria entera se volcó en algo que a día de hoy es la piedra angular de la verosimilotud en las animaciones y en los efectos digitales. El control de la luminancia.

Pero volviendo pasos atrás y centrándonos en esos primeros displays, nos encontramos que los fabricantes no saben bien como aplicar una nueva norma que todos desconocen.

Hay que poner un poco de orden, así que la UHD Alliance propone un término (que para algunos resulta un tanto marketiniano pero que no lo es) llamado UHD Premium, que intentar definir un poco todo, dando las cifras ya conocidas sobre las dos tecnologías de display actuales:

0.05cd/m - 1000nits
0.0005cd/m - 540nits

¿Porqué esa disparidad?. Es fácil: CONTRASTE. A un mayor contraste, necesitas menos luminancia para dar la misma sensación. Por eso, y solo por eso, un panel autoemisivo a nivel de pixel, necesita menos nits de potencia para igualar a otro que no puede ofrecer esa tasa de contraste.

Y esto no lo afirmo yo, lo afirma la ciencia y la percepción visual, cualquier oftalmólogo os lo dirá si lo visitáis. Es fácil.

Ahora bien, ¿esto que tiene que ver con esa obsesión de los "miles de nits"?. NADA.

Al final, es el mal uso de una palabra el que genera un ruido innecesario y confusión a la gente. La gente, como ovejas, se guian por el pastor. Si el pastor dice "aquí", las ovejas dirán "aquí". Siempre hay ovejas descarriadas, para eso está el perro pastor. Si alguna se pierde...ya sabéis que pasa...que viene el lobo.

¿Que sucede cuando el pastor se equivoca?. El rebaño entero se va al precipio, y se acabó la historia. Fin.

Cuando alguien que no tiene ni idea va a elegir nuevo televisor y "ha oído" eso que llaman HDR, que da "mucha más luz y color", quiere buscar exactamente eso, aunque las cosas no sean...exactamente como cree. Por el camino se encuentra con "pastores" que le guiarán por el camino...pero el resultado puede no ser el que uno pensaba o esperaba.

Hay pastores bienintencionados que guían y ayudan a las ovejas a cruzar el camino hacia el pasto bueno, y otros no tan bienintencionados que hacen pasar a las ovejas por campos de espinas, ortigas y todo para llegar a un descampado ramplón.

Pero volvamos al inicio de toda esta cuestión. Los nits. Los famosos miles de nits. ¿Qué son, donde están?. ¿Quién los mide o como sabemos si lo que vemos tiene cientos o miles?. Ahhhh, eso no o sabemos. Sabemos que según "alguien", ese televisor maravilloso dicen que ofrece 2000 nits...ohhhhh, eso es mucha luuuuuz, oooooohhhhh...y ahí es donde entra la trampa.

Se tiende a pensar que esos "miles de nits" se van a ver siempre, en toda la imagen. Y no solo no es así, sino que probablemente en 500 horas de contenido...igual logras ver un minuto a esa intensidad. ¿Pero seguro que lo que piensas que crees que está a 2000 nits...lo está?

Acordaros lo que dije antes...contraste...

¿Porqué si ponemos un blanco de 500 nits sobre un negro absolutamente cero absoluto, nos parece más intenso que ese mismo blanco de 500 nits sobre un negro que ya no es absoluto?

Contraste. Relación. de. contraste.

Física.

Nuestra vista es adaptativa, pero tiene límites. Estos están bien definidos y son conocidos. No podemos "exponer" a la vez el detalle en sombra de un objeto mientras tenemos una luminosidad fuerte al otro lado. O nos enfocamos en uno, u en otro. El HDR viene a ser un poco lo mismo, pero algo más limitado.

¿Qué sucede cuando alguien os enfoca con una linterna a los ojos?. Nos molesta, ¿verdad?. ¿Qué hacen nuestras pupilas?. Se contraen. Dejamos de ver "detalle en sombra" que se convertirá en negro absoluto para intentar "ver" esa luz tan intensa que nos enfoca.

Así es como funciona nuestra vista y ese es el truco para el HDR. No hay que fijarse en los "miles de nits", sino en que éstos sean MEJORES.

Sí, la norma es clara y define un escenario al que llegaremos...10.000 nits. Pero insisto, esos teóricos 10.000 nits serán usados de forma consciente y limitada para solo, y solo algunos momentos fugaces. Y no siempre.

No hay ningún televisor comercial actualmente que se acerque a la directriz o reglamentación para HDR.

Un saludo.
Correcto si nos basamos en brillo el peak brightness para ST 2084 es 10000 nit (1024 bits), pero sabemos que el standard PQ HDR10 es absoluto, es decir para cada nivel de luminancia corresponde un nivel de bits. así 1000 nits le corresponde una valor máximo de 769 bits, el resto de niveles será recortado.

El problema básico por el que menciono cumplimiento de la directriz HDR va enfocado en que las TVs en su mayoría rompen PQ, provocan "cambios" de brillo en pantalla incluso desde valores bajos de nits, que distorsionan la intención artística original definido por el director o colorista del contenido UHD HDR.

Es conocido por todos las limitaciones tecnólogicas para cumplir por completo las directrices HDR en luminancia y color, pero hago hincapié el desvío del standard HDR , dado que los fabricantes de TVs creen que haciendo ello están generando una imágen "mejor". La introducción de monitores de masterización HDR en los shootouts tiene ese sentido, con el cual podemos juzgar el nivel de negro que tan oscuro debería ser el detalle en sombra, como que tan luminoso debe ser un detalle más brillante.

Seguimiento PQ por Q9FN línea ploma (línea amarilla el standard para 1000 nits.)

1580245103840.png

Saludos.
 
Última edición:
:juas jaja. Es Vincent Teoh quien hizo la review del tema expuesto en verano del 2018. Dio paliza a Whiters por catalogar a dicha TV referente en LCD HDR. Gracias por lo de interés, saludos.
 
Arriba Pie