CaptainMal
Miembro habitual
Por limitaciones de la propia tele o por qué? Porque entiendo que 4K 120 será algo más que habitual en la próxima generación de consolas, ¿verdad?
Por limitaciones de la propia tele o por qué? Porque entiendo que 4K 120 será algo más que habitual en la próxima generación de consolas, ¿verdad?
Pero ese es un problema que dudo mucho que pueda solucionarse por software, ya sea con drivers o firmware.Como mala noticia es que como maximo por ahora se seguimos sin poder llegar a los 4k@120hz....
Para ver las pelis de Ang Lee con 2 Will Smithes... y aún le falta el 3D.Otra cosa será para qué se necesita 4K 120Hz...
Gracias, he estado obtuso yo...Entonces no me he explicado tan bien...
HDMI 2.1 soporta 4K a 120Hz y 8K a 60Hz, y es de esperar que cualquier consola y tarjeta gráfica de gama media/alta que salga en 2020 lo soporte. Y, ya digo, los puertos HDMI de estas LG ya son 2.1, así que sólo faltan dispositivos externos con la misma especificación para alimentarles con 4K a 120Hz.
Pero ese es un problema que dudo mucho que pueda solucionarse por software, ya sea con drivers o firmware.Como mala noticia es que como maximo por ahora se seguimos sin poder llegar a los 4k@120hz....
Las LG C9/E9 tienen puertos HDMI 2.1 de 48Gbps que soportan 4K a 120Hz, pero actualmente ninguna gráfica tiene HDMI 2.1 sino que vienen con HDMI 2.0 de 18Gbps, así que no hay nada que rascar por ahí. O en otras palabras: el HDMI de las gráficas no puede sacar 4K a 120Hz.
Por otra parte, las gráficas de PC solo soportan 4K a 120Hz mediante DisplayPort, que es un conector que no tiene ninguna tele y del que no creo que haya ningún adaptador o conversor a HDMI 2.1.
Es decir, yo no tendría expectativas de poder sacar 4K a 120Hz desde una gráfica actual a una LG C9/E9 o cualquier otro televisor venidero. Cuando salgan nuevas gráficas con HDMI 2.1 o nuevas consolas entonces no debería haber problemas.
Quiero que queda claro y lo pongo públicamente. He solicitado la baja en este foro, y espero que sea efectiva en breve.
No me echan, me voy. Quiero que quede muy claro, para que nadie vaya diciendo por ningún otro lado que "a este gilipollas se le echó de NosoloHD". Aún así, estoy seguro que lo dirán. Así es la gente, supongo.
Muchas gracias a todo el mundo, han sido muchos años con altibajos y estos últimos apenas aportaba nada aquí, así que cara a 2020 creo necesaria una renovación en muchos sentidos.
Los que me conocen de verdad ya saben donde estoy y donde pueden encontrarme.
Feliz 2020 para todos.
En el "mundo SDR" el concepto NITS no existe, o no como en HDR. Hay una escala llamada IRE que define cómo es la imagen. Esa escala va de 0 a 100. Y esa escala se corresponde, a su vez, con la emisión de luz de ella misma. Esa escala es analógica y se refiere al voltaje, es decir, son impulsos eléctricos que "generan luz".
Esta definición proviene del mundo analógico y al pasar al mundo digital se ha trasladado porque se siguen midiendo voltajes y señales a la antigua usanza. Bien.
En SDR la luminosidad máxima son 100 IRE que corresponde a 100cd/m2 como máximo. En los displays actuales esta cantidad de emisión de luz está más que superada, pero hace 40 años eso no era tan fácil. Por eso, hace 30 o 20 años, subir la luminosidad de la emisión de un televisor no conllevaba demasiado problema, pues apenas se superaban los 150cd/m2.
Es más, cuando se hacía, en los LCD prehistóricos se obtenía ese negro azulado asqueroso que hoy día se sigue obteniendo en muchos displays baratos.
La única forma de mitigar ese gran defecto de la "maravillosa tecnología digital", era bajando la intensidad de la imagen, Y usando una luz que hiciese un contraste lo suficientemente grande para percibir el negro más negro (la famosa luz incidental trasera que se ha usado muchísimo y se sigue usando en estudios de postpro, pero que tiene a su vez otros motivos que no vienen al caso. No para evitar fatiga, sino para "simular" un alto contraste.
Cuando los televisores (sobre todo los televisores) empezaron a dar más luminosidad de lo que realmente marcaba la norma, la gente se "acostumbró" a poner a tope esa luminosidad. Aún siendo incorrecto y fuera de toda escala. Total, con la luz del día no se perciben los defectos (¿recordáis lo de la luz incidental trasera para simular un alto contraste?. Ahí la tenemos, de forma natural), pero por la noche...ay por la noche...
Volvemos al problema de base...demasiada producción de luz para un ESTANDAR que está definido internacionalmente y que todos los que trabajan en imagen saben usarlo y aplicarlo.
INTERLUDIO
Estoy seguro que muchos de vosotros habéis ido al cine. Bien. Muchos habréis dicho..."pero es que mi tele da más luz". EXACTO. Porque estáis FORZANDO algo que no debería ser así.
En el mundo del cine todo está milimétricamente calculado. Da igual si el proyector puede superar los 48 Full Lamberts que es considerado como la BASE de todo, la luz se REGULA para que ofrezca exactamente esa luminosidad. Ni más, ni menos. Porque cuando se graba una película, una serie, un "lo que sea", se tiene en mente esa serie de reglas, que todos, absolutamente todos tienen que seguir.
¿Todos?. Noooo, todos no. La cadena se ROMPE al llegar al usuario final. El cual, por desconocimiento o adrede, decide finalmente "cómo quiero ver la imagen". Pero este tema es más peliagudo así que lo dejo en el cajón guardadito.
Volvamos de nuevo a nuestro mundo mágico de la caja tonta...
HDR
Cuando llega la nueva norma, todo es un caos. En cierta forma, lo sigue siendo actualmente. Se definen NUEVAS REGLAS, para las que poca gente está preparado, se toman nuevos vicios, y surgen nuevos inconvenientes.
Si resulta que la nueva meta son esos 10.000 nits (que son una absoluta burrada de luz), ¿cómo van a llegar a ellos estos displays que no son capaces de llegar a 200 nits?. Oh, vaya.
La solución, obviamente, pasa por "meter más luz", pero eso significa más consumo, y los reguladores energéticos no están por la labor...no nos van a dejar tan fácilmente hacer lo que queramos.
Es decir...¿se puede ACTUALMENTE tener un display que ofrezca...5000 nits?. SI. Pero no te van a dejar. Porque primero...consume muchísimo. Segundo, genera un calor abrasador (que se lo digan a los que "sufren" el Dolby Pulsar). Tercero, "la potencia sin control"...¿os suena ésto?. REGLAS.
Cuando hace unos 15 años se empieza a grabar con cámaras digitales que permiten HDR (sí, esto no es algo de hace 5 o 6 años), se empieza a valorar el poder ver esas imágenes en un display acorde. Hasta entonces, han dormido el sueño de los justos.
Vale, no exactamente porque precisamente gracias a esa latitud con la que graban, permiten más flexibilidad en postpro, y poder sacar el máximo jugo a la imagen. Pero aún así, se perdían cosas por el camino.
Pese a que en una imagen "tipo" el 90% de ésta está contenida en el rango de los 100-200 ire, hay o puede haber partes de la imagen que se beneficien de ese "extra" de luminancia. Sea el que sea.
De esto ya en su día Paul Debevec sabía mucho, al generar por vez primera los llamados "probes", entornos 360º HDRI, que se toman realizando varias fotos reales a una esfera con diferentes exposiciones. El resultado, aplicando estos "probes" a animaciones 3D, son unos reflejos en las superficies REALES, así como una iluminación GLOBAL que responde a la realidad.
Como véis, todo va unido e hilado. Yo precisamente estuve experimentando con ellos durante largo tiempo, cuando se presentó en el Siggraph y la industria entera se volcó en algo que a día de hoy es la piedra angular de la verosimilotud en las animaciones y en los efectos digitales. El control de la luminancia.
Pero volviendo pasos atrás y centrándonos en esos primeros displays, nos encontramos que los fabricantes no saben bien como aplicar una nueva norma que todos desconocen.
Hay que poner un poco de orden, así que la UHD Alliance propone un término (que para algunos resulta un tanto marketiniano pero que no lo es) llamado UHD Premium, que intentar definir un poco todo, dando las cifras ya conocidas sobre las dos tecnologías de display actuales:
0.05cd/m - 1000nits
0.0005cd/m - 540nits
¿Porqué esa disparidad?. Es fácil: CONTRASTE. A un mayor contraste, necesitas menos luminancia para dar la misma sensación. Por eso, y solo por eso, un panel autoemisivo a nivel de pixel, necesita menos nits de potencia para igualar a otro que no puede ofrecer esa tasa de contraste.
Y esto no lo afirmo yo, lo afirma la ciencia y la percepción visual, cualquier oftalmólogo os lo dirá si lo visitáis. Es fácil.
Ahora bien, ¿esto que tiene que ver con esa obsesión de los "miles de nits"?. NADA.
Al final, es el mal uso de una palabra el que genera un ruido innecesario y confusión a la gente. La gente, como ovejas, se guian por el pastor. Si el pastor dice "aquí", las ovejas dirán "aquí". Siempre hay ovejas descarriadas, para eso está el perro pastor. Si alguna se pierde...ya sabéis que pasa...que viene el lobo.
¿Que sucede cuando el pastor se equivoca?. El rebaño entero se va al precipio, y se acabó la historia. Fin.
Cuando alguien que no tiene ni idea va a elegir nuevo televisor y "ha oído" eso que llaman HDR, que da "mucha más luz y color", quiere buscar exactamente eso, aunque las cosas no sean...exactamente como cree. Por el camino se encuentra con "pastores" que le guiarán por el camino...pero el resultado puede no ser el que uno pensaba o esperaba.
Hay pastores bienintencionados que guían y ayudan a las ovejas a cruzar el camino hacia el pasto bueno, y otros no tan bienintencionados que hacen pasar a las ovejas por campos de espinas, ortigas y todo para llegar a un descampado ramplón.
Pero volvamos al inicio de toda esta cuestión. Los nits. Los famosos miles de nits. ¿Qué son, donde están?. ¿Quién los mide o como sabemos si lo que vemos tiene cientos o miles?. Ahhhh, eso no o sabemos. Sabemos que según "alguien", ese televisor maravilloso dicen que ofrece 2000 nits...ohhhhh, eso es mucha luuuuuz, oooooohhhhh...y ahí es donde entra la trampa.
Se tiende a pensar que esos "miles de nits" se van a ver siempre, en toda la imagen. Y no solo no es así, sino que probablemente en 500 horas de contenido...igual logras ver un minuto a esa intensidad. ¿Pero seguro que lo que piensas que crees que está a 2000 nits...lo está?
Acordaros lo que dije antes...contraste...
¿Porqué si ponemos un blanco de 500 nits sobre un negro absolutamente cero absoluto, nos parece más intenso que ese mismo blanco de 500 nits sobre un negro que ya no es absoluto?
Contraste. Relación. de. contraste.
Física.
Nuestra vista es adaptativa, pero tiene límites. Estos están bien definidos y son conocidos. No podemos "exponer" a la vez el detalle en sombra de un objeto mientras tenemos una luminosidad fuerte al otro lado. O nos enfocamos en uno, u en otro. El HDR viene a ser un poco lo mismo, pero algo más limitado.
¿Qué sucede cuando alguien os enfoca con una linterna a los ojos?. Nos molesta, ¿verdad?. ¿Qué hacen nuestras pupilas?. Se contraen. Dejamos de ver "detalle en sombra" que se convertirá en negro absoluto para intentar "ver" esa luz tan intensa que nos enfoca.
Así es como funciona nuestra vista y ese es el truco para el HDR. No hay que fijarse en los "miles de nits", sino en que éstos sean MEJORES.
Sí, la norma es clara y define un escenario al que llegaremos...10.000 nits. Pero insisto, esos teóricos 10.000 nits serán usados de forma consciente y limitada para solo, y solo algunos momentos fugaces. Y no siempre.
Es que OLED no gana los shootouts por la premisa a quien le importa el seguimiento PQ!. Sino muy por contrario cumplimiento de luminancia según la directriz o reglamentación de gamma HDR ó preservar la intención del productor en el contenido HDR , así como precisión de colorimetría SDR y porsupuesto HDR. Como sería del gusto de un purista.
El otro aspecto importante para HDR entorno de visualización.
Y tercero ser juicoso que los contenidos UHD HDR de hoy en día están contenidos el 90% en el rango de los 100-200 nits. Que el monitor BVM-X300 no es de grado I por ello no gana LCD, Whiters magníficamente lo dice en su último artículo,una de las más importantes razones por las cuales los profesionales se están mudando a un nuevo monitor LCD dual para dominar el trabajo, es la vida útil más corta del monitor X300, claro es OLED RGB, ya bien conocido la degradación rápida del sustrato azul.
Comentarios sobre HDR de interés.
HDR
Cuando llega la nueva norma, todo es un caos. En cierta forma, lo sigue siendo actualmente. Se definen NUEVAS REGLAS, para las que poca gente está preparado, se toman nuevos vicios, y surgen nuevos inconvenientes.
Si resulta que la nueva meta son esos 10.000 nits (que son una absoluta burrada de luz), ¿cómo van a llegar a ellos estos displays que no son capaces de llegar a 200 nits?. Oh, vaya.
La solución, obviamente, pasa por "meter más luz", pero eso significa más consumo, y los reguladores energéticos no están por la labor...no nos van a dejar tan fácilmente hacer lo que queramos.
Es decir...¿se puede ACTUALMENTE tener un display que ofrezca...5000 nits?. SI. Pero no te van a dejar. Porque primero...consume muchísimo. Segundo, genera un calor abrasador (que se lo digan a los que "sufren" el Dolby Pulsar). Tercero, "la potencia sin control"...¿os suena ésto?. REGLAS.
Cuando hace unos 15 años se empieza a grabar con cámaras digitales que permiten HDR (sí, esto no es algo de hace 5 o 6 años), se empieza a valorar el poder ver esas imágenes en un display acorde. Hasta entonces, han dormido el sueño de los justos.
Vale, no exactamente porque precisamente gracias a esa latitud con la que graban, permiten más flexibilidad en postpro, y poder sacar el máximo jugo a la imagen. Pero aún así, se perdían cosas por el camino.
Pese a que en una imagen "tipo" el 90% de ésta está contenida en el rango de los 100-200 ire, hay o puede haber partes de la imagen que se beneficien de ese "extra" de luminancia. Sea el que sea.
De esto ya en su día Paul Debevec sabía mucho, al generar por vez primera los llamados "probes", entornos 360º HDRI, que se toman realizando varias fotos reales a una esfera con diferentes exposiciones. El resultado, aplicando estos "probes" a animaciones 3D, son unos reflejos en las superficies REALES, así como una iluminación GLOBAL que responde a la realidad.
Como véis, todo va unido e hilado. Yo precisamente estuve experimentando con ellos durante largo tiempo, cuando se presentó en el Siggraph y la industria entera se volcó en algo que a día de hoy es la piedra angular de la verosimilotud en las animaciones y en los efectos digitales. El control de la luminancia.
Pero volviendo pasos atrás y centrándonos en esos primeros displays, nos encontramos que los fabricantes no saben bien como aplicar una nueva norma que todos desconocen.
Hay que poner un poco de orden, así que la UHD Alliance propone un término (que para algunos resulta un tanto marketiniano pero que no lo es) llamado UHD Premium, que intentar definir un poco todo, dando las cifras ya conocidas sobre las dos tecnologías de display actuales:
0.05cd/m - 1000nits
0.0005cd/m - 540nits
¿Porqué esa disparidad?. Es fácil: CONTRASTE. A un mayor contraste, necesitas menos luminancia para dar la misma sensación. Por eso, y solo por eso, un panel autoemisivo a nivel de pixel, necesita menos nits de potencia para igualar a otro que no puede ofrecer esa tasa de contraste.
Y esto no lo afirmo yo, lo afirma la ciencia y la percepción visual, cualquier oftalmólogo os lo dirá si lo visitáis. Es fácil.
Ahora bien, ¿esto que tiene que ver con esa obsesión de los "miles de nits"?. NADA.
Al final, es el mal uso de una palabra el que genera un ruido innecesario y confusión a la gente. La gente, como ovejas, se guian por el pastor. Si el pastor dice "aquí", las ovejas dirán "aquí". Siempre hay ovejas descarriadas, para eso está el perro pastor. Si alguna se pierde...ya sabéis que pasa...que viene el lobo.
¿Que sucede cuando el pastor se equivoca?. El rebaño entero se va al precipio, y se acabó la historia. Fin.
Cuando alguien que no tiene ni idea va a elegir nuevo televisor y "ha oído" eso que llaman HDR, que da "mucha más luz y color", quiere buscar exactamente eso, aunque las cosas no sean...exactamente como cree. Por el camino se encuentra con "pastores" que le guiarán por el camino...pero el resultado puede no ser el que uno pensaba o esperaba.
Hay pastores bienintencionados que guían y ayudan a las ovejas a cruzar el camino hacia el pasto bueno, y otros no tan bienintencionados que hacen pasar a las ovejas por campos de espinas, ortigas y todo para llegar a un descampado ramplón.
Pero volvamos al inicio de toda esta cuestión. Los nits. Los famosos miles de nits. ¿Qué son, donde están?. ¿Quién los mide o como sabemos si lo que vemos tiene cientos o miles?. Ahhhh, eso no o sabemos. Sabemos que según "alguien", ese televisor maravilloso dicen que ofrece 2000 nits...ohhhhh, eso es mucha luuuuuz, oooooohhhhh...y ahí es donde entra la trampa.
Se tiende a pensar que esos "miles de nits" se van a ver siempre, en toda la imagen. Y no solo no es así, sino que probablemente en 500 horas de contenido...igual logras ver un minuto a esa intensidad. ¿Pero seguro que lo que piensas que crees que está a 2000 nits...lo está?
Acordaros lo que dije antes...contraste...
¿Porqué si ponemos un blanco de 500 nits sobre un negro absolutamente cero absoluto, nos parece más intenso que ese mismo blanco de 500 nits sobre un negro que ya no es absoluto?
Contraste. Relación. de. contraste.
Física.
Nuestra vista es adaptativa, pero tiene límites. Estos están bien definidos y son conocidos. No podemos "exponer" a la vez el detalle en sombra de un objeto mientras tenemos una luminosidad fuerte al otro lado. O nos enfocamos en uno, u en otro. El HDR viene a ser un poco lo mismo, pero algo más limitado.
¿Qué sucede cuando alguien os enfoca con una linterna a los ojos?. Nos molesta, ¿verdad?. ¿Qué hacen nuestras pupilas?. Se contraen. Dejamos de ver "detalle en sombra" que se convertirá en negro absoluto para intentar "ver" esa luz tan intensa que nos enfoca.
Así es como funciona nuestra vista y ese es el truco para el HDR. No hay que fijarse en los "miles de nits", sino en que éstos sean MEJORES.
Sí, la norma es clara y define un escenario al que llegaremos...10.000 nits. Pero insisto, esos teóricos 10.000 nits serán usados de forma consciente y limitada para solo, y solo algunos momentos fugaces. Y no siempre.
Correcto si nos basamos en brillo el peak brightness para ST 2084 es 10000 nit (1024 bits), pero sabemos que el standard PQ HDR10 es absoluto, es decir para cada nivel de luminancia corresponde un nivel de bits. así 1000 nits le corresponde una valor máximo de 769 bits, el resto de niveles será recortado.Es que OLED no gana los shootouts por la premisa a quien le importa el seguimiento PQ!. Sino muy por contrario cumplimiento de luminancia según la directriz o reglamentación de gamma HDR ó preservar la intención del productor en el contenido HDR , así como precisión de colorimetría SDR y porsupuesto HDR. Como sería del gusto de un purista.
El otro aspecto importante para HDR entorno de visualización.
Y tercero ser juicoso que los contenidos UHD HDR de hoy en día están contenidos el 90% en el rango de los 100-200 nits. Que el monitor BVM-X300 no es de grado I por ello no gana LCD, Whiters magníficamente lo dice en su último artículo,una de las más importantes razones por las cuales los profesionales se están mudando a un nuevo monitor LCD dual para dominar el trabajo, es la vida útil más corta del monitor X300, claro es OLED RGB, ya bien conocido la degradación rápida del sustrato azul.
Comentarios sobre HDR de interés.
HDR
Cuando llega la nueva norma, todo es un caos. En cierta forma, lo sigue siendo actualmente. Se definen NUEVAS REGLAS, para las que poca gente está preparado, se toman nuevos vicios, y surgen nuevos inconvenientes.
Si resulta que la nueva meta son esos 10.000 nits (que son una absoluta burrada de luz), ¿cómo van a llegar a ellos estos displays que no son capaces de llegar a 200 nits?. Oh, vaya.
La solución, obviamente, pasa por "meter más luz", pero eso significa más consumo, y los reguladores energéticos no están por la labor...no nos van a dejar tan fácilmente hacer lo que queramos.
Es decir...¿se puede ACTUALMENTE tener un display que ofrezca...5000 nits?. SI. Pero no te van a dejar. Porque primero...consume muchísimo. Segundo, genera un calor abrasador (que se lo digan a los que "sufren" el Dolby Pulsar). Tercero, "la potencia sin control"...¿os suena ésto?. REGLAS.
Cuando hace unos 15 años se empieza a grabar con cámaras digitales que permiten HDR (sí, esto no es algo de hace 5 o 6 años), se empieza a valorar el poder ver esas imágenes en un display acorde. Hasta entonces, han dormido el sueño de los justos.
Vale, no exactamente porque precisamente gracias a esa latitud con la que graban, permiten más flexibilidad en postpro, y poder sacar el máximo jugo a la imagen. Pero aún así, se perdían cosas por el camino.
Pese a que en una imagen "tipo" el 90% de ésta está contenida en el rango de los 100-200 ire, hay o puede haber partes de la imagen que se beneficien de ese "extra" de luminancia. Sea el que sea.
De esto ya en su día Paul Debevec sabía mucho, al generar por vez primera los llamados "probes", entornos 360º HDRI, que se toman realizando varias fotos reales a una esfera con diferentes exposiciones. El resultado, aplicando estos "probes" a animaciones 3D, son unos reflejos en las superficies REALES, así como una iluminación GLOBAL que responde a la realidad.
Como véis, todo va unido e hilado. Yo precisamente estuve experimentando con ellos durante largo tiempo, cuando se presentó en el Siggraph y la industria entera se volcó en algo que a día de hoy es la piedra angular de la verosimilotud en las animaciones y en los efectos digitales. El control de la luminancia.
Pero volviendo pasos atrás y centrándonos en esos primeros displays, nos encontramos que los fabricantes no saben bien como aplicar una nueva norma que todos desconocen.
Hay que poner un poco de orden, así que la UHD Alliance propone un término (que para algunos resulta un tanto marketiniano pero que no lo es) llamado UHD Premium, que intentar definir un poco todo, dando las cifras ya conocidas sobre las dos tecnologías de display actuales:
0.05cd/m - 1000nits
0.0005cd/m - 540nits
¿Porqué esa disparidad?. Es fácil: CONTRASTE. A un mayor contraste, necesitas menos luminancia para dar la misma sensación. Por eso, y solo por eso, un panel autoemisivo a nivel de pixel, necesita menos nits de potencia para igualar a otro que no puede ofrecer esa tasa de contraste.
Y esto no lo afirmo yo, lo afirma la ciencia y la percepción visual, cualquier oftalmólogo os lo dirá si lo visitáis. Es fácil.
Ahora bien, ¿esto que tiene que ver con esa obsesión de los "miles de nits"?. NADA.
Al final, es el mal uso de una palabra el que genera un ruido innecesario y confusión a la gente. La gente, como ovejas, se guian por el pastor. Si el pastor dice "aquí", las ovejas dirán "aquí". Siempre hay ovejas descarriadas, para eso está el perro pastor. Si alguna se pierde...ya sabéis que pasa...que viene el lobo.
¿Que sucede cuando el pastor se equivoca?. El rebaño entero se va al precipio, y se acabó la historia. Fin.
Cuando alguien que no tiene ni idea va a elegir nuevo televisor y "ha oído" eso que llaman HDR, que da "mucha más luz y color", quiere buscar exactamente eso, aunque las cosas no sean...exactamente como cree. Por el camino se encuentra con "pastores" que le guiarán por el camino...pero el resultado puede no ser el que uno pensaba o esperaba.
Hay pastores bienintencionados que guían y ayudan a las ovejas a cruzar el camino hacia el pasto bueno, y otros no tan bienintencionados que hacen pasar a las ovejas por campos de espinas, ortigas y todo para llegar a un descampado ramplón.
Pero volvamos al inicio de toda esta cuestión. Los nits. Los famosos miles de nits. ¿Qué son, donde están?. ¿Quién los mide o como sabemos si lo que vemos tiene cientos o miles?. Ahhhh, eso no o sabemos. Sabemos que según "alguien", ese televisor maravilloso dicen que ofrece 2000 nits...ohhhhh, eso es mucha luuuuuz, oooooohhhhh...y ahí es donde entra la trampa.
Se tiende a pensar que esos "miles de nits" se van a ver siempre, en toda la imagen. Y no solo no es así, sino que probablemente en 500 horas de contenido...igual logras ver un minuto a esa intensidad. ¿Pero seguro que lo que piensas que crees que está a 2000 nits...lo está?
Acordaros lo que dije antes...contraste...
¿Porqué si ponemos un blanco de 500 nits sobre un negro absolutamente cero absoluto, nos parece más intenso que ese mismo blanco de 500 nits sobre un negro que ya no es absoluto?
Contraste. Relación. de. contraste.
Física.
Nuestra vista es adaptativa, pero tiene límites. Estos están bien definidos y son conocidos. No podemos "exponer" a la vez el detalle en sombra de un objeto mientras tenemos una luminosidad fuerte al otro lado. O nos enfocamos en uno, u en otro. El HDR viene a ser un poco lo mismo, pero algo más limitado.
¿Qué sucede cuando alguien os enfoca con una linterna a los ojos?. Nos molesta, ¿verdad?. ¿Qué hacen nuestras pupilas?. Se contraen. Dejamos de ver "detalle en sombra" que se convertirá en negro absoluto para intentar "ver" esa luz tan intensa que nos enfoca.
Así es como funciona nuestra vista y ese es el truco para el HDR. No hay que fijarse en los "miles de nits", sino en que éstos sean MEJORES.
Sí, la norma es clara y define un escenario al que llegaremos...10.000 nits. Pero insisto, esos teóricos 10.000 nits serán usados de forma consciente y limitada para solo, y solo algunos momentos fugaces. Y no siempre.
No hay ningún televisor comercial actualmente que se acerque a la directriz o reglamentación para HDR.
Un saludo.