El que algunas películas se vean bien y otras peor obedece a una serie de variables que es complicado de saber exactamente de donde proceden.
Dado que el HDR es un elemento "vivo" (en el sentido de que no solo es un vídeo fijo con un color fijo, sino que se incluye una metadata que cada display se adapta sobre ella), los resultados pueden ser impredecibles. Sobre todo si el colorista de turno ha optado por un camino en vez de otro.
Es posible incluso "parchear" el metadata HDR de los vídeos para obtener resultados muy diferentes. Eso, con un vídeo normal, no era posible hasta ahora.
Se pueden establecer parámetros tan críticos como el punto de "caída" de los nits, y los nits máximos a los que está adaptado el HDR. Esta información, leída o generada incorrectamente (pese a que en el monitor de masterizado se vea bien) hace que dos televisores diferentes provoquen diferentes looks.
Lo más gracioso de todo esto es que va a ir evolucionando, pues si no es el año que viene será al siguiente, que se presenten los primeros televisores 4000 nits. ¿Y ahora que hacemos?. ¿Escalaran estos nuevos televisores los 1000 nits hasta los 4000 respetarán el valor que tiene la metadata? ¿Veremos versiones "parcheadas" de películas a 1000 y 4000 nits?.
En Cine Digital ya se hace, de hecho. Se masterizan versiones a diferentes Fl, porque no todos los cines tienen la misma potencia lumínica. ¿De locos?. Pues la cosa se va a complicar enormemente en próximos años.
Del lado de los creadores, las cosas no son tan fáciles, tampoco. Acceder a la tecnología y conocimientos necesarios para realizar un HDR "bueno", es caro, difícil y no está exento de enormes incertidumbres.
Sí, está claro que el HDR es muy chulo y ofrece unas opciones muy interesantes. Pero no es fácil, no.
Dado que el HDR es un elemento "vivo" (en el sentido de que no solo es un vídeo fijo con un color fijo, sino que se incluye una metadata que cada display se adapta sobre ella), los resultados pueden ser impredecibles. Sobre todo si el colorista de turno ha optado por un camino en vez de otro.
Es posible incluso "parchear" el metadata HDR de los vídeos para obtener resultados muy diferentes. Eso, con un vídeo normal, no era posible hasta ahora.
Se pueden establecer parámetros tan críticos como el punto de "caída" de los nits, y los nits máximos a los que está adaptado el HDR. Esta información, leída o generada incorrectamente (pese a que en el monitor de masterizado se vea bien) hace que dos televisores diferentes provoquen diferentes looks.
Lo más gracioso de todo esto es que va a ir evolucionando, pues si no es el año que viene será al siguiente, que se presenten los primeros televisores 4000 nits. ¿Y ahora que hacemos?. ¿Escalaran estos nuevos televisores los 1000 nits hasta los 4000 respetarán el valor que tiene la metadata? ¿Veremos versiones "parcheadas" de películas a 1000 y 4000 nits?.
En Cine Digital ya se hace, de hecho. Se masterizan versiones a diferentes Fl, porque no todos los cines tienen la misma potencia lumínica. ¿De locos?. Pues la cosa se va a complicar enormemente en próximos años.
Del lado de los creadores, las cosas no son tan fáciles, tampoco. Acceder a la tecnología y conocimientos necesarios para realizar un HDR "bueno", es caro, difícil y no está exento de enormes incertidumbres.
Sí, está claro que el HDR es muy chulo y ofrece unas opciones muy interesantes. Pero no es fácil, no.