10.000 Nits es el 100% de vídeo para ST.2084.
Eso no significa que la película vaya a hacer uso de ese nivel salvo algún pico o destello muy aislado en alguna futura película que se edite a 10.000 nits, o sea, se puede masterizan en un monitor de 10.000 nits y la película alcanzar un brillo máximo, en solo algún aspecto puntual, que no sobrepase los 800 nits.
Subir el brillo en SDR hasta 300 y 400 nits tiene un efecto diametralmente opuesto a lo que sería una película masterizadas en HDR 10.000 nits.
Un SDR a 300 nits sube el brillo general de toda la imagen, con lo cual, dentro de la imagen es todo mucho más brillante, tanto las sombras, como los tonos medios como las partes más brillantes, o sea, todo es más brillante, y la finalidad del contraste o alto rango dinámico NO es la de aumentar el brillo de la imagen, es la de aumentar el contraste de la imagen entre las partes claras y oscuras de la misma.
En definitiva. En la práctica, un SDR a 300 nits es mucho más brillante, más molesto y cegador, por un amplio margen, que una película masterizada a 10.000 nits. Que haya sido masterizada a 10.000 no significa que sea más brillante que una película masterizada a 1000 nits. No tiene nada que ver, la única diferencia es que, a lo mejor, un destello del sol o reflejo en la nieve o mar alcance ese nivel de lumiancia en una parte muy pequeña de la imagen.
Si embargo, si yo calibro la tele a 300 nits para SDR, cuando haya una imagen brillante que abarque toda la pantalla le estaré endiñando un chute de luz a mis ojos mucho molesto, de largo, que una película HDR de 10.000 nits, eso contando con que dispongamos algún día de algún televisor que pueda alcanzar 10000 nits