Realmente pasar de 8 bits a 10 Bits fué un avance importante a la hora de pelis domésticas, porque por ejemplo en Bluray que es 8 bit hay algo de banding, menos detalle en zonas altas de brillo y en sombra, el HDR trajo de la mano también 10bits; HDR10 basicamente porque era necesario al haber mucho más detalle en sombra y en highlights. De hecho por ejemplo si veis videos en youtube HDR (son 8 bits) seguireís viendo banding.
Lo que pasa con PC como reproductor tirando de MADVR convierte 10 o 12 bits a 8 bits en alta calidad, por tanto si metemos contenido 10 Bits, por ejemplo, UHD bluray o Remux la diferencia de sacar la tarjeta gráfica en 8bits RGB, respecto a 10 Bits es muy poca, quizás se podría notar un pelín en fotogramas muy oscuros con mucho detalle en sombra.
Hay que hacerse la idea también que los UHD Bluray son de colorimetria 4:2:0 y RGB es 4:4:4, así que no se pierde mucho al pasar fuente de YCBR 4:2:0 a RGB 8 bits de output.
La verdad que Madvr permite ver UHD Bluray a muy buena calidad incluso con HDMI 1.4 , no requiere mucho ancho de banda.
Lo que pasa con PC como reproductor tirando de MADVR convierte 10 o 12 bits a 8 bits en alta calidad, por tanto si metemos contenido 10 Bits, por ejemplo, UHD bluray o Remux la diferencia de sacar la tarjeta gráfica en 8bits RGB, respecto a 10 Bits es muy poca, quizás se podría notar un pelín en fotogramas muy oscuros con mucho detalle en sombra.
Hay que hacerse la idea también que los UHD Bluray son de colorimetria 4:2:0 y RGB es 4:4:4, así que no se pierde mucho al pasar fuente de YCBR 4:2:0 a RGB 8 bits de output.
La verdad que Madvr permite ver UHD Bluray a muy buena calidad incluso con HDMI 1.4 , no requiere mucho ancho de banda.