4K UltraHD: THE MARTIAN

Estoy un poco hartito de que se hable de "black levels". Los niveles de negro en ULTRAHD son los mismos que en un DVD. Otra cosa es que tu pantalla sea capaz de representarlos mejor o que el contraste sea mayor y tengas una percepción de mejores negros... sin haberlos. Por no hablar de que por decisiones artísticas, los negros son los que decide el director de foto o el colorista.

Que me parece una tontada, vamos.

Me recuerda a cuando en audio se hablaba de mejores bajas frecuencias cuando el formato es de mayor calidad, cuando precisamente, es la parte baja del espectro la que suena igual tanto en un mp3 a 96kbps como en un DTSHDMASTER AUDIO a 96khz
 
Sí, bueno, esa es otra...muchos aducen a que se ve "más negro" o más contrastado gracias al HDR...no es más que una falsa percepción, el negro sigue siendo el mismo, no existe "supernegro".

Donde mejor se ve el negro es en una OLED, y sin ser HDR. El HDR está pensado sobre todo para dar un mayor contraste en las LCDs, para intentar equipararlas a las OLED. Por eso en una OLED se necesitan menos nits de la parte intensa, ya que se compensa con el negro extremo de éstas, mientras que las LCDs necesitan meter más nits para que el negro percibido sea más negro.

Es como ver un círculo negro en una pantalla en blanco. El negro percibido será absolutamente negro, pese a no serlo en una LCD. Lo mismo sucede en proyección.
 
Por supuesto que el negro es el mismo que en DVD o Bluray. Quién ha dicho que no?? que lo corremos a gorrazos ahora mismo :P

Bueno en realidad en DVD y bluray es en el nivel digital 16 y en UltraHD el 64 porque es 10Bits :ok
 
Por cierto. Habéis leído la review de Kingsman?. Lo digo porque muy respetuosamente

parece que desmonta muchas pseudo- teorías

:disimulo:disimulo
 
Una duda: el Dolby Vision acepta 12 bits? y el HDR 10 bits?

Efectivamente, los títulos HDR Dolby, de haberlos, se masterizaran a 12 Bits.; HDR 10, a 10 Bits. Son dos estándares HDR, solo que el HDR 10 es obligatorio y todos los títulos lo han de incluir porque es el estándar adoptado por la BDA. Esto se ha hecho para evitar guerras al estilo HDDVD vs BLURAY, así, si tú tele no es compatible con algún formato HDR por temas de licencias, siempre tendrás HDR garantizado. Esto ha sido una gar iniciativa por parte de la BDA para evitar que el consumidor de alguna manera saliera perjudicado por este tipo de cuestiones. Por ejemplo las Samsung 2016 no van a ser compatibles con Dolby, y el reproductor que ya han lanzado en Estados Unidos, tampoco.
Para el nuevo formato UHD-BD al aceptar el 'Dolby Vision', esta incluido los 12 bits para el 4K domestico?
 
Imagen HD BR

attachment.php


Imagen UHD BR:

attachment.php


La imagen UHD BR por lo visto está tomada de un dispositivo sin HDR ni gamut correcta. En ambas se ha ajustado la tele para sacar el máximo detalle posible.

Mas info: http://www.avsforum.com/forum/166-lcd-flat-panel-displays/2337961-objective-look-hdr.html
 
Imagen HD BR

attachment.php


Imagen UHD BR:

attachment.php


La imagen UHD BR por lo visto está tomada de un dispositivo sin HDR ni gamut correcta. En ambas se ha ajustado la tele para sacar el máximo detalle posible.

Mas info: http://www.avsforum.com/forum/166-lcd-flat-panel-displays/2337961-objective-look-hdr.html

Osea que un TV 4K sin HDR ya muestra eso así? de ser así recordaría cierto personaje de cierto foro que decía: no es que tiene que tener la TV esto y lo otro y lo otro, etc....

Todo el mundo a comprar una TV 4K de gama de acceso o sencilla sin HDR y demás charlataneria marketiriana, que veremos HDR y color expandido igualmente xD... otra cosa es que se ciñe a lo que quieren pero si el usuario está contento no habrá que quitarle esa ilusión xD.
 
Última edición:
Ahí lo que se ve, es que la versión ULTRAHD contiene más rango dinámico e información visible que la propia FHD, y así sería por todo lo que he comentado sobre HDR en el otro hilo, que el BD está limitado a 7 o 9 stops y la HDR de The Martian son 14 stops.

Gracias, no sabes cómo os agradezco la aportación, pero me temo que por aquí a unas fotos les van a dar 0 credibilidad
 
Osea que un TV 4K sin HDR ya muestra eso así?

Si, supongo que el reproductor interpreta los metadatos en lugar de hacerlo la tele.

Algo parecido hace madvr en un PC:

madVR v0.89.18 released

Insertar CODE, HTML o PHP:
* added tone mapping support for HDR content
* added gamut mapping support for HDR BT.2020/DCI-P3 content
* added support for SMPTE 2084 transfer function decoding
* added support for receiving HDR metadata from LAV Video Decoder
* added "maximum display luminance" option to display properties page
* added "HDR" profile variable
* SuperRes now supports being run after every ~2x upscaling step (again)
* improved JVC projector ip control connection reliability

The big keyword for this build is HDR. I suppose many users might not know how it works exactly, so some explanations:

1) First of all, this madVR build does *not* aim to send HDR content untouched to the display, to let a "HDR compatible" display do all the processing. Doing that might be supported by some future version (as an option). But for now what madVR does is convert the HDR content in such a way that it looks well on *any* display (new and old), regardless of whether the display officially supports HDR or not.

2) The key idea of HDR is to increase the peak white luminance, so that we can get brighter highlights, and more texture detail in bright image areas. HDR content uses 10bit (or more) instead of the usual 8bit, and it also uses an improved transfer (gamma) function, which means we also get better shadow detail at the same time.

3) HDR content is encoded using a totally different transfer ("gamma") curve. So playing HDR content with a media player and display which don't understand the new transfer function won't look good/correct. It will look totally washed out.

4) The new transfer function directly maps each pixel to a specific desired luminance value (in "nits" or cd/m²). Possible values are 0 nits up to 10,000 nits. However, videos don't have to use the full 0 - 10,000 range, they often top out at either 4,000 nits or 1,200 nits (from what I've seen).

5) UHD Blu-Ray will usually be encoded in BT.2020 color space, which is extremely wide. However, videos don't have to use the full BT.2020 space, they usually only use DCI-P3, inside of the encoded BT.2020 container.

6) Today's displays (even the best of the best) cannot really properly reproduce HDR content. E.g. many display's don't reach full DCI-P3 colors yet (let alone BT.2020), and no available display today comes even close to be able to output 10,000 nits! Which means that someone somewhere has to convert the HDR content down to something the display can handle. The consumer electronics world plans that the display will do this conversion (only new models, obviously) - and every TV manufacturer will write their own conversion algorithms because there's no standard for that! From what I've been told those conversion algorithms (at least for the first few HDR display generations) are probably not going to be very high quality.

7) madVR is able to compress both the luminance and the colors down to what your display can handle. It uses reasonably high quality algorithms for that. I might find even better algorithms in the future, but for now these algorithms should be a good starting point.

8) UHD Blu-Rays will come with an updated copy protection. So madVR will not be able to play them - unless the copy protection gets broken at some point.

If you want to test HDR playback, please update to a new LAV nightly build because only the latest LAV nightlies are able to pass some HDR metadata information to madVR!

(P.S: There's also a new "madTestPatternSource" version available with some HDR test patterns. Link see first post in this thread.)

https://www.doom9.org/showthread.php?p=1749826#post1749826

Mas info: http://www.avsforum.com/forum/24-di...-hdr-sdr-projectors-testing.html#post39739418
 
Última edición:
Sierra, todo esto que has puesto además de interesante es absolutamente correcto, sobre todo esto último de madVR, que describe a la perfección lo que es HDR, así que lo voy a pasar al hilo de HDR porque me parece muy interesante.

Por otra parte lo del primer link y esas fotos lo veo exagerado, porque no creo que la diferencia entre el Bluray estándar y el UltraHD sea esa en cuanto a información de rango dinámico en la imagen, y entiendo que es debido a la propia fotografía que comprime aún más de la cuenta, pero también lo voy a poner porque si se siguen el hilo creo que puede aportar cosas interesantes.
 
A ver es que en foto, con HDR y demás mandangas, la imágen "buena" debería ser más parecida a la del Blu-ray, porque la cámara no puede captar con tanta facilidad todo el rango. Es lo normal cuando sacas una foto a una pantalla, que aparezca más contrastado. Es por tanto EXTRAÑO que la foto hecha al UHD muestre más. Me suena a que está cocinada, pero... yo que sé.

Y apuesto a que comparando capturas digitales de ese mismo instante, el detalle debe ser mucho más parecido.
 
Total contigo deimos, esa imagen del bluray tiene un blackcrush muy evidente, de hecho, acabo de ver la peli y en ninguna escena el firmamento está tan escaso de estrellas.

¿Sabéis exactamente en que momento de la peli sale esa escena?, tengo el bluray conmigo ahora mismo y lo puedo corroborar.
 
Eso parece. La he hecho directamente desde la tele OLED, que te permite capturar, de ahí a imgbox y después al foro, pero vamos, que de lo que yo veo en directo a lo que muestra la captura hay un mundo...nunca mejor dicho :ok

Esto hay que verlo en directo con dos teles, una OLED FHD con el BD y una 4K HDR con el UltraHD al lado, y no hay otra forma de valorar.
 
Es que capturar una imagen desde la propia tele es absurdo. Es lo mismo que realizar la captura desde el BD original desde el ordenador. Que la tele sea LCD, OLED, PLASMA o lo que sea no añade/quita nada a esa captura, no interviene ni el panel, ni procesados ni nada.

Tampoco hacer fotos a un display aclara gran cosa, menos aún con el HDR, donde parece que salen las fotos quemadas (por el excesivo efecto de luz que emiten). Estas tecnologías DEBEN ser vistas en vivo, y NUNCA, NUNCA, NUNCA, Juzgar por fotos, capturas, etc...por muy profesionales que sean éstas.
 
Al contrario, las capturas en el ordenador es la forma más limpia de ver cómo se ha editado la imagen y detectar el nivel de detalle, colores, etc, de hecho, es la forma mundialmente aceptada en la scene y sitios privados para comparar los encodes o ediciones de diferentes países. Ya cuando ves la película en una tele, proyector, o lo que sea en directo, estás viendo la imagen procesada por dicho medio y por la calibración que tengas.
 
Es que capturar una imagen desde la propia tele es absurdo. Es lo mismo que realizar la captura desde el BD original desde el ordenador.

No entendí esto entonces, porque das a entender que una captura desde el ordenador (por ejemplo, con madvr como hice yo) es absurdo.
 
A lo que me refiero es que el resultado ES EL MISMO (o debería). Imagen original, sin aditamientos ni filtros ni nada...

Otra cosa es hacer una foto. Eso desvirtúa por completo la imagen, por cualquier lado (display y cámara)
 
Arriba Pie