UHD Blu-ray y HDR. Lanzamientos y ediciones

Un alto cargo de Sony Computer Entertainment ha declarado en una entrevista que van a valorar la inclusión de soporte para Ultra HD Blu-ray en futuras revisiones de la PlayStation 4: Traductor de Google
 
Sony Pictures anuncia sus primeros títulos para principios de 2016: Sony Pictures Home Entertainment Unveils First 4K Ultra HD Discs

"SPHE's first 4K Ultra HD releases will include The Amazing Spider-Man 2, Salt, Hancock, Chappie, Pineapple Express, and The Smurfs 2, followed by a growing roster of titles including new release film and television content."

"Sony Pictures has an extensive library of 4K content, including newer films and television shows, as well as classic catalog films restored from original film elements, including Fury, Captain Phillips, Crouching Tiger, Hidden Dragon, Men In Black, Ghostbusters, The Fifth Element, Bad Boys, The Da Vinci Code, Bram Stoker's Dracula, Leon: The Professional, Lawrence Of Arabia, The Bridge on the River Kwai, The Guns of Navarone, Taxi Driver, Mr. Smith Goes to Washington, and many others."


También confirman que sus títulos incluirán HDR y nuevos formatos de audio inmersivo:

"SPHE's 4K Ultra HD Discs feature four times the resolution of HD and include high dynamic range (HDR), which produces brilliant highlights, vibrant colors and greater contrast on compatible displays. Many titles will also support next-generation immersive audio formats."


Y por último, se confirma el aspecto definitivo de las ediciones y sus cajas:

285411


2woapsp.jpg
 
Imagino que se refiere a como harán el HDR en películas que no se han grabado así. Es sencillo, en realidad el HDR tal como está diseñado, es un "fake HDR". Se sube la luminancia a niveles mayores de los permitidos, de tal forma que solo un display que pueda leer esos datos extra, los podrá interpretar y visualizar.

Al final, el efecto en un display LCD será similar al que se obtiene en un display OLED, pues una de las cosas que venden con el HDR es una mayor relación de contraste, que es precisamente el gran fuerte de la tecnología OLED.

No dudo que del RAW original se puedan extraer datos importantes de luminancia, que sirvan para obtener un mayor "punch", pero por lo que he visto, en realidad es eso, subir la luminancia para dar más contraste (de ahí que los displays HDR tengan muchos más nits que los normales, para dar esa sensación.
 
jajaja.. obviamente el DVD desaparece en los combos del 4K..... se supone que quien este interesado en ver pelis en 4K le sangrarian los ojos ver a estas alturas un DVD de baja definicion.
 
Tienen que venderlo. En mi caso lo compraré cuando ya no haya alternativa, pero mientras tanto me quedo como estoy.
 
Segun esa web dice que nosotros vemos con el HD el 35% de colores y con el UHD veriamos el 76% acercandonos mas a la realidad.
 
Espero que ese filete plateado sea cosa de primeras ediciones y acabe desapareciendo igual que lo hicieron esos marcos absurdos de las primeras ediciones en Blu-ray.
 
También confirman que sus títulos incluirán HDR:

"SPHE's 4K Ultra HD Discs feature four times the resolution of HD and include high dynamic range (HDR), which produces brilliant highlights, vibrant colors and greater contrast on compatible displays."


Pregunta de ignorante.

¿Esto qué es? A mí como fotógrafo me dices que vas a reproducir mis fotos incluyendo HDR (con esa descripción) y me pongo a echar espumarajos por la boca.

¿No es el dire de foto el que decide cuánto "HDR" hay o no en una película, o es que hasta ahora hemos estado viendo las películas mal?

Sin saber, esto me suena como el motion plus y similares pero para la foto.
 
El HDR para vídeo no tiene mucha relación con el HDR utilizado en fotografía.

El HDR en vídeo digamos que consiste en masterizar el contenido permitiendo niveles de brillo muy altos para mejorar el impacto (contraste) de la imagen en dispositivos compatibles, lo cual no necesariamente desvirtúa la imagen original. La imagen que se ve en los televisores y formatos actuales suele estar algo capada/reajustada respecto al máster original para adecuarse a las limitaciones de los formatos y dispositivos domésticos, y esta es una forma de asemejarlo más a un DCP proyectado en un cine.

En este ejemplo se puede ver, dentro de las limitaciones de fotografiar una demo, que el HDR no altera la imagen más allá de ampliar la escala de brillo para hacerla más vibrante:

1766254ab8ba711b70.jpg


Es decir, el detalle en zonas luminosas y zonas oscuras parece el mismo así como el equilibrio general de la luz en la imagen.
Otro ejemplo con más zonas oscuras que, aunque no sea una foto muy rigurosa, permite hacerse una idea de por donde van los tiros:

P1072913r.jpg


Creo que aunque se trate de películas editadas en HDR, estas seguirán siendo compatibles con SDR (Standard Dynamic Range, las teles normales de toda la vida) puesto que la información HDR serán unos metadatos transferidos a la pantalla por HDMI junto a la imagen, por lo que si la tele es compatible se verá con HDR y si no lo es se verá con normalidad en SDR.

Esto puede parecer bastante trivial, pero no lo es tanto ya que si ahora te descargas cualquier vídeo HDR de internet y lo reproduces en el ordenador o en un televisor convencional te encontrarás que la imagen aparece con mucho brillo y poco contraste debido a que solo lleva información HDR que no es válida para pantallas no compatibles. O sea, que si se pone un Ultra HD Blu-ray en un televisor Full HD SDR se podrá ver la película sin problemas.

Lo cierto es que la resolución es solo uno de los puntos de mejora de este formato. Si le sumamos la superior codificación del HEVC, color de 10bit, el soporte de HDR y de espacio de color ampliado, las películas en Ultra HD Blu-ray pueden suponer un salto cualitativo importante para quienes tengan una pantalla capaz de sacarle partido, que ahora son pocos pero en 3-4 años serán bastantes.
 
Última edición:
Efectivamente, Dr.X lo ha explicado perfectamente. Por añadir más info...el HDR diseñado para estos menesteres en realidad no aporta gran cosa. Yo tengo varias demos de LG y efectivamente se ven bien. Solo en una tele con HDR es capaz de detectar los metadatos extra y poner más luminosidad en las partes más brillantes. NO MAS COLOR, sino más luminosidad.

El efecto es el mismo que cuando ves una tele OLED frente a un LCD ramplón. El negro intenso contrasta con las partes más brillantes, con lo que en una tele OLED es poco menos que absurdo, ya tienes un ratio de constraste lo suficientemente grande como para catalogarla de HDR (o pseudo HDR).

En proyección es donde quizás mejor le viene al pelo, pues los proyectores actuales tienen un ratio de contraste muy pobre y los negros siempre se ven grises (mi experiencia más reciente es Star Wars...menudo mojón de "negros", sobre todo estando acostumbrado a los de la OLED).

Ojo porque hay varias formas de manejar ese HDR. Una de ellas es como dice DR.X, que a fin de cuentas con una LUT restituyes la colorimetría (sí, he hecho mis experimentos al respecto), y otra de ellas es con los metadatos embebidos. Samsung usa la primera, LG la segunda, por lo que he comprobado.

Pero vamos, lo del HDR para mí no es más de ooootro argumento de venta más. No aporta demasiado al panorama, aporta más las ventajas de HEVC que el HDR, que se va a usar dos veces y poco más. Espero equivocarme.
 
No entiendo muy bien entonces por qué lo hacen como algo "separado". Una imagen tiene un contraste X, y luego puede estar limitada o no por el dispositivo donde se visualiza. ¿Por qué ha de ser una imagen con menos contraste con datos añadidos "especiales" para darle más contraste?.

¿Son inventos/injertos de una marca?.

Me pasa lo que a wfogg, siendo más de foto que de vídeo....
 
A ver si se enrollan y con los primeros reproductores te regalan algunos títulos, que aunque malos sirvan para valorar, y esperemos que esta vez se dejen de las dichosas exclusivas como pasó con el 3D.
 
Otro ejemplo con más zonas oscuras que, aunque no sea una foto muy rigurosa, permite hacerse una idea de por donde van los tiros:

P1072913r.jpg

Es que claro, depende tanto de las fotos, como dices. En estas pienso que en la de la derecha hay zonas quemadas al fondo que me parecen mejor en la de la izquierda, pero lo mismo es de la foto y no de la imagen. Reconozco que tengo miedo de que todo tome una imagen uniforme tirando a anuncio de colonia limpio y contrastado, pero me fío de vosotros. ;)

Si la foto de esa imagen la hubiera hecho Nacho te diría que la correcta es la izquierda. :cuniao
 
No es que tenga menos contraste. Simplemente es una cuestión de percepción. En un display HDR, la diferencia entre el blanco más intenso que puede dar (4000 nits, una BURRADA) y el negro (mucho menor nivel que OLED) es enorme, la misma comparativamente que en un OLED, pero al reves (negro absoluto vs blanco máximo de 500nits).

En realidad lo que se persigue con el HDR es tener más ratio de contraste, y dar un grado de verosimilitud a efectos como flares, reflejos, deslumbramientos...dando más brillo en esas partes.

Yo mismo he estado trasteando con el nuevo Premiere y el HDR funciona de esa forma, aumentando los highlights, la parte alta del espectro más allá del límite. El problema de esto es que necesitas exportar a 10bits, y el HEVC que incorpora como exportador no lo soporta, con lo que sin tener un display HDR enganchado directamente al ordenador, no es posible ver el efecto en tiempo real...

Hace tiempo escribí un artículo sobre el HDR para cine, que es el mismo concepto que aquí se maneja:

HDR (High Dynamic Range) en CINE DIGITAL. Una primera aproximación. |
 
No entiendo muy bien entonces por qué lo hacen como algo "separado". Una imagen tiene un contraste X, y luego puede estar limitada o no por el dispositivo donde se visualiza. ¿Por qué ha de ser una imagen con menos contraste con datos añadidos "especiales" para darle más contraste?


Creo que con esto se refieren, más o menos y expicado de aquella manera, a como mostrar una imagen con perfil AdobeRGB en Firefox con un monitor sRGB, que te coje los extremos y te queda una imagen subida porque el dispositivo no sabe interpretar esa cantidad de información. Y por es se añade esa cantidad de información (hasta el total AdobeRGB) como metadatos para que solo lo lean los dispositivos que vayan a saber interpretarla, y con la misma imagen el otro monitor interprete que es solo una imagen sRGB.

No sé si mesentiende.
 
Última edición:
Arriba Pie