UHD Blu-ray y HDR. Lanzamientos y ediciones

Claro, claro...por eso ponemos los que nos interesa...

Yo defino el HDR como lo que ES, no lo que crean otros que es. HIGH DYNAMIC RANGE. No hay más detrás de eso. Rango dinámico ALTO. Ya está. Es sencillo de entender, no?. Pues eso.

Es imposible que YO niegue nada de eso que dices, porque es absurdo. Precisamente es el gran exponente de una imágen con rango dinámico alto...el poder tener detalles tanto por abajo como por arriba (sobre todo por arriba, por abajo tenemos un límite, que es el negro absoluto).

El artículo pone en cuestión que las imágenes HDR sirvan para ambientes luminosos. ¡Es de perogrullo!. Y lo demuestran, criticando el hecho de que a poco que se meta luz ambiental en una tele HDR, el "efecto" se va por el WC. Como es lógico.

El HDR para vídeo está diseñado para ambientes con oscuridad, y sobre todo donde más gana es en proyección (de ahí que para cines sea algo que verdaderamente ofrezca un cambio respecto a la proyección tradicional).

Al final, el HDR es como el OLED, en el sentido de que es la sensación que todo el mundo tiene al ver un OLED...imágenes más contrastadas, más oscuras viéndolas a luz día...pero espectaculares en ambiente oscuro.

Sigo diciendo (y sobre todo cuando viene a mi casa un Director de Fotografía a ver y comentar todo esto) que el HDR tal como está contemplado actualmente, aún tiene que evolucionar. A día de hoy no es más que una LUT aplicada sobre un display que permite más nits en las partes que lo necesite. Tan solo eso. Es un avance interesante, pero está lejos de un HDR verdadero, el cual a día de hoy no es posible registrar en una sola toma.
 
Ah, que lo olvidaba. El artículo en sí mismo demuestra que las demos HDR no tienen absolutamente nada que ver con el material película de los UltraHD, ya que esas demos se ven de PM en las exposiciones, por lo menos las de Life of Pi y Exodus, con lo cual, la próxima vez que hagamos experimentos con demos para sacar conclusiones, mejor hacerlos con gaseosa :doh
 
A día de hoy no es más que una LUT aplicada sobre un display que permite más nits en las partes que lo necesite. Tan solo eso. Es un avance interesante, pero está lejos de un HDR verdadero, el cual a día de hoy no es posible registrar en una sola toma.

En el artículo se habla de información visible codificada en HDR que no existe en la versión SDR (tanto bluray como el propio UltraHD en SDR), es decir, en el artículo se ven soles brillantes y estrellas en la noche que sencillamente no existen en el bluray, y eso no es una cuestión de más o menos nits, es una cuestión de información visible que está presente en HDR y que no lo está en SDR por mucho que se suba la producción de nits en el display SDR como comentan que han hecho en las tomas del sol y las estrellas en la tele que trabajaba en SDR subiendo contraste y luz de fondo. Si tú subes los nits aumentando la producción de luz de la pantalla mediante los controles de luz de fondo y contraste, no va a aparecer nunca una información que no existe, solo será más brillante lo que contenga la imagen, y ahí en esas imágenes UltraHD se ve información que no existe en SDR

Si tú reproduces esas imágenes en tu OLED, por mucho contraste que tenga tu tele, ese sol y esas estrellas no se verán porque no existen. Sin embargo, en una tele HDR, ya sea LED u OLED, esa información sí que será visible.

Te recuerdo que en el otro hilo dijiste esto:

Acabes en SDR o en HDR, TODO lo que se captura en la película se usa. Lo que sucede es que en HDR la parte más alta se usa para dar ese "punch" extra de luminosidad (que en conjunción con el Display, hace que se perciba más intenso). Eso es lo que significa HDR (HIGH DYNAMIC RANGE). Y eso es lo que logra un OLED pelao sin HDR, visualizando material SDR. Que tenga un rango dinámico (la diferencia entre el negro más negro y el blanco más intenso).

O sea, tú ahí estás diciendo lo que siempre has dicho, que todo lo capturado se usa tanto en SDR como HDR, solo que en HDR habrá un extra de punch de luz en las partes brillantes. Eso es lo que dijiste. Sin embargo, vemos que estas muy equivocado porque en SDR no se usa toda la información capturada porque se comprime, ya que el sol no existe, es solo una zona quemada o brillante, y en la escena oscura, pues faltan estrellas, eso sin hablar del color.

Vamos a ver. Es correcto el artículo o es un panfleto como sueles decir? Es correcto en todo o solo en la parte que te interesa? Verdad o mentira? Si lo das por bueno, muy bien no vas quedar, y si lo das por malo, dalo todo, no sólo las partes que te interesan. Yo personalmente lo veo perfecto en todo
 
  • Me gusta
Reacciones: WRC
Pues claro que no existe, porque como es obvio, existe más información visual en HDR que en LDR. ¡Es de cajón!. Otra cosa es como hagas el Bluray en función de los RAW de turno. Si eres un berzas y te cargas información, luego saldrá el listo que todo lo sabe diciendo ¿ves?, en HDR se ven más detalles...

Y sigo reiterando que TODO lo que se captura en RAW se extrapola en LDR. Donde están las diferencias es en el camino entre A y B. Los límites siguen siendo esos. No vas a ver "más allá de" en HDR, simplemente se mapean esas informaciones para que el Display de turno las lleve más allá. El quemado, seguirá siendo quemado en HDR o en LDR porque en la información original está quemado.

El artículo es correcto, no es un panfleto. Precisamente lo que estoy diciendo es que ellos están criticando el tema del HDR, cuando tú obvias esa información deliberadamente. Por supuesto, cuentan también lo bueno del HDR, con lo que estoy de acuerdo. Es un tipo de artículo que es honesto en sí mismo, que me gusta.
 
El artículo es correcto, no es un panfleto. Precisamente lo que estoy diciendo es que ellos están criticando el tema del HDR, cuando tú obvias esa información deliberadamente. Por supuesto, cuentan también lo bueno del HDR, con lo que estoy de acuerdo. Es un tipo de artículo que es honesto en sí mismo, que me gusta.

Te recuerdo que el artículo lo he puesto yo :ok
 
No, has puesto extractos del artículo que a tí te interesa remarcar. Alguien que fuese medianamente neutral pondría SOLO el enlace, y que cada uno entienda lo que quiera. Como ha hecho Dr X en el hilo del HDR.

Tú jamás vas a aceptar lo que yo diga, tienes una fijación conmigo malsana. Y me da igual, sinceramente. Seguiré diciendo lo bueno y lo malo de cualquier tecnología, siempre que tenga los conocimientos necesarios para poder hacerlo con criterio.
 
No, has puesto extractos del artículo que a tí te interesa remarcar. Alguien que fuese medianamente neutral pondría SOLO el enlace, y que cada uno entienda lo que quiera. Como ha hecho Dr X en el hilo del HDR.

Eso es falso! Si se pone el link, no se está omitiendo absolutamente ninguna parte de la información. Si al margen del link pongo un fragmento del mismo, es porque he creído que era la parte más interesante del artículo, ya que esa es la parte que trata del vídeo, y en ella se cita precisamente la parte que tú has estado discutiendo hasta el hastio y más allá.

De todas formas, la otra parte, esa que has puesto a gritos con letras gigantes, por mucha importancia que tú le quieras dar, sencillamente no la tiene, ya que solo trata de ver HDR en ambientes con luz, cuando todos sabemos que el cine y las películas se masterizan para un ambiente de luz controlada, así que es ahí donde han de verse correctamente. Que sería ideal poder ajustar para ambientes con luz como sí que se puede hacer en SDR, pues perfecto, eso nadie lo ha discutido, pero no tiene más importancia que la meramente anecdótica y seguro que saldrán reproductores con capacidad para desconectar el HDR y evitar este problema en ambientes con mucha luz, pero esto ni es grave, ni es un problema ni afecta a lo que es el HDR, solo al lugar idóneo donde misionar este tipo de contenido, que como se dice es bajo un entorno de luz controlada.

Tú jamás vas a aceptar lo que yo diga, tienes una fijación conmigo malsana. Y me da igual, sinceramente.

Vamos a ver. El que va replicando a todas mis intervenciones eres tú, no yo a las tuyas. Cuando dejes de replicar a mis intervenciones, ten por seguro que dejaré de contestarte

Seguiré diciendo lo bueno y lo malo de cualquier tecnología, siempre que tenga los conocimientos necesarios para poder hacerlo con criterio.

Y ese es problema. Que no los tienes!! Tú podrás venderle la moto a quien quiera escucharte sobre lo profesional que eres y bla, bla y bla, que a mi me da exactamente igual porque yo solo me guío por lo que leo, y por lo que leo sé perfectamente que no sabes de lo que hablas, y si esos amigos tuyos, el tal Wikilikis o como se llame, opina lo mismo que tú, pues entonces le diría lo mismo que te estoy diciendo a ti. Que no tiene ni p.. idea! Y os lo digo donde haga falta!
Fijación ninguna, pero si te empeñas en citarme y te equivocas y equivocas y te vuelves a equivocar, y encima te empecinas en lo que es incorrecto, pues esto lo que hay por ser un pesao
 
Algo parecido comentaban en este artículo de finales de enero en el que comentan algunas ventajas y desventajas del HDR. En este caso poniendo en duda alcanzar en un entorno real la especificacion de un nivel de negro de 0.0005 nits aun en una habitación a oscuras. No sé hasta que punto las medidas son correctas (al final del artículo):

Schubin Cafe » Blog Archive » The Bottom Line

Increible la foto que comentan en el artículo:

100perc_lin_xHDR_color-1024x576.jpg


... image presented at the 2008 SMPTE/NAB Digital Cinema Summit. It was shot in a Grass Valley lab using the Xensium image sensor. The only light on the scene came from the lamp aimed at the camera at lower right, but every chip on the chart is distinguishable. From lamp filament to darkest black, there was a 10,000,000:1 contrast ratio, more than 23 stops of dynamic range.
 
Última edición:
Aquí también hablan sobre las distintas compatibilidades de los modos HDR10 y DV. Y también comentan cosas interesantes sobre el futuro de Netflix en cuanto al HDR

HDR 10 = Estático
DV= Dinámico
Estamos ante una nueva guerra como sucedió entre BD vs HDDVD?
Se impondrá el modo abierto HDR 10?
Es superior en imagen el modo DV?
Ventajas / desventajas de ambos modos?
Todas esas cuestiones son tratadas en el artículo que acaba de publicar David Katzmaier

HDR is TV's next big format war, and Samsung and Sony could find themselves on the losing side
 
Ahí habla de más de 23 stops, que es una barbarida, y que supera lo que una TV OLED o LED con atenuación local puede llegar a ofrecer en bastante, además de que los bluray UltraHD (que me confirmó el propio James Finn) están alrededor de los 14 stops.
Para 23 stops necesitarías un display, como OLED, pero sin ABL y además capaz de manejar una buena cantidad de nits, cosa que a día de hoy mientras esté esta tecnología condicionada al ABL se antoja muy improbable
 
Y digo yo... en el cine en la peli de Marte (The Martian)... se veian las estrellitas y el solete?

Un cine normal es HDR? o solo las salas Dolby Vision lo son?

El HDR nos da mas que una sala normal de cine? o no?
 
Sólo las Dolby Vision muestran el HDR nuevo.

A parte de eso el DCP de los cines normales es superior a los bluray en cuanto a la representación del color.
 
Osea que las estrellitas no se veian en cine... Ridley no las puso ahi.

O mejor dicho no las pudo poner en el bluray, pero obviamente las cámaras que registraron toda esa información, por eso están ahí, porque no creo que se haya pintado a propósito con acuarela o photoshop para la versión HDR :pensativo

Desde luego lo que es en el Bluray ese sol resplandeciente que se ve en la versión UltraHD, NO existe.
Acabo de comprobarlo con el bluray "original" que obra en mi poder y, efectivamente, y nunca mejor dicho, ese sol brilla por su total ausencia :mparto
Lo he comprobado en una de mis OLED y es exactamente como se ve y se comenta en la review de HDTVtest. Da igual cómo ajustes la TV. Y da igual que subas o bajes la luz de fondo y/o el contraste, que ese sol no existe, solo hay brillo (igual filmaron para SDR en un fragmento de tiempo distinto al de la ultrahd y el sol ya se había puesto :mparto)
Alguien más lo ha comprobado? Que pregunta más tonta, seguro que sí :ok
Las estrellas como que paso de contarlas...

:ok
 
Seguro que se te valoraría más si no fueses tan sobradete :fiu
 
Osea que las estrellitas no se veian en cine... Ridley no las puso ahi.

O mejor dicho no las pudo poner en el bluray, pero obviamente las cámaras que registraron toda esa información, por eso están ahí, porque no creo que se haya pintado a propósito con acuarela o photoshop para la versión HDR :pensativo

Desde luego lo que es en el Bluray ese sol resplandeciente que se ve en la versión UltraHD, NO existe.
Acabo de comprobarlo con el bluray "original" que obra en mi poder y, efectivamente, y nunca mejor dicho, ese sol brilla por su total ausencia :mparto
Lo he comprobado en una de mis OLED y es exactamente como se ve y se comenta en la review de HDTVtest. Da igual cómo ajustes la TV. Y da igual que subas o bajes la luz de fondo y/o el contraste, que ese sol no existe, solo hay brillo (igual filmaron para SDR en un fragmento de tiempo distinto al de la ultrahd y el sol ya se había puesto :mparto)
Alguien más lo ha comprobado? Que pregunta más tonta, seguro que sí :ok
Las estrellas como que paso de contarlas...

:ok

No estoy hablando del BD. Hablo del cine. Las estrellitas y el solete se ven en cine o no? Salen en el DCP?

Y no hablo de que la camara captara las estrellitas y el solete, hablo de que el proyector de la sala del cine las mostrara en pantalla.
 
Perdón, perdón.
La versión para cines también es SDR, por lo tanto, tampoco debería mostrar esa información. Solo la versión masterizada en DV HDR para cines Dolby debería mostrar todo el rango dinámico que capturaron las cámaras.
:ok
 
Los DCP y los Blu-ray son SDR, pero eso no significa que ambos formatos ofrezcan el mismo rango dinámico.
 
Otra interesante review, en esta caso del reproductor Saumsung K8500 , donde además se hace otra comparativa HDR vs SDR
La comparativa buena sería entre el UHD HDR vs BD SDR.

Ya que por lo que veo en esa comparativa, el reproductor conmutando a SDR lo que hace es una buena destroza, ya que en lugar de comprimir la señal debidamente, pega tajo en las luces y a correr.
 
Consider the HDR portion of the requirements for the “Ultra HD Premium” logo shown above that Samsung TV. According to a UHD Alliance press release on January 4, to get the designation, aside from double HD resolution in both the horizontal and vertical directions and some other characteristics, a TV must conform to the SMPTE ST2084 electro-optic transfer function and must offer “a combination of peak brightness and black level either more than 1000 nits peak brightness and less than 0.05 nits black level or more than 540 nits peak brightness and less than 0.0005 nits black level.” The latter is a ratio of more than a million to one.

The high end of those ranges is beyond most current video displays but achieved by some. Again, new equipment might be required but not new technology. And the bottom end seems achievable, too. Turn off a TV, and it emits no light. Manufacturers just need to be able to have black pixels pretty close to “off.”

What the viewer sees, however, is a different matter. At right is an image of a TV set posted by Ma8thew and used in the Wikipedia page “Technology of television.” The TV set appears to be off, but a lot of light can be seen on its screen. The light is reflected off the screen from ambient light in the room. Cedric Demers posted “Reflections of 2015 TVs” on RTINGS.com. The lowest reflection listed was 0.4%, the highest was 1.9%. Of course, that’s between 0.4% and 1.9% of the light hitting the TV set. How much light is that?

At left is a portion of an image of the TV room of a luxury vacation rental in France, listed on IHA holiday ads. The television set is off. It shows a bright reflected view of the outdoors. It looks very nice outside — possibly too nice to stay in and watch TV. But, if one were watching TV, presumably one would draw the drapes closed. If the windows were thus completely blocked off and not a single lamp were on in the room, would that be dark enough to appreciate the 0.0005-nit black level of an Ultra HD Premium HDR TV?

It would probably not be. What’s the problem? For one thing, the viewer(s).

Consider a movie-theater auditorium. When the movie comes on, all the lights (except exit lights) go off. The walls, floor, and seats are typically made of dark, non-reflective materials. Scientists from the stereoscopic-3D exhibition company RealD measured the reflectivity of auditorium finishes (walls and carpet), seating, and audiences and concluded that the last were the biggest contributors to light reflected back to the screen (especially when they wear white T-shirts). Discussing the research at an HDR session in a cinema auditorium at last fall’s International Broadcasting Convention (IBC), RealD senior vice president Peter Ludé joked that for maximum contrast movies should be projected without audiences.

Ludé went a step further. Reflections off the audiences are problematic only when there is sufficient light on the screen. So, he joked again, for ideal HDR results, the screen should be black. At right is an image shot during a Sony-arranged live 4K screening of the 2014 World Cup at the Westfield Vue cinema in London. The ceiling, the walls, the floor, and the audience are all visible because of light coming off the screen and being reflected.

Now consider a home with an Ultra HD Premium TV emitting 540 nits. The light hits a viewer. If the viewer’s skin reflects just 1% of the light back to the screen and the screen reflects just 0.4% of that back to the viewer, there could be 0.0216 nits of undesired light on a black pixel (it’s more complicated because the intensity falls with the square of the distances involved but increases with the areas emitting or reflecting). That’s not a lot, but it’s still 43.2 times greater than 0.0005 nits.

A million-to-one contrast ratio? Maybe. But maybe not if there’s a viewer in the room.

Schubin Cafe » Blog Archive » The Bottom Line
 
Última edición:
Arriba Pie