UHD Blu-ray y HDR. Lanzamientos y ediciones

Dolby y Nivea están en negociaciones para incluir crema solar en las películas compatibles.

Los de DTS están muy rabiosos pensando en cómo copiar a Dolby como siempre han hecho.
 
Con Dolby Vision los vampiros lo van a tener jodido para poder ver un amanecer ni que sea en cine.

jemaine-clement-what-we-do-in-the-shadows-photo-credit-unison-films.jpg
 
Última edición:
Es que tíos, esto es para tomárselo a pitorreo. Ahora que la carrera de la resolución no parece que sea lo reveladora que se esperaba prentenden que empiece una escalada absurda a brillos cegadores...

Para los cines puede valer, pero para casa es absurdo.
 
Dudas:
1. El Dolby Vision de 4.000 nits, no estará disponible en el nuevo fomato?
2. El Tope máximo de nits HDR/DV en el UHD son 1.000? o es capaz de alcanzar los 4.000? Desconozco el tope del nuevo formato, pero sé que Dolby Vision alcanza teoricamente los 4000 segun su pagina
pico de brillo ultra alto (hasta 4.000 nits)
Dolby Vision at Home

Sonix and company, tranquis que enseguida dramatizáis colegas

En los UHD para DV no habrá un tope máximo de 1000 nits, será lo que indique la especificación Dolby Visión para la masterizacion de contenidos, en este caso los UltraHD, y si dice 4000 nits, pues significa que los títulos que sucesivamente se vayan editando en Dolby Visión serán masterizados en monitores profesionales HDR con esa capacidad, después, llegar o no a la especificación de 4000 nits va a depender del visualizador que tengas, que ya te adelanto que si es un proyector o televisor OLED la cosa se complica notablemente, en el proyector por la lámpara y en las OLED por el ABL (limitador de brillo automático), aunque hayan adaptado la especificación a base de flexibilizarla para adaptarla tanto a las OLED, que no llegan a esos niveles de producción de luz, como a las LED, que sufren en el extremo opuesto.
Por cierto, lo de las gafas de sol y protección factor dos millones en plan Shunsine, vamos a dejarlo estar que no es para tanto ni mucho menos troncos
Pongamos como ejemplo el Sol de Mad Max en la prueba que publiqué aquí y en mundodvd, si os fijasteis el Sol en mi OLED media algo más de 300 nits en HDR10, lo que significa que en Dolby Visión ese reflejo momentáneo que se produce seguramente mediría alrededor de 10 veces más en Dolby (por cierto, a modo de curiosidad, Mad Max en Vudu sí que está en HDR Dolby) que en HDR 10 del UHD, y eso no va a cegar a nadie, solo aportará más naturalidad y contraste en ese momento puntual al Sol, así que tranquilos, que la crema protectora la podéis reservar para la playa, el que tenga playa, claro, jajaja
Sin embargo, las diferencias más importantes entre Dolby visión y el método abierto HDR10, no está en los nits, y aunque ambos formatos HDR comparten muchos de los fundamentos técnicos, incluidos los metadatos que le indican a la pantalla cómo ha de mostrar las imágenes, en Dolby son dinámicos, con capacidad de variar fotograma a fotograma, y en HDR10 son estáticos, además de que Dolby propone mínimo 12 bits y la BDA con HDR 10 a la cabeza indica que 10 Bits son suficientes.
A ver, técnicamente, las diferencias están ahí, pero si ya se cuestiona, por parte de algunos, las diferencias entre SDR y HDR, (que el que lo ha visto sabe que están ahí) ni por asomo quisiera plantear las diferencias posibles y visibles entre ambos métodos HDR...

Espero que el post haya aclarado algunas dudas jeje
 
Vale.. entonces en los siguientes años veremos DOLBY VISION 4000nits, y pensé que ya habian lanzado todos los avances. XD

Lo de que el nuevo formato acepte DOLBY VISION, quiere decir que en el futuro podremos ver peliculas a 4000nits? o está capado a los 1000 del tope del HDR genérico.
 
Vale.. entonces en los siguientes años veremos DOLBY VISION 4000nits, y pensé que ya habian lanzado todos los avances. XD

Lo de que el nuevo formato acepte DOLBY VISION, quiere decir que en el futuro podremos ver peliculas a 4000nits? o está capado a los 1000 del tope del HDR genérico.

No es un límite de los UltraHD, en todo caso es un límite que va a quedar establecido por el visualizador HDR que tengas, pero en el futuro próximo creo que veremos visualizadores que alcancen esa producción de luz para contenidos HDR Dolby.

También piensa que las películas UHD que sean masterizados en Dolby, además incluirán metadatos para HDR10, con lo cual, el HDR lo tendrás garantizado aunque tu televisor no sea compatible con Dolby, que es lo importante. Porque repito: La verdadera mejora viene de SDR a HDR, no de HDR10 a HDR Dolby V, que la habrá, no lo dudo, pero incomparable con la diferencia entre SDR vs HDR.

Saludos
 
"The difference that 12 bit makes is that Dolby Vision has 4,096 possible RGB values versus the 1,024 values for HDR 10 meaning greater granularity of colour production."

Es decir que 10 Bits van al HDR10 y 12 bits a Dolby Vision.
 
Que avisen cuando lleguen a 14 bits. Pasar de 10 a 12 bits está bien, pasar a 14 ya es otra historia.

Mientras tanto, ¿existe algún monitor que reproduzca 12 bits? Porque toda esta teoría que contáis está guay, pero esto en fotografía existe desde hace mucho tiempo y monitores con 10 bits hay pocos y carísimos.
 
Por cierto, os recomiendo leer cómo funciona un sensor digital y qué significa el histograma. Es muy sencillo y se aprende qué significa tener más bits, por qué el "derecheo" se basa en usar más bits para luego tener más información para procesar...
 
Los monitores profesinales de masterizacion que se gasta esta gente al masterizar sus contenidos, pueden manejar como mínimo sin despeinarse señales 10 bits y croma 4:4:4
También hay televisores planos digitales de consumo que ya montan panel 10 bits, sin ir más lejos mi OLED.

Por cierto, la fotografía y el vídeo HDR no tienen nada, pero nada que ver

Saludos
 
Por cierto, os recomiendo leer cómo funciona un sensor digital y qué significa el histograma. Es muy sencillo y se aprende qué significa tener más bits, por qué el "derecheo" se basa en usar más bits para luego tener más información para procesar...
Ay el histograma, cuándo lo usaba para ver como compensaba la exposición de la imagen que iba a captar en ese momento me fijaba que se quedara equilibrada. Y eso que estoy hablando de una cámara digital del 2004 xD.
 
Pues eso, que a veces leo este hilo y parece que están intentando cosas de hace décadas. Que no sé trata de que esté equilibrado. Realmente da igual, pero es curioso técnicamente saber cómo influye tener 12 ó 14 bits.

Ronda, insisto, 10 bits. Que me avisen cuando haya al menos 12. Mientra tanto, apaños.
 
La conclusión que saco yo es que para el 8K tendremos esos 4000nits de Dolby Vision con 12 bits que marcará claramente la diferencia con respecto al HDR genérico de 10 bits.

100 a 1000nits ( Blu-ray a UHD)
1000 a 4000nits ( UHD a 8K)

Es decir que de 4k a 8k notaremos más diferencias en color que de BD a 4K. Teoriacamente.
 
Sacar conclusiones de algo que no existe ni a nivel de grabación es como pensar cómo plantar patatas en Marte.

Es mera ciencia ficción y ese nivel de brillo concentrado en una pantalla doméstica es algo incómodo para los ojos. Eso sí que es una realidad.
 
Pues eso, que a veces leo este hilo y parece que están intentando cosas de hace décadas. Que no sé trata de que esté equilibrado. Realmente da igual, pero es curioso técnicamente saber cómo influye tener 12 ó 14 bits.

Ronda, insisto, 10 bits. Que me avisen cuando haya al menos 12. Mientra tanto, apaños.

Cómo influye técnicamente 12 o 14 bits? En este caso se trataría de 10 vs 12 bits. Según defiende Dolby para imágenes de alto rango dinámico, no sólo es necesario un espacio de color más amplio para rellenar el espacio, sino que además se requiere de una profundidad de color mayor para completar todos los niveles necesarios para alto rango dinámico, de lo contrario, habría banding, y la BDA dice que con 10 es suficiente, esa es en en teoría la diferencia. Aquí no se trata de diferencias visibles, que las hay, aquí se trata de un requisito necesario para mostrar imágenes en alto rango dinámico sin posterizacion o banding.

En Bluray, como está muy compromido su rango dinámico y espacio de color, en teoría se decidió que 8 bits eran suficientes, pero con las nuevas especificaciones 8 bits serían inviables.

Todo lo que comentas de que hace años esto ya se conocía, es cierto, y es algo que sólo demuestra lo arcaicas y desfasadas que estaban las especificaciones HD para el compromido bluray, ya que tuvieron que adaptarlas por cuestiones de carácter técnico a las especificaciones más antiguas de la era CRT de hace ya muchas décadas, con lo cual, era necesario adoptar unas nuevas especificación más acordes con lo tiempos que corremos actualmente, porque como comprenderás estar hoy en día con lo que ha evolucionado la tecnología arrastrando con el Bluray y la HD vestigios de la era crt era poco menos que absurdo. Era necesaria una actualización de los estándares de vídeo, y en mi opinión esta se ha realizado en tiempo y forma cuando correspondía hacerlo.

Ahora toca esperar a que todo se vaya adaptando correctamente y poco a poco irán apareciendo dispositivos de visualización de vídeo con soporte para todas estas especificaciones. Recuerda que cuando salió el Bluray no había ni soporte para 24p, ni visualizadores 1080p y ni tampoco se podían calibrar los visualizadores porque no disponían ni de controles básicos de balance de blancos a dos puntos, o sea, que en ese sentido ahora mismo la situación es incluso mejor. Incluso tanto el software como el hardware es más barato ahora de lo que lo era entonces, hará unos 10 años aproximadamente. Por ejemplo, el Samsung ha salido por 400/500 eur, y el primer reproductor BLURAY se iba a los 1000 eur

El problema es que por aquí hay gente con mala memoria, pero ya estoy yo por aquí para refrescarsela, que ahora con el caloret viene muy bien jajaja

:ok
 
Última edición:
Me quedo con tus dos primeras líneas. Estás de acuerdo. Todo un trofeo de caza. :cuniao

1334397152_566797_1334434491_noticia_normal.jpg

Las que he editado creyendo que se me había quoteado mal el mensaje al responder?
Es que al leer el mensaje he visto que encima del mensaje de tim habian unas líneas mías que creía que eran de otro post anterior y las he borrado por error. Solo quería aclarar la razón de haberlo editado :ok
 
Da igual, pero una vez que quitas que me das la razón, la broma no tiene sentido.

Prefiero tomarme muchas cosas más en broma que en serio.
 
Pues eso, que a veces leo este hilo y parece que están intentando cosas de hace décadas. Que no sé trata de que esté equilibrado. Realmente da igual, pero es curioso técnicamente saber cómo influye tener 12 ó 14 bits.

Ronda, insisto, 10 bits. Que me avisen cuando haya al menos 12. Mientra tanto, apaños.

Cómo influye técnicamente 12 o 14 bits? En este caso se trataría de 10 vs 12 bits. Según defiende Dolby para imágenes de alto rango dinámico, no sólo es necesario un espacio de color más amplio para rellenar el espacio, sino que además se requiere de una profundidad de color mayor para completar todos los niveles necesarios para alto rango dinámico, de lo contrario, habría banding, y la BDA dice que con 10 es suficiente, esa es en en teoría la diferencia. Aquí no se trata de diferencias visibles, que las hay, aquí se trata de un requisito necesario para mostrar imágenes en alto rango dinámico sin posterizacion o banding.

En Bluray, como está muy compromido su rango dinámico y espacio de color, en teoría se decidió que 8 bits eran suficientes, pero con las nuevas especificaciones 8 bits serían inviables.

Todo lo que comentas de que hace años esto ya se conocía, es cierto, y es algo que sólo demuestra lo arcaicas y desfasadas que estaban las especificaciones HD para el compromido bluray, ya que tuvieron que adaptarlas por cuestiones de carácter técnico a las especificaciones más antiguas de la era CRT de hace ya muchas décadas, con lo cual, era necesario adoptar unas nuevas especificación más acordes con lo tiempos que corremos actualmente, porque como comprenderás estar hoy en día con lo que ha evolucionado la tecnología arrastrando con el Bluray y la HD vestigios de la era crt era poco menos que absurdo. Era necesaria una actualización de los estándares de vídeo, y en mi opinión esta se ha realizado en tiempo y forma cuando correspondía hacerlo.

Ahora toca esperar a que todo se vaya adaptando correctamente y poco a poco irán apareciendo dispositivos de visualización de vídeo con soporte para todas estas especificaciones. Recuerda que cuando salió el Bluray no había ni soporte para 24p, ni visualizadores 1080p y ni tampoco se podían calibrar los visualizadores porque no disponían ni de controles básicos de balance de blancos a dos puntos, o sea, que en ese sentido ahora mismo la situación es incluso mejor. Incluso tanto el software como el hardware es más barato ahora de lo que lo era entonces, hará unos 10 años aproximadamente. Por ejemplo, el Samsung ha salido por 400/500 eur, y el primer reproductor BLURAY se iba a los 1000 eur

El problema es que por aquí hay gente con mala memoria, pero ya estoy yo por aquí para refrescarsela, que ahora con el caloret viene muy bien jajaja

:ok

Hay que recordarte que una tecnología novedosa como el Blu-ray en sus inicios en 2006 no era moco de pavo y que costaba un dineral esa tecnología que era nueva y se tenía que implantar de ahí esos precios, porque crees que eran caros? por eso mismo, no lo van a regalar, y ahí si estaba justificado su precio, pero 10 años después esa tecnología se ha ido reduciendo su coste hasta que se ha vuelto más "barato" de fabricar, otra cosa es su gestión electrónica, que cada marca pone su grano de arena para mejorar en algo o que sea un producto mejor terminado, pero lo que es el Blu-ray está a un precio de mercado que cualquiera puede comprar uno al igual que los últimos reproductores de DVD que se vendían por 40€, quien no quiera un Blu-ray es porque no quiere.

En 10-15 años todo lo que había en sus inicios y con precios caros, hoy han caído en picado en sus precios porque lo tiene mucho más explotado que lo que había antes y lo mismo sucederá con OLED, si ahora es cara, a medida que pasen lo años y se vaya rentabilizando, se abaratarán más los costes y dentro de 10 años o algo menos incluso podemos ver OLED 4K UHD por en torno 1200-1500€ perfectamente de 55" o 65" incluso, pero eso no lo cuentas verdad? no te preocupes, que ya estoy aquí para refrescar la memoria.
 
Y quién ha dicho lo contrario :?

Lo que he dicho, es que algunas de sus especificaciones técnicas fueron heredadas de la era CRT, del blanco y negro



Me refiero concretamente a las curvas de gamma. Por eso digo que era necesaria una actualización de especificaciones que de alguna manera se liberaran de esos viejos vestigios de la era CRT
 
Hace mucho que no pasó por aquí. He entrado a ver si ya había algún consenso de algo y me encuentro con que Antonio Machín creó el Blu-ray.

Buenas noches.
Es que cuanto menos es PATÉTICO la respuesta de la gente que se aburre poniendo vídeos del año de la polca. Luego pondrá a Massiel a color.
 
Hace mucho que no pasó por aquí. He entrado a ver si ya había algún consenso de algo y me encuentro con que Antonio Machín creó el Blu-ray.

Buenas noches.

Es que ciertos personajes no merecen otro tipo de respuesta que no sea la mofa, y ese concretamente es lo que siempre va a tener por mi parte, aquí y en cualquier otro foro, que le ignore o me mofe, y está vez le ha tocado la mofa... y créeme que sé porque lo hago. Obviemente, Machín no inventó el bluray, era solo una forma de mofarme del personaje y de indicarle que las curvas de gamma de lo bluray son de la era del blanco y negro, pero está claro que el bluray es maravilloso y que suposo un salto cualitativo de calidad respecto a la SD :ok
 
Ya veo las colas de gente en los centros comerciales para comprar películas con "4000 nits". No se habla de otra cosa.
 
Arriba Pie