UHD Blu-ray y HDR. Lanzamientos y ediciones

Estás dando por sentado que una película editada con HDR debe ser compatible con todos los estándares soportados, que son 3 (un SMTPE, Dolby Vision y uno de Philips), pero ni es obligatorio utilizar HDR ni es obligatorio emplear todos los modos soportados a la vez.

Pues hombre, entiendo que sí. Porque SI NO ES ASÍ, ¿que pasa con las teles que soportan UNO de los TRES formatos HDR y la peli NO VIENE en ese formato?. Yo desde luego me cabrearía bastante, eh?

Las especificaciones del formato indican que esos modos están soportados y por tanto el reproductor debe soportarlos obligatoriamente, pero no es obligatorio usarlo. En el caso de las teles Ultra HD Premium, sólo contemplan como obligatorio soportar el HDR SMPTE.

Las especificaciones son eso, especificaciones o "limites". Nadie en ningún caso te dice que tengas que cumplirlas al máximo. Las especificaciones te dicen que hay soporte HDR o no, 10bits o 8 bits, color Rec709, DCI/P3 y Rec.2020. Por lo tanto puedes editar un BD4K en Rec709, 8bits y 4K. Por poner un ejemplo. Luego vendrán los lloros y las quejas, o las sorpresas.

Además, también estás dando por sentado que entre las especificaciones del formato y las herramientas de autoría no hay forma de que alguno de los modos HDR sea añadido con metadatos, algo que sinceramente desconozco pero tampoco descarto ya que meter 2 veces la misma peli sólo por SDR+HDR ó HDR tal+HDR cual es tremendamente ineficiente.

Te insisto, que UNO de los dos formatos usa una LUT para convertir a HDR. El otro lleva metadatos. El look de uno y de otro son radicalmente diferentes. Si quieres te los envío, y tal.
 
Tengo entendido que el VP9 es mas eficiente que HEVC, pero soporta menos algoritmos que el HEVC, pero no sabia que el VP10 estuviese listo ya, voy a informarme.......
 
Tengo entendido....¿fuente?
H.265 y VP9: así son los codec que hacen posible el 4K

Por ejemplo, el H.264 creaba "bloques" de 16x16 pixeles y luego a la hora de descodificar ejecuta 9 tandas de algoritmos (educated guesses) que le permiten reconstruir con mayor o menor fidelidad los pixeles originales. H.265 crea bloques de 64x64 pixeles y ejecuta 35 predicciones para devolverlos a la forma más aproximada posible que la original. En realidad los dos codec usan bloques de diferentes tamaños según las zonas y colores, es muy inteligente con los patrones. Por ejemplo el cielo o un campo.

El VP9 funciona igual, pero permite crear bloques rectangulares además de cuadrados, por lo que aumenta su eficiencia. El problema es que sólo ejecuta 10 modos de predicción para reconstruir el vídeo.
 
Hum, no se yo hasta que punto eso beneficia, pero bueno. De todas formas, has de saber que es un codec que no se suele usar mucho y no tiene mucho uso en la indústria, más allá de su uso por parte de youtube (que obviamente lo ha desarrollado para no PAGAR royalties).

En una prueba ciega, realmente no se podría distinguir uno de otro, me parece un poco sinsentido...
 
Pruebas ciegas... No invoques al demonio. Aquí se trata de gastar y comprar cacharros para lo mismo que ya veníamos haciendo.

Y me da una rabia tremenda. Cuando empiecen a salir estrenos en 4K, lo que consiguen en mi caso es que ya no me voy a comprar el blu ray...
 
En el mejor de los casos ese 4K seguramente se vea bien tipo Netflix, es decir, que se notará el salto sobre los 1080p pero sin acercarse a una codificación de referencia tipo UHD BD.

Creo que Netflix es muy superior a Youtube en 1080, mucho. En 4K, también. Al menos, en mis descargas, es lo que se ve.
 
Yo también lo creo. Alucino con como se ve el jodido Netflix. Los cabrones sacan ORO de tan bitrate raquítico...
 
Ya, ¿y la parte en la que digo "aún así, con VP9 y material que se haya subido de calidad impecable llega a lucir bastante decente"?

En Youtube uno de los principales problemas respecto a la calidad es que se suben vídeos 1080p que son auténtica basura, y de donde no hay no se puede sacar. Pero recientemente, tras haber activado el soporte para VP9 en Firefox (que por defecto está desactivado), me he llevado alguna sorpresa con algún que otro vídeo, normalmente tráilers que proceden directamente del canal de la distribuidora, posiblemente subidos desde un ProRes o similar.

Así que, un 1080p ó 4K nativo procedente de un fichero en óptimas condiciones y mostrado en VP9 ó VP10, si que puede verse en Youtube con una calidad similar a Netflix. Técnicamente al menos si que parece posible. Ahora bien, si comparamos el nivel general 1080p de Youtube con el nivel general 1080p de Netflix, evidentemente no hay color a favor de Netflix.
 
Mirar, por lo que he leído lo del HDR ya lo han dejado muy claro en varias ocasiones. Las películas que lleven HDR (que posiblemente sean todas) serán por metadatos añadidos, y van en la misma película, ya sean los metadatos del modo obligatorio por la BDA, Dolby y/o Phillips. Ni habrán dos discos ni dos versiones de la misma película, todo irá incluido en la misma pista de vídeo. La tele que no soporte HDR o algún modo HDR solo ignorará los metadatos y se verá en SDR. Así que de no soporta uno de los modos, como por ejemplo Dolby, podrá verse en el modo obligatorio de la BDA HDR

Los 10 Bits también es obligatorio. No puede haber ni un solo BDUHD a 8 Bits. Y puesto que la especificación no dice hasta 8 Bits, que dice 10 Bits, no habrá ni un solo BDUHD a 8 Bits, eso no se contempla ni como posibilidad.

REC.2020 como espacio de color es una posibilidad real que se contempla a partir de 2020, pero la recomendación BT. 2020 como contenedor permite DCI P3 y REC.709. El espacio de color elegido para masterizar los bluray 4K es DCI P3, y Rec.2020 para cuando la tecnología esté preparada para esto allá por el 2020 como se comenta, porque creo que de momento ni siquiera hay monitores de masterizacion que lo soporten, o por lo menos no lo había hace muy poquito. Está especificación es muy buena porque no sólo viene preparada para el presente, también para el futuro.
 
Yo tengo vídeos subidos en Youtube procedentes de bastante más bitrate y calidad, y aguantan muy bien el paso a Youtube, es cierto. Pero aún así, el cariño que meten en Netflix se nota. En su día leí como trabajan en el departamento de "encoding" y es realmente admirable. No es un sistema totalmente automatizado como en Youtube, donde ni hay supervisión ni nada...

Respecto a lo que dice Ronda, no encuentro ningún White Paper donde hablen técnicamente del formato y sus posibilidades, pero leí en su momento una TABLA donde ponía claramente 8 o 10 bits. Pero no la encuentro. Tampoco es cuestión de andar rebatiendo nada. Se puede trucar fácilmente de 8 a 10bits, peores mierdas he visto, y nos tragaremos pensando que estamos degustando "summum"
 
trucar fácilmente de 8 a 10bits, peores mierdas he visto, y nos tragaremos pensando que estamos degustando "summum"

Eso también es verdad :doh

Comparar YouTube con Netflix es complicado porque partimos de la base que no tienen nada que ver las producciones que se gasta Netflix con lo que se sube a YouTube, pero es verdad que ahora con VP9 en algunas teles 4K hay vídeos de YouTube 4K que sorprenden lo bien que se ven. Es como redescubrir YouTube :ok
 
He estado buscando y no hay NADA técnico sobre este formato. Me mosquea mucho, porque todo son flores y alabanzas. Para acceder a la parte más jugosa de la BDA hay que ser miembro, y no creo que me admitan X-D. Curiosamente, del formato Bluray hay abundante información, White Papers, toda la documentación técnica...todo disponible en su web.
 
Dr, también te saltas la parte de creo que... :juas

Es cierto que hay cosas en YouTube que se ven bien, algunas incluso dignamente, pero incluso el contenido "bien hecho" es inferior a Vimeo, no digamos ya a Netflix.
 
H.265 y VP9: así son los codec que hacen posible el 4K


h264-h265.jpg

Por ejemplo, el H.264 creaba "bloques" de 16x16 pixeles y luego a la hora de descodificar ejecuta 9 tandas de algoritmos (educated guesses) que le permiten reconstruir con mayor o menor fidelidad los pixeles originales. H.265 crea bloques de 64x64 pixeles y ejecuta 35 predicciones para devolverlos a la forma más aproximada posible que la original
...

Ambos codecs necesitan bastante más poder computacional para decodificar el vídeo que el H.264 y el VP8, como podrías esperar. A más compresión, mayor trabajo al decodificarlos

Esto ilustra lo que te comentaba , Dr. X, que la espectacular mayor eficiencia del H.265-HEVC no es tal. Simplemente se sacrifica más información visual nativa y se sustituye por predicciones y cálculos , que nunca consiguen la misma calidad por mucho que la mayoría de la gente no se casque de la diferencia.
 
Hombre, ahí está el tema...que la gente "no note" nada y mejore todo. Esa es la misión de un CODEC.

¿Qué importa si el algoritmo restituye "digitalmente" la imagen si el resultado VISUALMENTE es idéntico al original?. Es lo que se criticaba al H264, al principio codec de "delivery" pero ahora mismo codec de edición, además. Que no es el mejor material para trabajar, pues no. Pero es que cámaras profesionales de Sony trabajan con codecs mucho menos eficientes, usando MPEG2, y aquí nadie se rasga las vestiduras. De hecho, un formato profesional como DVCPRO usa una compresión 5:1. Es lógico.
 
Ah, una cosa que olvidaba, sobre el HDR. Por supuesto que no es obligatorio que lleve los tres modos HDR. Obligatorio en caso de llevar una película HDR solo es uno, el de la BDA HDR 10, el resto, los otros dos, son solo opcionales. De hecho, las películas que van a salir ahora solo llevan el modo HDR obligatorio aprobado por la BDA y que es compatible con todas las teles que soportan HDR. Para HDR hace falta HDMI 2.0a, y las teles con HDMI 2.0a que no sean compatibles con alguno de los demás modos HDR perfectamente podrían ser actualizadas.
 
Hombre, ahí está el tema...que la gente "no note" nada y mejore todo. Esa es la misión de un CODEC.

¿Qué importa si el algoritmo restituye "digitalmente" la imagen si el resultado VISUALMENTE es idéntico al original?. Es lo que se criticaba al H264, al principio codec de "delivery" pero ahora mismo codec de edición, además. Que no es el mejor material para trabajar, pues no. Pero es que cámaras profesionales de Sony trabajan con codecs mucho menos eficientes, usando MPEG2, y aquí nadie se rasga las vestiduras. De hecho, un formato profesional como DVCPRO usa una compresión 5:1. Es lógico.

Es que MPEG2 daba más calidad de imagen que MPEG4/AVC/H264, precisamente porque es menos "eficiente", porque destruye y sustituye menos información visual nativa. De hecho Sony lo dijo en los comienzos del Blu-ray, que la mayor calidad pasaba por codificarlo con MPEG2, pero luego fueron tirando la toalla.

El que se note más o menos un codec más eficiente, más agresivo, que comprima más....claro que es difícil notarlo .
Sobre todo si nos basamos en la comparación de fotogramas para decir que no se nota la diferencia.
El caso es que como bien sabes, a diferencia de jpeg2000 que es una compresión mucho más benigna, que codifica los fotogramas independientemente, estos son codecs basados en movimiento, en codificar sobre todo las diferencias entre fotogramas consecutivos .

Con este tipo de compresión una escena de varios segundos se puede basar en un único fotograma completo al que se le van cambiando pequeñas zonas de la imagen en los siguientes cuadros, lo sabemos todos.
Sólo se codifican esos pequeños fragmentos de la imagen pero se produce un error de decodificación inevitable en cada nuevo cuadro , que se arrastra en los siguientes cuadros , cuadros que a su vez van acumulando sus propios errores.
Esto se puede traducir en que los cuadros finales de esa escena presenten más diferencia con el original, pero sobre todo que el movimiento en la imagen sea más emborronado de lo que debería.

O sea, el problema yo lo veo más en que baja mucho la definición del movimiento, más que notarse mucho la diferencia entre fotogramas aislados.

Por eso me da cierta pena que en vez de utilizar la mayor capacidad del UHD BD para trabajar con señales con más resolución, no se haya aprovechado para usar una compresión del tipo jPEG2000, independiente para cada cuadro, porque la mejora en definición efectiva yo creo que sería mayor que la que obtienes de aumentar la resolución.
Pero bueno, es una opinión personal.
 
Bueno, pues en el link de Miguel dice que aunque HEVC es superior, VP9 puede ser más adecuado para vídeo en streaming por poseer una decodificacion más estricta (la verdad es que es sorprendente lo bien que se ven algunos vídeos en YouTube) Y esto querría decir que HEVC es más eficiente en formato físico que en streaming?
 
Claro Miguel, pero es que lo que no dicen estos listos de Sony es que necesitas más Bitrate para igualar la calidad de H264. Esto es así porque yo he hecho Blurays en MPEG2 y en H264 y se nota. Cada sistema tiene sus pros y sus contras.

Ojo, que en H264 hay un modo All-I, que obviamente está diseñado para captación, pero que todos los fotogramas son independientes. Todos los sistemas de compresión modernos se basan en fotogramas IPB, lo que pasa es que luego el codec admite muchas variantes, de ahí la pericia a la hora de codificar. No es sencillo dominar un codec como H264, de hecho a mí me vienen clientes que han intentado hace Blurays desde sus sistemas y acaban hasta la polla, porque no logran una buena codificación. Sencillamente un mal uso de una herramienta hace que tengas un H264 chusquero. Y hasta un Jpeg2000, vamos.

Yo la verdad es que nunca he percibido problemas de falta de detalle en planos en movimiento. No se, igual es que depende en gran medida del display, del reproductor, de la distancia de visionado...hay tantos factores que realmente es una visión muy subjetiva.

Podrían haber aprovechado para usar en el nuevo sistema algún codec basado en Wavelet, sí. Pero si no lo han hecho tendrá algún motivo, y dado que HEVC está diseñado sobre todo para Streaming, pues...

Como digo, yo he hecho pruebas con HEVC y confrontando con fotogramas originales (en TIFF o TGA, nada de compresiones chungas, salida directa del sistema de edición) y a frame parado y al 400% de zoom se ven cosas. Al 100% y en movimiento, te lo tragas. Vaya que si te lo tragas.
 
Por supuesto Mpeg2 ocupaba mucho más en el bluray. Había que dejar sitio para extras y tal.
Una pena que no viva en Madrid, Actpower. Me habría encantado ver cómo haces ese trabajo y compartir impresiones.
 
Pues sí, una pena. Siempre mola quedar con gente afín y hacer pruebas de estas locas. Yo suelo trabajar con mucho tipo de materiales y cuando tengo huecos me pongo a experimentar con ellos. A veces se hace más complicado explicarse en texto que ver las cosas en vivo y tener impresiones al momento.
 
Entonces el HEVC solo es marketing? no notaremos mejoras con respecto al AVC? Es la conclusion que saco al leeros.
 
Joder, pues no has entendido NADA!

HEVC no es Marketing. Es REAL. Y se obtiene una imagen más cercana al original. Pero NO es un milagro, como cualquier codec. Si le cascas un bitrate de mierda e imagen con mucho detalle en movimiento (simplemente el grano) es un pastiche. COMO CUALQUIER CODEC. Pero a igualdad de Bitrate, gana a H264. Es un hecho.
 
Por eso entiendo que es importante lo que ha dicho Dr_X. Que lo fundamental no es mantener un bitrate máximo y constante durante todo el tiempo, sino alcanzar lo picos más alto cuando sea necesario por las necesidades del vídeo
 
Arriba Pie