UHDTV (4K, 8K): el post

Una tele de 42" 4K es absurdo si no te pones al menos a metro y medio. Sí, es cierto que los bordes de los objetos serán más nítidos, pero no es eso, es el detalle. Y solo acercándote ves ese detalle extra, que a metro y medio ni hueles. Sabes que está ahí, pero no lo ves. Yo me he tenido que acercar a 20 centímetros en vídeos 4K a ver detalles que a 60 centímetros ni olía.

Con eso te digo todo.

Pero oye, ahora cada uno que haga lo que quiera. Tengo enfrente mía un monitor 4K de 40" y puedo hablar con conocimiento de causa. Antes no. Ahora sí.
 
Bueno, tampoco seáis tan radicales. Si diese igual, en los cines pondrían streaming en lugar de películas que ocupan 100gb

AY, SI YO TE CONTARA

AY
Cuenta, cuenta! :cotilleo
Porque me da la sensación de que nos están dando gato por liebre cada vez más en los cines.
Se suponía que pagamos para ver la película sin compresión o con una compresión sin pérdidas. Eso implica trabajar con archivos de entre 1 y 3 Tb. Los 100 Gb entonces me parecen insuficientes para una peli en cine y si encima sucede lo que insinúas, que se proyecta con menos, pues es para mosquearse. :enfado


Por eso digo, ese "enroque" con el bitrate o pensar que el Bluray es "sin comprimir" (a más de uno le he leído eso) me parece ridículo. Yo he comprimido 4K H265 y he visto el original y el H265 y he flipado. Y ves lo que ocupa uno y otro y te tiras de los pelos. ¡Pero como es posible!. Por eso yo no me fijo en bitrates ni en cuanto ocupa. No cuando las cosas se hacen bien y el codec es ultraeficiente. Y sobre todo no cuando puedes comparar con el original, ver 100 veces cada uno y no apreciar diferencias ENORMES (las hay, claro que las hay, pero son tan, tan insignificantes que solo señalandolas y viendolas en bucle las cazas).

Yo no creo que los codecs "ultraeficientes" sean la panacea o la justificación para ahorrar bitrate y cantidad de información. Ayudan a engañar el ojo y dar el pego pero al final tienes el problema de que el movimiento es una mierda.

Si comparas imágenes casi estáticas claro que la diferencia es mínima o casi indetectable, pero en cuanto hay movida se emborrona todo mucho más cuanto más compresión haya, aunque sea con codecs modernos.

Ayer me quedé bastante sorprendido viendo Spectre en el cine por la mierda de definición de las imagenes es movimiento, sobre todo la secuencia inicial en Méjico era muy penosa. Me daba la sensación de que estaba viendo algo bastante comprimido o muy mal editado (yo no creo que lo 24 fps sean insuficientes, razón que se aduce siempre).

Por eso se da la paradoja de que el 4k y el 8k va a traer más definición y a la vez menos definición que los 1080p. Más definición en planos estáticos o casi estáticos y menos definición efectiva cuando haya movimiento, porque vienen acompañados de una compresión más dura.

Yo hubiera preferido mucho antes un nuevo formato con compresión sin pérdidas que el 4k, pero esto no lo valoraría casi nadie más mientras que la carrera de la resolución tiene recorrido comercial.

Supongo que esperan que la gente pique el anzuelo de la resolución como ocurrió con la estúpida carrera de los Mpixeles en las cámaras de fotos.
 
Yo tengo entendido que los DCPs buenos a 2K rondan esa cifra de 100gb en una duración normal de película.

Y a esa resolución va más que sobrado para ser fiel a la sala de montaje.
 
Se suponía que pagamos para ver la película sin compresión o con una compresión sin pérdidas. Eso implica trabajar con archivos de entre 1 y 3 Tb. Los 100 Gb entonces me parecen insuficientes para una peli en cine y si encima sucede lo que insinúas, que se proyecta con menos, pues es para mosquearse.

Proyectar algo "sin compresión" es una utopía. Entiendo que pensar que de una peli sin compresión ocupe 2TB a que llegue a ocupar 100GB (de media) es que hay una pérdida brutal. En realidad, es menos (mucho menos) de lo que parece. Por ejemplo las cámaras Red One ya hacen eso en sus RAW. Se usa una compresión Wavelet que es ultra eficiente, y que a todas luces es "sin pérdidas".

En cine digital funciona de la misma forma. Es, de hecho, un algoritmo similar. Como Cineform. Son algoritmos muy avanzados que presciende de datos redundantes y que comprimen la imagen al estilo "ZIP" de tal forma que luego se restituye.

Además, en cine digital se usa el espacio de color XYZ, que permite una mejor compresión en canales que nosotros los humanos ni olemos. Eso además permitirá en el futuro usar colores más allá del espectro visible (que no veremos pero sí percibiremos).

Así, en teoría "bruta", tenemos un master de proyección que es prácticamente un 1:1 con el original. Y aquí es donde está la clave...Si el original es 8bits 4:2:2, no hay mucho que rascar. Lo que obtienes es lo que obtienes. Si el original es 12bits 4:4:4 obtienes lo mejor posible. Es prácticamente imposible distinguir un sampling de otro. En imagen pausada, acercándote a la pantalla y cambiando de uno a otro, quizá. Pero en movimiento, a la distancia normal...te lo tragas.

Lo que quería decir no es que se viesen mierdas infectas (que las hay, pero de origen), sino que algo con menor calidad de lo óptimo la verdad es que sorprende lo bien que se llega a ver.

Hace mucho más daño el sistema de proyección. Yo mismo he podido comprobarlo con las cosas que hago, veo una cosa en un proyector 2K que no da la talla, y en un proyector 4K muy bueno, y la diferencia es el día y la noche. Y es el MISMO material. Ojo con esto también.

Yo no creo que los codecs "ultraeficientes" sean la panacea o la justificación para ahorrar bitrate y cantidad de información. Ayudan a engañar el ojo y dar el pego pero al final tienes el problema de que el movimiento es una mierda.

Bueno, esto es como todo...un codec H264 ALL-I retendrá toda la información en cada fotograma. Pero sucede que los materiales de distribución no van así (Bluray). H265 es mucho, mucho más eficiente a ese respecto. Es obvio que en movimiento es donde más se enmascara la mierda. ¿Pero la mierda es de origen?. Ahí está la clave...

Ayer me quedé bastante sorprendido viendo Spectre en el cine por la mierda de definición de las imagenes es movimiento, sobre todo la secuencia inicial en Méjico era muy penosa. Me daba la sensación de que estaba viendo algo bastante comprimido o muy mal editado (yo no creo que lo 24 fps sean insuficientes, razón que se aduce siempre).

La única forma de salir de la duda es pausar en esos momentos y ver el motion blur, a ver que se ve. Analizar fotograma a fotograma. Posiblemente sea cosa de origen. La compresión JPEG2000 no origina guarrerías, eso sí que te lo garantizo. Prescinde de información no visible y si le aprietas mucho empieza a desechar microdetalle, con lo que en un movimiento rápido donde el motion blur sea notorio, no habrá mucho que rascar, además de que efectivamente, se pierde todo el detalle...

Por eso se da la paradoja de que el 4k y el 8k va a traer más definición y a la vez menos definición que los 1080p. Más definición en planos estáticos o casi estáticos y menos definición efectiva cuando haya movimiento, porque vienen acompañados de una compresión más dura.

Efectivamente, eso es lo que NO le cuadra a la gente...piensan que porque algo sea 4K, se va a ver esa definición siempre, y no es así. Tendrías que proyectar a 60fps para que la definición sea más o menos constante. Pero aún así, en un paneo rápido, seguirás teniendo "arrastre" porque es la base de la ilusión del movimiento...No es compresión, es que es así:

18.jpg


¿Que detalle ves en esta imagen?. Imaginala en movimiento. Solo los elementos "estáticos" tendrán la definición correcta. A más movimiento, más pérdida de detalle. Analiza "Salvar al Soldado Ryan". La escena de la playa. La famosa escena. Obturando a saco para dar un Stacatto brutal. Pero haces pausa y las imágenes son nítidas. La ves en movimiento y se ven "a saltos". Al prescindir del motion blur la sensación de suavidad se va a la porra. Es la intención artística, al igual que obturar menos y obtener más "arrastre".

Yo hubiera preferido mucho antes un nuevo formato con compresión sin pérdidas que el 4k, pero esto no lo valoraría casi nadie más mientras que la carrera de la resolución tiene recorrido comercial.

Aquí es donde te digo que H265 va a ser un codec revolucionario. Yo lo poco que lo he usado, me ha dejado impresionante. Sigue siendo un codec con compresión. Pero a 80Mbits en 4K, lo que ves es increible a todos los niveles. En serio.

Pero sí, es más importante un codec robusto que más y más resolución con codecs mierder.

Con el tiempo llegaremos a codecs con tecnología fractal (ya hay algo de eso) y que prácticamente sea ver el original sin compresión pero con una décima parte y a resoluciones increibles. No creo que llegue antes de 10 o 15 años, pero están con ello.
 
Yo tengo entendido que los DCPs buenos a 2K rondan esa cifra de 100gb en una duración normal de película.

Y a esa resolución va más que sobrado para ser fiel a la sala de montaje.

No, no es así. La compresión en DCP es VBR. Yo ya me he llevado varias sorpresas al ver que pones un mismo bitrate a una y otra cosa, y una ocupa mucho menos (pero MUCHO) y otra bastante más. Y analizas uno y otro frente a sus originales, y no se ve una pérdida significativa. Vamos, que hay que ir a un zoom 500% y buscando cosas para encontrarlas.

Depende mucho de la propia imagen. Una imagen con mucho detalle, grano y definición ocupará más en el J2K que la misma imagen con menos detalle, sin grano y menor definición. En el original las dos imágenes ocuparán lo mismo (sin compresión, la propia palabra lo dice), pero si tienes 4 pixeles que tienen exactamente la misma información, lo reduces a 1 y ya tienes un 4:1 de compresión sin pérdida ;-)
 
Ok, solo lo decía de forma aproximada, cuanto suele ocupar un dcp bien hecho de una peli entre 90 y 120 minutos?
 
Ok, solo lo decía de forma aproximada, cuanto suele ocupar un dcp bien hecho de una peli entre 90 y 120 minutos?

Es que es lo que te digo, DEPENDE mucho del contenido. Mi regla es 1GB por minuto, pero no siempre es así.

Como chascarrillos, hace unos años alguien de no voy a decir que empresa se vanagloriaba de poder meter pelis comerciales en un pendrive de 64GB, gracias al uso eficiente de sus equipos blablablabla, una forma de decir que usaban el modo VBR.

Yo mismo he podido comprimir a esos niveles, aunque generalmente pongo un bitrate generoso, y ya el sistema se encarga del resto.
 
Sabeis cual será el sucesor de HEVC/H265? Supongo que en el futuro sacaran codecs mucho mejor que los actuales.

El HEVC es compatible con SD y HD para streaming?
 
El streaming es una tecnología que no está desarrollada ni tiene importancia alguna en la actualidad. Lógicamente el h265 está pensado para formato físico, con la mente puesta en BD 8K
 
El streaming es una tecnología que no está desarrollada ni tiene importancia alguna en la actualidad. Lógicamente el h265 está pensado para formato físico, con la mente puesta en BD 8K
Pues yo creo que el h265 se quedará corto para 33 millones de pixeles en un fotograma.
 
Yo también. Lo he estudiado a fondo, todos los whitepaper y tal, leído foros como mundodvd o este mismo, y llego a tu misma conclusión.
 
:lol

Se ve que la ironía no es lo mío...

¿De verdad me ves diciendo "El streaming es una tecnología que no está desarrollada ni tiene importancia alguna en la actualidad" o "Lo he [...] leído foros como mundodvd o este mismo, y llego a tu misma conclusión"?

Es más...¿puedes leerlo en voz alta y no reirte? :lol
 
Pues macho, me la has colao. Porque CONOZCO a más de uno que diría eso. Tal cual. Y mira que me extraña viniendo de tí, pero hoy no debe ser mi dia de encontrar el sentido irónico de las frases :-D
 
  • Me gusta
Reacciones: WRC
El bueno bueno será el HECES, acrónimo de High Efficiency Compression nosequé...
 
Ayer me quedé bastante sorprendido viendo Spectre en el cine por la mierda de definición de las imagenes es movimiento, sobre todo la secuencia inicial en Méjico era muy penosa. Me daba la sensación de que estaba viendo algo bastante comprimido o muy mal editado (yo no creo que lo 24 fps sean insuficientes, razón que se aduce siempre).

La única forma de salir de la duda es pausar en esos momentos y ver el motion blur, a ver que se ve. Analizar fotograma a fotograma. Posiblemente sea cosa de origen. La compresión JPEG2000 no origina guarrerías, eso sí que te lo garantizo. Prescinde de información no visible y si le aprietas mucho empieza a desechar microdetalle, con lo que en un movimiento rápido donde el motion blur sea notorio, no habrá mucho que rascar, además de que efectivamente, se pierde todo el detalle...

La duda que me surge al ver ciertas películas como esta de Spectre es si en cines se está proyectando material comprimido en JPEG2000 que posiblemente no tendría por qué afectar al movimiento como dices, o algún otro formato de compresión que sí esté basado en el movimiento.

Los formatos domésticos (BD, DVD...) usan compresión basada en el movimiento, Mpeg, AVC y similares, y en mi opinión sí que introducen un pequeño emborronamiento ADICIONAL al que pueda tener de por sí el material original.
Este tipo de compresión puede desechar tranquilamente más de un 95% de la información visual original por entender que gran cantidad de información visual es redundante porque ya estaba en el frame anterior y se limita a codificar solamente los fragmentos de la imagen que sí cambian entre cuadro y cuadro.

Cuando hay un movimiento de cámara todo el cuadro cambia a la vez y habría que codificarlo por completo pero en la mayoría de las ocasiones no se llega a hacer tal gasto de bitrate sino que se sustituye el movimiento original por un desplazamiento en bloque del frame anterior en base a unos vectores y añadiendo sólo la nueva información que aparezca por los lados del cuadro.

Este intento por codificar lo menos posible es lo que posibilita el reducir hasta 100 veces la cantidad de información necesaria para reproducir la película pero no sale gratis. Hay microcambios en la imagen que no se codifican , entendiendo que nadie lo notará, y el movimiento basado en vectores no es igual de natural que el movimiento original.

Creo incluso que hay un proceso previo a la compresión que reduce los movimientos de cámara haciendo coincidir lo más posible los frames consecutivos para economizar bitrate y espacio necesario posteriormente.

El cine digital doméstico es , aunque parezca extraño, más "estático" de lo que era el cine analógico en celuloide, en el que no había mayor problema en conservar cuantos micromovimientos contuviera el material original.

En la versión digital comprimida se elimina movimiento y se eliminan muchos microcambios en la imagen, aunque no seamos muy conscientes de ellos al no tener el original para comparar. Y cuando hay un movimiento intenso en la imagen las limitaciones de la compresión, del bit-rate y del procesador de imagen sí introducen un blur adicional al blur que ya de por sí tenía la escena por estar rodada a 24 fps.

Por eso creo que un bitrate elevado sigue siendo necesario para una calidad de movimiento decente.
Los codecs modernos y ultraeficientes aplican una compresión más flexible que intenta explotar la mayor potencia de los procesadores de video actuales cuando se dispone de menos bitrate o ancho de banda disponible, cosa que con los antiguos procesadores no era posible.

Con un bitrate cutre sacan una calidad más decente (y hasta sorprendente) que los antiguos, pero con un bitrate elevado no suponen una ventaja en calidad de imagen, a veces es al contrario, creo yo.
Por eso digo que con experiencias como la de Spectre ya dudo sobre lo que nos están dando en los cines.

Por eso se da la paradoja de que el 4k y el 8k va a traer más definición y a la vez menos definición que los 1080p. Más definición en planos estáticos o casi estáticos y menos definición efectiva cuando haya movimiento, porque vienen acompañados de una compresión más dura.

Efectivamente, eso es lo que NO le cuadra a la gente...piensan que porque algo sea 4K, se va a ver esa definición siempre, y no es así. Tendrías que proyectar a 60fps para que la definición sea más o menos constante. Pero aún así, en un paneo rápido, seguirás teniendo "arrastre" porque es la base de la ilusión del movimiento...No es compresión, es que es así:

18.jpg


¿Que detalle ves en esta imagen?. Imaginala en movimiento. Solo los elementos "estáticos" tendrán la definición correcta. A más movimiento, más pérdida de detalle. .
No me refería al emborronamiento "normal" que tienen las imágenes por haber sido rodadas con un número limitado de fps.
24 Frames por segundo van a producir más emborronamiento que 60 fps cuando hay movimientos rápidos, eso está claro.

Pero incluso dentro de los mismos 24 fps mi sensación es que la calidad del movimiento es ligeramente distinta según se usara celuloide en rodaje edición y proyección, celuloide en rodaje y proyección pero con digital intermediate, celuloide en rodaje pero proyectado en digital, o rodaje y proyección 100% digital.

Es un tema que seguí con mucho interés siempre.

El mejor movimiento me parecía el del celuloide 100% sin digital intermediate, creo que la película "The prestige" fue una de las últimas referencias en calidad de imagen de este formato, aparte de que el color orgánico y natural, el negro profundo y la tridimensionalidad natural de la imagen eran maravillosas. Era puro disfrute visual si la copia era buena (que este era el problema del celuloide, que muchas copias estaban muy hechas polvo o mal editadas).

Y ya cuando se metió lo digital por medio al principio fue un desastre ( los primeros digital intermediate eran muy chungos y desmerecían la calidad del celuloide como formato) pero reconozco que el digital ha mejorado mucho en los últimos años y también me satisface cuando es digital de calidad.

Pero también digo que yo sí noto una mayor satisfacción viendo un bluray original con un bitrate alto que el correspondiente microhd de 2, 4 o 5 gb por más que para mucha gente resulten casi indistinguibles cuando comparan fotograma a fotograma.

Y por eso me fastidiaría que empezaran a racanear bitrate o tamaño de archivos en las versiones proyectadas en los cines, pensando que a la gente le da más o menos igual.
 
Última edición:
Los DCP para cine tienen cada frame comprimido individualmente en JPEG2000 y se permite un bitrate de hasta 250Mbps tanto para 2K como para 4K. Por tanto, la degradación de un DCP respecto a un máster en bruto debe ser casi imposible de distinguir tanto si hablamos de la integridad de la imagen (detalle, color, aparicion de artefactos de compresión) como del movimiento, siempre hablando de un proceso realizado en un entorno profesional con gente que sabe lo que se hace, claro.

Puede haber películas donde se aprecien cosas extrañas por la forma en la que está rodada ó postproducida, pero dudo que se vean casos donde el problema tenga que ver con la copia para cines (el DCP).

Algunas distribuidoras pequeñas han llegado a utilizar copias en Blu-ray para ciertas películas con estrenos limitados dado que son películas difíciles de rentabilizar y los resultados audiovisuales pueden ser buenos en salas pequeñas, pero son casos muy contados. Esto no lo hace nunca ninguna distribuidora grande ni mediana, ya sea con grandes estrenos o con pequeños.
 
En teoría tampoco se debería haber notado para nada en el movimiento la inclusión del Digital Intermediate en la producción de las copias de celuloide y yo sin embargo lo noté muy cláramente en infinidad de películas (y en la mayoría de los casos para peor).
Volviendo al tema del hilo para mí parece claro que si 4k y 8k van a implicar una mayor tasa de compresión , casi seguro esto acarreará una peor calidad de movimiento, por muy eficientes que sean los codecs.
 
Arriba Pie