UHDTV (4K, 8K): el post

Respuesta: 4K: el post

Hombre, depende de la distancia de visión. En mi 46" cuesta distinguir entre 720p y 1080p a la distancia a la que la tengo (dos metros y medios, aprox). Pero con el proyector ya te digo yo que no. El otro día sin querer se me debió poner a 720p viendo una peli a 1080p y al final de la misma, pensaba que me he había ido el foco...cuando veo que no, que estaba a 720. Cambié la resolución y aquello ya se veía GLORIOSO.

Obviamente, para poder ver 4K en el proyector, el pixel será más fino aún. En pelis apenas tiene sentido, pero sí he notado al poner el portatil, que el texto no es nítido a 1080p. Es decir, comparativamente, el tamaño de un pixel proyectado a 1080p lo veo más "chusco" que el mismo pixel visto en el monitor (obvio).

El 4K tiene sentido según en qué.

8K me parece una barbaridad, de momento :-D
 
Respuesta: 4K: el post

Vaya con Sharp, está prácticamente desaparecida del mundo de la proyección y ahora nos quieren vender superteles de grandes dimensiones...

Cuando recuerdo que hasta 2005 Texas Instruments quería que solo los proyectores comerciales pudieran tener resolución 2K y que las instalaciones domésticas tuvieran un máximo de 1280x720 me da la risa floja.

Otro que bien baila :doh. No sé como estará ultimamente de novedades con sus chips, porque los DLP se están quedando también descolgados, es de risa que lo que se esté empleando mayoritariamente todavía sea el DC2, algún DC3 y el DC4?... ese gran desconocido.

Se van a comer con papas su ultra paneles de 20.000 K, yo no lo veo para nuestras casas y eso que aquí seremos de los más sibaritas (otra cosa es que nos lo vayan metiendo con calzador por coj*nes).


:hola
 
Respuesta: 4K: el post

Con un buen material de origen y buena codificación 720p está más que bien para entornos domésticos. Además, sigo pensando que el problema que tenemos en entornos domésticos no es la resolución una vez tenemos estandarizados los 1080p (1.92K), el problema es que las fuentes de vídeo sean de buena calidad y la codificación esté a la altura.

En el ámbito de la televisión o el cine en casa, ¿qué puede aportar ir a 4K u 8K que no pueda conseguirse haciendo un buen uso del 1080p?

Hay otro tema para mi importante a favor de los 720p. Se puede hacer streaming via wifi perfectamente sin necesidad de cablear la casa. Sin embargo a 1080p el wifi se atasca.

Verse no se va a ver igual de bien (obvio), pero con los reescaladores de hoy en dia para ver en una tele de 40"-50" ya vale, e incluso yo lo encuentro aceptable para ver en el proyector.
 
Respuesta: 4K: el post

Los paneles 4K pueden ir de coña para hacer lo de Desafio Total, recordais q las ventanas del apartamento del Chuache eran teles en las q podias ver el telediario o poner un paisaje de fondo?

Eso molaria, y a 4K la imagen de las vistas podria parecer casi real. :juas
 
Respuesta: 4K: el post

El 4K tiene sentido según en qué.

Para trabajar claro que tiene sentido.

En un entorno profesional o doméstico, con la vista más pegada a la pantalla. Incluso pudiendo hacer zoom sin perder detalle...

Y eso pasa también con la edición fotográfica o de audio, en las que és lógico trabajar con el material a una resolución óptima y sin comprimir.

En general, en los monitores, siempre tiene sentido, ya que a esas distancias de visionado se nota incluso en la legibilidad de los textos.

Pero el disfrute artístico posterior de ese material no precisa de tanta resolución porque siempre tiene lugar a una distancia (física y conceptual) mayor, ya que la precepción pasa a centrarse en el conjunto, no el detalle.

Si te fijas en el detalle técnico estás perdiendo de vista la obra artística. O te fijas en la interpretación de un actor o en los poros de su piel. Las dos cosas a la vez es imposible. Aún así, es estupendo poder verle los poros. Y si puedes vérselos, en un buen indicativo de que ya has alcanzado un límite más que razonable.

Esa distancia de visionado y audición lúdica, de disfrute artístico, se mueve en unos márgenes que variarán según cada individuo pero que en ningún caso superarán las resoluciones audiovisuales que ya se han alcanzado en el ámbito doméstico.

Si en ese ámbito, la resolución visual máxima relativa (al tamaño de la pantalla y la distancia de visionado) que requiere la percepción humana en ningún caso superarará los 1080p (ni en casa ni en una sala de cine), toda resolución de más huele a "aunque no lo necesite, vamos a sacarle también al espectador los cuartos de más que tiene que pagar un profesional".

Y luego está el almacenamiento y la transmisión de todos esos bytes de datos extra que también habrá que pagar aunque no se disfruten.
 
Respuesta: 4K: el post

En mi humilde opinión la mejora que podremos notar vendrá más por la remasterización/restauración del material de origen que por la resolución 4K "per se".

Incluso la gente que tenemos pantallas de proyección normalitas (2Mt de base a 3.70 de distancia en mi caso) no creo que notemos gan diferencia. Con respecto al usuario medio (42" o 50") sobran las palabras.

Bajo mi punto de vista si se quiere mejorar la experiencia para una mayor parte de usuarios los cambios venideros deberían ir enfocados más hacia el tratamiento del color tanto en muestras como en profundidad.

Si os apetece perder el tiempo os expongo a continuación unas ideas, tal vez equivocadas fruto de mi ignorancia, al respecto:


Gamut CIE

Supongo que todos lo sabemos pero no está de más recordarlo, el triángulo CIE muestra tanto los colores que es capaz de representar un dispositivo como los colores que están incluídos en una norma.

Esto se hace dibujando un triángulo cuyos vértices representan coordenadas concretas de los colores primarios rojo (R), verde (G), azul (B). En el caso del gamut de un dispositivo dichas coordenadas se obtienen a través de una sonda mientras que en el caso de las normativas vienen indicadas en la misma especificación.

Por ejemplo, podemos ver las coordenadas definidas para DCI en el apartado 3.2.1.5 Encoding Primaries (página 27) del documento de Especificaciones para Sistema de Cine Digital (DCI) v1.2


En la siguiente imagen podemos apreciar la comparación entre el gamut de la normativa ITU-709, el de la normativa de cine digital (DCI) y el de un monitor EIZO ColorEdge:

1105w2_cms004_c01_pu.jpg


Como se puede observar el gamut de ITU-709 es bastante más pequeño que el de DCI, esto se traduce en que la gama de colores originalmente grabada en un BD no puede reproducir fielmente la que se pueda apreciar en una proyección de cine digital.


Espacio de color

Con el fin de almacenar digitalmente la señal de color RGB ésta se codifica convirtiendo al espacio de color YCbCr ganando principalmente en tamaño de almacenamiento (mucho menor), dicho espacio de color es el usado en la especificación de Blu-Ray donde, además, se indica que los datos de color se almacenan con muestreo 4:2:0.

¿Qué significa esto de muestreo 4:2:0? Pues significa, más o menos, que por cada grupo de 4 pixels de la imagen se guarda la información de brillo/luma (Y) de los 4 mientras que la de color sólo se guardará para la mitad, esto es debido a que la naturaleza visual humana es más sensible a variaciones de brillo/luma que a variaciones de color.

Si quisiéramos ser fieles al original deberíamos muestrear 4:4:4 (se muestrea Cb y Cr a la misma frecuencia de muestreo que Y) aunque incluso un muestreo 4:2:2 (Cb y Cr a la mitad de frecuencia que Y) sería mucho mejor que el 4:2:0 que tenemos en la actualidad tanto para BD como para DVD.

Este submuestreo es el culpable de que algunos lectores presenten el famoso CUE (Chroma Upsampling Error) dado que el muestreo de disco 4:2:0 hay que pasarlo a muestreo 4:4:4 o 4:2:2 surgiendo errores visuales en caso de hacerlo incorrectamente.

Creo que la inmensa mayoría de los dispositivos de visualización actuales soportan YCbCr con frecuencia de muestreo 4:2:2 e incluso 4:4:4.


Precisión del color

Pero no sólo tenemos el problema de los "submuestreos" indicados en el punto anterior sino que, además, la precisión con que se guarda cada muestra de color es de 8 bits, lo cual tampoco es ninguna maravilla.

Al igual que el muestreo 4:2:0 esta limitación es la misma tanto para BD como para DVD.

Por lo que vemos en el documento de Especificaciones para Sistema de Cine Digital (DCI) v1.2 se indica lo siguiente al respecto de la profundidad de bits para color:
3.2.1.7. Bit Depth
The bit depth for each code value for a color component shall be 12 bits. This yields 36 bits per pixel.
O sea, que en DCI utilizan una resolución de 12 bits por componente mientras que en BD utilizamos 8. :pensativo

Como curiosidad: HDMI 1.3 no sólo soporta 36 bits (12 bits por componente) sino que incluso soporta 48 bits (16 bits por componente), esto es lo que llaman DeepColor.


¿Cómo afectaría al usuario final (económicamente)?


Lógicamente para llevar a cabo estos cambios sería necesario una nueva especificación de Blu-Ray lo cual implicaría sólo el cambio de la fuente (lector de BD) dado que los dispositivos de visualización actuales soportan resolución de color de 36 bits (3 canales a 12 bits por canal) desde HDMI 1.3, YCbCr 4:4:4/YCbCr 4:2:2 y tienen un gamut físico mucho mayor que el de ITU-709.

Con el cambio de 4K que "proponen" ahora nos veremos obligados a cambiar tanto el dispositivo de visualización (que es lo más caro de todo) como la fuente. :sudor


Referencias


Disculpas por el tocho. :hola
 
Respuesta: 4K: el post

Alfredo, en cine digital se usa CIE XYZ, que es un gamut de color definido en 1931 y que no ha sido rebasado todavía. Es el máximo teórico, vamos. El color original XYZ se ve extraño en un monitor RGB, no es un color RGB al uso. Luego en proyección se ajusta a RGB respetando su gamut, obviamente.

Te pongo un video explicativo:

http://www.youtube.com/watch?v=x0-qoXOCOow

Como ves, primarios XYZ igualan la capacidad de visión humana. Otra cosa es que haya material que pueda ofrecer tal grado de visibilidad. La práctica es que de momento no hemos llegado a ese límite, pero nos acercamos :-). Solo una imagen sintética (infografía) puede dar esa pureza de imagen.

Por otro lado, Harry, cuando decía lo de "según para que", me refería a la distancia de visionado. Es absurdo ver un 4K en 50" a la distancia normal, porque nuestro ojo y su fisiología natural no es capaz de ver ese detalle. Y más si encima le añadimos que tengas una agudeza visual normalita, como suele ser el caso.
 
Respuesta: 4K: el post

Es que ese es el campo en el que merece la pena avanzar. En el de los codecs.

Y desde mi punto de vista de profano y simple usuario tengo la sensación de que estamos en una época dorada, de gran refinamiento, en la que se está consiguiendo comprimir mucha información en muy poco espacio, de manera muy eficiente, conservando una gran calidad audiovisual aparente.

Es que últimamente me estoy bajando unos vídeos que parecen sobrenaturales de lo poco que ocupan para la calidad que tienen. Por ejemplo, vídeos de capítulos de serie de 22 minutos a 720p y sonido 5.1 que ocupan menos que algún pdf que tengo. O que la mayoría de archivos de Photoshop o de audio sin comprimir. :palmas
 
Respuesta: 4K: el post

Alfredo, en cine digital se usa CIE XYZ, que es un gamut de color definido en 1931 y que no ha sido rebasado todavía. Es el máximo teórico, vamos. El color original XYZ se ve extraño en un monitor RGB, no es un color RGB al uso. Luego en proyección se ajusta a RGB respetando su gamut, obviamente.

Pero entiendo que en algún punto (¿Proyección? ¿Masterización?) de la cadena que utilizais se convierte de XYZ a RGB, no he encontrado los datos exactos de la especificación DCI P3 RGB (aka SMPTE-431-2 "Reference Projector and Environment for Display of DCDM in Review Rooms and Theaters") pero en el documento de las especificaciones para CIne Digital que menciono en mi tocho-post anterior, concretamente en el apartado 8.3. Projected Image and Viewing Environment for Digital Cinema Content, hay una tabla llamada Reference Image Parameters and Tolerances (página 84) en la cual se indica lo siguiente:

Color Gamut
Minimum Color Gamut enclosed by white point, black point and

  • Red: 0.680 x, 0.320 y, 10.1 Y
  • Green: 0.265 x, 0.690 y, 34.6 Y
  • Blue: 0.150 x, 0.060 y, 3.31 Y
Ahí indican un gamut mínimo, curiosamente, mayor que el de ITU-709:

  • Red: 0.64 0.33
  • Green: 0.30 0.60
  • Blue: 0.15 0.06

A lo que voy es a que se podría acercar bastante más la experiencia visual del usuario a la del cine digital con la tecnología actual y mucha mejor relación calidad/precio que los 4K.

Repito que todo esto es sólo por ganas de saber, no por ganas de corregir que para eso ya estais los profesionales del tema que sois vosotros. :ok
 
Respuesta: 4K: el post

Lo del H.265 lo llevo siguiendo desde hace meses. Está claro que es el siguiente escalón. Mejor compresión y menor espacio no significa peor calidad. Ahí está la compresión realizada para cine digital, yo puedo meter un corto en un simple pendrive y que aquello luzca en cine como el original que se vió en la sala de edición. No es magia, son algoritmos muy optimizados.
 
Respuesta: 4K: el post

Es que ese es el campo en el que merece la pena avanzar. En el de los codecs.

Sí, eso está muy bien siempre que la información original sea suficientemente buena, dicho de otra manera, si usamos ese codec pero seguimos con 8 bits por color y submuestreo 4:2:0 como que la ventaja es menor de lo que debería ser.

Lo suyo sería utilizar estos nuevos códecs y aprovechar para meter información más precisa.

Digo yo... :pensativo
 
Respuesta: 4K: el post

Alfredo, la conversión de XYZ a RGB la hace el proyector. Si ves un J2K original alucinas de los colores que tiene, virados.

La codificación a XYZ para cine se hace sobre esos white y black points y con gamma 2.6. Luego el proyector revierte eso a color REAL. Es una forma de codificar los colores optimizando la paleta y la compresión. Así se logra la magia de meter en 1.27 MB la información que tiene originalmente en 6.8, sin aparentemente pérdida (como así sucede).

Ya tanto no llego, no soy ingeniero ni tampoco he profundizado demasiado en esas matrices, pero si decidieron adoptar esa codificación de color es porque tras numerosas pruebas vieron que era la mejor forma de respetar el gamut, profundidad y colores originales.

El tocho de la DCI explica las cosas muy enrevesadas, desde luego...da dolor de cabeza...

Alfredo, en cine digital se usa CIE XYZ, que es un gamut de color definido en 1931 y que no ha sido rebasado todavía. Es el máximo teórico, vamos. El color original XYZ se ve extraño en un monitor RGB, no es un color RGB al uso. Luego en proyección se ajusta a RGB respetando su gamut, obviamente.

Pero entiendo que en algún punto (¿Proyección? ¿Masterización?) de la cadena que utilizais se convierte de XYZ a RGB, no he encontrado los datos exactos de la especificación DCI P3 RGB (aka SMPTE-431-2 "Reference Projector and Environment for Display of DCDM in Review Rooms and Theaters") pero en el documento de las especificaciones para CIne Digital que menciono en mi tocho-post anterior, concretamente en el apartado 8.3. Projected Image and Viewing Environment for Digital Cinema Content, hay una tabla llamada Reference Image Parameters and Tolerances (página 84) en la cual se indica lo siguiente:

Color Gamut
Minimum Color Gamut enclosed by white point, black point and

  • Red: 0.680 x, 0.320 y, 10.1 Y
  • Green: 0.265 x, 0.690 y, 34.6 Y
  • Blue: 0.150 x, 0.060 y, 3.31 Y
Ahí indican un gamut mínimo, curiosamente, mayor que el de ITU-709:

  • Red: 0.64 0.33
  • Green: 0.30 0.60
  • Blue: 0.15 0.06

A lo que voy es a que se podría acercar bastante más la experiencia visual del usuario a la del cine digital con la tecnología actual y mucha mejor relación calidad/precio que los 4K.

Repito que todo esto es sólo por ganas de saber, no por ganas de corregir que para eso ya estais los profesionales del tema que sois vosotros. :ok
 
Respuesta: 4K: el post

Es que ese es el campo en el que merece la pena avanzar. En el de los codecs.

Sí, eso está muy bien siempre que la información original sea suficientemente buena, dicho de otra manera, si usamos ese codec pero seguimos con 8 bits por color y submuestreo 4:2:0 como que la ventaja es menor de lo que debería ser.

Lo suyo sería utilizar estos nuevos códecs y aprovechar para meter información más precisa.

Digo yo... :pensativo

OJO!. El codec H.264 SOPORTA 4:4:4 en determinados profiles:

Support of monochrome (4:0:0), 4:2:0, 4:2:2, and 4:4:4 chroma subsampling (depending on the selected profile).

Otra cosa es que se usen o se puedan reproducir en un reproductor "al uso". Pero es un codec que permite muchas virguerías, eh?.

Para más info:

http://en.wikipedia.org/wiki/H.264/MPEG-4_AVC
 
Última edición:
Respuesta: 4K: el post

Lo del 4:2:0 sobre el papel suena terrorífico y en PAL o NTSC era realmente un dolor de cabeza para determinadas aplicaciones, pero con la llegada de la alta definición me cuesta creer que alguien sea capaz de identificar una imagen 4:2:0 de una 4:2:2 (o 4:4:4). Vamos, que no me lo creo. Nuestra percepción del color es muchísimo menos detallada que la de la luminancia. No sería muy complicado realizar una gráfica similar a la de las distancias necesarias para apreciar los 1080p pero referido al color según la resolución empleada.

Otra cosa es para labores de post-producción donde necesitas el máximo para que el producto final sea óptimo. Por ejemplo, un simple croma en 4:2:0 es abominable, si bien resampleando se puede llegar a solventar en parte.
 
Respuesta: 4K: el post

OJO!. El codec H.264 SOPORTA 4:4:4 en determinados profiles:

Support of monochrome (4:0:0), 4:2:0, 4:2:2, and 4:4:4 chroma subsampling (depending on the selected profile).
Otra cosa es que se usen o se puedan reproducir en un reproductor "al uso". Pero es un codec que permite muchas virguerías, eh?.
En ningún momento lo he dudado :) pero el problema reside en que la especificación de Blu-Ray sólo permite 4:2:0 y 8 bits de precicisión.

Los nuevos cambios, hasta donde he podido leer, únicamente hacen referencia a resolución pero si además de 4K traen 4:2:2 y 12 bits de precisión pues, hombre, cómo que me parecerá de muchas narices... :juas
 
Respuesta: 4K: el post

Claro, por eso te digo de los productores...en un ordenador sí podrás ver ese H.264. Pero es que luego tienes el problema de que los codificadores actuales tampoco soportan ese modo (imagino que FFMPEG sí, en plan linea de comandos). Nadie se ha planteado en hacer un H.264 4:4:4 con 14bits de profundidad de color porque sencillamente ni hay reproductores/displays ni parece haber una demanda que cubra el esfuerzo...
 
Respuesta: 4K: el post

Lo del 4:2:0 sobre el papel suena terrorífico y en PAL o NTSC era realmente un dolor de cabeza para determinadas aplicaciones, pero con la llegada de la alta definición me cuesta creer que alguien sea capaz de identificar una imagen 4:2:0 de una 4:2:2 (o 4:4:4). Vamos, que no me lo creo. Nuestra percepción del color es muchísimo menos detallada que la de la luminancia. No sería muy complicado realizar una gráfica similar a la de las distancias necesarias para apreciar los 1080p pero referido al color según la resolución empleada.
Me alegraría ver esa tabla, a fin de cuentas nunca he visto nada de esto plasmado en datos, tal vez por deformación profesional tiendo a fiarme más de los datos que de las interpretaciones subjetivas (incluyo la mía).

También me gustaría incluir algo del estilo "gamut REC.709 + 4:2:0 + 8 bits" vs "gamut DCI + 4:4:4 + 12 bits" :juas
 
Respuesta: 4K: el post

Nuestra percepción del color es muchísimo menos detallada que la de la luminancia.

Y sospecho que esa diferencia en la percepción se ve acentuada todavía más con la imagen en movimiento. Es decir, que la percepción de la profundidad de color es un proceso fisiológico bastante más lento que el de la luminancia (y más reciente, por pura lógica evolutiva) y esa profundidad tiene una importancia más relativa en la imagen en movimiento que en la estática. ¿Es así?
 
Respuesta: 4K: el post

¡Arggggghhhh! Todos contra mi... :facepalm

:juas

No, en serio, parece que he hecho un "takeover" del hilo y nada más lejos de mi intención.

Buen fin de semana ,señores. :hola
 
Respuesta: 4K: el post

Si lo dices por mí, Alfredo, yo no puedo estar contra nadie porque no tengo ni idea, solo preguntas. :garrulo

Y por otro lado, el debate fundamental e interesantísimo que se está produciendo aquí es entre lo práctico y lo óptimo, que no creo que se pueda (ni se deba) zanjar tan facilmente.

Buen fin de semana. Pero te esperamos el lúnes. ;)
 
Respuesta: 4K: el post

Acabo de terminar un DCP del spot de un gran banco :D.

La calidad de los frames originales en TGA es absolutamente brutal. Realizando una comparación de "diferencia de pixeles" entre el TGA original y el J2K codificado, el resultado es...ningún pixel de diferencia a nivel visual :D

Negro más negro no he visto nunca (las mezclas de diferencia hacen salir pixeles a cual más luminoso según más diferencia haya entre imagenes, y es una forma "científica" de saber las diferencias a nivel pixel entre dos imagenes iguales).

Mola, eh?
 
Respuesta: 4K: el post

Si lo dices por mí, Alfredo, yo no puedo estar contra nadie porque no tengo ni idea, solo preguntas. :garrulo
¡No, hombre! Era una simple broma... :D

Y por otro lado, el debate fundamental e interesantísimo que se está produciendo aquí es entre lo práctico y lo óptimo, que no creo que se pueda (ni se deba) zanjar tan facilmente.

Simplemente por resumir, en mi humilde opinión, la imagen para sistemas de cine en casa en la actualidad puede mejorarse de 2 maneras: o bien aumentando la resolución o bien mejorando los colores.

Para que el aumento de resolución le merezca la pena a la mayoría de los usuarios (porque no dejamos de ser simplemente eso) la diferencia con el actual 1920x1080 debería ser muy grande, mayor que la ofrecida por 4K, creo que en eso estamos de acuerdo ¿no?, entonces nos queda el color que no veo cómo mejorar salvo:
  1. Ampliar el gamut a DCI P3.
  2. Submuestreo 4:2:2
  3. Precisión de color de 12 bits por canal.
Las 3 opciones están actualmente soportadas en los dispositivos de visualización (TV/proyectores), la 3 desde HDMI 1.3.

PD: Ya perdonareis el formato pero no escribo desde el ordenador.
 
Última edición:
Respuesta: 4K: el post

Negro más negro no he visto nunca (las mezclas de diferencia hacen salir pixeles a cual más luminoso según más diferencia haya entre imagenes, y es una forma "científica" de saber las diferencias a nivel pixel entre dos imagenes iguales).

Mola, eh?
Pues sí, es una buena manera. Se nota que te gusta tu trabajo.:)
 
Arriba Pie