UHD Blu-ray y HDR. Lanzamientos y ediciones

A ver si puedes comentar algo de UNDERWORLD que es un título ciertamente controvertido según el display desde el que se visiona, y la opinión sobre una Panasonic New generación es interesante
A ver esos detalles en los trajes góticos de los vampiros qué tal los resuelve el panel va de la Panasonic en HDR

¿Que problemas se comentan? ¿Clipping?

La imagen de UNDERWORLD hace un uso del HDR en las partes oscuras de la imagen magistral. Es una imagen oscura y monocromática de aspecto frío y gótico, pero el alto rango dinámico es capaz de revelar cualquier matiz en los escenarios y vestuario oscuro de los vampiros. Una delicia.
El problema, es que ya sabemos que las OLED aplastan detalle en sombra en HDR, ya que si subes brillo para destapar detalles la asignación de tonos es incorrecta porque en HDR a diferencia de SDR depende de los valores predeterminados de imagen, y además es que se levantan los negros y ya no son tan profundos, con lo cual no te queda otra que dejarlo como viene,así los negros son perfectos pero las imágenes oscuras parecen más oscuras de lo que en realidad son y encima se pierden algunos matices en los detalles justo por encima de negro (también con Unforgiven). Y eso sin contrar que el tone mapping también oscurece la imagen en HDR cosa que pasa en las 2017
Yo he visto la película en una LED y un proyector Epson y el nivel de detalle es exquisito, por eso me interesa saber la opinión de franjhos sobre esta película en particilar.
Es lo que dije en otro foro. La gamma HDR SMPTE 2084 es un púgil peso pesado, Mike Tison, y los televisores actuales han de boxear con esta gamma, y la mayoría no pasan de simples peso pluma, con lo cual caen por KO técnico a las primeras de cambio porque no pueden con esta gamma que es demasiado poderosa para ellos.
Las OLED tienen problemas con la parte brillante y paradójicamente con lo que mejor hacen, que es el oscuro, también, bien por mala uniformidad, bien porque aplastan algo de detalle en sombra.

Por eso digo que a las OLED el DV definitivamente les viene como anillo al dedo. Son unas teles que suplican por metadatos dinámicos

Saludos
 
Última edición:
Ya, pero eso de que se "come" el detalle en sombra lo sabes tú y dos más. Nadie que se precie, al ver la peli, pensará que "no hay detalle en sombra". Ni yo mismo, vaya. Tendría que hacer un A/B con otro display o ponerme en "modo juguetón porculero" para saber si es así o no. Porque obviamente aceptas que las imágenes están "correctas".

Si fuerzas a subir el brillo (sea en HDR o en SDR) para ver "detalle", quizás lo que estás haciendo es incorrecto, pues hay "detalle en sombra" que queda invisible. Eso se ve en cualquier vectorscopio, da igual si el monitor está "a por uvas". Precisamente es la herramienta idónea para saber como es la imagen de una forma gráfica, sin depender del display y de nuestra vista.

Siempre he dicho que ver más detalle no significa ver MEJOR, sino que posiblemente veas cosas que no debes (mierda escondida que no deberías, sacar compresiones guarras, etc, etc, etc).

Yo entiendo que tú, al tener tantos displays, puedas hacer mil comparaciones. Eso para mí más que una ventaja es un error, pues siempre estarás con la duda de "cual es el correcto". Y no, no siempre es más correcto el que más "detalle en sombra" tenga, ojito.

Las cosas no son ni blancas ni negras. Y no defiendo ni a la OLED ni nada, simplemente me fío mil veces más de lo que me chive el vectorscopio que de lo que vea en cualquier monitor, por muy hipercalibrado que esté. Sobre todo ante la duda.
 
Ya, pero eso de que se "come" el detalle en sombra lo sabes tú y dos más. Nadie que se precie, al ver la peli, pensará que "no hay detalle en sombra". Ni yo mismo, vaya. Tendría que hacer un A/B con otro display o ponerme en "modo juguetón porculero" para saber si es así o no. Porque obviamente aceptas que las imágenes están "correctas".

Si fuerzas a subir el brillo (sea en HDR o en SDR) para ver "detalle", quizás lo que estás haciendo es incorrecto, pues hay "detalle en sombra" que queda invisible. Eso se ve en cualquier vectorscopio, da igual si el monitor está "a por uvas". Precisamente es la herramienta idónea para saber como es la imagen de una forma gráfica, sin depender del display y de nuestra vista.

Siempre he dicho que ver más detalle no significa ver MEJOR, sino que posiblemente veas cosas que no debes (mierda escondida que no deberías, sacar compresiones guarras, etc, etc, etc).

Yo entiendo que tú, al tener tantos displays, puedas hacer mil comparaciones. Eso para mí más que una ventaja es un error, pues siempre estarás con la duda de "cual es el correcto". Y no, no siempre es más correcto el que más "detalle en sombra" tenga, ojito.

Las cosas no son ni blancas ni negras. Y no defiendo ni a la OLED ni nada, simplemente me fío mil veces más de lo que me chive el vectorscopio que de lo que vea en cualquier monitor, por muy hipercalibrado que esté. Sobre todo ante la duda.

Ya, pero el problema, es el de siempre, que entras en foros y ves a la gente( todos de OLED) quejándose de la película, en este caso UNDERWORLD. Se quejan de oscura y de que cuesta mucho ver los detalles, y yo les digo que no es por la película, es la tele. Y con esto lo que pasa, es que la gente se ofende. Decir que la película está mal editada, está bien visto, pero decir que es por culpa de la tele no está nada bien visto por sus sus propietarios. Pero a mí me da igual. No es la película, es la tele y es así guste o no.
 
A ver, para empezar, la "gente" no tiene "criterio". Es decir, que habrá gente que diga que "se ve oscura" (COÑO, ES UNA PELI OSCURA, QUÉ QUIERES) o que "no tiene detalle" (define exactamente cómo "se debe ver" una peli en la que la OSCURIDAD predomina).

Yo sin ver planos específicos no puedo decirte nada, es tirar piedras hacia arriba y fijo que alguna me atiza. Pero insisto, aunque haya planos en los que "puedes sacar detalle", éste está oculto por una razón (generalmente artística, no técnica).

En cualquier caso, extrapolar lo que digan tres o cuatro o cinco personas en los foros hacia el resto, es como mínimo un ejercicio de imaginación arriesgado. La inmensa mayoría, si ve la peli, no te va a decir "le falta detalle en sombra", sino "JODER QUE BIEN SE VE LA PELI". Ya está.
 
Jajajaja la caja de la tele es más grande que mi cuarto.
Pues eso dicen que este visualizador está calibrado por coloristas de Hollywood, pero como en toda marca eso es para vender yo me quedaré con la opinión que saqué yo mismo cuando la instale y ponga pelis que antes no podía visualizar al faltar está!les que espero que esta me permita ver.
Probaré todas las uhd, especialmente como me pedís underworld y también quiero resident Evil, y quiero probar pacific rim sienta me impacto antes y supongo que ahora me impactará más, y avatar y muchas jajajaja
:hail:hail:palmasespero caer :amor
 
Jajajaja la caja de la tele es más grande que mi cuarto.
Pues eso dicen que este visualizador está calibrado por coloristas de Hollywood, pero como en toda marca eso es para vender yo me quedaré con la opinión que saqué yo mismo cuando la instale y ponga pelis que antes no podía visualizar al faltar está!les que espero que esta me permita ver.
Probaré todas las uhd, especialmente como me pedís underworld y también quiero resident Evil, y quiero probar pacific rim sienta me impacto antes y supongo que ahora me impactará más, y avatar y muchas jajajaja
:hail:hail:palmasespero caer :amor
Enhorabuena amigo , me alegro que estrenes tele nueva (siempre da emocion) es un buen led y de color y movimiento seguro que te gusta , ademas con poco se verá mejor que el ax800 (que siempre le ha faltado punch y contraste).....
Ya contarás que tal jehe , estamos como crios con zapatos nuevos.....y por lo que he leído pronto la z9 de ronda a tope de nits :)
 
Última edición:

111762-HDR-Fig-2-ORG.jpg


Y, supongo, esa es la razón que en HDR10 los fabricantes prefieran analizar cada fotograma y, si el pico lumínoco es inferior a lo que el dispositivo puede representar, optar por no aplicar tone mapping en esos fotogramas. No es igual que con DV, que esa decisión la puede tomar un humano (en base a escenas), pero algo es algo.

En realidad, en HDR10 lo que se aplica es una "lut" fija, lo que hace que no sea todo lo óptima posible. Es como si en edición aplicas un look global a tu montaje. Algunos planos quedarán guay, otros quedarán mal. El televisor no analiza nada, tan solo aplica la lut y realiza el tone mapping en función de lo que el fabricante quiera (más luminosidad pico de brillo -clipping- o más detalle en altas luces -escenas un poco más oscuras en según que casos-)

Al aplicar una "lut dinámica" (para entendernos), estás optimizando al máximo todo, pues trabajas a nivel de fotograma, si así lo deseas.

Es el camino lógico, sea DV o HDR que venga (que vendrá, eso está más que claro)

Ya, actpower

Acerca de los metadatos, creo recordar que estos van incrustados en el video, así pueden informar, por ejemplo, del pico de brillo hasta de un fotograma en concreto. Si este pico es inferior a los nits del visualizador, entonces no hace falta tone mapping en esa escena (o conjunto de fotogramas). En HDR10 el tone mapping es global, fijo, en toda la peli. Creo, estoy mas verde que el propio HDR.

Hum, puede que sea cierto, pues hace un par de días contestaron los de Dolby a una pregunta al respecto de este tema en Cine Digital y la respuesta fue:

DCDMs (Digital Cinema Distribution Masters) for Dolby Vision don’t carry metadata. The pixels are graded specifically for the Dolby Vision projection system.

Verdes estamos todos, que damos palos de ciego constantemente...

Ahora se ha "averiguado" que la A1 puede emular el look visual de HDR Dinámico incluso con fuentes SDR y hacer que prácticamente todo luzca como tal. Es más, al usar el sistema de Active HDR en HDR10, el look es exactamente el mismo que en DV, pues parece ser que el "Active HDR" pasa de los metadata de HDR y usa la información de fotograma para recrear la mejor imagen posible en HDR.

Y lo que nos queda por ver...

Y al ver la imagen con pico de 200 nits se entiende perfectamente porque los fabricantes están ignorando ciertos metadata HDR10 y analizando la imagen por su cuenta.
 
Es que por lo que se ve, ningún fabricante lee los "metadata" de HDR10!!!. Vamos, que puedes poner lo que te salga del mondongo que el display hará lo que quiera. OJO, con HDR10. Con DV la cosa cambia y el display le pasa el testigo a la metadata.

Esto es algo que he leído hoy, y para mí es toda una sorpresa. Yo es que alucino, entonces. Estamos asistiendo al nacimiento y evolución de algo sobre lo que nosotros mismos somos propios betatesters que damos feedback a los fabricantes, los cuales luego van adaptando las cosas un poco "así como me viene".

Yo alucino. No me extraña que al final, lo mejor sea la opción "King", que es pasar de todo, disfrutar de lo que vamos viendo y arreando. Es casi mejor, porque de lo contrario te da un soponcio...
 
La imagen de UNDERWORLD hace un uso del HDR en las partes oscuras de la imagen magistral. Es una imagen oscura y monocromática de aspecto frío y gótico, pero el alto rango dinámico es capaz de revelar cualquier matiz en los escenarios y vestuario oscuro de los vampiros. Una delicia.
El problema, es que ya sabemos que las OLED aplastan detalle en sombra en HDR, ya que si subes brillo para destapar detalles la asignación de tonos es incorrecta porque en HDR a diferencia de SDR depende de los valores predeterminados de imagen, y además es que se levantan los negros y ya no son tan profundos, con lo cual no te queda otra que dejarlo como viene,así los negros son perfectos pero las imágenes oscuras parecen más oscuras de lo que en realidad son y encima se pierden algunos matices en los detalles justo por encima de negro (también con Unforgiven). Y eso sin contrar que el tone mapping también oscurece la imagen en HDR cosa que pasa en las 2017
Yo he visto la película en una LED y un proyector Epson y el nivel de detalle es exquisito, por eso me interesa saber la opinión de franjhos sobre esta película en particilar.
Es lo que dije en otro foro. La gamma HDR SMPTE 2084 es un púgil peso pesado, Mike Tison, y los televisores actuales han de boxear con esta gamma, y la mayoría no pasan de simples peso pluma, con lo cual caen por KO técnico a las primeras de cambio porque no pueden con esta gamma que es demasiado poderosa para ellos.
Las OLED tienen problemas con la parte brillante y paradójicamente con lo que mejor hacen, que es el oscuro, también, bien por mala uniformidad, bien porque aplastan algo de detalle en sombra.

Por eso digo que a las OLED el DV definitivamente les viene como anillo al dedo. Son unas teles que suplican por metadatos dinámicos

Saludos

Ah ya, que lo preguntas por el clipping de las LG OLED. ¿En que hilo en concreto lo están debatiendo?

No se porqué, pero pensé en el clipping de los dispositivos que no llegan a un minimo de negro, al ser absoluta en todos los extremos.

Pffff, que torturilla escribir con el mobil.
 
Es que no hay que ser tan melodramáticos. Al que le interesa un tema, pues estudia, profundiza, se documenta, etc. Y el que no le interesa, pues pasa de estos temas y arreglado. Es cuestión de inquietudes :ok

Es lo que dice más atrás. Algunas teles y los proyectores actuales son pesos pluma y HDR10 ST2084 es Mike Tison. :lol
 
Ya ves actpower, yo cuando vi que todo el procesado quedaba en manos de los fabricantes de dispositivos visualizadores y que no había un estandar definido para elementos clave como tone y gamut mapping lo primero que pensé es que esto iba a ser un sinsentido muy divertido (y no me he cortado en decirlo).

Ahora, con DV en discos, si estoy mirando el tema con otros ojitos.
 
Y sierra, sobre un estándar para tone mapping no lo hay ni lo habrá porque HDR10 es absoluta, y aplicar un tone mapping es relativo.

Un estándar se hace para indicar la forma correcta de ver el contenido bajo unas especificaciones dadas, y aquí no hay forma correcta de ver HDR10 si no es bajo los valores absolutos especificados para HDR10 ST.2084. Cualquier otra cosa, en mayor o menor grado, es lnexacto, por eso no habrá un estándar y todo quedará en manos de los propios fabricantes hasta que la tecnología evolucione lo suficiente para sacar teles que le boxeen de tú a tú a HDR10 :mparto
 
Ronda, es que no puedo tomarte en serio porque lo que ahora para ti es "Tornado fuerza 5", "Rocky Balboa" y demás "hypes", dentro de unos meses vuelven a ser purria, formatos "peso pluma" y cosas así. Entiendeme, no se puede estar constantemente en lo alto de la ola, porque ni es sano, ni es económico, ni reporta estabilidad, más bien frustraciones al saber que hay algo "mejor" a la vuelta de la esquina.

Porque con esto del HDR entramos en una espiral donde es "cada vez más, cada vez mejor", cosa que con Rec.709 nunca ha sucedido (ese "formato menor" que tantas alegrías nos ha dado y nos sigue dando y nos seguirá dando).

Tú mismo puedes leer tus propias declaraciones, dejando al OLED como algo prescindible en favor de mejores Nits en LCD, pero, ¡ay!, cuando llega DV te trastoca todo y ahora SI, el OLED destaca enormemente y de qué manera, y ya estás buscando el mejor display en LCD con soporte Dolby Vision (que ni existe, tan solo promesas que...).

Pero es que todo esto puede cambiar en pocos meses o un año si finalmente la BDA declara HDR10 como muerto y ofrece la posibilidad de HDR Dinámico como Standard (de nuevo, un nuevo Standard). Y vuelta de nuevo a la espiral loca.

Por eso yo prefiero evaluar el bosque desde la altura, y vislumbrar un poco hacia donde pueden tirar las cosas, no ir picoteando de un lado a otro sin sentido y sin saber exactamente como será el siguiente movimiento.

Sin acritud, por supuestísimo.
 
Podrían haberlo definido si hubieran querido, mas o menos restrictivo, mas o menos amplio, pero algo.

Patente de tone mapping de Dolby: http://patft.uspto.gov/netacgi/nph-Parser?Sect1=PTO2&Sect2=HITOFF&u=/netahtml/PTO/search-adv.htm&r=7&f=G&l=50&d=PTXT&p=1&S1=(Dolby+AND+HDR)&OS=+Dolby+AND+HDR&RS=(Dolby+AND+HDR

...
Dolby Vision is a complete and comprehensive system encompassing tools and standards for monitoring and grading of content, through delivery and transmission, and finally to the end user’s display in their home.

On the content creation side, on the surface at least, it’s pretty straight forward: The capabilities of the monitor are known, the artist is free to work their magic, and a ton of metadata is tagged to the content. The real genius comes at the other end.

Here I am with my Dolby Vision TV with, let’s say, a 500 nit capability. I play content which was mastered to 4,000 nits. What happens to the picture data between 500 and 4,000 nits? There is a Dolby Vision processor chip in the TV which, using all that juicy metadata generated during encoding, “remaps” the luminance portion which is above the display’s peak. This is not a canned “4,000-to-500 nits” tone map: it is dynamic and content aware, employed on a per-frame basis.

So for example if one scene has data up to 4,000 nits and the next peaks at 1,500, the two will be tone mapped differently. As cliché as this sounds, it’s going to looks as good as it possibly can while being faithful to the source content within the display’s capabilities. Dolby Vision displays are calibrated by referencing something somewhat humorously called the model’s “Golden Reference”.

Sin embargo, HDR10:

In a nutshell, HDR10 is little more than a collection of HDR related standards, majority of which are cribbed from Dolby Vision anyway,most notably PQ/ST2084! Again I ask: did anyone send Dolby a Thank You card for giving away all their hard work? This is going to come as a shocker to some of you, but there isn’t actually an official standard called HDR10. People just started referring to HDR10 because it’s HDR and 10-bit. You can think of HDR10 as being merely a subset of Dolby Vision, predicated on 10 bit. The KEY differentiator: HDR10 completely omits the playback side of the chain. HDR10 defines NO standards for tone and gamut mapping. None. Nada. In consequence we cannot comprehensively calibrate an HDR10 display (we’ll talk about exactly what you can and cannot do a little later). Write that down, stick it on your fridge, and tell everyone you can. If I could, I would have that on a sandwich board and walk up and down Hollywood Boulevard.

PQ/ST2084 alone does not an HDR system make. What happens when an HDR10 clip mastered to, say, 1000 nits is played on a display capable of 500 nits? Who the heck knows? That’s up to the TV manufacturer and it’s going to be different from manufacturer to manufacturer, probably from model to model as well. HDR10 does not currently have the dynamic frame by frame metadata of Dolby Vision. As such even the best HDR10 displays employing some sort of tone mapping cannot dynamically adjust it from scene to scene. In other words, while peak-brightness scenes may be well served by a generic tone map, anything short of peak will not.

While there is talk of shoehorning something similar to Dolby Vision’s dynamic per-frame metadata in the future, in the interim the best effort to emulate it would be content detection, but that would be a most inelegant approach (does anyone remember all the trouble we had getting DVD players to detect a simple 3-2 cadence?). I can see the marketing rhetoric piling up already, with each manufacturer claiming they do it “better”, but in the end none will be able to claim faithfulness to the mastered material to the extent Dolby Vision can. Some don’t even try and simply clip everything above the display’s native capability. Ouch! Content creators should be scared to death to see their hard work distributed with HDR10: there is no way for anyone at the other end to know if they are seeing all that hard work done in mastering and grading or if they are seeing an aberrant image. Honestly, it’s a wonder anyone so much as farted around with HDR10, let alone went ahead and built/sold TVs last year employing it (without alsoincluding the categorically superior Dolby Vision).
High Dynamic Range (HDR): Part 2: An Explanation of Dolby Vision and HDR10 - HomeTheaterHifi.com

Es un sinsentido, Ronda. Y lo sabes.
 
Podrían haberlo definido si hubieran querido, mas o menos restrictivo, mas o menos amplio, pero algo.

Patente de tone mapping de Dolby: http://patft.uspto.gov/netacgi/nph-Parser?Sect1=PTO2&Sect2=HITOFF&u=/netahtml/PTO/search-adv.htm&r=7&f=G&l=50&d=PTXT&p=1&S1=(Dolby+AND+HDR)&OS=+Dolby+AND+HDR&RS=(Dolby+AND+HDR

...
Dolby Vision is a complete and comprehensive system encompassing tools and standards for monitoring and grading of content, through delivery and transmission, and finally to the end user’s display in their home.

On the content creation side, on the surface at least, it’s pretty straight forward: The capabilities of the monitor are known, the artist is free to work their magic, and a ton of metadata is tagged to the content. The real genius comes at the other end.

Here I am with my Dolby Vision TV with, let’s say, a 500 nit capability. I play content which was mastered to 4,000 nits. What happens to the picture data between 500 and 4,000 nits? There is a Dolby Vision processor chip in the TV which, using all that juicy metadata generated during encoding, “remaps” the luminance portion which is above the display’s peak. This is not a canned “4,000-to-500 nits” tone map: it is dynamic and content aware, employed on a per-frame basis.

So for example if one scene has data up to 4,000 nits and the next peaks at 1,500, the two will be tone mapped differently. As cliché as this sounds, it’s going to looks as good as it possibly can while being faithful to the source content within the display’s capabilities. Dolby Vision displays are calibrated by referencing something somewhat humorously called the model’s “Golden Reference”.

Sin embargo, HDR10:

In a nutshell, HDR10 is little more than a collection of HDR related standards, majority of which are cribbed from Dolby Vision anyway,most notably PQ/ST2084! Again I ask: did anyone send Dolby a Thank You card for giving away all their hard work? This is going to come as a shocker to some of you, but there isn’t actually an official standard called HDR10. People just started referring to HDR10 because it’s HDR and 10-bit. You can think of HDR10 as being merely a subset of Dolby Vision, predicated on 10 bit. The KEY differentiator: HDR10 completely omits the playback side of the chain. HDR10 defines NO standards for tone and gamut mapping. None. Nada. In consequence we cannot comprehensively calibrate an HDR10 display (we’ll talk about exactly what you can and cannot do a little later). Write that down, stick it on your fridge, and tell everyone you can. If I could, I would have that on a sandwich board and walk up and down Hollywood Boulevard.

PQ/ST2084 alone does not an HDR system make. What happens when an HDR10 clip mastered to, say, 1000 nits is played on a display capable of 500 nits? Who the heck knows? That’s up to the TV manufacturer and it’s going to be different from manufacturer to manufacturer, probably from model to model as well. HDR10 does not currently have the dynamic frame by frame metadata of Dolby Vision. As such even the best HDR10 displays employing some sort of tone mapping cannot dynamically adjust it from scene to scene. In other words, while peak-brightness scenes may be well served by a generic tone map, anything short of peak will not.

While there is talk of shoehorning something similar to Dolby Vision’s dynamic per-frame metadata in the future, in the interim the best effort to emulate it would be content detection, but that would be a most inelegant approach (does anyone remember all the trouble we had getting DVD players to detect a simple 3-2 cadence?). I can see the marketing rhetoric piling up already, with each manufacturer claiming they do it “better”, but in the end none will be able to claim faithfulness to the mastered material to the extent Dolby Vision can. Some don’t even try and simply clip everything above the display’s native capability. Ouch! Content creators should be scared to death to see their hard work distributed with HDR10: there is no way for anyone at the other end to know if they are seeing all that hard work done in mastering and grading or if they are seeing an aberrant image. Honestly, it’s a wonder anyone so much as farted around with HDR10, let alone went ahead and built/sold TVs last year employing it (without alsoincluding the categorically superior Dolby Vision).
High Dynamic Range (HDR): Part 2: An Explanation of Dolby Vision and HDR10 - HomeTheaterHifi.com

Es un sinsentido, Ronda. Y lo sabes.

Si se puede, por qué no lo han definido?
 
Porque sencillamente, estamos en la fase HDR-Ready. Las cosas complejas no se pueden crear de la noche a la mañana.

O eso, o la han cagado completamente creando un Standard que nace MUERTO y con poco recorrido. Y lo veremos, vamos que si lo veremos.
 
Buenas noches amigos, he estado desde las 3 de la tarde liado con la instalación y tal, pues como va en la pared y estos cabrones han puesto la parte de sujeción más baja que en los modelos de 2015, y se me quedaba demasiado alta me ha tocado hacerle un apaño a los soportes.
Bueno, mis primeras impresiones:
:hail:hail:palmasmucha tela, todas las sombras raras que veía antes, eran cosas, niebla, un tío pasando por detrás para pillar a la protagonista y matarla.
Lo flipo de lo que me estaba perdiendo.
Ahora sí se ven las cosas, y no digo que en otros visualizadores se vea incluso mejor
Resident Evil, ahora sí de pm.
La gótica underworld, una maravilla, como destacan los trajes negros de cuero enmla noche.
Una pasada joder.
Tengo 3d y se ve de lujo
Eso sí una curiosidad las gafas 3d de la ax800 no me las reconoce, pero unas Samsung que pedí a Amazon y me salieron por 20 euros van de puta madre.jajajajajaj
Las demo 4k hdr se ven de escándalo, especialmente esa de LG y Samsung del ajedrez
En general hoy muy contento
Netflix muy bien y con hdr
Amazon aún no está
 
[QUOTE="franjhos, post: 1651759, member: 8010]
:hail:hail:palmasmucha tela, todas las sombras raras que veía antes, eran cosas, niebla, un tío pasando por detrás para pillar a la protagonista y matarla.
Lo flipo de lo que me estaba perdiendo.
Ahora sí se ven las cosas, y no digo que en otros visualizadores se vea incluso mejor
Resident Evil, ahora sí de pm.[/QUOTE]

Madre Dios :cura

La gótica underworld, una maravilla, como destacan los trajes negros de cuero enmla noche.
Una pasada joder.

Tornado de fuerza 5 jajajajaja
Ale disfrutar del Marketing como cochinos. The future si now
 
Mañana seguiré haciendo pruebas, ahora a descansar un rato y a ver un capítulo de los 100 en la full HD de mi hermana.
Cuando pueda probara pacific rim, el Terminator Génesis, Lala Land. Planeta tierra 2. Y el como escala el he y DVD. Los colores se ven naturales no muy chillones, eso me gusta,
 
La de Terminator yo la vi muy floja, es que parece un bluray, y por lo que dicen por ahí también he vuelto a acertar, pero Planeta tierra y Pacific Rim son un espectáculo en HDR10.
 
Yipi ka yei Sierra, he leído tu link y es muy bueno, y es lo que llevamos desde el siglo pasado comentando. En HDR10 una película masterizada a 4000 nits no hay forma correcta, en términos de exactitud de imagen, de visionarla sin concesiones en un sentido u otro. Y aquí la norma es que no puede haber norma. No la hay porque es un valor absoluto y en la escala de grises HDR10 hay unos valores de luminancia absolutos asignados a cada nivel de vídeo que hay que mantener, y si una pantalla no produce los suficientes nits cada fabricante tendrá que hacer frente a este handicap como buenamente puede o considere. Esto no es un problema del estándar, es un problema de los fabricantes de televisores. Pero esto no quiere decir que se vea mal HDR10 en teles que les falte volumen, eso no es verdad, solo es que en determinados puntos igual hay clipping en algunos destellos o la imagen podría ser algo más oscura (Con SDR al principio la mayoría de televisores se veían francamente mal, muy inexactos, mucho peor de lo que está pasando con HDR10). Es más el mismo estándar te dice que para una reproducción de calidad basta con llegar a 1000 nits en LED o 540 en OLED.

Dolby Visión es un ecosistema muy diferente.
Dolby Visón hace mejores a las teles que no llegan al estándar por una u otra razón. Sin embargo en teles con buena capacidad las diferencias entre DV y HDR10 serán muy mínimas o inexistentes, ya que los metadatos dinámicos solo ajustan escena a escena en caso de que la tele tenga problemas de volumen de luz y color. En una tele que no tenga estos problemas de volumen de luz y color DV y metadatos dinámicos no supondrá casi o ninguna diferencia frente a HDR10 esceptuando la profundidad de bits.

Se está magnificando demasiado el problema. Esto se ve de PM aunque la tele no llegue al estándar, y los problemas son de carácter mínimo. Un poco de clipping por aquí o un poco de oscuridad por allá, pero las imágenes dentro de lo que cabe son bastante precisas y de enorme calidad. Se puede mejorar? Sí, sí porque hay margen de mejora, pero ahora ya se ve muy bien, entre otras cosas porque para mejorar lo anterior bluray hacía falta muy muy poco.
 
Última edición:
Arriba Pie