Comprar TV nueva

Si se constata si....que ninguna tele de 55", 60",incluso 65" te va a dar inmersión cinematografica es un hecho! .Creo que recomiendan los especialistas 90" mínimo así que fíjate....

...pagar entrada y Sony de 42" para casa mi recomendacion
 
Última edición:
Salas verticales de Cine, el concepto.

Vuelve a disfrutar del cine en la sala Dolby Cinema de Cinesa la Maquinista

...-ese patio de butacas casi vertical…–,

......el conceto para anacleto!

¿Prefieres un patio de butaca llano donde el cabezón del de delante te tape la pantalla?. A mí no me agrada, sinceramente.

Además, yo suelo coger siempre que puedo las butacas más centradas tanto en horizontal como en vertical respecto a la pantalla. Es el "punto dulce" de cualquier sala.

En serio, ¿de donde has salido tú?. Estás hipercondicionado o has venido de 1960 a través de un agujero de gusano, no se.

O nos estás trolleando a todos para tu tesis "como reirse de un foro" :mparto:mparto:mparto

¿Conoces a Erty?. Seríais grandes amiguitos.
 
Sobra la entrada y faltan pulgadas, mi recomendación.

Deberías de ver algo en condiciones (proyectores en hogares), tal vez cambies de opinión :ok

:hola

Gracias, no...
Pago entrada...estarás de acuerdo que hasta los cines (no todos) petardean bastante

¿Prefieres un patio de butaca llano donde el cabezón del de delante te tape la pantalla?. A mí no me agrada, sinceramente.

Además, yo suelo coger siempre que puedo las butacas más centradas tanto en horizontal como en vertical respecto a la pantalla. Es el "punto dulce" de cualquier sala.

En serio, ¿de donde has salido tú?. Estás hipercondicionado o has venido de 1960 a través de un agujero de gusano, no se.

O nos estás trolleando a todos para tu tesis "como reirse de un foro" :mparto:mparto:mparto

¿Conoces a Erty?. Seríais grandes amiguitos.

Si....sala grande plana.
No
No
No
 
Sobra la entrada y faltan pulgadas, mi recomendación.

Deberías de ver algo en condiciones (proyectores en hogares), tal vez cambies de opinión :ok

:hola

Gracias, no...
Pago entrada...estarás de acuerdo que hasta los cines (no todos) petardean bastante

Por eso te digo, en muchas ocasiones en tu casa obtienes mejores resultado que en salas de cine, tanto en audio como en video y sin los inconvenientes de la "multitud". Pero no lo esperes con un miniproyector de esos...

:hola
 
Los teatros gigantes (casi planos quedan algunos) es donde yo he visto las proyecciones mas potentes.....ahora se esta perdiendo...ah perdón que estoy trolleando otra vez sobre el pasado!

Si le digo a Actpower que Tarantino graba en VHS de la tele para verlas luego analogizadas y envejecidas le provoco un desmayo

Resumiendo y adheriendome de nuevo al hilo....Sony LeD tv no mas de 50" para uso combinado TDT,BD y frecuentar buenas salas
 
Última edición:
Pocas proyecciones potentes me da a mí que has visto. Vete a la sala Laser de Kinépolis en Madrid o mejor aún, a la sala Dolby de "La Maquinista", y ya si eso hablamos luego.

También muchas de las salas "Atmos" de Cinesa están muy bien acondicionadas y con proyección excelente.

No se está perdiendo nada, hoy día hasta una sala normalita te da una proyección muy buena. Es cuestión de dar con ellas. Hay bastantes, pero hay que buscarlas.

Pero desde luego, salas con butacas en formato plano, no piso ninguna. Menudo horror.

Comprate un OLED y disfruta, cojones.
 
¿Y para qué sirve tener unos negros perfectos las OLED sino son capaces de alcanzar los 1,000 nits minimos necesarios para reproducir un HDR en condiciones?
 
¿Y porqué esa obsesión con los Nits?

¿Sabes que la UHD Alliance determina 540 nits para OLED?. Tiene lógica, el suelo de negro es inferior a LCD, ergo para obtener la misma sensación visual, bastan 540 nits. Mi OLED me da 600 de media, con lo que...

Minimum brightness and contrast ratios: This is probably the most interesting one, as it's great for consumers and shows the different players here at work. There are two possible minimum specs. A minimum brightness of 1,000 nits, along with a black level of a maximum of 0.05 nits (20,000:1 contrast ratio) [LCD], or a minimum brightness of 540 nits, along with a black level of a maximum of 0.0005 (1,080,000:1) [OLED].

Ah, por cierto, lo de los 1000 nits tiene "trampa". Pues no te dicen que en realidad, esos 1000 nits se reducen a un mísero 5% del área total de la pantalla. Entonces, ¿de qué estamos hablando, concretamente?

Sonix, hazte un favor y que no te condicionen esos 1000 nits. No son más que un numerito. Ve a casa de alguien que tenga un OLED de 2016. Que te ponga contenidos en HDR. Y ya después, si eso, opinas con cierto fundamento. Gracias :-)
 
Última edición:
A diferencia de SDR, los NITS en UHD no sólo representan valores de luminancia, también representan valores digitales de vídeo, así, 1000 NITS no solo son 1000 nits de brillo, también tienen un valor de vídeo digital asignado en la escala, el 75% de vídeo, por lo tanto, 1000 NITS representan un brillo y un valor de vídeo en HDR que hay que cumplir porque en HDR los valores son absolutos. ¿Por qué? Pregúntenles a Dolby, yo solo les cuento lo que hay :cuniao

Y qué pasa sino se llega a 1000 nits? Pues muy simple, que hace clipping, y las OLED 2016 hacen clipping sobre los 700 NITS, que es alrededor del 70% de vídeo, con lo cual llegar a los 1000 NITS, no es que sea importante, es vital para una correcta representación HDR.

El problema de todo esto, es que la gamma HDR es absoluta, no relativa, como pasa en SDR que la curva de gamma se acomoda al brillo del visualizador porque a partir de su 100% se calculan todos los valores de luminancia según la gamma que hayamos seleccionado. Aquí en HDR 10 (con Dolby Vision podría ser diferente) a la curva de gamma le da igual el brillo con el que cuente el visualizador, y si el display no llega, habrá clipping, y esto son números, matemáticas, amigos.

Esta es la razón por la cual en las reviews profesionales se dice que las OLED flaquean en HDR. La razón es esa, que les falta brillo para cubrir la gamma HDR, que como mínimo habría de llegar a ese 75% de vídeo que está asignado a 1000 nits, y es por eso que comparando con LEDs que llegan a cubrir ese espectro las OLED hagan clipping y no pueda resolver detalles en las altas luces como sí que resuelven las LED. Eso sí, en negros van perfectas porque ahí esta tecnología es netamente superior a cualquier propuesta basada en LED incluso siendo FALD LED, y sobre esto os comento una desagradable experiencia reciente que he tenido con el buque insignia de Panasonic DX900 y sus más de 500 zonas de mierda de atenuación local.

Como hay una oferta muy buena en ECI, en la que la Panasonic DX900 se queda en 2239 eur, que está muy bien, decidí darle una segunda oportunidad (la primera fue igual de traumática, y el hombre es el único animal que tropieza dos veces en la misma piedra, y yo hasta 3) porque la OLED 55 B6 la tenía colocada por 1450, con lo cual, solo tenía que poner la diferencia. Pues bien, me la traen, las pruebo con las Harry Potter UHD, que tienen una imagen muy cabrona como todos sabréis, y la tele con sus más de 500 zonas hacía agua por todas partes y aquello era un desastre total, que además ya conocía de mi anterior experiencia con esta tele, ya que me hizo lo mismo con Exodus UHD. En definita, que esta tele en HDR, como le pongas algo complicado, se atraganta. Bien, llamo, viene el chaval a recogerla, que ya lo conozco, le enseño el pastiche inmundo con las Harry Potter, y el tío dice: Madre de Dios, esto es una unidad defectuosa o las películas están mal editadas (nunca entenderé la manía de la gente a echarle la culpa de todo a las películas, imagino porque es lo más fácil jajaja). Se lo pongo en la OLED que estaba al lado, y perfecto. "Pues entonces es que está defectuosa, lo pongo en albarán y que te la cambien o que Panasonic se ocupe porque esto es inaceptable, una verguenza". En fin, para qué os voy a contar más :D

Pero una cosa es esto, admitir los defectos de la tecnología LED y todos sus sucedáneos retroiluminados, y otra muy distinta es querer negar cualquier defecto en las OLED defendiéndolas a capa y espada como si la vida fuera en ello :inaudito

Un ejemplo del clipping que hacen las OLED en "Pan", lo tenéis aquí. Son unas fotos, con lo cual, entiéndase lo que son:

OLED B6 CON VALORES DE IMAGEN Y SEGUIMIENTO GAMMA CORRECTOS


LO MISMO, OLED 55 B6 CON MISMOS VALORES, PERO REDUCIENDO EL CONTRASTE DESDE EL UB900


Entiéndase que son unas fotos, y que cualquier parecido con la realidad es mera coincidencia.

Que hay clipping, es obvio porque en la segunda foto el sol está definido, ya no es un pegote inmundo, y lo más importante, se recuperan todo tipo de gradaciones de color en las altas luces que en la primera no están.

El problema, es al ser una gamma de valores absolutos, el bajar el contraste para recuperar información tiene un elevado coste: 1º Te cargas el HDR, 2º Te cargas completamente la gamma porque es absoluta, 3º te cargas la asignación de tonos por lo mismo.

Esto último, de las fotos, es que uno en el canal creía haber descubierto la fórmula de la CocaCola, comentando que el con su configuración sabía más que todos los callibradores e ingenieros del mundo porque recuperaba la información clippeada, cambiando rangos bajos por altos, moviendo contraste, brillo y todo lo que se hubiera podido ocurrir para recuperar lo clipeado. En fin, poderse, se puede, pero la gamma, ATPC, y en UHD, GAMMA=HDR. Van tan unidas, que lo segundo no vale para nada sin lo primero.

En resumen: Para HDR, es mejor LED u OLED en función de lo que estés viendo. Así, habrá películas que se verán mejor con LED, y otras mejor con OLED. Sin embargo, mi experiencia es las LED tienen algo de ventaja con los UHD.
 
¿Y para qué sirve tener unos negros perfectos las OLED sino son capaces de alcanzar los 1,000 nits minimos necesarios para reproducir un HDR en condiciones?

Buena observación.
Digamos que lo que pierdes por un lado, lo ganas por el otro, y en secuencias oscuras vas a tener en HDR unas imágenes de gran calidad. En la parte alta tendrás clipping parecido al de las fotos porque no llegan al brillo suficiente para resolver esos detalles de luz y color como se ve en las fotos de Pan.

Pero por favor, si estáis interesados en HDR, olvidaros de la Panasonic DX900, porque hay películas UHD que se ven mal, y para eso es mejor comprar una EDGE LED que en HDR se ven muy bien, valen menos de la mitas de esa Panasonic, y no hacen esas cosas extrañas con algunas películas.

:ok
 
keep-calm-and-buy-sony-3.png
 
Última edición:
El problema del clipping en el HDR no proviene del OLED, sino de la forma en que se trata la señal HDR.

Mientras que llevamos DECENAS de AÑOS trabajando con señales 8bits y un rango de color definido, con el HDR no llevamos ni 3 años (internamente bastantes más, pero a nivel de display y operativa, 3 contados). Eso significa que hay mucho que aprender y mucho que arreglar.

Cualquier persona que haya trabajado con fotografías RAW de 16 o más bits, sabe que para pasarlas a 8bits hay que realizar un mapeo tonal. Esto significa retener tanto por arriba como por abajo para que los límites estén bien definidos. Las diferencias entre una imagen de 8 bits y otra de 16bits es de más cantidad de colores a mostrar. Más profundidad de color.

Aquí es donde el HDR entra en escena, pues aún teniendo 32bits por canal, hasta hace relativamente poco no existían displays capaces de enseñar tal cantidad de información a la vez. Eso exige un cambio de reglas importante, en el que ya no solo vale el valor concreto del bit, sino su posición de brillo respecto a la pantalla.

Un correcto sistema de Tone Mapping no realizará Clipping alguno, pues ajustará los 1000 nits máximos masterizados en un archivo HDR, al máximo del display. Es lo que hacen TODOS los televisores HDR, pues no todos ofrecen esos 1000 nits máximos (sean OLED o LCD). El problema, pues, es del algoritmo de Tone Mapping, no de la propia tecnología LCD u OLED.

También se puede dar el caso de un mal masterizado, claro que sí. Han habido casos sangrantes en Bluray, y en HDR la cosa anda así asá.

Curiosamente, en SDR tenemos el efecto contrario. La "norma" marca 100cd/m2 para el 100% de blanco. Es decir, un blanco al 100% IRE, debería ofrecer una producción de luz de 100 nits. Que es JUSTO lo que sucede en HDR, pues las señales están mapeadas sobre ese modelo.

Sin embargo, tenemos televisores que ofrecen hasta 400cd/m2 en SDR. El televisor en estos casos realiza el proceso inverso, el blanco puro IRE 100 se escala a lo máximo que da ese televisor. El resultado en un televisor OLED es que el SDR tiene un "look" muy parecido a HDR, precisamente por ese tema.

Yo todo esto lo he podido comprobar por un bug muy simpático que tiene la aplicación de Netflix en la XBOX ONE "s", que activa el HDR al iniciar la aplicación, con lo que las imágenes en SDR quedan mapeadas dentro de HDR, ergo un blanco brillante queda reducido a un blanco sosín. Si ese mismo material SDR se ve en la aplicación de Netflix de la tele, se aprecia mucha más intensidad, porque LA TELE está escalando los valores reales a los máximos.

Pero todo esto yo ya lo sabía de hace bastantes años. Porque no es nada nuevo para mí. Al trabajar en animación 3D, la aplicación del HDR empezó precisamente por ahí, para dar unos reflejos a los objetos renderizados mucho más convincentes, y su uso para iluminación global es determinante, por cómo funciona. Por aquel entonces no era posible ver esos archivos más que en una parte en concreta, pero la información estaba ahí y se usaba para generar bonitos renders fotorealistas.

Todo este rollo que he soltado se entendería mucho mejor estando delante del ordenador, con el sistema de edición, realizando pruebas y viéndolas in-situ en un televisor o monitor HDR. Yo ya he hecho las suficientes pruebas para saber por donde va el tema, pero sucede que por lo que sea, hay gente que no confía en lo que digo y prefiere convencerse en lo que diga un guiri en un foro extranjero. Yo no soy ni más profesional ni menos profesional que esas personas a las que se acuden como "popes", pero quizás ellos no sepan al 100% de donde proviene todo esto y solo ven parte del problema.

Yo tampoco lo veo al 100% porque lo que veo son muchos impedimentos y muchas trabas. El HDR ha venido para quedarse, pero nos va a llevar unas cuantas iteraciones el poder entenderlo al 100%. Yo que afortunadamente trabajo desde el mismo origen de las imágenes, puedo ver donde está el fallo, si en origen o en destino.

Me encantaría algún día formar una reunión de gente INTERESADA DE VERDAD en todos estos temas para que entendáis cómo funciona todo esto y se saquen conclusiones in-situ. Sería una reunión provechosa y esclarecedora, estoy seguro. Por desgracia, creo que no se producirá nunca.
 
Pues si...que por fin se están fabricando televisores sobrados de luz...pero claro si la mismísima buque insignia de Panasonic sigue quemando los destellos como mostraba Ronda....le queda mucha evolucion.....

El WRGB ... es decir el pixel blanco autónomo opino es irrenunciable
 
Hum...más o menos. Sobrados de luz ya iban. HDR es otro concepto diferente, un paso más hacia una calidad de imagen similar a la original.

Panasonic ya no es la que era y ni pinta nada en este nuevo mundo. LG es la que está apostando fuerte por OLED, suyos son los paneles y la tecnología.

WRGB es una matriz de display que usa cuatro sub-pixeles para conformar un RGB único. No es ni mejor ni peor que una matriz basada en RGB (incluso esa matriz RGB puede tener el orden alterado, como GRB, que es peor aún). El uso de la matriz WRGB en OLED tiene motivos fundados, pues es la única forma de fabricar paneles con precio ajustado y con un nivel de vida de 100.000 hora garantizadas.

Todo muy resumido, claro.
 
Pues si...que por fin se están fabricando televisores sobrados de luz...pero claro si la mismísima buque insignia de Panasonic sigue quemando los destellos como mostraba Ronda....le queda mucha evolucion.....

El WRGB ... es decir el pixel blanco autónomo opino es irrenunciable

Eso no es de la Panasonic, es de las OLED. La Panasonic no hace ese recorte, lo hace la OLED. La Panasonic el problema que tiene es que su retroiluminación se vuelve más loca que una cabra en según qué escenas, pero eso es algo diferente al clipping
Y sí, se podría mapear para que no clipeara, pero en HDR 10 no se puede hacer esto porque la curva de gamma parte de valores absolutos, y si se mapea para dar cabida a toda la información dentro de los propios límites de luz de las pantallas OLED para que no haya recorte, entonces la curva de gamma HDR se va ATPC porque es absoluta, no relativa como en SDR, así de claro. :D
 
¿Como que no se puede hacer?. Si precisamente es lo que SE HACE, jajaja. No hay otra forma de hacerlo que realizando un Tone Mapping al display, el cual puede ser vía clipping o adaptativo. vamos:

HDR10 vs Dolby Vision: Which is better?

Tone Mapping

HDR10
  • Tones that extend past the TV's range are mapped using the PQ transfer function.
DOLBY VISION
  • Tones that extend past the TV's range are mapped by a Dolby chip using the PQ transfer function.
It is crucial how TVs with a relatively low peak brightness deals with a film that has been mastered on much higher level display. If you have a TV with a maximum brightness of 1400 cd/m2 how does it deal with highlights on a film of 4000?

The easiest way is clipping. In our example of a 1400 cd/m2 TV, everything from 1400 to 4000 would be clipped. What does this mean? It means that there would be no detail seen in that range of brightness and there would be no discernible colors in this region. This is simply because the TV cannot reproduce details in areas this bright as it is above its maximum output. At this point in time, some manufacturers clip highlights which are above their maximum brightness.

The alternative is tone mapping. On a 1400 cd/m2 TV, the highlights from 1400 to 4000 are remapped to fall below 1400 cd/m2. In practice, this means that there is some gentle roll off of color in the highlights starting around 1000 cd/m2.

This would mean that a TV that uses tone mapping would appear slightly dimmer than the same TV which employs clipping. While this is inevitable, a tone-mapped picture would show a lot more detail in the highlights than one which is clipped.

With DV, there is a Dolby chip that checks the TV's model and applies tone mapping using the TV's limitations as a reference. With HDR10, tone mapping entirely the manufacturer's choice, which can lead to inconsistency.

Esto no lo digo yo, lo dice LA INDUSTRIA y lo refleja RTINGS. Por si no queda claro, no es opinión propia, son las DOS formas que tienes de representar una imagen HDR sobre un display HDR.

Otra cosa es que no estés de acuerdo, ahí ya no me meto.
 
Vamos a ver, que lo que estoy diciendo es correcto y lo corrobora hasta el artículo que has puesto, o sea, el artículo dice lo que yo estoy diciendo.
Por otra parte el texto que has puesto en su mayoría habla de DV, y yo solo estoy hablando de HDR10, no de DV
Esto dice el artículo que has puesto:

it is crucial how TVs with a relatively low peak brightness deals with a film that has been mastered on much higher level display. If you have a TV with a maximum brightness of 1400 cd/m2 how does it deal with highlights on a film of 4000?

The easiest way is clipping. In our example of a 1400 cd/m2 TV, everything from 1400 to 4000 would be clipped. What does this mean? It means that there would be no detail seen in that range of brightness and there would be no discernible colors in this region. This is simply because the TV cannot reproduce details in areas this bright as it is above its maximum output. At this point in time, some manufacturers clip highlights which are above their maximum brightness.

The alternative is tone mapping. On a 1400 cd/m2 TV, the highlights from 1400 to 4000 are remapped to fall below 1400 cd/m2. In practice, this means that there is some gentle roll off of color in the highlights starting around 1000 cd/m2.

This would mean that a TV that uses tone mapping would appear slightly dimmer than the same TV which employs clipping. While this is inevitable, a tone-mapped picture would show a lot more detail in the highlights than one which is clipped

Ahí te lo dice, y subrayado en negrita. "Si bien esto es inevitable". O sea, se puede, pero a cambio tendrás una imagen más ténue que una que recorta en el punto máximo de la pantalla

La que recorta, te mostrará la imagen correctamente hasta el punto en que haga clipping por falta de luz, y la que mapea para dar cabida a toda la información será más ténue, apagada, y no seguirá la curva de gamma correctamente. Si es que no hay más.

Fijaté en las fotos, la primera sigue la curva de gamma correctamente hasta el punto en el que hace recorte por falta de recursos, y en la segunda he dado cabida a más información pero la imagen es más oscura, que es lo que dice al artículo.

Y ahora la pregunta del millón: ¿Qué es lo correcto, el recorte o mapear todo? Ninguna. Lo correcto es que el visualizador produzca toda la luz suficiente para entregar la información sin recorte y sin comprometer la curva de gamma por culpa de un tone mapping adaptativo a las características de la pantalla, y esto es así porque la gamma HDR es absoluta, no relativa.

Con el DV no hay ningún problea porque es un animal que funciona de forma diferente, pero HDR 10, es así.

:ok
 
De tdoas formas es fácil. ¿Por qué la LG no mapea toda la información en HDR para que no haya clipping? Pues la respuesta es bien sencilla. 1º porque la imagen en HDR sería muy oscura como dice en el artículo, y 2º porque al no seguir correctamente la curva de gamma HDR en las reviews les darían más palos que a una estera por no seguir correctamente la gamma HDR 10.
Por lo menos recortando, la LG sí que sigue la curva correctamente para pasar el filtro de reviews y además no se queda con una imagen más oscura que en las LED, pero claro, llega hasta donde puede llegar, que es hasta el punto de recorte máximo de la pantalla, o sea, 650 nits más o menos el 72% de vídeo.

:ok
 
Er...vamos a ver, tú no has dicho nada al respecto de lo del artículo, has dicho que hay clipping y yo te he dicho que no, porque hay dos modelos de hacer las cosas, bien o mal. Mal, haciendo clipping, bien, realizando un tone mapping en el que adaptes la información de los nits de la película al display. Que es lo que vengo defendiendo como correcto, porque AL MENOS, tendrás los límites tanto superiores como inferiores.

Es lógico que en un display menor de 1000 nits obtengas menos brillo, es de cajón y de perogrullo, vamos.

Pero tú insistes en que no, en que hay clipping, y ahora que te saco el artículo de RTINGS, vienes con que "lo que estoy diciendo es correcto y el artículo corrobora lo que dices". ¡Pero si estás negando y aceptando a la vez el hecho!, ¿como se come eso?

El artículo habla sobre HDR10 y sobre DV, por favor Ronda, no intentes tergiversar nada. Creo que es bastante claro al respecto, eh?.

NO existe clipping si se hace el método correcto (cosa que parece que la LG no hace, al menos en HDR10)

Sigues enrocado en una posición absurda y nadie te va a convencer de ello, chico. Me parece genial, pero creo que es un error como una catedral.

DV funciona exactamente igual que HDR10, solo que la curva de gamma puede variar a nivel de fotograma, en vez de aplicarse en toda su extensión. No tiene más diferencia que esa con HDR10.

Seamos un poquito más condescendientes, parece que quieres llevar la razón a toda costa y quizás deberías abrirte un poquito más. No pasa nada por decir "oye, me he equivocado". Yo me equivoco mucho, pero, ¿Tengo razón o no?. O más bien, ¿Estás de acuerdo con RTINGS?. Porque yo sí, y estás negándome a mí lo que yo afirmo y lo que afirma RTINGS...
 
Arriba Pie