La prueba del algodón

Respuesta: La prueba del algodón

Creo que es para que las fotos que se hacen salgan iguales y poder compararlas a lo que llaman fotograma original.del PC.
 
Respuesta: La prueba del algodón

Pues se agradece,porque de tanto estar contra todos,ya pensaba que era paranoia mia.:ok

Pero en realidad no me importa tanto el tener o no razon,sino el esfuerzo en intentar
explicarlo y darte la sensacion de que estas hablando con una pared,o de mi incapacidad
para explicarlo mejor :fiu
 
Respuesta: La prueba del algodón

Se pretende igualar luminosidad para que cuando se hagan pruebas "computadas" entre los 3 proyectores ninguno sobresalga sobre el resto debido a una falsa sensación de mejor imagen causada por una mayor luminosidad.

Nadie ha dicho nada referente a "fotograma original". Quien lo haya sacado en este tema quizás debería hacérselo mirar, porque igual está obsesionado con el tema.
Enviado desde dispositivo móvil
 
Respuesta: La prueba del algodón

Que es lo que se hizo en otras comparativas con los JVC para poder compararlos con los Sony anteriores.
 
Respuesta: La prueba del algodón

Esepunto,no te tomes a mal el comentario que ha sido en tono de broma.
 
Respuesta: La prueba del algodón

En efecto, Ronda, las posibilidades eran varias: reducir luminosidad de los Sony (nos íbamos a menos de 6 ftl, creo recordar), aumentar la potencia de lámpara del jvc, y seguro que alguna otra. Pero desafortunadamente el tiempo era finito, y como el 50 y el X9 no se conocían, no sabíamos lo que nos íbamos a encontrar y, por tanto, era inviable estar preparados para responder con eficiencia ante cualquier circunstancia que pudiese darse durante la calibración y comparativa.
Enviado desde dispositivo móvil
 
Respuesta: La prueba del algodón

He leído tus comentarios sobre ese tema y por supuesto que estoy al 100% de acuerdo contigo. Y no es que sea un disparate, es que es una verdadera majadería lo del fotograma orig ...mñññmm...es que me da grima y sarpullido por todo el cuerpo hasta escribirlo...

:hola

Pues explicate, a ver si tú me aclaras las ideas, porque yo no veo donde esta el problema y si has leído el otro foro sabrás porque lo digo, ya que según todas mis pruebas la captura del pc es igual a lo que tenemos en el disco blu ray que después reproducimos en nuestros sistemas y sirve como referencia, si por ejemplo hiciera la captura del DVE y concluyera que la calibración es correcta y lo que veo en el pc con dicha captura y en el proyector es igual y si hago lo mismo con un blu ray y pasa lo mismo, ¿que pasa? será que la captura que realiza el pc de ambos discos es lo que realmente hay y se puede llamar fotográma original.

Un saludo
 
Respuesta: La prueba del algodón

Para empezar he de decirte que el que haya procedido a ejecutar la autocalibración ha procedido erroneamente, ya que ha partido de inicio con unos presets equivocados, ya sea porque no ha elegido correctamente los presets del proyector, o porque sencillamente la gamma o espacio de color nativos de ese proyector, de inicio, se desvían excesivamente del objetivo, con lo cual, la forma correcta de proceder hubiera sido la manual, no la auto, pero en cualquier caso se ha procedido erróneamente. Para que la autocalibración sea correcta hay que partir de inicio con unos presets que se ajusten lo máximo posible a las normas y objetivo (por esa razón los Sony quedaron correctamente y el JVC, no) de lo contrario la autocalibración será inexacta, ...cuando en las gráficas pre-calibración queda reflejado que la verdadera causa del fracaso es simplemente por haber procedido de inicio equivocadamente. En fin...:doh :doh

:hola
Soy yo, con todo lo inservible quitado y con los presets que considero necesarios para acercarme a norma, realizo la auto-calibración con el 3D en off, a 8 puntos y con 11 puntos de gamma en el Lumagen. El dueño que lo tiene puede decir que presets dejamos.
La opción manual no la vi viable.
BTB correcto, WOW da 27 de brillo (¡raro!), continuo...
En fin...

Aqui, tengo que darle la razón a Ronda, el fallo no es de JVC si no tuyo por no haber sabido que es imposible que el Lumagen haga bien su trabajo si partes de unos valores tan malos, si no hay tiempo para calibrar lo mejor hubiera sido bajar los lumens de todos para igualar con el de menor potencia, ya te paso algo también con el hw50, y se veía venir que el fallo era de configuración y también se dijo que estaba roto, yo entiendo que el tiempo que hay es insuficiente, pero hay cosas básicas que se tenían que haber resuelto por lógica, decir que el proyector no tenia contraste y estaba roto o que por culpa de los paneles el jvc no se podia calibrar, no tiene sentido.

Un saludo
 
Respuesta: La prueba del algodón

Por favor, no contaminemos el hilo.
Muchas gracias a todos por vuestra comprensión.
Enviado desde dispositivo móvil
 
Respuesta: La prueba del algodón

Si queréis sacar algo en claro sobre este tema os aconsejo que no dejéis de leer este artículo de Michael TLV, que es instructor THX / ISF

POR QUÉ CALIBRAMOS...MITOS DE LA CALIBRACION

Si lo habéis leído entenderéis que llamar fotograma original a una captura posteada en un foro o simplemente a lo que vemos en nuestra casa y en nuestro PC y monitor calibrado es un disparate importante. Será aproximado, pero nunca igual al original porque sencillamente nosotros no disponemos de un monitor de estudio, y que se parezca más o menos va a depender (como ya he dicho) de nuestra cadena de vídeo, visualizador, condiciones de visionado y precisión de nuestras herramientas de calibración para que lo que veamos en nuestra casa se parezca lo máximo posible a esa intención artística. De entrada hay que fiarse más en nuestra casa sobre lo que veamos en nuestro dispositivo de visualización de vídeo calibrado que lo que veamos desde nuestro PC, que en principio será peor referencia que la del equipo de vídeo

Hola Ronda, yo no veo indicio para que no se llame fotograma original o para que no se vea a la norma rec709 un pc o mac al igual que un tv, de hecho aquí lo único que indica es que una calibración no pretende que se vea la tv como vemos en la vida real porque nuestros tv no están preparados para ello al igual que los monitores de aprobación que tampoco están preparados, lo único que he creído entender, es que el espacio de color del metraje original tiene un espacio de color mayor al rec709, pero yo nunca he pretendido decir que lo que llamamos fotograma original era igual que el negativo de la película, sino que es el fotograma original del blu ray, si quieres decir que llevamos varias paginas en el otro foro para diferir en esto y no hemos sido capaces de hacernos entender, mal vamos.

Un saludo.
 
Respuesta: La prueba del algodón

Mach16, ¿cuál consideras tú la prueba del algodón de la calibración?
Enviado desde dispositivo móvil
 
Respuesta: La prueba del algodón

Hola Ronda, yo no veo indicio para que no se llame fotograma original o para que no se vea a la norma rec709 un pc o mac al igual que un tv, de hecho aquí lo único que indica es que una calibración no pretende que se vea la tv como vemos en la vida real porque nuestros tv no están preparados para ello al igual que los monitores de aprobación que tampoco están preparados, lo único que he creído entender, es que el espacio de color del metraje original tiene un espacio de color mayor al rec709, pero yo nunca he pretendido decir que lo que llamamos fotograma original era igual que el negativo de la película, sino que es el fotograma original del blu ray, si quieres decir que llevamos varias paginas en el otro foro para diferir en esto y no hemos sido capaces de hacernos entender, mal vamos.

Mira mach,estamos en la sala de calibracion,o sea que lo menos que podemos hacer es ser
rigurosos con las palabras que utilizamos,ya que si no podemos inducir a error a cualquier
persona que entre a buscar informacion y que no disponga de los conocimientos necesarios
si alguien sin esos conocimientos,lee al lado de una imagen fotograma oirginal,puede pensar
que su pantalla despues de calibrada debe verse exactamente asi y eso no es cierto.

Fotograma original,en terminos de calibracion solo existe uno y es nuestro objetivo a buscar
la imagen obtenida con un frame determinado en el monitor de aprobacion del contenido,ese
fotograma original esta fuera de nuestro alcance,tanto por imposiblilidad tecnica,en estudio
se trabaja habitualmente con señales de 10bits y dispositivos adecuados para ello,monitores
cromaticamente mucho mas estables que los domesticos y con una cadena de procesado mucho mas precisa que la que nosotros podemos utilizar,como por imposibllidad(a lo mejor se
puede hacer pero desde luego no en una sala no dedicada y no sin hacer muchas mediciones)de recrear las condiciones ambientales de esa sala de masterizacion.

Segun tu definicion,cualquier pantalla calibrada que obtenga unos deltas de error por debajo
de lo visible deberia de verse exactamente igual,eso no es asi,pero lo que es mas,cualquier
persona que tenga una pantalla que cumpla esos requisitos y que tenga una imagen en su
PC suficientemente similar,puede colgar la imagen en el foro y llamarle "fotograma original"
como comprenderas eso no es serio,y en esta sala lo que hay que intentar es mantener la
seriedad,otra cosa es que a ti personalmente te valga de referencia,pero en esta sala se
intenta dejar las opiniones subjetivas a un lado y hablar de cosas tecnicamente correctas.ç

Claro que si tu crees que la imagen obtenida en un monitor de PC de 200 eurors aunque
lo ajustes a norma colorimetricamente hablando va a ser igual a la obtenida en la sala de
masterizacion con los instrumentos que en ella se utilizan a cualquier cosa le puedes llamar "fotograma original"

Pero es que aun hay mas errores en tu argumentacion,en un bluray,no existen imagenes,exiten
datos,la interpretacin por parte de la fuente y la pantalla de esos datos es la quw hace que el
resultado se acerque mas o menos a esa imagen del monitor de aprobacion,hay que recuperar
la resolucion completa de chroma(el submuestrearlo ya crea una limitacion al contenido con res
pecto a la imagen no submuestreada de la sala de masterizacion,esto tambien es constatable con patrones)hay que transformar el espacio YCbCr en RGB,primero no lineal y posteriormente
lineal en la pantalla,y todo eso suponen operaciones matematicas,cuanto mejor las hagan tanto
la fuente como la pantalla menos se distanciara la imagen mostrada finalmente de nuestro objetivo.

Por lo tanto si tu le llamas "fotograma original" a la imagen de una captura de tu PC entonces como le llamamos a la imagen de una cadena de video donde gran parte de esos procesos los realice un lumagen y lo unamos a un visualizador que realice las ultimas conversiones de la mejor manera polible "fotograma superoriginal".

No mach,hay que ser rigurosos,nadie puede afirmar con material pelicula,simplemente valorando
la imagen cual de los resultados de varias calibraciones(si los resultados son similares en cuanto a deltas de error y se ha utilizado el mismo hardware de medicion)se acerca mas al objetivo buscado,ya que existe una intencion creativa implicita en ese material que nos impide por completo hacer suposiciones sobre como debia de verse ese mismo frame en el monitor de aprobacion por lo tanto llamar a
cualquiera de esos resutados,"fotograma original" es en si mismo
un error que puede conducir a equivocaciones. o mas aun a una captura de un PC,ya que si esta se diferencia
de la imagen de la cadena de video en igualdad de condiciones la imagen a tomar como referencia para establecer una comparativa entre ambas,es la de la cadena de video

Mach16, ¿cuál consideras tú la prueba del algodón de la calibración?
Perdon ya que la pregunta no va dirigida a mi,no existe prueba del algodon para una
calibracion,calibramos para acercarnos lo mas posible al objetivo(la imagen del monitor
de aprobacion)pero no sabemos solamente valorando una imagen de material pelicula
cual de varias cadenas de video calibradas se acerca mas a el.

Solo los numeros y la precision del aparato que se utilize para obtenerlos nos asegura
llevar nuestra cadena de video lo mas cerca posible del objetovo,pero si queremos saber
a traves de una imagen si nuestro resultado es mas proximo o no que el de otro dispositivo
calibrado,con imagenes lo mas apropiado(sin ser exacto al 100% ) es utilizar imagenes carentes de intencion creativa,que quieran representar un objeto en el mundo real,con el
que nosotros si podamos establecer una comparacon visual.
 
Última edición:
Respuesta: La prueba del algodón

Hola Ronda, yo no veo indicio para que no se llame fotograma original o para que no se vea a la norma rec709 un pc o mac al igual que un tv, de hecho aquí lo único que indica es que una calibración no pretende que se vea la tv como vemos en la vida real porque nuestros tv no están preparados para ello al igual que los monitores de aprobación que tampoco están preparados, lo único que he creído entender, es que el espacio de color del metraje original tiene un espacio de color mayor al rec709, pero yo nunca he pretendido decir que lo que llamamos fotograma original era igual que el negativo de la película, sino que es el fotograma original del blu ray, si quieres decir que llevamos varias paginas en el otro foro para diferir en esto y no hemos sido capaces de hacernos entender, mal vamos.

Mira mach,estamos en la sala de calibracion,o sea que lo menos que podemos hacer es ser
rigurosos con las palabras que utilizamos,ya que si no podemos inducir a error a cualquier
persona que entre a buscar informacion y que no disponga de los conocimientos necesarios
si alguien sin esos conocimientos,lee al lado de una imagen fotograma oirginal,puede pensar
que su pantalla despues de calibrada debe verse exactamente asi y eso no es cierto.

Fotograma original,en terminos de calibracion solo existe uno y es nuestro objetivo a buscar
la imagen obtenida con un frame determinado en el monitor de aprobacion del contenido,ese
fotograma original esta fuera de nuestro alcance,tanto por imposiblilidad tecnica,en estudio
se trabaja habitualmente con señales de 10bits y dispositivos adecuados para ello,monitores
cromaticamente mucho mas estables que los domesticos y con una cadena de procesado mucho mas precisa que la que nosotros podemos utilizar,como por imposibllidad(a lo mejor se
puede hacer pero desde luego no en una sala no dedicada y no sin hacer muchas mediciones)de recrear las condiciones ambientales de esa sala de masterizacion.

Segun tu definicion,cualquier pantalla calibrada que obtenga unos deltas de error por debajo
de lo visible deberia de verse exactamente igual,eso no es asi,pero lo que es mas,cualquier
persona que tenga una pantalla que cumpla esos requisitos y que tenga una imagen en su
PC suficientemente similar,puede colgar la imagen en el foro y llamarle "fotograma original"
como comprenderas eso no es serio,y en esta sala lo que hay que intentar es mantener la
seriedad,otra cosa es que a ti personalmente te valga de referencia,pero en esta sala se
intenta dejar las opiniones subjetivas a un lado y hablar de cosas tecnicamente correctas.ç

Claro que si tu crees que la imagen obtenida en un monitor de PC de 200 eurors aunque
lo ajustes a norma colorimetricamente hablando va a ser igual a la obtenida en la sala de
masterizacion con los instrumentos que en ella se utilizan a cualquier cosa le puedes llamar "fotograma original"

Pero es que aun hay mas errores en tu argumentacion,en un bluray,no existen imagenes,exiten
datos,la interpretacin por parte de la fuente y la pantalla de esos datos es la quw hace que el
resultado se acerque mas o menos a esa imagen del monitor de aprobacion,hay que recuperar
la resolucion completa de chroma(el submuestrearlo ya crea una limitacion al contenido con res
pecto a la imagen no submuestreada de la sala de masterizacion,esto tambien es constatable con patrones)hay que transformar el espacio YCbCr en RGB,primero no lineal y posteriormente
lineal en la pantalla,y todo eso suponen operaciones matematicas,cuanto mejor las hagan tanto
la fuente como la pantalla menos se distanciara la imagen mostrada finalmente de nuestro objetivo.

Por lo tanto si tu le llamas "fotograma original" a la imagen de una captura de tu PC entonces como le llamamos a la imagen de una cadena de video donde gran parte de esos procesos los realice un lumagen y lo unamos a un visualizador que realice las ultimas conversiones de la mejor manera polible "fotograma superoriginal".

No mach,hay que ser rigurosos,nadie puede afirmar con material pelicula,simplemente valorando
la imagen cual de los resultados de varias calibraciones(si los resultados son similares en cuanto a deltas de error y se ha utilizado el mismo hardware de medicion)se acerca mas al objetivo buscado,ya que existe una intencion creativa implicita en ese material que nos impide por completo hacer suposiciones sobre como debia de verse ese mismo frame en el monitor de aprobacion por lo tanto llamar a
cualquiera de esos resutados,"fotograma original" es en si mismo
un error que puede conducir a equivocaciones. o mas aun a una captura de un PC,ya que si esta se diferencia
de la imagen de la cadena de video en igualdad de condiciones la imagen a tomar como referencia para establecer una comparativa entre ambas,es la de la cadena de video

Mach16, ¿cuál consideras tú la prueba del algodón de la calibración?
Perdon ya que la pregunta no va dirigida a mi,no existe prueba del algodon para una
calibracion,calibramos para acercarnos lo mas posible al objetivo(la imagen del monitor
de aprobacion)pero no sabemos solamente valorando una imagen de material pelicula
cual de varias cadenas de video calibradas se acerca mas a el.

Solo los numeros y la precision del aparato que se utilize para obtenerlos nos asegura
llevar nuestra cadena de video lo mas cerca posible del objetovo,pero si queremos saber
a traves de una imagen si nuestro resultado es mas proximo o no que el de otro dispositivo
calibrado,con imagenes lo mas apropiado(sin ser exacto al 100% ) es utilizar imagenes carentes de intencion creativa,que quieran representar un objeto en el mundo real,con el
que nosotros si podamos establecer una comparacon visual.


Pero todos esos datos que comentas, de la conversión de YCbCr en RGB ya pueden fallar en una cadena de video como una tv o un proyector, de hecho yo llevo defendiendo mucho tiempo, y en este foro ya he tenido alguna discusión al respecto, que para saber si algo esta bien calibrado se necesita medir también el interior del espacio de color para ver cuan lineal y si esta bien la calibración, cosa que se decía que con un Lumagen se solucionaba y no era cierto, por eso Lumagen saco la actualización para poder corregir los 125 puntos, si no de que iban a sacar esta actualización, y cuando digo que algo esta calibrado lo digo teniendo en cuenta esto también, por la tanto ese error de conversión que comentas no es un problema del pc, si no de cualquier fuente, y si se mide el interior y esta correcto, es porque la conversión es más o menos correcta, de hecho me gustaría poder ver las diferencias de un procesado perfecto a uno correcto si son tan grandes o más bien casi no se distinguen, pero el caso es que la captura de pc, no tiene modificación alguna y lo único que es igual para todos, mal o bien calibrados de hacia donde tiene que tender las capturas que colgamos, porque si yo cuelgo una foto con mi cámara a mi proyector calibrado correctamente y digo que lo que muestra mi captura es muy parecido a lo que se ve en realidad, y otro cuelga una foto que dice ser muy similar a lo que ve en realidad y la "Captura de Pc" se parece más, a por ejemplo la foto del compañero, quiere decir que o mi foto no se parece a lo que se ve en realidad, o que mi proyector no esta bien calibrado, ya sea por error de sonda o de mala calibración, y eso se sabe mirando a esas fotos con monitor calibrado o no, ya que como referencia esta la captura del pc al la que podemos comparar, que lo que hay en la captura de pc no es lo que ve el director en el monitor de aprobación, sigo sin verlo claro, y lo digo porque que sea de 10 bit o de 8bit la diferencia de eso solo se ve en la cantidad de gradación y colores que muestra el monitor y eso no hará que lo que veo en la captura sea incorrecto, solo menos preciso, pero peor es que una tv no sea lineal en el interior del espacio de color y se ha hecho para ver video, y puede que también sea de 8 bits, y eso de que la más parecida a lo que ve el director en el monitor de aprobación, en un caso de una tv como la que digo no seria correcto, de hecho llevamos mucho tiempo calibrado a 70% o a 100% solo, sin mirar que pasa en el resto de porcentajes y eso seria menos correcto que saber que todo está bien, y como yo he calibrado un pc y se que el interior del espacio es correcto y que lo que veo en la tv calibrada no se diferencia de lo que veo con la misma tv pero reproducido desde un pc y esta a su vez no se diferencia excepto en niveles de grises, de lo que se ve en la captura de pc, sigo sin ver porque no puedo llamar a la captura de pc al menos fotograma original del blu ray. y creo que esto no es cuestión de rigor, sino cuestión de certeza, porque no entiendo como puedes decir que lo que yo veo en mi pc no es como lo que se ve en el monitor de aprobación en cuanto a rigor de calibración y no si se ven más tonos o no, ya que en la cadena de video también puede pasar y además si tú tampoco has visto el monitor de aprobación y si esto fuera así, porque yo y muchos más que ya lo han comentado en el otro foro, ven iguales las capturas de pc (Siempre y cuando esté todo bien configurado) que la calibración de su tv o proyector, porque yo no encuentro la razón y esto es lo que aunque tú me digas que la teoría es así, o se nos escapa algo o algo falla, porque si no la captura del pc se debería ver muy diferente a la calibración de nuestros proyectores y no es así.

Un saludo.
 
Respuesta: La prueba del algodón

Mach16, ¿cuál consideras tú la prueba del algodón de la calibración?
Enviado desde dispositivo móvil

La unica prueba del algodón, sería los datos de la calibración, el problema es que aquí hemos de sumar la precisión de nuestra sonda, por ejemplo si medimos un error de dE2 y la sonda tiene un error de dE1.5 no daría un error visible, de ahí que siempre cuanto más bajo sea el dE mas seguros estamos de que no hay error visible o cuanto mas preciso es nuestra sonda más precisa será la calibración, pero lo de la captura de pc si tuviésemos la certeza de que tenemos en el monitor error dE0 para mi sería la referencia a buscar y la manera de ver el error de nuestra sonda, pero como eso es imposible pues no nos queda otra que dejar el dE lo más bajo posible.

Un saludo.
 
Respuesta: La prueba del algodón

Lo habeis dejado más claro que el agua. El que no quiera entenderlo o aceptarlo es otra cosa, pero claro, está
 
Respuesta: La prueba del algodón

Pero todos esos datos que comentas, de la conversión de YCbCr en RGB ya pueden fallar en una cadena de video como una tv o un proyector, de hecho yo llevo defendiendo mucho tiempo, y en este foro ya he tenido alguna discusión al respecto, que para saber si algo esta bien calibrado se necesita medir también el interior del espacio de color para ver cuan lineal y si esta bien la calibración, cosa que se decía que con un Lumagen se solucionaba y no era cierto, por eso Lumagen saco la actualización para poder corregir los 125 puntos, si no de que iban a sacar esta actualización, y cuando digo que algo esta calibrado lo digo teniendo en cuenta esto también, por la tanto ese error de conversión que comentas no es un problema del pc, si no de cualquier fuente, y si se mide el interior y esta correcto, es porque la conversión es más o menos correcta, de hecho me gustaría poder ver las diferencias de un procesado perfecto a uno correcto si son tan grandes o más bien casi no se distinguen, pero el caso es que la captura de pc, no tiene modificación alguna y lo único que es igual para todos, mal o bien calibrados de hacia donde tiene que tender las capturas que colgamos, porque si yo cuelgo una foto con mi cámara a mi proyector calibrado correctamente y digo que lo que muestra mi captura es muy parecido a lo que se ve en realidad, y otro cuelga una foto que dice ser muy similar a lo que ve en realidad y la "Captura de Pc" se parece más, a por ejemplo la foto del compañero, quiere decir que o mi foto no se parece a lo que se ve en realidad, o que mi proyector no esta bien calibrado, ya sea por error de sonda o de mala calibración, y eso se sabe mirando a esas fotos con monitor calibrado o no, ya que como referencia esta la captura del pc al la que podemos comparar, que lo que hay en la captura de pc no es lo que ve el director en el monitor de aprobación, sigo sin verlo claro, y lo digo porque que sea de 10 bit o de 8bit la diferencia de eso solo se ve en la cantidad de gradación y colores que muestra el monitor y eso no hará que lo que veo en la captura sea incorrecto, solo menos preciso, pero peor es que una tv no sea lineal en el interior del espacio de color y se ha hecho para ver video, y puede que también sea de 8 bits, y eso de que la más parecida a lo que ve el director en el monitor de aprobación, en un caso de una tv como la que digo no seria correcto, de hecho llevamos mucho tiempo calibrado a 70% o a 100% solo, sin mirar que pasa en el resto de porcentajes y eso seria menos correcto que saber que todo está bien, y como yo he calibrado un pc y se que el interior del espacio es correcto y que lo que veo en la tv calibrada no se diferencia de lo que veo con la misma tv pero reproducido desde un pc y esta a su vez no se diferencia excepto en niveles de grises, de lo que se ve en la captura de pc, sigo sin ver porque no puedo llamar a la captura de pc al menos fotograma original del blu ray. y creo que esto no es cuestión de rigor, sino cuestión de certeza, porque no entiendo como puedes decir que lo que yo veo en mi pc no es como lo que se ve en el monitor de aprobación en cuanto a rigor de calibración y no si se ven más tonos o no, ya que en la cadena de video también puede pasar y además si tú tampoco has visto el monitor de aprobación y si esto fuera así, porque yo y muchos más que ya lo han comentado en el otro foro, ven iguales las capturas de pc (Siempre y cuando esté todo bien configurado) que la calibración de su tv o proyector, porque yo no encuentro la razón y esto es lo que aunque tú me digas que la teoría es así, o se nos escapa algo o algo falla, porque si no la captura del pc se debería ver muy diferente a la calibración de nuestros proyectores y no es así.

Un saludo.
No te ofendas, pero te pediría que por favor y en aras de que transmitas lo mejor posible tus mensajes, a los posibles receptores de los mismos, que hagas párrafos con sus puntos y aparte. No hay Dios que pueda seguir esta sopa de letras.

Gracias.
 
Respuesta: La prueba del algodón

Pero todos esos datos que comentas, de la conversión de YCbCr en RGB ya pueden fallar en una cadena de video como una tv o un proyector,
Ciertamente,y no lo harian si dejaran hacer esa operacion a un procesador como el lumagen que lo hace de la mejor manera posible,pero resulta que nuestras pantallas domesticas tienen la fea costumbre de si se les envia la señal transformada a RGB volves a pasarla a YCbCr para su procesado interno,cosa que por supuesto una pantalla profesional no hace.

de hecho yo llevo defendiendo mucho tiempo, y en este foro ya he tenido alguna discusión al respecto, que para saber si algo esta bien calibrado se necesita medir también el interior del espacio de color para ver cuan lineal y si esta bien la calibración, cosa que se decía que con un Lumagen se solucionaba y no era cierto, por eso Lumagen saco la actualización para poder corregir los 125 puntos, si no de que iban a sacar esta actualización, y cuando digo que algo esta calibrado lo digo teniendo en cuenta esto también, por la tanto ese error de conversión que comentas no es un problema del pc, si no de cualquier fuente, y si se mide el interior y esta correcto, es porque la conversión es más o menos correcta

Esto no tiene nada que ver con la conversion de los datos de YCbCr a RGB,tierne que ver con
la linealidad o no del dispositivo de visualizacion a traves de todo el gamut de color.

pero el caso es que la captura de pc, no tiene modificación alguna y lo único que es igual para todos, mal o bien calibrados de hacia donde tiene que tender las capturas que colgamos, porque si yo cuelgo una foto con mi cámara a mi proyector calibrado correctamente y digo que lo que muestra mi captura es muy parecido a lo que se ve en realidad, y otro cuelga una foto que dice ser muy similar a lo que ve en realidad y la "Captura de Pc" se parece más, a por ejemplo la foto del compañero, quiere decir que o mi foto no se parece a lo que se ve en realidad, o que mi proyector no esta bien calibrado, ya sea por error de sonda o de mala calibración, y eso se sabe mirando a esas fotos con monitor calibrado o no, ya que como referencia esta la captura del pc al la que podemos comparar
Esto es un desproposito en si mismo,que sabes tu con material pelicula,cual de las imagenes
la "captura del pc"la imagen de tu proyector calibrado o la imagen que cuelga el otro forero,es la imagen mas cercana a la del monitor de aprobacion.

Vamos a utilizar el ejemplo de Ronda,una persona va al louvre y graba en una camara la mona lisa,la camara esta adecuada al estandar rec709,despues nos deja la grabacion para que la veamos tu y yo cada uno en su cadena de video calibrada(calibradas con la misma sonda y
con errores por debajo de lo visible en ambos casos)entonces yo cogo ese material,extraigo una
captura del pc(que es muy similar o a mi vista iidentica)y me voy a tu casa y te digo que la imagen que has obtenido tu no es correcta,porque no es identica a la mia que tendria que parecerse mas a mi referencia que es mas similar a la mona lisa original.

Entonces evidentemente tu te ries miras para mi y me dices,cuando estemos los dos en el louver delante de ella me lo dices,esa es la comparacion que estas planteando con material
pelicula,porque igual que en el caso de la mona lisa no tenemos acceso al original.

que lo que hay en la captura de pc no es lo que ve el director en el monitor de aprobación, sigo sin verlo claro, y lo digo porque que sea de 10 bit o de 8bit la diferencia de eso solo se ve en la cantidad de gradación y colores que muestra el monitor y eso no hará que lo que veo en la captura sea incorrecto, solo menos preciso

No solo en los que muestra el monitor sino los que estan en el material,tu nunca vas a poder igualar tu imagen con la del monitor de aprobacion,tanto por los motivos que te ha dado Ronda,ademas de los filtros que incorporan las pantallas domesticas y no estan en los monitores profesionales,ademas de la no conversion a YCbCr dentro de la pantalla lo que limita los colores.

Una pantalla profesional esta preparada nativamente para trabajar con señales de 10bits(en niveles de estudio con footroom y headroom) o lo que es lo mismo unos 674 millones de colores,porque el material con el que trabaja es de esa calidad,simplemente con el paso a 8bits del material este queda en unos 10 millones de colores pero es que ademas despues una vez codificado en YCbCr ese material pasa a no tener mas de 2.75 millones de colores.

Todos los colores que no estan en ese material y que la pantalla va a reproducir se tienen que
interpolar a traves de diferentes tecnicas a partir de los colores contenidos en el disco,que ni siquiera son esos 2.75 millones ya que los canales de diferencia de color se submuestrean.

Como vamos a acercarnos a esa imagen si no disponemos del material necesario ni a nivel de software ni de hardware.

además si tú tampoco has visto el monitor de aprobación y si esto fuera así, porque yo y muchos más que ya lo han comentado en el otro foro, ven iguales las capturas de pc (Siempre y cuando esté todo bien configurado) que la calibración de su tv o proyector, porque yo no encuentro la razón y esto es lo que aunque tú me digas que la teoría es así, o se nos escapa algo o algo falla, porque si no la captura del pc se debería ver muy diferente a la calibración de nuestros proyectores y no es así.
Obviamente yo no he visto tampoco el monitor de aprobacion,por eso llevo diciendo desde el
principio que la comparacion es ridicula.

Iguales?yo no hablo de impresiones subjetivas,este no es el lugar para hacerlo,no valoro la de las demas porque tampoco hago referencia a las mias,aqui para apoyar un tema hay que dar
datos tecnicos no las opiniones subjetivas de unos u otros.

Por otra parte,como ya se ha dicho antes y se ha comentado en el otro foro,ni tan siquiera dos
proyectores calibrados con errores fuera de lo teoricamente visible,con las mismas fuentes y la
misma sonda,dan una imagen igual(logicamente por otra parte) o sea que si en ese caso las diferencias son visibles imagino que con las capturas tambien lo seran,y con toda seguridad
la imagen de los dos proyectores estara mas cerca del objetivo que la captura del PC.
 
Respuesta: La prueba del algodón

Hola,Mach. Cuando afirmas disponer o ver en tu casa a traves de tu monitor de PC calibrado el fotograma igual al original o fotograma igual en fidelidad al original del BD, es como si dijeras...no ya que dispones de un monitor de estudio, estás afirmando que dispones "del" monitor de estudio, que conoces gamma (que no se puede saber), pico de blanco (que no se puede saber), condiciones de visionado del estudio (que no se pueden saber), etc. Cuando en realidad, y perdona la expresión, sólo dispones de un baratillo monitor de 200 euros aproximadamente calibrado mediante unas herramientas de calibración de muy bajo costo... Es como si nos dices que tienes en tu casa el original de "La Mona Lisa" cuando en realidad solo dispones de una copia barata pintada por un aficionado...

Nuestros visualizadores no son monitores de estudio, aunque aquí habría que matizar que cuando hablas del original habría que decir que nuestros visualizadores no son el monitor de estudio, y no solo por las razones expuestas anteriormente, también porque además, y a modo de ejemplo y dependiendo de la tecnología de visualización: El iris dinámico de un Sony SXRD afecta a la fidelidad de la imagen, el ABL de un plasma afecta a la fidelidad de la imagen y los sistemas de atenuación local y automática que montan muchas pantallas LCD LED también afectan la fidelidad de la imagen por muy bien calibradas que estén estas pantallas, entre otras cosas.

Una captura de un BD, es solo eso, una captura y punto, no el original o igual al original. A lo que aspiramos es a emular al original, o sea, al monitor de estudio.

¿Sabes o conoces la finalidad de la fórmula BT.1886?. Es que la repuesta a la pregunta está relacionada estrechamente con el tema.

:hola

Yo lo que estoy afirmando es que tengo el fotograma original del blu ray, ya que lo que el director tenga en su monitor, si lo que dice Cesarión es cierto, y supongo que lo es porque él está bastante puesto en estos temas, a mi ni a nadie que reproduzca blu ray le sirve para nada, luego en el comentario a Cesarión explico porqué.

Lo de la Gamma BT.1886, todavía no he podido leer mucho sobre ella y mucho menos hacer pruebas al respecto con Calman, pero creo que su finalidad es adaptarse al modo de ver de nuestra vista, ya que no vemos igual en imágenes oscuras que claras y de ahí que empiece por debajo de 2.22 y vaya subiendo, pero como te digo ni he leído mucho y puede que me equivoque y su finalidad sea otra, por suerte creo que esto se va a convertir en un standard y habrá gamma definida.

Un saludo.
 
Respuesta: La prueba del algodón

Pero todos esos datos que comentas, de la conversión de YCbCr en RGB ya pueden fallar en una cadena de video como una tv o un proyector, de hecho yo llevo defendiendo mucho tiempo, y en este foro ya he tenido alguna discusión al respecto, que para saber si algo esta bien calibrado se necesita medir también el interior del espacio de color para ver cuan lineal y si esta bien la calibración, cosa que se decía que con un Lumagen se solucionaba y no era cierto, por eso Lumagen saco la actualización para poder corregir los 125 puntos, si no de que iban a sacar esta actualización, y cuando digo que algo esta calibrado lo digo teniendo en cuenta esto también, por la tanto ese error de conversión que comentas no es un problema del pc, si no de cualquier fuente, y si se mide el interior y esta correcto, es porque la conversión es más o menos correcta, de hecho me gustaría poder ver las diferencias de un procesado perfecto a uno correcto si son tan grandes o más bien casi no se distinguen, pero el caso es que la captura de pc, no tiene modificación alguna y lo único que es igual para todos, mal o bien calibrados de hacia donde tiene que tender las capturas que colgamos, porque si yo cuelgo una foto con mi cámara a mi proyector calibrado correctamente y digo que lo que muestra mi captura es muy parecido a lo que se ve en realidad, y otro cuelga una foto que dice ser muy similar a lo que ve en realidad y la "Captura de Pc" se parece más, a por ejemplo la foto del compañero, quiere decir que o mi foto no se parece a lo que se ve en realidad, o que mi proyector no esta bien calibrado, ya sea por error de sonda o de mala calibración, y eso se sabe mirando a esas fotos con monitor calibrado o no, ya que como referencia esta la captura del pc al la que podemos comparar, que lo que hay en la captura de pc no es lo que ve el director en el monitor de aprobación, sigo sin verlo claro, y lo digo porque que sea de 10 bit o de 8bit la diferencia de eso solo se ve en la cantidad de gradación y colores que muestra el monitor y eso no hará que lo que veo en la captura sea incorrecto, solo menos preciso, pero peor es que una tv no sea lineal en el interior del espacio de color y se ha hecho para ver video, y puede que también sea de 8 bits, y eso de que la más parecida a lo que ve el director en el monitor de aprobación, en un caso de una tv como la que digo no seria correcto, de hecho llevamos mucho tiempo calibrado a 70% o a 100% solo, sin mirar que pasa en el resto de porcentajes y eso seria menos correcto que saber que todo está bien, y como yo he calibrado un pc y se que el interior del espacio es correcto y que lo que veo en la tv calibrada no se diferencia de lo que veo con la misma tv pero reproducido desde un pc y esta a su vez no se diferencia excepto en niveles de grises, de lo que se ve en la captura de pc, sigo sin ver porque no puedo llamar a la captura de pc al menos fotograma original del blu ray. y creo que esto no es cuestión de rigor, sino cuestión de certeza, porque no entiendo como puedes decir que lo que yo veo en mi pc no es como lo que se ve en el monitor de aprobación en cuanto a rigor de calibración y no si se ven más tonos o no, ya que en la cadena de video también puede pasar y además si tú tampoco has visto el monitor de aprobación y si esto fuera así, porque yo y muchos más que ya lo han comentado en el otro foro, ven iguales las capturas de pc (Siempre y cuando esté todo bien configurado) que la calibración de su tv o proyector, porque yo no encuentro la razón y esto es lo que aunque tú me digas que la teoría es así, o se nos escapa algo o algo falla, porque si no la captura del pc se debería ver muy diferente a la calibración de nuestros proyectores y no es así.

Un saludo.
No te ofendas, pero te pediría que por favor y en aras de que transmitas lo mejor posible tus mensajes, a los posibles receptores de los mismos, que hagas párrafos con sus puntos y aparte. No hay Dios que pueda seguir esta sopa de letras.

Gracias.

No me ofendo para nada, pero cuando me enfrasco dando una opinión, me olvido de la ortografía, la cual tampoco se me da muy bien, todo hay que decirlo. Prometo intentar cuidarla más.

Un saludo.
 
Respuesta: La prueba del algodón

Ciertamente,y no lo harian si dejaran hacer esa operacion a un procesador como el lumagen que lo hace de la mejor manera posible,pero resulta que nuestras pantallas domesticas tienen la fea costumbre de si se les envia la señal transformada a RGB volves a pasarla a YCbCr para su procesado interno,cosa que por supuesto una pantalla profesional no hace.

Tampoco hace falta dejárselo a un Lumage, basta con que lo hagan bien y punto, eso es lo que debería hacer cualquier dispositivo reproductor, tv o proyector decente.



Esto no tiene nada que ver con la conversion de los datos de YCbCr a RGB,tierne que ver con
la linealidad o no del dispositivo de visualizacion a traves de todo el gamut de color.

Pues explicate, porque si se hace mal la conversión aunque sea lineal el proyector o tv no se podría dejar a la norma tanto en el exterior como en el interior, y nos daríamos cuenta en la calibración.


Esto es un desproposito en si mismo,que sabes tu con material pelicula,cual de las imagenes
la "captura del pc"la imagen de tu proyector calibrado o la imagen que cuelga el otro forero,es la imagen mas cercana a la del monitor de aprobacion.

Vamos a utilizar el ejemplo de Ronda,una persona va al louvre y graba en una camara la mona lisa,la camara esta adecuada al estandar rec709,despues nos deja la grabacion para que la veamos tu y yo cada uno en su cadena de video calibrada(calibradas con la misma sonda y
con errores por debajo de lo visible en ambos casos)entonces yo cogo ese material,extraigo una
captura del pc(que es muy similar o a mi vista iidentica)y me voy a tu casa y te digo que la imagen que has obtenido tu no es correcta,porque no es identica a la mia que tendria que parecerse mas a mi referencia que es mas similar a la mona lisa original.

Entonces evidentemente tu te ries miras para mi y me dices,cuando estemos los dos en el louver delante de ella me lo dices,esa es la comparacion que estas planteando con material
pelicula,porque igual que en el caso de la mona lisa no tenemos acceso al original.

El problema es que tu partes de un supuesto fotograma inexistente porque no es el monitor de aprobación, y eso desde mi punto de vista es un error, ya que para que con una calibración podamos ver lo mas parecido a lo que el director quiso, debemos de disponer en el blu ray de la información correcta y esa si la tenemos.

Lo que pasa es que tú aludes que esa imagen que tenemos en el Blu-Ray no es buena porque pasa por ser una captura procesada por un ordenador y que tiene mas errores que los que tiene un reproductor domestico y que se aleja más de la realidad, y eso es lo que yo no comparto tu opinión, y como ya te he dicho he hecho las pruebas y no hay errores de procesado ni historias.

Volviendo a tú historia si partimos de que en la película que te han dejado está el material original, si lo reproducimos en una cadena de video calibrada correctamente, debería de verse igual o muy parecido en función del dE que tengamos en cada cadena de video y la captura de pc seria la única referencia para saber cual está mejor calibrada.


No solo en los que muestra el monitor sino los que estan en el material,tu nunca vas a poder igualar tu imagen con la del monitor de aprobacion,tanto por los motivos que te ha dado Ronda,ademas de los filtros que incorporan las pantallas domesticas y no estan en los monitores profesionales,ademas de la no conversion a YCbCr dentro de la pantalla lo que limita los colores.

Una pantalla profesional esta preparada nativamente para trabajar con señales de 10bits(en niveles de estudio con footroom y headroom) o lo que es lo mismo unos 674 millones de colores,porque el material con el que trabaja es de esa calidad,simplemente con el paso a 8bits del material este queda en unos 10 millones de colores pero es que ademas despues una vez codificado en YCbCr ese material pasa a no tener mas de 2.75 millones de colores.

Todos los colores que no estan en ese material y que la pantalla va a reproducir se tienen que
interpolar a traves de diferentes tecnicas a partir de los colores contenidos en el disco,que ni siquiera son esos 2.75 millones ya que los canales de diferencia de color se submuestrean.

Como vamos a acercarnos a esa imagen si no disponemos del material necesario ni a nivel de software ni de hardware.

Pues creo que las matemáticas te fallan o yo me pierdo algo, pero de todas formas si esto es como tú dices, el objetivo de la calibración no debe ser acercarnos a lo que se ve en el monitor de aprobación, sino mas bien a lo que contiene el Blu-Ray que parece ser muy diferente a lo que ve el director en esos mega monitores.

Me explico, si el monitor reproduce a 10 bits y el material grabado en los Blu-Ray está a 8 bits ¿Que sentido tiene la explicación que aludes de que la calibración se tiene que parecer al monitor de aprobación si luego dices que no disponemos del monitor adecuado ni tenemos para reproducir ningún contenido en 10 bits?

Vuelvo a decir, que la captura del Blu-Ray es lo que tenemos como referencia de lo que tiene que ser la calibración ya que la mayoria de monitores de pc son de 8 bits, aunque también los hay de 10 bits si se quiere, y la tarjeta del pc puede hasta con 32 bits, así que la supuesta limitación del pc como referencia, no existe como tal, ya que bien configurado puede reproducir perfectamente lo que tenemos en el disco de blu ray.

8 o 10 bits. Esa es la pregunta.

Comencemos por el principio. La diferencia entre 10 y 8 bits es la cantidad de colores que se pueden mostrar en un video. Para los matemáticos será sencillo entenderlo, pero intentaré explicarlo un poco más para los que no les gustan las matemáticas xD.

Recordemos que los bits son números binarios. Es decir, sólo pueden existir unos y ceros. La ventaja de este sistema, es que se va duplicando la cantidad (en este caso de colores) con cada bit adicional. En el caso de 8 bits quiere decir que se pueden mostrar un total de 255 variaciones de un mismo color (2x2x2x2x2x2x2x2=256 -1), pero en 10 bits la cantidad de variaciones se dispara hasta 1023 variaciones de un mismo color (2x2x2x2x2x2x2x2x2x2=1024-1). Para los que les surge la duda… sí. Siempre se resta uno, al que se llama bit de control.

Ahora bien, en video digital se usa el sistema RGB (Red, Green, Blue), por lo que si tenemos 256 variaciones por cada color, y mezclamos cada variación de cada color con cada variación de los demás colores tenemos la nada despreciable cantidad de poco más de 16.7 millones de colores (256x256x256 = 16.777.216-1). ¿Y en 10 bits? Tenemos más de 1073 millones de colores (1024x1024x1024 = 1.073.741.824-1). Impresionante ¿no creen? Así que en estos términos, los 8 bits mencionados en realidad son 24 bits, pues son 8 bits por cada color (pueden intentar multiplicando 24 veces 2, y verán que es el mismo resultado).

Ahora bien, las tarjetas gráficas normalmente están configuradas en 32 bits, es decir, más de 4200 millones de colores (4.294.967.295), es decir, 4 veces más que 10 bits.

http://www.configurarequipos.com/usuario-Fuliazo/8-o-10-bits
 
Última edición:
Respuesta: La prueba del algodón

Tampoco hace falta dejárselo a un Lumage, basta con que lo hagan bien y punto, eso es lo que debería hacer cualquier dispositivo reproductor, tv o proyector decente.
No es que lo haga bien y punto,son operaciones matematicas,cuanto mas precision se consiga
en ellas mejor,por eso se menciona un lumagen porque utiliza una precision mayor a la de la
totalidad de fuentes o pantallas disponibles en el mercado,por eso entre otras cosas es un
procesador dedicado.

Pues explicate, porque si se hace mal la conversión aunque sea lineal el proyector o tv no se podría dejar a la norma tanto en el exterior como en el interior, y nos daríamos cuenta en la calibración
No es que sea lineal o no,es que se recuperen los datos originales correctamente o no,busca
informacion,.

El problema es que tu partes de un supuesto fotograma inexistente porque no es el monitor de aprobación, y eso desde mi punto de vista es un error, ya que para que con una calibración podamos ver lo mas parecido a lo que el director quiso, debemos de disponer en el blu ray de la información correcta y esa si la tenemos.

Lo que pasa es que tú aludes que esa imagen que tenemos en el Blu-Ray no es buena porque pasa por ser una captura procesada por un ordenador y que tiene mas errores que los que tiene un reproductor domestico y que se aleja más de la realidad, y eso es lo que yo no comparto tu opinión, y como ya te he dicho he hecho las pruebas y no hay errores de procesado ni historias.

Volviendo a tú historia si partimos de que en la película que te han dejado está el material original, si lo reproducimos en una cadena de video calibrada correctamente, debería de verse igual o muy parecido en función del dE que tengamos en cada cadena de video y la captura de pc seria la única referencia para saber cual está mejor calibrada.

Esto es inutil,no se te puede explicar de una forma mas clara,tu no puedes decir que tu cadena
de video calibrada(con material pelicula)es mas correcta que otra cadena de video calibrada,porque para hacerlo tendrias que tener el original para comparar,no es un error es logica.

Te he dicho que es igual que la captura del ordenador se vea igual o no que tu cadena de video
calibrada,es que la imagen de tu cadena de video calibrada tampoco vale como referencia para valorar otra calibracion.

Mas claro no se te puede decir,esa comparacion es absurda,en un bluray no hay ninguna imagen,hay unos datos que la fuente y la pantalla tienen que interpretar para formar la imagen
de la misma manera que un mismo bluray canbiando de modo en la panalla se ve de marnera
diferente,pues de igual manera dos dispositivos calibrados,aunque partan de la misma fuente
y con la misma sonda no obtienen imagenes identicas,cual es la mas correcta?

Imposible saberlo con ese material,de todas formas creo que esta explicado sobradamente
cada cual puede hacer las comparaciones como quiera,pero lo que no te voy a decir que
es una comparacion correcta,porque no lo es.

Pues creo que las matemáticas te fallan o yo me pierdo algo, pero de todas formas si esto es como tú dices, el objetivo de la calibración no debe ser acercarnos a lo que se ve en el monitor de aprobación, sino mas bien a lo que contiene el Blu-Ray que parece ser muy diferente a lo que ve el director en esos mega monitores.

Me explico, si el monitor reproduce a 10 bits y el material grabado en los Blu-Ray está a 8 bits ¿Que sentido tiene la explicación que aludes de que la calibración se tiene que parecer al monitor de aprobación si luego dices que no disponemos del monitor adecuado ni tenemos para reproducir ningún contenido en 10 bits?

Vuelvo a decir, que la captura del Blu-Ray es lo que tenemos como referencia de lo que tiene que ser la calibración ya que la mayoria de monitores de pc son de 8 bits, aunque también los hay de 10 bits si se quiere, y la tarjeta del pc puede hasta con 32 bits, así que la supuesta limitación del pc como referencia, no existe como tal, ya que bien configurado puede reproducir perfectamente lo que tenemos en el disco de blu ray.

Una vez mas,el objetivo de la calibracion es dentro de las limitaciones de nuestra sala,nuestra
cadena de video y nuestro hardware de medicion acercarnos lo maximo posible a la imagen del
monitor de aprobacion.

En la propia definicion esta admitido el margen de error dado que nosotros no disponemos de
ese material,pues por eso se te esta diciendo que esa comparacion es ridicula,porque no tenemos acceso a esa imagen objetivo.

Y yo te vuelvo a decir que ninguna captura del PC sirve como referencia de nada a la hora de
enjuiciar otra cadena de video calibrada,otra cosa seria utilizarla como referencia para indicar
a alguien que no tenga su cadena de video calibrada aproximadamente como deberia de verse
una imagen ajustada a norma.

Tu calibras tu cadena de video y tu PC con una display2 y tu captura del PC va a servir de referencia a otra cadena de video calibrada con una konica minolta,verdad que no.

Pero si resulta que por un milagro la konica minolta esta desajustada y la imagen resultante
es similara a la tuya pero resulta que la display2 dio medidas mas fiables,como lo sabes
la unica manera de saberlo es teniendo el original y aqui no lo tenemos.

Entiende de una vez que los mismos datos de origen(el mismo bluray)no da los mismos resultados en todas las cadenas de video y no se puede saber cual es el resultado mas correecto sin disponer del original,no voy a seguir con esto porque es darle vueltas a algo
que esta de sobra explicado.

Respecto a lo de los 10bit de los monitores de ordenador,tendriamos que saber si son
nativos o de procesado,dudo mucho que haya pantallas domesticas de 10bits reales
la tarjeta grafica sera de 32bit,8birs por color y un canal de transferencia alpha.

Otra cosa son los 32bit float point pero esto solo se utiliza en generaciones de CGI
pero posteriormente se remuestrean automaticamente para guardarse en ficheros de
8 o 10 bits.

Pero de todas formas la tarjeta podria tener todos los bits que quisiera la limitacion
esta en los colores que sea capaz de mostrar el monitor.

Las matematicas en video no son iguales a las informaticas,en video las señales estan
limitadas en 8bots entre 16-235, 220 niveles 220x220x220=10648000 colores en 10bits
entre 64-940,876niveles 876x876x876=672221376
 
Respuesta: La prueba del algodón

una pregunta: imaginemos que para una edición BD, posteriormente a su aprobación, se revisará en una pantalla de nivel doméstico como podría ser una Panasonic, y que el direcotr o equipo encargado del trabajo de transferencia y remasterización del BD dijeran que la mejor forma de ver ese título es sobre esa pantalla porque transmite lo que ellos pretenden a nivel doméstico, ¿si es así podríamos decir que en ese modelo de televisor tendríamos el original?

Lo digo porque con AVATAR 3D cuando pertenecía en exclisividad a Panasonic se dijo que camerón recomendó ese televisor para ver su película exactamente como el pretendía, incluso se publicarón los settings para que fuera exactamente igual.
 
Respuesta: La prueba del algodón

Esta claro ¿pero introduciendo los valores de otra tele se podría por lo menos mejorar lo que viene de fábrica? Imagino que me vais a responder que depende.
 
Respuesta: La prueba del algodón

Perdón por no contestar antes, pero como siempre ando demasiado liado.
Voy a contestaros a ambos en un solo mensaje y de forma más general, porque como habéis dicho hay información suficiente.
Primero es cierto lo de la cantidad de colores que aludes Cesarion, no había tenido en cuenta el rango para video.
sobre lo que hay en el disco son datos es un hecho, como en cualquier contenido digital. o y 1 pero eso no me quita la razón en nada de lo que he dicho, los 0 y 1 los han de interpretar tanto la cadena de video como el pc, y tú le estas atribuyendo a la cadena de video la perfección sin base alguna, pues hay cientos de reproductores y visualizadores que no procesan correctamente en uno u otro sentido, en un pc es facil hacer que sea muy bueno procesando solo configurando codec o utilizando reproductores mejores y bien configurados.
si estuviese interpretando algo mal saliendo la calibración bien, solo se le podría atribuir a bandíng posterización, etc algo que visualmente no puedes decir que exista, al menos no mas que en una cadena de video convencional en las captura que yo he colgado, por lo tanto lo que ves es lo que hay en el blu ray.

Sobre tu comentario Ronda, de las tv calibradas hay dos cosas no sé si me hablas de diferencias de contraste y negros definicion sensacion tridimensional, etc... o de diferencias de color y grises o punto de blanco, porque lo primero es evidente que tiene que haber diferencias ya que por eso hay tv con mas contraste on/off y ansi que otras, pero esto no es lo que estamos hablando, ahora si te refiers a lo segundo, el problema no es la calibración si no el dE que hayas dejado en cada, me explico
si tu calibras dejando un dE de 2 y tu sonda tiene un dE de 1 el dE será de 3 y en función de lo alto que sea el valor que hayas dejado en cada una hará que tengas un dE visible y de ahí las diferencias, aunque estas no tendrian que ser muy visibles, pero si el valor es suficientemente bajo en todas, es imposible que notes diferencias, si no algo estas haciendo mal.

Un saludo
 
Arriba Pie