He leído tus comentarios sobre ese tema y por supuesto que estoy al 100% de acuerdo contigo. Y no es que sea un disparate, es que es una verdadera majadería lo del fotograma orig ...mñññmm...es que me da grima y sarpullido por todo el cuerpo hasta escribirlo...
Soy yo, con todo lo inservible quitado y con los presets que considero necesarios para acercarme a norma, realizo la auto-calibración con el 3D en off, a 8 puntos y con 11 puntos de gamma en el Lumagen. El dueño que lo tiene puede decir que presets dejamos.Para empezar he de decirte que el que haya procedido a ejecutar la autocalibración ha procedido erroneamente, ya que ha partido de inicio con unos presets equivocados, ya sea porque no ha elegido correctamente los presets del proyector, o porque sencillamente la gamma o espacio de color nativos de ese proyector, de inicio, se desvían excesivamente del objetivo, con lo cual, la forma correcta de proceder hubiera sido la manual, no la auto, pero en cualquier caso se ha procedido erróneamente. Para que la autocalibración sea correcta hay que partir de inicio con unos presets que se ajusten lo máximo posible a las normas y objetivo (por esa razón los Sony quedaron correctamente y el JVC, no) de lo contrario la autocalibración será inexacta, ...cuando en las gráficas pre-calibración queda reflejado que la verdadera causa del fracaso es simplemente por haber procedido de inicio equivocadamente. En fin...
La opción manual no la vi viable.
BTB correcto, WOW da 27 de brillo (¡raro!), continuo...
En fin...
Si queréis sacar algo en claro sobre este tema os aconsejo que no dejéis de leer este artículo de Michael TLV, que es instructor THX / ISF
POR QUÉ CALIBRAMOS...MITOS DE LA CALIBRACION
Si lo habéis leído entenderéis que llamar fotograma original a una captura posteada en un foro o simplemente a lo que vemos en nuestra casa y en nuestro PC y monitor calibrado es un disparate importante. Será aproximado, pero nunca igual al original porque sencillamente nosotros no disponemos de un monitor de estudio, y que se parezca más o menos va a depender (como ya he dicho) de nuestra cadena de vídeo, visualizador, condiciones de visionado y precisión de nuestras herramientas de calibración para que lo que veamos en nuestra casa se parezca lo máximo posible a esa intención artística. De entrada hay que fiarse más en nuestra casa sobre lo que veamos en nuestro dispositivo de visualización de vídeo calibrado que lo que veamos desde nuestro PC, que en principio será peor referencia que la del equipo de vídeo
Hola Ronda, yo no veo indicio para que no se llame fotograma original o para que no se vea a la norma rec709 un pc o mac al igual que un tv, de hecho aquí lo único que indica es que una calibración no pretende que se vea la tv como vemos en la vida real porque nuestros tv no están preparados para ello al igual que los monitores de aprobación que tampoco están preparados, lo único que he creído entender, es que el espacio de color del metraje original tiene un espacio de color mayor al rec709, pero yo nunca he pretendido decir que lo que llamamos fotograma original era igual que el negativo de la película, sino que es el fotograma original del blu ray, si quieres decir que llevamos varias paginas en el otro foro para diferir en esto y no hemos sido capaces de hacernos entender, mal vamos.
Perdon ya que la pregunta no va dirigida a mi,no existe prueba del algodon para unaMach16, ¿cuál consideras tú la prueba del algodón de la calibración?
Hola Ronda, yo no veo indicio para que no se llame fotograma original o para que no se vea a la norma rec709 un pc o mac al igual que un tv, de hecho aquí lo único que indica es que una calibración no pretende que se vea la tv como vemos en la vida real porque nuestros tv no están preparados para ello al igual que los monitores de aprobación que tampoco están preparados, lo único que he creído entender, es que el espacio de color del metraje original tiene un espacio de color mayor al rec709, pero yo nunca he pretendido decir que lo que llamamos fotograma original era igual que el negativo de la película, sino que es el fotograma original del blu ray, si quieres decir que llevamos varias paginas en el otro foro para diferir en esto y no hemos sido capaces de hacernos entender, mal vamos.
Mira mach,estamos en la sala de calibracion,o sea que lo menos que podemos hacer es ser
rigurosos con las palabras que utilizamos,ya que si no podemos inducir a error a cualquier
persona que entre a buscar informacion y que no disponga de los conocimientos necesarios
si alguien sin esos conocimientos,lee al lado de una imagen fotograma oirginal,puede pensar
que su pantalla despues de calibrada debe verse exactamente asi y eso no es cierto.
Fotograma original,en terminos de calibracion solo existe uno y es nuestro objetivo a buscar
la imagen obtenida con un frame determinado en el monitor de aprobacion del contenido,ese
fotograma original esta fuera de nuestro alcance,tanto por imposiblilidad tecnica,en estudio
se trabaja habitualmente con señales de 10bits y dispositivos adecuados para ello,monitores
cromaticamente mucho mas estables que los domesticos y con una cadena de procesado mucho mas precisa que la que nosotros podemos utilizar,como por imposibllidad(a lo mejor se
puede hacer pero desde luego no en una sala no dedicada y no sin hacer muchas mediciones)de recrear las condiciones ambientales de esa sala de masterizacion.
Segun tu definicion,cualquier pantalla calibrada que obtenga unos deltas de error por debajo
de lo visible deberia de verse exactamente igual,eso no es asi,pero lo que es mas,cualquier
persona que tenga una pantalla que cumpla esos requisitos y que tenga una imagen en su
PC suficientemente similar,puede colgar la imagen en el foro y llamarle "fotograma original"
como comprenderas eso no es serio,y en esta sala lo que hay que intentar es mantener la
seriedad,otra cosa es que a ti personalmente te valga de referencia,pero en esta sala se
intenta dejar las opiniones subjetivas a un lado y hablar de cosas tecnicamente correctas.ç
Claro que si tu crees que la imagen obtenida en un monitor de PC de 200 eurors aunque
lo ajustes a norma colorimetricamente hablando va a ser igual a la obtenida en la sala de
masterizacion con los instrumentos que en ella se utilizan a cualquier cosa le puedes llamar "fotograma original"
Pero es que aun hay mas errores en tu argumentacion,en un bluray,no existen imagenes,exiten
datos,la interpretacin por parte de la fuente y la pantalla de esos datos es la quw hace que el
resultado se acerque mas o menos a esa imagen del monitor de aprobacion,hay que recuperar
la resolucion completa de chroma(el submuestrearlo ya crea una limitacion al contenido con res
pecto a la imagen no submuestreada de la sala de masterizacion,esto tambien es constatable con patrones)hay que transformar el espacio YCbCr en RGB,primero no lineal y posteriormente
lineal en la pantalla,y todo eso suponen operaciones matematicas,cuanto mejor las hagan tanto
la fuente como la pantalla menos se distanciara la imagen mostrada finalmente de nuestro objetivo.
Por lo tanto si tu le llamas "fotograma original" a la imagen de una captura de tu PC entonces como le llamamos a la imagen de una cadena de video donde gran parte de esos procesos los realice un lumagen y lo unamos a un visualizador que realice las ultimas conversiones de la mejor manera polible "fotograma superoriginal".
No mach,hay que ser rigurosos,nadie puede afirmar con material pelicula,simplemente valorando
la imagen cual de los resultados de varias calibraciones(si los resultados son similares en cuanto a deltas de error y se ha utilizado el mismo hardware de medicion)se acerca mas al objetivo buscado,ya que existe una intencion creativa implicita en ese material que nos impide por completo hacer suposiciones sobre como debia de verse ese mismo frame en el monitor de aprobacion por lo tanto llamar a
cualquiera de esos resutados,"fotograma original" es en si mismo
un error que puede conducir a equivocaciones. o mas aun a una captura de un PC,ya que si esta se diferencia
de la imagen de la cadena de video en igualdad de condiciones la imagen a tomar como referencia para establecer una comparativa entre ambas,es la de la cadena de video
Perdon ya que la pregunta no va dirigida a mi,no existe prueba del algodon para unaMach16, ¿cuál consideras tú la prueba del algodón de la calibración?
calibracion,calibramos para acercarnos lo mas posible al objetivo(la imagen del monitor
de aprobacion)pero no sabemos solamente valorando una imagen de material pelicula
cual de varias cadenas de video calibradas se acerca mas a el.
Solo los numeros y la precision del aparato que se utilize para obtenerlos nos asegura
llevar nuestra cadena de video lo mas cerca posible del objetovo,pero si queremos saber
a traves de una imagen si nuestro resultado es mas proximo o no que el de otro dispositivo
calibrado,con imagenes lo mas apropiado(sin ser exacto al 100% ) es utilizar imagenes carentes de intencion creativa,que quieran representar un objeto en el mundo real,con el
que nosotros si podamos establecer una comparacon visual.
Mach16, ¿cuál consideras tú la prueba del algodón de la calibración?
Enviado desde dispositivo móvil
No te ofendas, pero te pediría que por favor y en aras de que transmitas lo mejor posible tus mensajes, a los posibles receptores de los mismos, que hagas párrafos con sus puntos y aparte. No hay Dios que pueda seguir esta sopa de letras.Pero todos esos datos que comentas, de la conversión de YCbCr en RGB ya pueden fallar en una cadena de video como una tv o un proyector, de hecho yo llevo defendiendo mucho tiempo, y en este foro ya he tenido alguna discusión al respecto, que para saber si algo esta bien calibrado se necesita medir también el interior del espacio de color para ver cuan lineal y si esta bien la calibración, cosa que se decía que con un Lumagen se solucionaba y no era cierto, por eso Lumagen saco la actualización para poder corregir los 125 puntos, si no de que iban a sacar esta actualización, y cuando digo que algo esta calibrado lo digo teniendo en cuenta esto también, por la tanto ese error de conversión que comentas no es un problema del pc, si no de cualquier fuente, y si se mide el interior y esta correcto, es porque la conversión es más o menos correcta, de hecho me gustaría poder ver las diferencias de un procesado perfecto a uno correcto si son tan grandes o más bien casi no se distinguen, pero el caso es que la captura de pc, no tiene modificación alguna y lo único que es igual para todos, mal o bien calibrados de hacia donde tiene que tender las capturas que colgamos, porque si yo cuelgo una foto con mi cámara a mi proyector calibrado correctamente y digo que lo que muestra mi captura es muy parecido a lo que se ve en realidad, y otro cuelga una foto que dice ser muy similar a lo que ve en realidad y la "Captura de Pc" se parece más, a por ejemplo la foto del compañero, quiere decir que o mi foto no se parece a lo que se ve en realidad, o que mi proyector no esta bien calibrado, ya sea por error de sonda o de mala calibración, y eso se sabe mirando a esas fotos con monitor calibrado o no, ya que como referencia esta la captura del pc al la que podemos comparar, que lo que hay en la captura de pc no es lo que ve el director en el monitor de aprobación, sigo sin verlo claro, y lo digo porque que sea de 10 bit o de 8bit la diferencia de eso solo se ve en la cantidad de gradación y colores que muestra el monitor y eso no hará que lo que veo en la captura sea incorrecto, solo menos preciso, pero peor es que una tv no sea lineal en el interior del espacio de color y se ha hecho para ver video, y puede que también sea de 8 bits, y eso de que la más parecida a lo que ve el director en el monitor de aprobación, en un caso de una tv como la que digo no seria correcto, de hecho llevamos mucho tiempo calibrado a 70% o a 100% solo, sin mirar que pasa en el resto de porcentajes y eso seria menos correcto que saber que todo está bien, y como yo he calibrado un pc y se que el interior del espacio es correcto y que lo que veo en la tv calibrada no se diferencia de lo que veo con la misma tv pero reproducido desde un pc y esta a su vez no se diferencia excepto en niveles de grises, de lo que se ve en la captura de pc, sigo sin ver porque no puedo llamar a la captura de pc al menos fotograma original del blu ray. y creo que esto no es cuestión de rigor, sino cuestión de certeza, porque no entiendo como puedes decir que lo que yo veo en mi pc no es como lo que se ve en el monitor de aprobación en cuanto a rigor de calibración y no si se ven más tonos o no, ya que en la cadena de video también puede pasar y además si tú tampoco has visto el monitor de aprobación y si esto fuera así, porque yo y muchos más que ya lo han comentado en el otro foro, ven iguales las capturas de pc (Siempre y cuando esté todo bien configurado) que la calibración de su tv o proyector, porque yo no encuentro la razón y esto es lo que aunque tú me digas que la teoría es así, o se nos escapa algo o algo falla, porque si no la captura del pc se debería ver muy diferente a la calibración de nuestros proyectores y no es así.
Un saludo.
Ciertamente,y no lo harian si dejaran hacer esa operacion a un procesador como el lumagen que lo hace de la mejor manera posible,pero resulta que nuestras pantallas domesticas tienen la fea costumbre de si se les envia la señal transformada a RGB volves a pasarla a YCbCr para su procesado interno,cosa que por supuesto una pantalla profesional no hace.Pero todos esos datos que comentas, de la conversión de YCbCr en RGB ya pueden fallar en una cadena de video como una tv o un proyector,
de hecho yo llevo defendiendo mucho tiempo, y en este foro ya he tenido alguna discusión al respecto, que para saber si algo esta bien calibrado se necesita medir también el interior del espacio de color para ver cuan lineal y si esta bien la calibración, cosa que se decía que con un Lumagen se solucionaba y no era cierto, por eso Lumagen saco la actualización para poder corregir los 125 puntos, si no de que iban a sacar esta actualización, y cuando digo que algo esta calibrado lo digo teniendo en cuenta esto también, por la tanto ese error de conversión que comentas no es un problema del pc, si no de cualquier fuente, y si se mide el interior y esta correcto, es porque la conversión es más o menos correcta
Esto es un desproposito en si mismo,que sabes tu con material pelicula,cual de las imagenespero el caso es que la captura de pc, no tiene modificación alguna y lo único que es igual para todos, mal o bien calibrados de hacia donde tiene que tender las capturas que colgamos, porque si yo cuelgo una foto con mi cámara a mi proyector calibrado correctamente y digo que lo que muestra mi captura es muy parecido a lo que se ve en realidad, y otro cuelga una foto que dice ser muy similar a lo que ve en realidad y la "Captura de Pc" se parece más, a por ejemplo la foto del compañero, quiere decir que o mi foto no se parece a lo que se ve en realidad, o que mi proyector no esta bien calibrado, ya sea por error de sonda o de mala calibración, y eso se sabe mirando a esas fotos con monitor calibrado o no, ya que como referencia esta la captura del pc al la que podemos comparar
que lo que hay en la captura de pc no es lo que ve el director en el monitor de aprobación, sigo sin verlo claro, y lo digo porque que sea de 10 bit o de 8bit la diferencia de eso solo se ve en la cantidad de gradación y colores que muestra el monitor y eso no hará que lo que veo en la captura sea incorrecto, solo menos preciso
Obviamente yo no he visto tampoco el monitor de aprobacion,por eso llevo diciendo desde elademás si tú tampoco has visto el monitor de aprobación y si esto fuera así, porque yo y muchos más que ya lo han comentado en el otro foro, ven iguales las capturas de pc (Siempre y cuando esté todo bien configurado) que la calibración de su tv o proyector, porque yo no encuentro la razón y esto es lo que aunque tú me digas que la teoría es así, o se nos escapa algo o algo falla, porque si no la captura del pc se debería ver muy diferente a la calibración de nuestros proyectores y no es así.
Hola,Mach. Cuando afirmas disponer o ver en tu casa a traves de tu monitor de PC calibrado el fotograma igual al original o fotograma igual en fidelidad al original del BD, es como si dijeras...no ya que dispones de un monitor de estudio, estás afirmando que dispones "del" monitor de estudio, que conoces gamma (que no se puede saber), pico de blanco (que no se puede saber), condiciones de visionado del estudio (que no se pueden saber), etc. Cuando en realidad, y perdona la expresión, sólo dispones de un baratillo monitor de 200 euros aproximadamente calibrado mediante unas herramientas de calibración de muy bajo costo... Es como si nos dices que tienes en tu casa el original de "La Mona Lisa" cuando en realidad solo dispones de una copia barata pintada por un aficionado...
Nuestros visualizadores no son monitores de estudio, aunque aquí habría que matizar que cuando hablas del original habría que decir que nuestros visualizadores no son el monitor de estudio, y no solo por las razones expuestas anteriormente, también porque además, y a modo de ejemplo y dependiendo de la tecnología de visualización: El iris dinámico de un Sony SXRD afecta a la fidelidad de la imagen, el ABL de un plasma afecta a la fidelidad de la imagen y los sistemas de atenuación local y automática que montan muchas pantallas LCD LED también afectan la fidelidad de la imagen por muy bien calibradas que estén estas pantallas, entre otras cosas.
Una captura de un BD, es solo eso, una captura y punto, no el original o igual al original. A lo que aspiramos es a emular al original, o sea, al monitor de estudio.
¿Sabes o conoces la finalidad de la fórmula BT.1886?. Es que la repuesta a la pregunta está relacionada estrechamente con el tema.
No te ofendas, pero te pediría que por favor y en aras de que transmitas lo mejor posible tus mensajes, a los posibles receptores de los mismos, que hagas párrafos con sus puntos y aparte. No hay Dios que pueda seguir esta sopa de letras.Pero todos esos datos que comentas, de la conversión de YCbCr en RGB ya pueden fallar en una cadena de video como una tv o un proyector, de hecho yo llevo defendiendo mucho tiempo, y en este foro ya he tenido alguna discusión al respecto, que para saber si algo esta bien calibrado se necesita medir también el interior del espacio de color para ver cuan lineal y si esta bien la calibración, cosa que se decía que con un Lumagen se solucionaba y no era cierto, por eso Lumagen saco la actualización para poder corregir los 125 puntos, si no de que iban a sacar esta actualización, y cuando digo que algo esta calibrado lo digo teniendo en cuenta esto también, por la tanto ese error de conversión que comentas no es un problema del pc, si no de cualquier fuente, y si se mide el interior y esta correcto, es porque la conversión es más o menos correcta, de hecho me gustaría poder ver las diferencias de un procesado perfecto a uno correcto si son tan grandes o más bien casi no se distinguen, pero el caso es que la captura de pc, no tiene modificación alguna y lo único que es igual para todos, mal o bien calibrados de hacia donde tiene que tender las capturas que colgamos, porque si yo cuelgo una foto con mi cámara a mi proyector calibrado correctamente y digo que lo que muestra mi captura es muy parecido a lo que se ve en realidad, y otro cuelga una foto que dice ser muy similar a lo que ve en realidad y la "Captura de Pc" se parece más, a por ejemplo la foto del compañero, quiere decir que o mi foto no se parece a lo que se ve en realidad, o que mi proyector no esta bien calibrado, ya sea por error de sonda o de mala calibración, y eso se sabe mirando a esas fotos con monitor calibrado o no, ya que como referencia esta la captura del pc al la que podemos comparar, que lo que hay en la captura de pc no es lo que ve el director en el monitor de aprobación, sigo sin verlo claro, y lo digo porque que sea de 10 bit o de 8bit la diferencia de eso solo se ve en la cantidad de gradación y colores que muestra el monitor y eso no hará que lo que veo en la captura sea incorrecto, solo menos preciso, pero peor es que una tv no sea lineal en el interior del espacio de color y se ha hecho para ver video, y puede que también sea de 8 bits, y eso de que la más parecida a lo que ve el director en el monitor de aprobación, en un caso de una tv como la que digo no seria correcto, de hecho llevamos mucho tiempo calibrado a 70% o a 100% solo, sin mirar que pasa en el resto de porcentajes y eso seria menos correcto que saber que todo está bien, y como yo he calibrado un pc y se que el interior del espacio es correcto y que lo que veo en la tv calibrada no se diferencia de lo que veo con la misma tv pero reproducido desde un pc y esta a su vez no se diferencia excepto en niveles de grises, de lo que se ve en la captura de pc, sigo sin ver porque no puedo llamar a la captura de pc al menos fotograma original del blu ray. y creo que esto no es cuestión de rigor, sino cuestión de certeza, porque no entiendo como puedes decir que lo que yo veo en mi pc no es como lo que se ve en el monitor de aprobación en cuanto a rigor de calibración y no si se ven más tonos o no, ya que en la cadena de video también puede pasar y además si tú tampoco has visto el monitor de aprobación y si esto fuera así, porque yo y muchos más que ya lo han comentado en el otro foro, ven iguales las capturas de pc (Siempre y cuando esté todo bien configurado) que la calibración de su tv o proyector, porque yo no encuentro la razón y esto es lo que aunque tú me digas que la teoría es así, o se nos escapa algo o algo falla, porque si no la captura del pc se debería ver muy diferente a la calibración de nuestros proyectores y no es así.
Un saludo.
Gracias.
Ciertamente,y no lo harian si dejaran hacer esa operacion a un procesador como el lumagen que lo hace de la mejor manera posible,pero resulta que nuestras pantallas domesticas tienen la fea costumbre de si se les envia la señal transformada a RGB volves a pasarla a YCbCr para su procesado interno,cosa que por supuesto una pantalla profesional no hace.
Esto no tiene nada que ver con la conversion de los datos de YCbCr a RGB,tierne que ver con
la linealidad o no del dispositivo de visualizacion a traves de todo el gamut de color.
Esto es un desproposito en si mismo,que sabes tu con material pelicula,cual de las imagenes
la "captura del pc"la imagen de tu proyector calibrado o la imagen que cuelga el otro forero,es la imagen mas cercana a la del monitor de aprobacion.
Vamos a utilizar el ejemplo de Ronda,una persona va al louvre y graba en una camara la mona lisa,la camara esta adecuada al estandar rec709,despues nos deja la grabacion para que la veamos tu y yo cada uno en su cadena de video calibrada(calibradas con la misma sonda y
con errores por debajo de lo visible en ambos casos)entonces yo cogo ese material,extraigo una
captura del pc(que es muy similar o a mi vista iidentica)y me voy a tu casa y te digo que la imagen que has obtenido tu no es correcta,porque no es identica a la mia que tendria que parecerse mas a mi referencia que es mas similar a la mona lisa original.
Entonces evidentemente tu te ries miras para mi y me dices,cuando estemos los dos en el louver delante de ella me lo dices,esa es la comparacion que estas planteando con material
pelicula,porque igual que en el caso de la mona lisa no tenemos acceso al original.
No solo en los que muestra el monitor sino los que estan en el material,tu nunca vas a poder igualar tu imagen con la del monitor de aprobacion,tanto por los motivos que te ha dado Ronda,ademas de los filtros que incorporan las pantallas domesticas y no estan en los monitores profesionales,ademas de la no conversion a YCbCr dentro de la pantalla lo que limita los colores.
Una pantalla profesional esta preparada nativamente para trabajar con señales de 10bits(en niveles de estudio con footroom y headroom) o lo que es lo mismo unos 674 millones de colores,porque el material con el que trabaja es de esa calidad,simplemente con el paso a 8bits del material este queda en unos 10 millones de colores pero es que ademas despues una vez codificado en YCbCr ese material pasa a no tener mas de 2.75 millones de colores.
Todos los colores que no estan en ese material y que la pantalla va a reproducir se tienen que
interpolar a traves de diferentes tecnicas a partir de los colores contenidos en el disco,que ni siquiera son esos 2.75 millones ya que los canales de diferencia de color se submuestrean.
Como vamos a acercarnos a esa imagen si no disponemos del material necesario ni a nivel de software ni de hardware.
8 o 10 bits. Esa es la pregunta.
Comencemos por el principio. La diferencia entre 10 y 8 bits es la cantidad de colores que se pueden mostrar en un video. Para los matemáticos será sencillo entenderlo, pero intentaré explicarlo un poco más para los que no les gustan las matemáticas xD.
Recordemos que los bits son números binarios. Es decir, sólo pueden existir unos y ceros. La ventaja de este sistema, es que se va duplicando la cantidad (en este caso de colores) con cada bit adicional. En el caso de 8 bits quiere decir que se pueden mostrar un total de 255 variaciones de un mismo color (2x2x2x2x2x2x2x2=256 -1), pero en 10 bits la cantidad de variaciones se dispara hasta 1023 variaciones de un mismo color (2x2x2x2x2x2x2x2x2x2=1024-1). Para los que les surge la duda… sí. Siempre se resta uno, al que se llama bit de control.
Ahora bien, en video digital se usa el sistema RGB (Red, Green, Blue), por lo que si tenemos 256 variaciones por cada color, y mezclamos cada variación de cada color con cada variación de los demás colores tenemos la nada despreciable cantidad de poco más de 16.7 millones de colores (256x256x256 = 16.777.216-1). ¿Y en 10 bits? Tenemos más de 1073 millones de colores (1024x1024x1024 = 1.073.741.824-1). Impresionante ¿no creen? Así que en estos términos, los 8 bits mencionados en realidad son 24 bits, pues son 8 bits por cada color (pueden intentar multiplicando 24 veces 2, y verán que es el mismo resultado).
Ahora bien, las tarjetas gráficas normalmente están configuradas en 32 bits, es decir, más de 4200 millones de colores (4.294.967.295), es decir, 4 veces más que 10 bits.
No es que lo haga bien y punto,son operaciones matematicas,cuanto mas precision se consigaTampoco hace falta dejárselo a un Lumage, basta con que lo hagan bien y punto, eso es lo que debería hacer cualquier dispositivo reproductor, tv o proyector decente.
No es que sea lineal o no,es que se recuperen los datos originales correctamente o no,buscaPues explicate, porque si se hace mal la conversión aunque sea lineal el proyector o tv no se podría dejar a la norma tanto en el exterior como en el interior, y nos daríamos cuenta en la calibración
El problema es que tu partes de un supuesto fotograma inexistente porque no es el monitor de aprobación, y eso desde mi punto de vista es un error, ya que para que con una calibración podamos ver lo mas parecido a lo que el director quiso, debemos de disponer en el blu ray de la información correcta y esa si la tenemos.
Lo que pasa es que tú aludes que esa imagen que tenemos en el Blu-Ray no es buena porque pasa por ser una captura procesada por un ordenador y que tiene mas errores que los que tiene un reproductor domestico y que se aleja más de la realidad, y eso es lo que yo no comparto tu opinión, y como ya te he dicho he hecho las pruebas y no hay errores de procesado ni historias.
Volviendo a tú historia si partimos de que en la película que te han dejado está el material original, si lo reproducimos en una cadena de video calibrada correctamente, debería de verse igual o muy parecido en función del dE que tengamos en cada cadena de video y la captura de pc seria la única referencia para saber cual está mejor calibrada.
Pues creo que las matemáticas te fallan o yo me pierdo algo, pero de todas formas si esto es como tú dices, el objetivo de la calibración no debe ser acercarnos a lo que se ve en el monitor de aprobación, sino mas bien a lo que contiene el Blu-Ray que parece ser muy diferente a lo que ve el director en esos mega monitores.
Me explico, si el monitor reproduce a 10 bits y el material grabado en los Blu-Ray está a 8 bits ¿Que sentido tiene la explicación que aludes de que la calibración se tiene que parecer al monitor de aprobación si luego dices que no disponemos del monitor adecuado ni tenemos para reproducir ningún contenido en 10 bits?
Vuelvo a decir, que la captura del Blu-Ray es lo que tenemos como referencia de lo que tiene que ser la calibración ya que la mayoria de monitores de pc son de 8 bits, aunque también los hay de 10 bits si se quiere, y la tarjeta del pc puede hasta con 32 bits, así que la supuesta limitación del pc como referencia, no existe como tal, ya que bien configurado puede reproducir perfectamente lo que tenemos en el disco de blu ray.