MadVR TUTORIAL (14/01/22 Actualizado!) Tone mapping dinámico.

El tema está en que la conversión HDR-SDR de MadVR consume más recursos de lo normal. Tendremos que valorar el tema.

Esos MSI trident están de puta madre por tamaño potencia y precio razonable. Los modelos con 1060 rondan los 900 y pico euros.

Hombre teniendo un 4k nativo yo optaría por la gráfica más potente que pueda permitirse si quiere trastear con los algoritmos de definición de madvr (NGU). En mi caso con el jvc lo uso en 1080p y pongo filtros y me gusta más que en 4k y eshift, pero con un nativo igual merece la pena estrujar la gráfica.

Saludos!
 
Pero realmente una 1050Ti no es una gráfica mala ni mucho menos. Crees que es insuficiente?
 
Creo que con una 1060 ya puedes usar el NGU Sharp en medium, pero eso también son gustos míos. No soy muy experto y lo mismo la 1050TI es mejor que la 1060 pelada, pero cuanta más memoria de video tenga mejor también.

Saludos!
 
King yo no le metería nada inferior a una 1060, por tema conversión hdr y también por los reescalados.

Para una reproducción simplona sí valdría una 1050ti, pero ya te digo, lo recomendable es una 1060.
 
Me da la sensación que cuando se meta tonemapping dinámico de verdad ni siquiera con una 1070 y si no al tiempo. Ya ha habido gente que ha comentado problemas.
 
fuente con más watios y listo ,
no veo el problema,
tengo amigos con esa configuración y no veo que se quejen
 
Me da la sensación que cuando se meta tonemapping dinámico de verdad ni siquiera con una 1070 y si no al tiempo. Ya ha habido gente que ha comentado problemas.
Qué va, para madvr lo más exigente son los procesados de imagen. Todo el hdr consume un poco, pero no demasiado. Con una 1060 creo que se irá bien igualmente.

Sabiendo lo que sé ahora y como uso madvr, no hubiera comprado una 1080, pero bueno tengo reservas para rato.

Saludos!
 
Tú la has usado y sigues el hilo de AVS así que no te lo voy a discutir pero en algún momento me pareció leer en ese hilo que el tone mapping en tiempo real podría tener problemas de procesado y eso que allí mucha gente utiliza una 1080ti
 
Yo voy sobrado con la 1080, pero bueno, también la dedico para jugar y realidad virtual. No me puedo quejar, la verdad.

Axelpowa ya avsirás cuando haya una versión relevante, yo también tengo instalada aquella que aumentó el efecto pseudo HDR y que va tan tan bien.
 
La siguiente versión oficial va a introducir un concepto nuevo muy bueno, pero la forma de conseguirlo no me resulta muy atractiva y como no paran de salir betas por ahora no me aventuro a probarlo.

Consiste en escanear cada película que tengamos y generar un fichero con todos los metadatos de la película frame a frame. De esta manera es como si tuviéramos metadatos dinámicos y el tone mapping se ajustará mejor en cada escena. Como si tuviéramos HDR10+ en nuestro proyector.

Por lo que he leído la gente está muy contenta con esto y se notan mejoras significativas en el contraste, sobretodo en escenas muy luminosas.

Además introducen nuevas variables de medición que ayudan a elegir los target de nits mejor para cada película usando los perfiles automáticos.

Saludos!
 
Joder, suena flipante. Os podéis imaginar qué semanitas de mierda llevo con las obras y el proyector metido en un armario...
 
Yo me he visto 2 UHD, Only the brave (historia real de unos bomberos forestales) y Megalodon.

En ambos casos me seleccionó 425 nits de target y muy bien, son dos películas muy luminosas y con un valor de 225 o menos se vería peor en las escenas de tanta luz.

Saludos!
 
¿Qué versión usas?

¿Ahora se automatiza el target nits?

Como siempre, te pido que pongas tus ajustes base y la versión concreta. Me consta que sirve a muchos como referencia para empezar a tocar sin miedo.

¿En principio estas mejoras son para todos los proyectores y no sólo jvc no?

Esta semana vuelvo a casa del colega del Sony y si crees que merece la pena que actualice a alguna versión concreta dímelo.
 
Uso la misma que tú King.

Lo único que me hice los perfiles que puse en el tutorial para que madvr elija en función de la luminosidad de la película. Madmax, Megalodon, Batman vs Superman.... , son películas que son muy luminosas, por lo que poner un target alto les favorece.

Las mejoras son para todos los visualizadores.

Por ahora sigo esperando a la siguiente versión oficial para que afinen bien lo de los ficheros.

Saludos!
 
Según mashdi, lo de la pre-medición de los contenidos no se utiliza realmente para un tonemapping dinámico que creo que no ha empezado su desarrollo sino para ajustar mejor el tone-mapping actual.
 
Según mashdi, lo de la pre-medición de los contenidos no se utiliza realmente para un tonemapping dinámico que creo que no ha empezado su desarrollo sino para ajustar mejor el tone-mapping actual.
Así es, pero es como tener los metadatos dinámicos. Porque sabe de antemano lo que hay en cada frame para ajustarse mejor. Dolby Vision informa de estos datos y hace el tone mapping según su criterio y tomando estos datos para hacerlo.

Aquí no hay una norma como dolby vision, sino el BT.2390 y la programación de Madshi, pero se ajustará mejor sabiendo estos valores.

El tone mapping dinámico está por llegar todavía.

Saludos!
 
No lo hace frame a frame, lo que hace es obtener una serie de variables que utiliza en el tone-mapping para tomar decisiones. A mí personalmente, aunque, por lo que comenta la gente, esta consiguiendo buenos resultados, no me gusta, ya que no es bueno en todos los casos. Utiliza un método demasiado "heurístico" (no determinístico) lo cual hace que haya casos en los que la imagen obtenida falle. Me imagino que hasta que no haga el desarrollo del TM dinámico es una concesión con la que se deberá vivir.
 
No lo hace frame a frame, lo que hace es obtener una serie de variables que utiliza en el tone-mapping para tomar decisiones. A mí personalmente, aunque, por lo que comenta la gente, esta consiguiendo buenos resultados, no me gusta, ya que no es bueno en todos los casos. Utiliza un método demasiado "heurístico" (no determinístico) lo cual hace que haya casos en los que la imagen obtenida falle. Me imagino que hasta que no haga el desarrollo del TM dinámico es una concesión con la que se deberá vivir.

Si es frame a frame, o eso me ha parecido entender. Las variables introducidas ha sido para automatizar mejor el criterio para elegir perfiles o para sobrescribir los ficheros generados con estas "medias" para ver cómo se comporta el tone mapping. Pero los datos que obtiene en el fichero es de cada frame para adaptar mejor(o más real) a lo que indica el frame, lo malo es que como dices, Madshi no quiere clipear y si hay algún pixel con mucha luz pir encima del resto de la escena va hacer que comprima mucho el resto y es en eso en lo que se está trabajando con todas las variables.

Usar el 99.9% o cosas así que es donde ya me he desconectado drl tema porque además están usando otros programas que han creado con el propósito de tratar el fichero y reemplazar valores.

Saludos!
 
Última edición:
A ver, como no sé exactamente lo que hace tampoco debería debatirlo. Pero por lo que he leído no utiliza la información de cada frame para gestionar la luz del frame sino para obtener una serie de variables estadísticas con las que toma decisiones. Además, esas variables las ha "exportado" para que desde fuera se puedan utilizar para seleccionar el perfil. Paralelamente a eso, la gente ha desarrollado algunas herramientas para analizar los archivos de datos y ayudar a mashdi a mejorar el actual algoritmo.

La verdad es que el TM dinámico no es moco de pavo y requerirá de mucha potencia de proceso si se quiere hacer on the fly porque, emho, para cada frame se deberá tener analizados bastantes frames anteriores y otros tantos posteriores para así poder armonizar la luminosidad de las escenas. Me imagino que es mucho menos pesado desde el punto de vista computacional hacerlo como ahora, pre-analizando la peli, pero pero es mucho menos elegante claro.
 
Coincido contigo en que el tema cuesta seguirlo y yo en esto tampoco tengo conocimiento profundo para poder debatir. Me ha dado la impresión esa de lo que he leído, pero se ha vuelto tan denso que he desconectado un poco y me espero a la versión oficial porque todo esto me supera.

Se han puesto muy frikis, imagino que el resultado merecerá la pena a pesar de tener el incordio de crear el fichero.

Lo de hacerlo en vivo no es posible porque madvr no puede saber lo que hay en los frames que no ha reproducido antes(eso dijo madshi), por eso lo de tener el fichero para tener esos datos de cada frame.

Saludos!
 
Arriba Pie