Usar un televisor 4K como monitor. ¿Locura o genial idea?

Manu1001

Au revoire.
Mensajes
76.875
Reacciones
20.700
Se me acaba de morir mi monitor de 32", el Benq SW320. Es un pedazo de monitor, y podría incluso pedir un reemplazo, pero he estado dándole vueltas a un asunto...

Lo cierto es que la fidelidad de color extrema de la que presume el Benq me trae un poco al pairo a estas alturas.Ya no tengo ni cámara de fotos, con lo cual esa no es mi prioridad. En cambio, si que lo sería una imagen con un contraste y brillo similares a los que tiene la pantalla de mi MacBook Pro touchbar. Y para eso, me temo que no hay solución en tamaño "grande" (me gustan los monitores de al menos 32").

Dado que los monitores OLED aún tardarán, se me ocurrió la idea de intentar conectar un televisor en lugar de un monitor. Bien OLED, o algo equivalente. Y encontré un QLED de Samsung que tiene un tamaño "contenido" (49"), cuesta más o menos lo mismo que mi benQ actual (1.500.- €) y además regalan con él otro televisor de 40" 4K (UE40MU6105) que me vendría de perlas para el dormitorio.

No sé que resultado puede dar un TV como monitor, pero en principio, si no eres riguroso con la fidelidad de color, debería funcionar, ¿no? Por resolución no será...

Qué opináis?
 
Pues ningún problema. Mi PC con nvidia 1080 está conectado a un plasma LG 1080p en el salón de mi casa y a un proyector 4K de JVC en la sala dedicada.

El uso es primordialmente multimedia. Es decir videojuegos y cine. Y no lo cambiaría por nada.

Sin embargo un televisor en un escritorio a dos palmos de la cara quizá no sea la opción más aconsejable para la comodidad de la vista. Ya te digo que depende que uso tengas pensado.
 
Una OLED para uso de escritorio podría darte algún problema de retenciones.

No sé exactamente el uso que le vas a dar, pero hay monitores 4K con paneles VA ó IPS en torno a 40 pulgadas por debajo de 1000 euros.

Este por ejemplo cuesta 619 en Alternate: iiyama ProLite X4071UHSU-B1
 
Ya, pero los negros y el contraste del OLED, o simplemente del monitor del MacBook Pro, no lo dan estos ni de broma. Y eso me mata un poco.
 
Pero entonces si no te interesa un monitor widegammut, el Benq es una opción que no te aporta nada. Estás pagando por algo que con un monitor de 600€ ya solucionas.

Lo que pasa es que por una parte dices que no te interesa y por otra que quieres algo similar a la del MacBook Pro, que es widegammut.

Una tele OLED igual te da unos negros estupendos, pero no la gama de colores del MacBook Pro. La misma imagen en el ordenador y en la tele que sea se van a ver muy diferentes.

Lo que no sé es para qué insististe con un monitor orientado a retoque fotográfico si buscas algo opuesto.
 
No "insistí", sino que cuando lo compré, tenía una (muy buena) cámara fotográfica y lo consideré un buen plus. A día de hoy, no la tengo, y mi interés por la fotografía se limita a lo que hago con el iPhone, así estoy considerando pasar del wide gamut. Así de simple.

La pantalla del MBP no me gusta por su fidelidad de color, sino por su contraste y sus 500 nits. Eso, a día de hoy, lo valoro más que la fidelidad cromática. Y lo he mencionado por que pese a que el Benq es un pedazo de monitor, lo tengo a diario junto al MBP, mostrando lo mismo muchas veces, y si por ejemplo me da por ver una serie, la diferencia es elevada (a favor del MBP). Si tengo que elegir entre estas dos prestaciones, y como ya digo a día de hoy, una no la utilizo, se me ocurrió la idea loca de meter un OLED como monitor. Ya que no hay monitores "puros", tanteaba la opción de un televisor 4K lo más pequeño posible (48" en QLED, o 55" en OLED).

Otra opción que barajo es no comprar al final el MBP (el mio está vendido y lo entrego en un par de días) y coger un iMac de 27 en lugar del MBP + monitor como hasta ahora. Y si tengo que salir de viaje, más adelante pillar un Macbook.
 
  • Me gusta
Reacciones: Tim
Yo tengo el Philips que ha puesto Dr_X y doy fe de que sus negros están muy bien para ser un LCD.

¿Lo malo?. Pues que al tener panel VA, a poco que te muevas de lado aquello se ve lavado. Siempre de frente. Luego tiene un extraño defecto (al que ya me he acostumbrado) y es que al ver algunos vídeos se puede ver como una especie de entrelazado. Es una cosa un poco rara, pero tiene que ver con la tecnología usada en el panel, al parecer. Como digo, tras un tiempo la vista se acostumbra y pasa a ser imperceptible. Pero los primeros días MOLESTA.

Usar una OLED es el grado máximo, claro. Lo malo es que te vas mínimo a 55". Bien ajustada y con precauciones, no debería darte problemas de retenciones, pero tienes que entender que para ello, si el TV detecta que la imagen está fija 90 segundos, empieza a bajar la intensidad de la imagen. Y que ponerte a 50 centímetros es algo así como una locura. Yo estoy a esa distancia de mi monitor de 40" y literalmente "me come" xD.
 
¿Qué le ha pasado a tu Benq SW320?

El primero que tuve, problemas evidentes de clouding y uniformidad. El lateral derecho se veía rosa, y el izquierdo, azul. Un desastre. El de reemplazo, mejor (aunque no perfecto). Pero le salió una línea vertical de pixeles en verde. Se arregló solo, pero le ha vuelto a salir, y ya no se va. Gracias a Dios que Amazon es Amazon y no te ponen ni media pega. Sin reparación, tu eliges si quieres que te den otro nuevo, o reembolso., mientras estés en los dos primeros años de la compra. Son DIOS.

Ahora me estoy planteando seriamente pillar un iMac de los nuevos, y un MacBook (sin PRO) para mis necesidades de portabilidad. Lo cual me lleva a hacer una pregunta... ¿Alguien tiene un MacBook Pro de los nuevos y el iMac más reciente? ¿Son las pantallas equivalentes? ¿Se ve la del iMac igual de bien que la del MacBook Pro? Ese es el detalle que me falta.
 
Es decir que para jugar a los últimos juegos, que son una gozada visual, hace falta sí o sí jugarlo en el OLED del salón ¿no?
 
Para ver un buen HDR no es imprescindible que la pantalla sea OLED, y monitores HDR sí que hay.

Para SDR es claramente mejor un OLED, evidentemente.
 
Por ejemplo, el monitor Benq que tuve y abre el hilo tenía HDR. No lo llegué a activar ni una sola vez.
 
Es que el HDR no es "la gran venida del cristo audiovisual", pero aporta sus cosillas. Es cierto que en OLED y en SDR, es más o menos fácil emularlo, subiendo contraste y Luz Oled. Pero un HDR verdadero ofrece todo su potencia en las altas luces, pues el gran grueso del detalle en sombra siempre está por debajo de los 100 IRE. Es a partir de esa marca donde actúa el HDR.

Ojo, para disfrutar un HDR que realmente destaque:

1) Tienes que tener un display que te ofrezca mínimo 1000 nits en LCD

2) Tienes que usar un OLED, aunque no llegue a los 1000 nits (540 cd/m2 recomendado).

Los monitores que he visto que soportan HDR, en realidad no son HDR. Ofrecen más potencia de nits, pero NO son HDR. Alguno como el Benq, supuestamente soportan HDR10, pero sus 350cd/m2 no son suficientes para una experiencia completa, amén del pobre ratio de contraste de 1000:1.

Va a ser complicado ver monitores OLED con HDR, mayormente porque aquí sí pueden producirse retenciones.

Supuestamente Windows a partir de la siguiente actualización, soportará HDR en el escritorio, pero pienso que hasta al menos dentro de un años o así no veremos un uso realmente útil e inteligente del HDR en escritorio, con soporte para edición de vídeo, efectos HDR puntuales, etc..."toques HDR" por así decirlo.

Muy posiblemente se presenten los primeros monitores HDR verdaderos, con más de 1000cd/m2. Eso no significa quemar retiras instantáneamente, sino que ofrecen HASTA esa potencia lumínica. El 95% del tiempo siempre estaremos viendo intensidades por debajo de los 100 cd/m2, reservando ese potencial para lo que he comentado antes, y haciendo un buen uso.
 
Los monitores que he visto que soportan HDR, en realidad no son HDR.

Va a ser complicado ver monitores OLED con HDR, mayormente porque aquí sí pueden producirse retenciones.

Como la pantalla LCD IPS del iPhone 8. :ok

Va a ser complicado ver monitores OLED con HDR, mayormente porque aquí sí pueden producirse retenciones.

Lo mismo estoy equivocado pero yo juraría que ya hay un modelo OLED (super caro) de LG que soporta HDR10 y Dolby Vision....
 
Va a ser complicado ver monitores OLED con HDR, mayormente porque aquí sí pueden producirse retenciones.

Lo mismo estoy equivocado pero yo juraría que ya hay un modelo OLED (super caro) de LG que soporta HDR10 y Dolby Vision....[/QUOTE]

Primera noticia que tengo!. Se que Dell trató de sacar un monitor OLED, pero tuvo bastantes problemas de retenciones, no se si llegaron a arreglarlas o si se vende. En cualquier caso salía por un pico enorme.

Por eso pienso que antes que OLED, veremos cada vez más monitores LCD con soporte HDR10 y certificados para uso de aplicaciones profesionales de vídeo, que es probablemente un nicho de los más importantes en este aspecto.

Ojo, hay gente usando las teles OLED como monitores y/o HTPC, con lo que es perfectamente factible, pero hay que tener cuidado con ellas en este aspecto...
 
Se referirá a TV, porque monitores OLED no hay (tema retenciones). Hasta Dell retiró el suyo del mercado.
 
Alguno como el Benq, supuestamente soportan HDR10, pero sus 350cd/m2 no son suficientes para una experiencia completa
Ojo con esto porque no creo que las especificaciones de brillo de los monitores sean comparables a la de los televisores con HDR.

Los monitores siempre indican el brillo máximo que pueden ofrecer a pantalla completa, mientras que las especificaciones Ultra HD Premium hablan de valores de pico en una ventana que no supere el 10% del total de la pantalla. Es decir, una pantalla que ofrezca un máximo de 1000 nits en HDR tendrá un valor bastante inferior si hablamos de mantener el brillo máximo a pantalla completa.

La cuestión es si los monitores HDR que no tengan retroiluminación por zonas (FALD) son capaces de concentrar más brillo en una zona concreta del que pueden ofrecer a pantalla completa, algo que sí puden hacer buena parte de los televisores HDR que no son FALD. El problema es que los fabricantes de monitores no suelen ofrecer el valor de brillo de pico máximo para HDR en las especificaciones y mucha gente cree que su brillo es muy pobre para HDR, quizá de forma errónea.
 
Pero la regla es la misma. Esos 350 cd/m2, sean a pantalla completa o en un 10%, son los mismos. Nadie en su sano juicio se atrevería a poner un blanco de 1000 cd/m2 a pantalla completa. Y aún atreviéndose, los circuitos de protección de blancos en los televisores, actuarían de inmediato, pues no es posible llegar a esos límites sin un gasto desmedido de energía, el televisor sencillamente no podría con ello, y la regulación FCC es clave en todo ello.

En cualquier caso, creo que aún no existe ningún monitor que sea HDR10 o Dolby Vision, todos los que he visto anunciados como "HDR", no lo son siguiendo esas normas. Siempre ponen un asterisco indicando que en realidad, no funcionan como tales:

HDR Monitor Guide for PC | PC Gamer

Vamos, en prácticamente todos los casos, recomiendan el uso de un televisor, si quieres usar HDR en ordenador.
 
Arriba Pie