Hombre, es que esas comparaciones son absurdas. ¿No has visto NUNCA un televisor HDR y contenidos HDR?. Porque me extraña que si es así, opines lo que opines sobre ese tema.
 
Si, lo he visto. Y aparte del "wow" inicial, lo siento pero NO. No lo veo objetivamente mejor que mi OLED "estándar". No necesito esos chutes de luz, lo que da el mio es más que suficiente.
 
Ostras, es que simplificar el HDR con el tema de los "chutes de luz", es simplificar demasiado. Vale que EN ESENCIA es eso (rango dinámico alto, implica más intensidad en la parte luminosa), pero el HDR viene de la mano de dos importantes mejoras, como son el color extendido (DCI-P3 como mínimo) y la profundidad de bits (10-12 bits). Que sí, que los puedes tener por separado. O prescindir de alguno de ellos si quieres, pero es precisamente la conjunción de los tres lo que realmente marca la gran diferencia.

Te concedo el que en una OLED SDR, el look visual es tremendo, prácticamente HDR (preveo a algunos haciendo aspavientos y llevándose las manos a la cabeza), porque es lo que YO y OTROS han percibido (menos mal, no soy el único loco que lo afirma), pero qué duda cabe que el HDR es otro nivel, y sí o sí acabarás con un display HDR en tu escritorio. Quizás no en 2018, pero definitivamente sí en 2019 o 2020.

¿Apostamos? :-)
 
No, si no digo que no acabaré cayendo, eso es obvio. Lo que digo son dos cosas: que en un monitor de ordenador, lo veo absolutamente innecesario, y que en TV a mi con las tomaduras de pelo me han perdido como "early adopter". Y que tampoco lo veo necesario teniendo un OLED, como dices. Otra cosa es que queramos o no, la cosa va por ese camino y habrá que tragar. Es lo que hay.
 
Bueno, yo también era de la liga "anti HDR" (tal y como se vendía y se planteaba, sobre todo por determinados individuos) y ahora estoy más en la onda. Sigo criticando determinadas actitudes, pero la base ha estado ahí desde hace muchos años que "descubrí" el HDR de verdad, gracias a Paul Devebec entre otros.

Que Microsoft tiene en sus planes el meter HDR en las ventanas de Windows, es un hecho. En su "roadmap" lo tiene bien explicado y lo dijo en su día, aquí una diapositiva claramente reveladora:

IMG_2890.jpg


Sacado de:

DirectX 12 Adoption "Huge" Among Developers; HDR Support Coming in 2017 as Microsoft Shares New Info

Y extrapolado en mi blog en su día:

La gran explosión del HDR

Que sea "útil" o no, eso seremos los usuarios quienes lo juzguemos, cuando esté presente. Que obviamente los principales beneficiados serán los vídeos, fotos y juegos que veamos bajo Windows, es algo más que obvio. Ya la propia XBOX One X permite capturar y ver fotos con HDR. Y parece una absurdez...pero mola. Porque mola ver una foto en HDR. Le da un valor extra. Solo queda saltar al escritorio de Windows. Y eso, gracias a la certificación Vesa para HDR, va a ser una realidad más pronto que tarde.

Yo, en este caso, encantado de ser Early Adopter. Y sobre todo a nivel profesional, que es donde más enfoco mis esfuerzos actualmente. Y hasta aquí, puedo leer :-D
 
A ver Manu...eso son los límites. Eso obviamente no va a suceder...¿nunca?. Pero está bien que pongan ese límite inalcanzable, significa que sencillamente, no habrá límites a nivel de S.O. Está pensado cara al nuevo siglo prácticamente :mparto
 
Eso es como decir que Windows soportará mil trillones de cuatrillones de watios en audio. Ya solo falta que alguien desarrolle el amplificador. :diablillo

Bah, es lo que te decía antes. Me jode que me tomen por gilipollas, aunque entiendo que les debe salir rentable por que la gente es obvio que traga.
 
Creo que me espero a los OLED. Pero siendo de LG, para mi tienen mi absoluta confianza.

De todas formas, el "artículo", como es habitual, no es muy de fiar...

Su resolución "5K" (5.120 x 2.160 píxeles, 21:9) lo convierte en el primer monitor ultrapanorámico de LG

¿Per-do-na? :inaudito
 
El problema de los OLED en monitores es que aún no saben como lidiar con el tema de las retenciones y quemados, que en este caso SI suponen un quebradero de cabeza.

El artículo es una mierda lo cojas por donde lo cojas, pero vamos, buscando por Internet ese modelo, poca más información se tiene.

Y me da a mí que vamos a ver unos cuantos monitores más en 2018.
 
Ya, ya sé lo de las retenciones. Hasta Dell tuvo que comerse con patatas miles de monitores OLED que ya tenían fabricados por que detectaron (tarde) el problema. Quien pillara uno, por que valían cinco mil pavos... :P

Pero no me cabe duda de que más pronto que tarde darán con la tecla y se solventará el inconveniente. :ok
 
Si está claro que lo lograrán, pero antes el HDR le adelanta por la izquierda, y dado que es una tecnología comparativamente más importante en mi caso personal, pues...
 
Es que no es comparable. Una cosa es el OLED, y otra el HDR. Por que salga antes el HDR (que ya está, pero es mentira), no significa que haya que "elegir".

Además, vendrán de la mano. Estoy seguro de que cuando saquen monitores OLED, todos serán HDR. Por eso te dije que tendré que tragar... :cuniao
 
Y dale con que es mentira...en fin, yo ya dejo esa discusión por finalizada.

No me has entendido. Me refiero a que los monitores que hay hoy en día que se declaran "HDR" (y he tenido dos), no lo son. Sencillamente, por que es imposible con sus valores de brillo nativo. Es un tema ya debatido ampliamente.

Y no estoy discutiendo contigo, conste. Solo estoy exponiendo mi punto de vista, desde el respeto más absoluto hacia el tuyo. Entiendo que tus necesidades son distintas a las mías, y eso lo marca todo. :ok
 
Ah, bueno. Esos no, no lo son. Por mucho que digan "HDR", no lo son. Sobre el papel, soportan HDR10 (no todos, ojo), pero es un HDR de chichinabo.
 
Por cerrar el tema de las Radeon 850 y mis reseteos. Así supongo que servirá a otros. Mi problema de apagados inesperados y demás, aunque muy reducido, persistía. La verdad es que me traía un poco amargado ya el asunto, porque no era raro incluso un reinicio inesperado sin jugar, en medio del escritorio de Windows, sin hacer nada.

Tras mucho investigar, encontré a un usuario que tenía problemas similares, e incluso mi misma fuente (una Corsair de 550W, teóricamente más que capaz). Después de mucho insistir, en un foro de AMD le acabaron reconociendo que la FX580 necesita nada menos que 52A en el carril de 12v. Eso son cuatro más de lo que da la Corsair (48), y posiblemente la fuente del problema (nunca mejor dicho). A este usuario al menos le solucionó el tema un cambio a otra fuente más potente, así que he pedido otra Corsair, pero esta vez el modelo RM850i. No solo iré ya sobrado, con más de 70A, sino que además es una fuente monitorizada y configurable mediante el software Corsair Link, que ya uso para las memorias y la refrigeración líquida, así que tendré todo bastante más controlado.

Seguiremos informando. :ok
 
Pues hay que tener cuidado, por que no muchas fuentes dan esa entrega de corriente, salvo que te vayas a 750W o más. La gente pillará fuentes de 500W por que con la calculadora de potencia requerida vas sobrado... y luego llegan las sorpresas. Menos mal que Amazon es la ostia.

Por cierto, hablando de Amazon, esta mañana apareció una Asus 1080 a trescientos y pocos euros en Amazon.fr. Obviamente, ya han volado todas, no llegé por poco... :mparto
 
Debe ser que la tarjeta apenas limita los picos de consumo y además tiene más voltaje del necesario, porque si sólo ocurre de vez en cuando está claro que se trata de picos y no de que la fuente sea demasiado justa para su consumo habitual en juegos. Aún así, la solución más sencilla y eficaz seguramente sea un poco de undervolting como dice Edgtho.

Además, revisando cifras de consumo de un par de 580 con un buen OC de fábrica, lo máximo que han llegado a sacarles en esta web son 284W y sólo en un benchmark destinado a "freír" tarjetas:
284W son 24A para 12V, y de ahí a necesitar una fuente con 52A para 12V (624W) sin exprimir la tarjeta o la CPU con OC me parece una barbaridad. De hecho me inclino a pensar que se trata de un problema de diseño en alguno de los modelos de 580 más que el hecho de que puedan ser necesarias fuentes por encima de 600W para mover estas tarjetas. Esos 284W dejan más de 200W disponibles en una fuente de 550W de calidad y con un Core i5 de 65W, placa base, RAM, ventiladores, SSD y algunos USB utilizados dudo que sea posible alcanzarlos.
 
Pues fueron los mismos de AMD (era un foro de soporte suyo) los que le dijeron a este chico lo de los 52A, así que algo hay. Obviamente, tienes razón en que serán picos y no algo sostenido, pero el caso es que los "pide" y si no los encuentra... reseteo. Y no es cuestión de watios... sino de máxima demanda de corriente que la fuente es capaz de suministrar en un momento dado en ese rail. He encontrado fuentes de 450W (Seasonic) que los daban (o eso dicen), y otras (mi Corsair, por ejemplo), que no, siendo de 550W. Es más, la Tacens de 850W que pedí anteriormente, tampoco los daba. Supongo que tendrá que ver con si son multi o monorail (y con la calidad de la fuente en general). En esta Corsair que he pedido se puede configurar, así que también me lavo en salud con ese tema.

De todas formas, tengo hasta el 28 de Febrero para pensarme si la devuelvo a Amazon (la gráfica) y pido una 1080. A ver como se porta a partir del Lunes, que me llega la nueva fuente.
 
El caso es que por lo visto, si lo son... :cuniao

Pero si, estoy meditando seriamente devolverla en un par de semanas y hacer un cambio. Habrá que estar atento a las rebajas.
 
Arriba Pie