Primero, la prueba de que Nvidia se sube a la parra con los precios:

2gy98xw.png


Y segundo, primeros datos concretos ofrecidos por Nvidia sobre el rendimiento en juegos no optimizados para Ray Tracing:

aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9RL1gvNzkyODI1L29yaWdpbmFsL1R1cmluZ1ZzUGFzY2FsX0VkaXRvcnNEYXlfQXVnMjIucG5n

aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9RL1cvNzkyODI0L29yaWdpbmFsL1R1cmluZ1ZzUGFzY2FsX0VkaXRvcnNEYXlfQXVnMjJfMi5wbmc=


Right out of the gate, we see that six of the 10 tested games include results with Deep Learning Super-Sampling enabled. DLSS is a technology under the RTX umbrella requiring developer support. It purportedly improves image quality through a neural network trained by 64 jittered samples of a very high-quality ground truth image. This capability is accelerated by the Turing architecture’s tensor cores and not yet available to the general public (although Tom’s Hardware had the opportunity to experience DLSS, and it was quite compelling in the Epic Infiltrator demo Nvidia had on display).

The only way for performance to increase using DLSS is if Nvidia’s baseline was established with some form of anti-aliasing applied at 3840x2160. By turning AA off and using DLSS instead, the company achieves similar image quality, but benefits greatly from hardware acceleration to improve performance. Thus, in those six games, Nvidia demonstrates one big boost over Pascal from undisclosed Turing architectural enhancements, and a second speed-up from turning AA off and DLSS on. Shadow of the Tomb Raider, for instance, appears to get a ~35 percent boost from Turing's tweaks, plus another ~50 percent after switching from AA to DLSS.

In the other four games, improvements to the Turing architecture are wholly responsible for gains ranging between ~40 percent and ~60 percent. Without question, those are hand-picked results. We’re not expecting to average 50%-higher frame rates across our benchmark suite. However, enthusiasts who previously speculated that Turing wouldn’t be much faster than Pascal due to its relatively lower CUDA core count weren’t taking underlying architecture into account. There’s more going on under the hood than the specification sheet suggests.
 
El NDA para las reviews está previsto para el 14 de septiembre, una semana antes de que se pongan a la venta.
 
NVIDIA GPUs Can be Tricked to Support AMD FreeSync

Newer generations of NVIDIA GPUs such as "Pascal" and "Maxwell" meet or exceed the hardware requirements of AMD FreeSync, as they feature DisplayPort 1.4 connectors that include the features of DisplayPort 1.2a, required for VESA adaptive sync. In a bid to promote its own G-SYNC technology, NVIDIA doesn't expose this feature to monitors or software that support FreeSync. Redditor "bryf50" may have found a way around this. The trick is deceptively simple, however, you'll need games that support on-the-fly switching of rendering GPUs, and an AMD Radeon graphics card at hand.

When poking around with system settings in "Warcraft: Battle for Azeroth," bryf50 discovered that you can switch the "rendering GPU" on the fly, without having to physically connect your display to that newly selected GPU. You can start the game with your display connected to VGA1 (an AMD Radeon GPU), and switch the renderer in-game to VGA2 (an NVIDIA GPU). FreeSync should continue to work, while you enjoy the performance of that NVIDIA GPU. In theory, this should allow you to pair your high-end GTX 1080 Ti with a $50 RX 550 that supports FreeSync, instead of paying the $200+ G-SYNC tax.
 
Ayuda a ajustar expectativas. Si alguien de cierto peso en Nvidia dice "up to 40%" que nadie espere un salto brutal respecto a lo que hay ahora.

Podríamos estar hablando de que una RTX 2080 rondará el rendimiento de una GTX 1080 Ti en juegos normales (sin raytracing) y una 2080 Ti el de una Titan V. Y la 2070 quizá algo por encima de las 1080 actuales.

Ah, y los juegos que tienen previsto usar raytracing no parece que vayan a ser jugables a más de 1080p. Creo que Battlefield V con raytracing corre a 1080p y 60fps en la RTX 2080 Ti.
 
Bluf.

la Nvidia GeForce RTX 2080 Founders Edition no ofrece un salto de rendimiento, pues se sitúa muy pareja a la GTX 1080 Ti

Read more Review: Nvidia GeForce RTX 2080 Founders Edition

Review: Nvidia GeForce RTX 2080 Founders Edition

La 2080 al nivel de una 1080Ti y la 2080Ti con un 20% de incremento sobre la anterior generación. Vamos, que si estábais al acecho por si vendía la mia, de momento va a ser que no. :P

Ahora viene cuando te dicen que es que "los drivers no están aún optimizados". :facepalm
 
relative-performance_3840-2160.png


En el caso de la RTX 2080 Ti, hay alguna web como Tom's Hardware donde también la enfrentan a la Titan V, que es la última arquitectura que puso Nvidia en la calle antes de Turing (Volta) aunque fuese en una supertarjeta con 12GB de HBM2 que cuesta 3000 euros, y le gana claramente. A ojo diría que es un 10% más rápida de media.
 
Son unos jodidos mangantes, cuando la gente creía que iba a estar una buena temporada sin cambiar de gráfica ya que con la 1080 ti prácticamente puedes jugar a todo a 4k o en 2k a 120 hz, se sacan de la manga los rayitos y otra vez las gráficas a arrastrarse

Enviado desde mi SM-N910F mediante Tapatalk
 
No sé hasta que punto va a colar el DXR si al usarlo baja el rendimiento de forma masiva y aporta un impacto visual leve, que es la pinta que tiene de lo poco que se sabe hasta ahora.

Un poco más interesante es el DLSS, que evita la penalización de rendimiento del TAA moviendo su procesado a los tensor cores con un aumento de rendimiento notable, pero es necesario que esté implementado directamente en el juego, así que...

Al final el problema es que han tardado 2 años en sustituir las Pascal y lo que sacan mejora poco en rendimiento a lo ya existente y encima a precio de oro. Por este camino jugar con un PC potente se va a convertir en un disparate, como si no hubiéramos tenido suficiente con la inflación generada por el criptominado.

Veremos si el año que viene AMD presenta algo un poco más atractivo con sus Navi de 7nm para agitar el mercado y mejorar la competencia en el sector. Y para 2020 tendremos la primera GPU discreta de Intel, lo que podría dar mucho juego.
 
Yo esto lo veo como un paso necesario. En algún momento hay que meterse con el raytracing y NVIDIA lo ha hecho pero que muy bien. Evidentemente los principios son los que son, con sus aciertos y sus cosas a medio cocer, pero al menos ahora ya hay un nuevo rumbo al que tirar y pinta genial.

Criticable sería en todo caso lo que parece un lanzamiento apresurado sin soporte real de ningún juego con la tarjeta en la calle. Creo que si hubieran esperado un poco más, las reviews serían más favorables, pero bueno.
 
Donde tu ves pasos adelante, yo veo oportunismo puro y duro. El raytracing en juegos, aporta entre cero y nada. Y no hay más que ver los ejemplos que han ido saliendo. Bueno, si, les aporta a ellos que ahora todo el mundo corra a comprar unas tarjetas que por el invento este rinden infinitamente peor que sus antecesoras (se habla de que con este activado, una 2080Ti corre como máximo a 1080p).

Es el timo de toda la vida con las gráficas, que ya estaba pasando (gracias a dios) y ahora (gracias a nVidia), volvemos a las andadas. Juegos en la calle con los que no pueden ni las tarjetas más tochas. Pero oye... verás cuando saquen las nuevas. Va a ser la ostia. Un año de estos (coño, anda que no recuerdo yo "reflotar" juegos de hacía dos o tres años para ver si ahora tiraban...). Resucitando modas que ya estaban casi en desuso, como gastarte un sueldo medio... anual, en poner dos tochográficas en SLI con una central eléctrica al lado por si acaso.

El raytracing como tecnología es una gran cosa, no me malinterpretes... pero no para juegos. Yo hubiera entendido que lo aplicasen a su gama profesional, esa donde se suelen gastar varios miles de euros (a veces decenas) para conseguir un render de calidad en tiempo real. Y que tras su desarrollo en ese campo, hubiera aterrizado en los juegos... para liberar a la GPU, y no para colapsarla.

Lo siento, pero para mi es una chapuza. Probablemente por las prisas por sacar algo YA, y por que se dieron cuenta de que la mayoría de la gente ya se conformaba con una 1060, que era más que suficiente para casi todo, la verdad. Y había que volver a los días de volverse loco, más aún ahora que el criptominado estaba bajando.
 
Donde tu ves pasos adelante, yo veo oportunismo puro y duro. El raytracing en juegos, aporta entre cero y nada. Y no hay más que ver los ejemplos que han ido saliendo.
No estoy de acuerdo.

Llevamos demasiado tiempo con luces y reflejos simulados que dan el pego más o menos. Es como cuando salieron Wolfestein 3D o DOOM. Estos NO eran juegos 3D sino un ingenioso truco de elevación de planos con limitaciones enormes. Podíamos haber seguido ahí, pero afortunadamente se decidió saltar al 3D REAL. Y Con él llegó QUAKE, requiriendo casi cuatro veces más recursos y que aunque no necesariamente lucía mejor, fue el arranque para cosas bestiales que vendrían después como UNREAL.

Por cierto, m olvidé de mencionar la parte de deep learning (DLSS) que incorpora, que ofrece resultados mejores de los esperados y que puede se una solución para seguir aumentando rendimiento cuando estamos ya a punto de dar con el mismo obstáculo con el que se han encontrado las CPU's.

Aquí un análisis preliminar que acaba de publicar Digital Foundry que de esto saben un rato:

 
Última edición:
El DLSS es un sí pero no. Sobre el papel estupendo, pero si sólo funciona en las RTX y en juegos que los soporten expresamente su recorrido será limitado como ocurre con otras características Gameworks de Nvidia.

La arquitectura de las RTX añade los tensor cores a lo ya conocido, pero estos sólo se utilizan para ray tracing o DLSS, así que el DLSS es fruto de un "tenemos capacidad de proceso en la GPU que no se utiliza en la ejecución normal del juego" y por tanto sólo sirve si tienes tensor cores sin usar, lo cual no sólo deja sin posibilidad de usarlo a la generación anterior o a la competencia y/o con cualquier juego, sino que si las futuras GTX 2060 salen sin tensor cores ni capacidad de ray tracing tal y como se viene rumoreando, el DLSS quedará relegado a un nicho de tarjetas y juegos. El ray tracing en cambio, gracias al estándar DXR, debería tener más recorrido a medio plazo ya que también habrá tarjetas compatibles de AMD en el futuro.
 
Donde tu ves pasos adelante, yo veo oportunismo puro y duro. El raytracing en juegos, aporta entre cero y nada. Y no hay más que ver los ejemplos que han ido saliendo.
No estoy de acuerdo.

Llevamos demasiado tiempo con luces y reflejos simulados que dan el pego más o menos. Es como cuando salieron Wolfestein 3D o DOOM. Estos NO eran juegos 3D sino un ingenioso truco de elevación de planos con limitaciones enormes. Podíamos haber seguido ahí, pero afortunadamente se decidió saltar al 3D REAL. Y Con él llegó QUAKE, requiriendo casi cuatro veces más recursos y que aunque no necesariamente lucía mejor, fue el arranque para cosas bestiales que vendrían después como UNREAL.

Por cierto, m olvidé de mencionar la parte de deep learning (DLSS) que incorpora, que ofrece resultados mejores de los esperados y que puede se una solución para seguir aumentando rendimiento cuando estamos ya a punto de dar con el mismo obstáculo con el que se han encontrado las CPU's.

Aquí un análisis preliminar que acaba de publicar Digital Foundry que de esto saben un rato:



Admiro tu entusiasmo, pero no lo comparto. Comparar el salto que hubo del Doom al Quake con lo que se ha visto hasta ahora, que es un MEH como una catedral gótica, es de un optimismo enternecedor, pero ya. La verdad, los efectos de iluminación estaban bastante bien resueltos, y el raytracing aporta un pequeño plus, pero eso... pequeño. Y eso que estamos en la fase "voy a meter reflexiones hasta en la calva del protagonista", cuando el realismo vuelva a sus fueros.... suerte distinguiendo una cosa de otra.

Lo que yo esperaba no era eso, sino una mayor potencia bruta que permitiera (por ejemplo), mayores resoluciones para la RV, o unas expresiones faciales y movimientos más realistas, que ahí si que tenemos camino que recorrer... y mucho. El raytracing en tiempo real sería la ostia en entornos profesionales, y por ahí hubiera seguido yo, pero para juegos, me sigue pareciendo un engañabobos (lo visto hasta hoy).
 
Yo valoro el intento de ofrecer algo nuevo. Raytracing no son reflejos, es iluminación y la iluminación es lo que nos falta para que una escena parezca o no real. La solución aportada, que no es raytracing 100% sino un modelo híbrido me parece de lo más realista y efectiva.

Bajo mi punto de vista, el problema serán las consolas, dominadas por AMD en las que si no se empieza a tirar por el raytracing será complicado esperar que las versiones para PC lo tengan en sus opciones.

Si no cuaja, pues mala suerte. Simplemente habrá que esperar más años a que el raytracing sea asumible a nivel de potencia, porque llegar, llegará sí o sí.
 
Última edición:
El ray tracing es lo máximo a lo que se puede aspirar en cuanto a generar gráficos realistas y solo es cuestión de tiempo que su uso sea generalizado. Eso está claro.

El problema de las RTX es que tan solo son la primera piedra para llegar a la estandarización del ray tracing y como tal solo aportan una pequeña parte de lo que pueden llegar a ser los juegos con ray tracing tanto por acabado como por rendimiento. Por tanto, esta introducción al ray tracing no es suficiente para compensar otros problemas de estas tarjetas como el relativamente pequeño salto de rendimiento o su escandaloso precio.
Y gracias que se puede usar ray tracing en partes puntuale sobre los gráficos convencionales que si no aún ni lo olíamos.

También hay que tener presente que el hardware para mover ray tracing en tiempo real está en sus primeros pasos y, pese a la brutal potencia de computación que requiere, hay margen para ver grandes progresos a medio plazo.

Si recordáis la demo ray tracing de Star Wars hecha con Unreal Engine donde salía Phasma con un par de troopers, se utilizaron 4 tarjetas Tesla V100 (casi idénticas a las Titan V) para moverla en tiempo real a 1080p y 24fps. Pues bien, una sola RTX 2080 Ti puede mover esa misma demo a 4K y 24fps, así que quizá con la siguiente generación ya empiecen a ponerse las cosas realmente interesantes.

Y sobre las consolas, es difícil saber que intenciones tienen Sony ó Microsoft, pero AMD ya anunciado que tendrán tarjetas compatibles con ray tracing vía DXR y su arquitectura Navi prevista para la primera mitad de 2019 debería ser su pistoletazo de salida.

Tanto Sony como MS parecen tener planes de lanzar nuevas consolas en 2019-2020, a tiempo para poder incluir la arquitectura Navi, pero también podría ocurrir que si para esas fechas aún no pueden ofrecer buen rendimiento en ray tracing a precio contenido lo acaben ignorando hasta la siguiente generación.
 
Nvidia ha colgado hace un par de días un nuevo video del metro exodus con sus novedades para las RTX...

 
Última edición:
Lo que veníamos comentando, RTX si pero cuando se pueda mover con soltura y haya títulos, meterlo ahora es un sacacuartos

Enviado desde mi SM-N910F mediante Tapatalk
 
Nvidia ha colgado hace un par de días un nuevo video del metro exodus con sus novedades para las RTX...


Estoy viendolo y he parado al minuto 1 para comentar. ¿Soy yo o en las comparaciones entre rtx on y off se ve mejor con OFF? Porque la única diferencia parece en que le hubiesen subido el gamma a pistón. Minuto 0.46... yo lo veo natural, luego "encienden" el RTX y casi me meo de la risa.
 
Arriba Pie