Pues me había planteado pillar una 3090 Ti y vender la 3090, pero si lo del monitor de Apple es un "bad deal" esto ya ni te cuento.

Ver el archivo adjunto 36242

Ver el archivo adjunto 36244

Es la misma tarjeta subida de vueltas y con un 7% más de rendimiento a cambio de CIEN WATIOS más y OCHOCIENTOS euros extra respecto a la 3090. Estamos hablando de 2250 €.

De hecho la mínima diferencia entre cuda cores suena a chips de la 3090 que han salido mejores y que por ello tienen menos partes deshabilitadas.
La 3090 Ti utiliza el chip GA102 completo (la normal tenía algún core deshabilitado), viene con memorias de 21Gbps en lugar de las de 19,5Gbps que usa la normal, tiene frecuencias más altas y 100 vatios más de TDP. Pero, si, 600 euros más que la normal (el precio oficial de la 3090 FE a día de hoy es de 1650 euros) por un 5-10% más de rendimiento no es buen negocio.

Para según qué cosas seguramente ganarías más rendimiento actualizando la CPU en lugar de la GPU. Y la RTX 4090 parece que saldrá a lo largo de este año...
 
Directamente Nvidia ha puesto el precio oficial a nivel de especulador. Mata dos pájaros de un tiro, podrán presumir de tener stock... Y no habrá especulación con ella.

O sea, unos cabrones muy listos, con mucha pasta en sus cuentas sin necesidad de empujar el mercado de momento. Ya veremos la serie 4000, pero tiene pinta que los precios de 700€ de la 3080 (el precio del inicio del modelo oficial) no los volveremos en a ver en vida.
 
Es una tarjeta para quienes necesiten o quieran la tarjeta más potente del mercado, y teniendo en cuenta el nivel de precios de las 3090, que aunque ya nos hayamos acostumbrado a ciertos precios sigue siendo una burrada, Nvidia no necesita reducir márgenes para un nicho de mercado donde los potenciales clientes están dispuestos a soltar los billetes.

De hecho, salvo que se necesiten los 24GB de VRAM, la mejor relación prestaciones/precio del tope de gama de Nvidia es la RTX 3080 Ti de 12GB, cuya FE cuesta 1270 euros y rinde casi idéntica a la 3090 (1-2% de diferencia en juegos).
 
Justo lo comentaba con un amigo, que la 3080 Ti es el "punto dulce", si bien me sigue pareciendo una pasta. Pero es lo que hay.
 
De esas casualidades de la vida, hace un tiempo comencé a seguir en Twitter a un chico que hace video y VFX, ha currado en Blizzard y domina bastante el tema 3D, Motion Graphics, etc. Total que ayer puso a la venta una RX 6800 XT precintada, modelo de referencia directa de AMD por 750€ y me la he quedado.

1651085953325.png

Hace unas semanas que tengo instalada en el Hackintosh la 6600 XT de Sapphire y va bastante bien, pero la otra son 16 GB y mucha más potencia bruta, así que la devuelvo y por fin puedo montar un buen bicho a un precio "decente".
 
Hace unas semanas que tengo instalada en el Hackintosh la 6600 XT de Sapphire y va bastante bien, pero la otra son 16 GB y mucha más potencia bruta, así que la devuelvo y por fin puedo montar un buen bicho a un precio "decente".

Ahora solo te falta contarnos qué tal en tu Sagar Hozkatua.

Imagino que será transparente ya que está soportada de forma nativa por el sistema operativo.

:ok:ok:ok
 
Ahora solo te falta contarnos qué tal en tu Sagar Hozkatua.

Imagino que será transparente ya que está soportada de forma nativa por el sistema operativo.

:ok:ok:ok
En cuanto me llegue y haga el cambio comparto impresiones y tests. Por lo que leí, a partir de la actualización 12.3.1 la serie 5000/6000 ya vuelve a funcionar sin problema en Mac.
 
Esta mañana he recibido la 6800 XT e inmediatamente he hecho el cambio en el Hackintosh para afrontar los proyectos audiovisuales del día. El sistema la ha reconocido sin problema y he podido apreciar una diferencia notable tanto editando vídeo 4K/6K, corrigiendo color en DaVinci Resolve o animando motion graphics complejos, procesos que sin duda se benefician de la potencia y memoria extras que tiene esta gráfica respecto a las anteriores que he usado (580 y 6600XT, ambas de 8 GB). Mención aparte la construcción y robustez, es un bicharraco de cuidado.

AboutThisMac.png


Os dejo abajo las puntuaciones de GeekBench 5 y unas fotos. No sabía que la versión de referencia que vende directamente AMD tenía un packaging tan molón. Incluso viene una tecla para teclado mecánico :agradable

RX6800XT Metal.jpg


Metal / RX580: 46.211 - RX6600XT: 83.718

RX6800XT OpenCL.jpg


OpenCL/ RX580: 46.335 - RX6600XT: 68.179

RX6800XT_01.jpg

RX6800XT_02.jpg

RX6800XT_03.jpg

RX6800XT_04.jpg

RX6800XT_05.jpg

RX6800XT_06.jpg

RX6800XT_07.jpg
 
Última edición:
De esas casualidades de la vida, hace un tiempo comencé a seguir en Twitter a un chico que hace video y VFX, ha currado en Blizzard y domina bastante el tema 3D, Motion Graphics, etc. Total que ayer puso a la venta una RX 6800 XT precintada, modelo de referencia directa de AMD por 750€ y me la he quedado.

Ver el archivo adjunto 36803
Hace unas semanas que tengo instalada en el Hackintosh la 6600 XT de Sapphire y va bastante bien, pero la otra son 16 GB y mucha más potencia bruta, así que la devuelvo y por fin puedo montar un buen bicho a un precio "decente".
Josejacas, de Valencia.
 
El mismo :ok

Un lujazo tratar con este tío.

El mundo es un pañuelo. Le sigo en Twitter :-D

Yo sigo renqueando con mi RTX 2060 pero es que a veces la pobre no da para más. El otro día tanteando las RTX 3060 con 12GB de RAM no las vi "caras" (500€ aprox). Con la actual aún puedo trabajar más o menos, pero proyectos en los que me ponga a manipular 4K con HDR llega un punto en que se me cuelga Premiere (soy un masoca, lo sé).

Eso y que el ordenador en sí llega un momento en que es necesario cambiarlo pero claro, el otro día me puse a echar cuentas de renovar placa, micro, ram, fuente... y de 1600€ no bajaba la cosa.

Ojalá me venga trabajo para poder acometer la renovación, porque va tocando y hay que seguir siendo competitivo...
 
Esta mañana he recibido la 6800 XT e inmediatamente he hecho el cambio en el Hackintosh para afrontar los proyectos audiovisuales del día. El sistema la ha reconocido sin problema y he podido apreciar una diferencia notable tanto editando vídeo 4K/6K, corrigiendo color en DaVinci Resolve o animando motion graphics complejos, procesos que sin duda se benefician de la potencia y memoria extras que tiene esta gráfica respecto a las anteriores que he usado (580 y 6600XT, ambas de 8 GB). Mención aparte la construcción y robustez, es un bicharraco de cuidado.

Menudo Luzoker! que es como decimos pepino en euskera :lol

Y lo de que sea plug and play en tu Hackintosh, no tiene precio ¿verdad?

Yo sigo tan contento con mi Radeon Vega RX 56 de 8GB, y nunca tengo la sensación de que me falta gráfica.

Pero a los que sois profesionales del vídeo estas gráficas os vienen de perlas y consiguen que le saquéis más partido a vuestro tiempo de trabajo, y en vuestro caso el retorno de la inversión parece bastante claro.

:ok:ok:ok
 
AMD vuelve a la carga con el escalado FSR 2.0 y parece que ahora si está a la altura del DLSS sin tener que recurrir a hardware dedicado.


FSR 2.0 se implementa a nivel de juego como DLSS así que, por muy bueno que sea, aún depende de que los juegos lo implementen.

Aún así, hay que recordar que AMD también tiene un escalado mejorado que funciona a nivel de driver llamado RSR, que no es tan bueno pero es compatible con cualquier juego.

 
¿RTX 40 en julio?


 
Cada vez es más absurda la carrera por la potencia en el mundo del juego en PC. Con PS5 y Series X tenemos potencia más que de sobra y ninguna de las dos llega a 400W a plena carga...
 
  • Me gusta
Reacciones: WRC
400W es lo que consumen las 2 juntas. Tanto PS5 como Series X rondan los 200W a pleno rendimiento.

En un PC aparte de la gráfica hay que añadir la CPU y el resto de componentes a la hora de valorar el consumo (y el calor), aunque es cierto que es muy raro que en los juegos la CPU esté cerca del 100% de uso, así que no va a necesitar su consumo máximo como si ocurre con las gráficas.
 
Y el calor que emiten... son pequeños calefactores

Lo bueno es que puede que las 30xx bajen un poco de precio...
 
400W es lo que consumen las 2 juntas. Tanto PS5 como Series X rondan los 200W a pleno rendimiento.

Pues mejor me lo pones, aunque se supone que la PS5 si ronda los 350W en los peores casos.

En un PC aparte de la gráfica hay que añadir la CPU y el resto de componentes a la hora de valorar el consumo (y el calor), aunque es cierto que es muy raro que en los juegos la CPU esté cerca del 100% de uso, así que no va a necesitar su consumo máximo como si ocurre con las gráficas.

Pues eso, jugar en PC a la última (o a la penúltima) es un despliegue que encuentro cada vez más absurdo. Quitando simuladores y poco más, en lo técnico las consolas actuales son más que suficientes.
 
Arriba Pie