Inicio Noticiero Digital NVIDIA GeForce RTX 4080, análisis: este monstruo gráfico tiene la receta para...

NVIDIA GeForce RTX 4080, análisis: este monstruo gráfico tiene la receta para triturar juegos a 4K con ‘ray tracing’

La tarjeta gráfica más ambiciosa que tiene NVIDIA actualmente ha puesto el listón muy alto. Durante nuestras pruebas la GeForce RTX 4090 nos demostró que es un auténtico monstruo dimensionado para entregarnos un rendimiento muy alto en cualquier escenario de uso. Incluso a 2160p, con la máxima calidad gráfica y el trazado de rayos activado.

El hándicap más evidente de esta solución gráfica es su precio. Y es que los más de 2000 euros que tenemos que pagar los usuarios para hacernos con ella la colocan definitivamente fuera del alcance de la mayor parte de los jugones. La protagonista de este análisis, la GeForce RTX 4080, tiene el mismo ADN de la RTX 4090. Sus especificaciones son un poco menos ambiciosas, pero, a cambio, tiene un precio algo más moderado.

En cualquier caso, estas dos tarjetas gráficas no están respaldadas únicamente por la microarquitectura Ada Lovelace; ambas se apoyan en la tecnología de reconstrucción de la imagen más avanzada que tiene actualmente NVIDIA: DLSS 3. Antes de meternos en harina, ahí va nuestra apuesta: estamos a punto de presenciar una batalla encarnizada entre la GeForce RTX 4080 y las Radeon RX 7900 XTX y XT de AMD. Podemos ir sacando las palomitas.

NVIDIA GeForce RTX 4080: especificaciones técnicas

nvidia geforce rtx 4090

nvidia geforce rtx 3090 ti

nvidia geforce rtx 4080

NVIDIA GEFORCE RTX 3080 TI

arquitectura

Ada Lovelace

Ampere

Ada Lovelace

Ampere

transistores

76 000 millones

28 300 millones

46 000 millones

28 300 millones

fotolitografía

4 nm TSMC

8 nm Samsung (tecnología de integración personalizada para NVIDIA)

4 nm TSMC

8 nm Samsung (tecnología de integración personalizada para NVIDIA)

núcleos cuda

16 384

10 752

9728

10 240

núcleos rt

128 (3ª generación)

84 (2ª generación)

76 (3ª generación)

80 (2ª generación)

núcleos tensor

512 (4ª generación)

336 (3ª generación)

304 (4ª generación)

320 (3ª generación)

unidades de cálculo (cu)

128

84

76

80

caché de nivel 1

128 Kbytes (por SM)

128 Kbytes (por SM)

128 Kbytes (por SM)

128 Kbytes (por SM)

frecuencia de reloj máxima

2,52 GHz

1,86 GHz

2,51 GHz

1,67 GHz

memoria dedicada

24 GB GDDR6X

24 GB GDDR6X

16 GB GDDR6X

12 GB GDDR6X

bus de memoria

384 bits

384 bits

256 bits

384 bits

velocidad de transferencia de la memoria

1008 GB/s

1008 GB/s

735 GB/s

912 GB/s

shader tflops (fp32)

90

40

49

34

operaciones de rasterización

192 ROP/s

112 ROP/s

96 ROP/s

112 ROP/s

unidades de mapas de texturas

512

336

304

320

tasa de texturas

1290 Gtexeles/s

625 Gtexeles/s

761,5 Gtexeles/s

532,8 Gtexeles/s

tasa de píxeles

483,8 Gpíxeles/s

208,3 Gpíxeles/s

240,5 Gpíxeles/s

186,5 Gpíxeles/s

directx 12 ultimate

interfaz pci express

PCIe 4.0

PCIe 4.0

PCIe 4.0

PCIe 4.0

revisión hdmi

2.1

2.1

2.1

2.1

revisión displayport

1.4a

1.4a

1.4a

1.4a

dlss

3

2

3

2

ranuras ocupadas

3

3

3

2

temperatura máxima de la gpu

90 ºC

92 ºC

90 ºC

93 ºC

consumo medio

450 vatios

450 vatios

320 vatios

350 vatios

potencia recomendada para la fuente de alimentación

850 vatios

850 vatios

750 vatios

750 vatios

conectores de alimentación

3 x 8 pines o 1 cable PCIe Gen 5 de 450 vatios o más

3 x 8 pines

3 x 8 pines o 1 cable PCIe Gen 5 de 450 vatios o más

2 x 8 pines

precio

2099,89 euros

1576,84 euros

Desde 1469 euros

1563,76 euros

La arquitectura Ada Lovelace de la GeForce RTX 4080, bajo nuestra lupa

NVIDIA no se ha andado con delicadezas a la hora de comunicar qué  representa para esta compañía la llegada de la arquitectura Ada Lovelace: un salto gigantesco en términos de rendimiento y eficiencia.

En cualquier caso, más allá de la apuesta por la tecnología de integración de 4 nm de TSMC en detrimento de la litografía de 8 nm de Samsung utilizada en la fabricación de los procesadores gráficos GeForce RTX 30, las nuevas GPU de NVIDIA nos entregan una nueva generación de núcleos RT y núcleos Tensor, así como más núcleos CUDA que nunca.

También llegan de la mano de frecuencias de reloj más altas e implementan tecnologías de procesado de la imagen más sofisticadas. Así se las gastan las brutales (y caras) GeForce RTX 40.

Más núcleos CUDA, y, además, llegan los núcleos RT de 3ª generación

Los núcleos CUDA se responsabilizan de llevar a cabo los cálculos complejos a los que se enfrenta una GPU para resolver, entre otras tareas, la iluminación general, el sombreado, la eliminación de los bordes dentados o la física. Estos algoritmos se benefician de una arquitectura que prioriza el paralelismo masivo, por lo que cada nueva generación de GPU de NVIDIA incorpora más núcleos CUDA.

La arquitectura de los núcleos CUDA prioriza el paralelismo masivo, de ahí que cada nueva generación de GPU de NVIDIA incorpore más unidades de este tipo

Como cabía esperar, los procesadores gráficos de la familia GeForce RTX 40 tienen muchos más núcleos de este tipo que sus predecesores. De hecho, la GPU GeForce RTX 4090 incorpora 16 384 núcleos CUDA, mientras que la GeForce RTX 3090 Ti se conforma con 10 752. La GeForce RTX 4080 tiene 9728, por lo que la GeForce RTX 3080 Ti la supera con sus 10 240 núcleos de este tipo. Eso sí, la RTX 3080 nos propone 8704 núcleos CUDA.

Nvidiacuda

Los núcleos RT (Ray Tracing), por otro lado, son las unidades que se encargan expresamente de asumir una gran parte del esfuerzo de cálculo que requiere el renderizado de las imágenes mediante trazado de rayos, liberando de este estrés a otras unidades funcionales de la GPU que no son capaces de llevar a cabo este trabajo de una forma tan eficiente. Son en gran medida responsables de que las tarjetas gráficas de las series GeForce RTX 20, 30 y 40 sean capaces de ofrecernos ray tracing en tiempo real.

NVIDIA asegura que sus núcleos RT de 3ª generación duplican el rendimiento de sus predecesores al procesar las intersecciones de los triángulos

NVIDIA asegura que sus núcleos RT de 3ª generación duplican el rendimiento de sus predecesores al procesar las intersecciones de los triángulos que intervienen en el renderizado de cada fotograma. Además, estos núcleos incorporan dos nuevos motores conocidos como Opacity Micromap (OMM), o ‘micromapa de opacidades’, y Displaced Micro-Mesh (DMM), que podemos traducir como ‘micromalla de desplazamientos’.

Dejando a un lado los detalles más complejos, el motor OMM tiene el propósito de acelerar el renderizado mediante trazado de rayos de las texturas empleadas en la vegetación, las vallas y las partículas. El procesado de estos tres elementos representa un gran esfuerzo para la GPU, y el objetivo de este motor es, precisamente, aliviarlo. Por otro lado, el motor DMM se encarga de procesar las escenas que contienen una gran complejidad geométrica para hacer posible el renderizado en tiempo real mediante trazado de rayos.

Los núcleos Tensor evolucionan: llega la 4ª generación

Al igual que los núcleos RT, los núcleos Tensor son unidades funcionales de hardware especializadas en resolver operaciones matriciales que admiten una gran paralelización, pero estos últimos han sido diseñados expresamente para ejecutar de forma eficiente las operaciones que requieren los algoritmos de aprendizaje profundo y la computación de alto rendimiento. Los núcleos Tensor ejercen un rol esencial en la tecnología DLSS (Deep Learning Super Sampling), de ahí que tengan un claro protagonismo en la reconstrucción de la imagen mediante DLSS 3.

Según NVIDIA, la 4ª iteración de estos núcleos es mucho más rápida que su predecesora, logrando multiplicar su rendimiento por cinco en determinadas circunstancias. Un apunte interesante: el motor de transformación FP8 utilizado por primera vez por esta marca en estos núcleos para llevar a cabo cálculos con números en coma flotante de 8 bits procede de la GPU H100 Tensor Core diseñada por NVIDIA expresamente para los centros de datos que trabajan con algoritmos de inteligencia artificial.

Estas dos tecnologías nos prometen marcar la diferencia en las GeForce RTX 40

El esfuerzo computacional que conlleva el renderizado en tiempo real de un fotograma mediante trazado de rayos es descomunal. Esta es la razón por la que cada nueva generación de procesadores gráficos no puede conformarse únicamente con introducir una cantidad mayor de las mismas unidades funcionales presentes en sus predecesoras.

La fuerza bruta importa, pero no es suficiente en absoluto. También es imprescindible elaborar estrategias que consigan abordar los procesos involucrados en el renderizado de una forma más inteligente. Más ingeniosa.

Las tecnologías ‘Shader Execution Reordering’ y ‘Ada Optical Flow Accelerator’ persiguen incrementar el rendimiento de la GPU abordando las tareas involucradas en el renderizado de la forma más eficiente posible

Este es el enfoque que pone sobre la mesa NVIDIA con las GPU GeForce RTX 40, y a nosotros nos parece la opción correcta. Precisamente las dos tecnologías en las que estamos a punto de indagar, conocidas como Shader Execution Reordering (SER) y Ada Optical Flow Accelerator, persiguen llevar a la práctica este propósito: incrementar el rendimiento de la GPU abordando las tareas involucradas en el renderizado que desencadenan un mayor esfuerzo computacional de la forma más eficiente posible.

Nvidiaaofa

La tecnología Shader Execution Reordering (SER) se responsabiliza de optimizar los recursos de la GPU reorganizando en tiempo real y de una manera inteligente los sombreadores (shaders), que son los programas que llevan a cabo los cálculos necesarios para resolver los atributos esenciales del fotograma que se está renderizando, como la iluminación o el color.

De alguna forma esta técnica lleva a cabo un procedimiento similar a la ejecución superescalar de las CPU, lo que, según NVIDIA, permite a la tecnología SER multiplicar por tres el rendimiento del renderizado mediante trazado de rayos, incrementando, por el camino, la cadencia de imágenes por segundo en hasta un 25%. No pinta nada mal.

Nvidiaaofa2

Por otro lado, la tecnología Ada Optical Flow Accelerator tiene el propósito de predecir qué objetos se van a desplazar entre dos fotogramas consecutivos para entregar esa información a la red neuronal convolucional involucrada en la reconstrucción de la imagen mediante DLSS 3.

Según NVIDIA esta estrategia multiplica por dos el rendimiento de la anterior implementación de la tecnología DLSS, y, a la par, mantiene intacta la calidad de imagen. De nuevo, suena muy bien, pero los usuarios tendremos que ir comprobando poco a poco si realmente esta innovación está a la altura de las expectativas que está generando.

Nvidiaaofa3

NVIDIA nos promete que las GeForce RTX 40 son más eficientes que las RTX 30

Una de las consecuencias de la adopción de la tecnología de  integración de 4 nm de TSMC frente a la litografía de 8 nm utilizada por  Samsung para fabricar las GPU de la familia GeForce RTX 30 consiste en  que los últimos procesadores gráficos de NVIDIA deberían ser perceptiblemente más eficientes. Y sí, eso es precisamente lo que nos promete esta marca.

Según NVIDIA la temperatura máxima que alcanzan bajo estrés las GPU GeForce RTX 4090 y 4080 asciende a 90 ºC

La diapositiva que publicamos debajo de estas líneas describe la relación que existe entre la energía consumida y el rendimiento que nos entregan las GPU con arquitectura Turing, Ampere y Ada Lovelace. Y, efectivamente, esta última implementación gana por goleada a sus predecesoras. Aun así, no debemos pasar por alto las exigencias de las nuevas tarjetas gráficas de NVIDIA si nos ceñimos a su consumo eléctrico.

Según NVIDIA la temperatura máxima que alcanzan bajo estrés las GPU GeForce RTX 4090 y 4080 asciende a 90 ºC, pero el consumo medio de la RTX 4090 roza los 450 vatios, mientras que la RTX 4080 coquetea con los 320 vatios. Por otro lado, NVIDIA sugiere que los equipos en los que va a ser instalada una RTX 4090 cuenten con una fuente de alimentación de 850 vatios o más, mientras que la RTX 4080 requiere una fuente de al menos 750 vatios.

Nvidiaeficiencia

DLSS 3 multiplica por cuatro el rendimiento con ‘ray tracing’

La técnica de reconstrucción de la imagen empleada por NVIDIA recurre al análisis en tiempo real de los fotogramas de nuestros juegos utilizando algoritmos de aprendizaje profundo. Su estrategia es similar a la que emplean otros fabricantes de hardware gráfico: la resolución de renderizado es inferior a la resolución de salida que finalmente entrega la tarjeta gráfica a nuestro monitor.

El motor gráfico renderiza las imágenes a una resolución inferior a la que esperamos obtener, y después la tecnología DLSS escala cada fotograma a la resolución final

De esta forma el estrés al que se ve sometido el procesador gráfico es menor, pero a cambio es necesario recurrir a un procedimiento que se encargue de escalar cada uno de los fotogramas desde la resolución de renderizado hasta la resolución final. Y, además, debe hacerlo de una forma eficiente porque, de lo contrario, el esfuerzo que hemos evitado en la etapa anterior podría aparecer en esta fase de la generación de las imágenes.

Esta es la fase en la que entra en acción la inteligencia artificial que ha puesto a punto NVIDIA. Y los núcleos Tensor de la GPU. El motor gráfico renderiza las imágenes a una resolución inferior a la que esperamos obtener, y después la tecnología DLSS escala cada fotograma a la resolución final aplicando una técnica de muestreo mediante aprendizaje profundo para intentar recuperar el máximo nivel de detalle posible.

Dlss3

En las imágenes que hemos utilizado para ilustrar este artículo podemos ver que el procedimiento implementado en DLSS 3 es más complejo que el utilizado por DLSS 2. De hecho, la nueva técnica de reconstrucción de la imagen de NVIDIA aprovecha la presencia de los núcleos Tensor de cuarta generación de las GPU GeForce RTX 40 para hacer posible la ejecución de un nuevo algoritmo de reconstrucción llamado Optical Multi Frame Generation.

‘Optical Multi Frame Generation’ analiza dos imágenes secuenciales del juego en tiempo real y calcula la información del vector que describe el movimiento de todos los objetos

En vez de abordar la reconstrucción de cada fotograma trabajando con píxeles aislados, que es lo que hace DLSS 2, esta estrategia genera fotogramas completos. Para hacerlo analiza dos imágenes secuenciales del juego en tiempo real y calcula la información del vector que describe el movimiento de todos los objetos que aparecen en esos fotogramas, pero que no son procesados por el motor del propio juego.

Nvidia Dlss3 2

Según NVIDIA esta técnica de reconstrucción de la imagen consigue multiplicar por cuatro la cadencia de imágenes por segundo que nos entrega DLSS 2. Y, lo que también es muy importante, minimiza las aberraciones y las anomalías visuales que aparecen en algunos juegos al utilizar la anterior revisión de esta estrategia de reconstrucción de la imagen.

El procesado de los fotogramas en alta resolución y los vectores de movimiento se alimentan de una red neuronal convolucional

Un apunte interesante más: el procesado de los fotogramas en alta resolución y los vectores de movimiento se alimentan, según nos explica NVIDIA, de una red neuronal convolucional que analiza toda esta información y genera en tiempo real un frame adicional por cada fotograma procesado por el motor del juego.

Para concluir, ahí va otra promesa de esta compañía: DLSS 3 puede trabajar en tándem con Unity y Unreal Engine, y durante los próximos meses llegará a más de 35 juegos. De hecho, es posible habilitar esta técnica en poco tiempo en aquellos títulos que ya implementan DLSS 2 o Streamline.

La GeForce RTX 4080 Founders Edition, en detalle

El recinto de esta tarjeta gráfica es idéntico al de la GeForce RTX 4090. Las versiones Founders Edition de estas dos bestias miden 304 x 137 mm y acaparan nada menos que tres ranuras (61 mm) de la caja de nuestro PC. Por otro lado, la GeForce RTX 4080 tiene según NVIDIA un consumo medio de 320 vatios, por lo que esta marca nos sugiere que la alimentemos con una fuente que tenga al menos una entrega de potencia de 750 vatios.

Geforcertx4080 Diseno1

En la siguiente fotografía de detalle podemos ver con claridad la salida de aire alojada junto a los conectores DisplayPort y HDMI. Esta tarjeta incorpora tres salidas DisplayPort 1.4a ideales para instalaciones multimonitor, y, al igual que las RTX 30, también tiene una salida HDMI que implementa la norma 2.1 y que nos permite enviar la señal de vídeo a un televisor (lo ideal es que también sea compatible con este estándar para poder sacar partido a las prestaciones vinculadas a él).

Geforcertx4080 Diseno2

El conector de alimentación de esta tarjeta gráfica es idéntico a la interfaz 12VHPWR que nos propone la GeForce RTX 4090. Durante las últimas semanas varios usuarios de esta última tarjeta gráfica han notificado a través de Reddit daños en este conector derivados de un posible sobrecalentamiento, pero durante nuestras pruebas nosotros no hemos identificado este problema ni en la GeForce RTX 4090 ni en la RTX 4080. Veremos cómo acaba este asunto.

Geforcertx4080 Diseno3

Aquí las tenemos mano a mano. La de abajo es la GeForce RTX 4090, y encima de ella hemos colocado la GeForce RTX 4080. Como podemos ver, su recinto es idéntico. Son muy voluminosas, pero tienen un diseño elegante. En cualquier caso, lo realmente importante es que el sistema de refrigeración implementado por los ingenieros de NVIDIA consigue mantener la GPU de la RTX 4080 a una temperatura inusualmente moderada bajo estrés. Lo comprobaremos en la siguiente sección de este análisis.

Geforcertx4080 Diseno4

Con el respaldo de DLSS 3 esta tarjeta gráfica no se arruga ante ningún videojuego

La configuración de la plataforma de pruebas que hemos utilizado para evaluar el rendimiento de esta tarjeta gráfica es la siguiente: microprocesador AMD Ryzen 9 5950X con 16 núcleos (32 hilos de ejecución); dos módulos de memoria Corsair Dominator Platinum DDR4-3600 con una capacidad conjunta de 16 GB y una latencia de 18-19-19-39; una placa base ASUS ROG Crosshair VIII Hero con chipset AMD X570; una unidad SSD Samsung 970 EVO Plus con interfaz NVMe M.2 y una capacidad de 500 GB; y, por último, un sistema de refrigeración por aire para la CPU Corsair A500 con ventilador de rodamientos por levitación magnética.

Otro elemento muy importante de nuestra plataforma de análisis es el monitor que hemos utilizado en nuestras pruebas: un ROG Strix XG27UQ de ASUS equipado con un panel LCD IPS de 27 pulgadas con resolución 4K UHD y capaz de trabajar a una frecuencia de refresco máxima de 144 Hz. Esta veterana pantalla es una pieza habitual en nuestros análisis y nos permite sacar todo el jugo a cualquier tarjeta gráfica de última generación.

Todas las pruebas las hemos ejecutado con la máxima calidad gráfica implementada en cada juego o test y habilitando la API DirectX 12 en aquellos títulos en los que está disponible

Todas las pruebas las hemos ejecutado con la máxima calidad gráfica implementada en cada juego o test y habilitando la API DirectX 12 en aquellos títulos en los que está disponible. El modo de reconstrucción de la imagen que hemos seleccionado tanto en las tarjetas gráficas de NVIDIA como en las de AMD en aquellos juegos que implementan esta tecnología es el que prioriza el rendimiento. Y, por último, las herramientas que hemos utilizado para recoger los datos son FrameView, de NVIDIA; OCAT, de AMD; y FRAPS. Las tres están disponibles gratuitamente.

No podemos seguir adelante sin detenernos un momento para echar un vistazo a la fuente de alimentación a la que hemos encomendado la tarea de saciar a la GeForce RTX 4080. Durante nuestras pruebas hemos utilizado una fuente Corsair HX1500i modular con una capacidad de entrega de potencia máxima de 1500 vatios y unas prestaciones acordes a la tarjeta gráfica que estamos analizando. De hecho, durante las decenas de horas que han durado nuestras pruebas esta fuente de alimentación se ha comportado de una manera completamente estable. Además, es sorprendentemente silenciosa.

Rtx4090pruebas3

Empezamos fuerte. En la prueba ‘Time Spy’ de 3DMark la GeForce RTX 4080 ha arrojado un rendimiento equidistante de la GeForce RTX 4090 y la RTX 3090 Ti. Es más lenta que su hermana mayor en esta prueba, pero también es perceptiblemente más rápida que esta última tarjeta gráfica, lo que nos anticipa con qué nos vamos a encontrar en los siguientes tests. Un apunte importante: en esta prueba no ha intervenido la tecnología DLSS.

En el test específico para DLSS de 3DMark volvemos a encontrarnos con un resultado calcado al que hemos obtenido en la prueba anterior: la GeForce RTX 4080 es más lenta que la RTX 4090, pero claramente más rápida que la GeForce RTX 3090 Ti tanto al recurrir al DLSS como al prescindir de esta tecnología de reconstrucción de la imagen. Eso sí, las dos RTX 40 están respaldadas por DLSS 3, mientras que la RTX 3090 Ti, al igual que las demás RTX 30, cuenta con DLSS 2.

En la siguiente gráfica podemos ver que la GeForce RTX 4080 sufre con ‘Microsoft Flight Simulator’ si pisamos a fondo el acelerador de la calidad gráfica y activamos el trazado de rayos. En estas condiciones nos entrega una cadencia media de 50 FPS, pero si activamos la tecnología DLSS 3 su rendimiento se dispara hasta rozar los 100 FPS a 2160p. En este juego esta técnica de reconstrucción de la imagen logra duplicar el rendimiento de esta GPU.

El motor gráfico de ‘Cyberpunk 2077’ es muy exigente, pero a 1080p y con la máxima calidad gráfica la GeForce RTX 4080 no tiene ningún problema. A 1440p y 2160p lo ideal es recurrir a la tecnología DLSS 3, y en estas condiciones esta tarjeta gráfica rinde a un nivel muy alto. De hecho, a 2160p nos entrega una cadencia media de 104 FPS con la máxima calidad gráfica y el trazado de rayos activado. Y disfrutar este juego en estas condiciones es un lujazo.

En la siguiente gráfica podemos ver que el rendimiento que nos entrega la GeForce RTX 4080 cuando habilitamos la tecnología DLSS 3 en ‘A Plague Tale: Requiem’ es fabuloso. Incluso a 2160p. De hecho, a esta última resolución arroja una cadencia media de más de 160 FPS. Una vez más, la RTX 4080 es más lenta que la RTX 4090, pero también es perceptiblemente más rápida que la RTX 3090 Ti.

En ‘F1 22’ hemos obtenido unas medidas interesantes. A 1080p la GeForce RTX 4080 es solo ligeramente más rápida que la RTX 3090 Ti tanto al recurrir a la tecnología DLSS como al prescindir de ella. Sin embargo, a medida que incrementamos la resolución la RTX 4080 empieza a distanciarse, de modo que a 2160p y gracias al empuje de DLSS 3 consigue rozar los 150 FPS.

Las cifras que nos entrega la tarjeta gráfica que estamos poniendo a prueba en ‘Doom Eternal’ son fabulosas. Y sin DLSS. El motor gráfico de este juego está muy bien optimizado, lo que unido a la fuerza bruta de la GeForce RTX 4080 nos permite disfrutar de una cadencia media de más de 180 FPS a 2160p y con el trazado de rayos activado.

En ‘Control’, curiosamente, a 1080p la GeForce RTX 4080 nos entrega un rendimiento casi idéntico al de la RTX 4090. Sin embargo, como cabe esperar, a medida que se incrementa la resolución esta última va tomando ventaja. Aun así, la RTX 4080 se mantiene siempre por delante de la RTX 3090 Ti, y a 2160p y sin DLSS nos entrega una cadencia media de 50 FPS.

‘Death Stranding’ nos depara una sorpresa. Y es que a 1080p la GeForce RTX 4080 es ligeramente más rápida que la RTX 4090. A 1440p ambas tarjetas gráficas han arrojado en nuestras pruebas exactamente el mismo rendimiento, y a 2160p la RTX 4090 se desmarca y toma la delantera. Aun así, a esta última resolución la RTX 4080 nos entrega una cadencia media de más de 150 FPS sin necesidad de recurrir a la tecnología DLSS.

A pesar de su veteranía, el motor gráfico de ‘Final Fantasy XV’ sigue siendo duro de roer. No obstante, la GPU que estamos poniendo a prueba no se ha acobardado. Con la máxima calidad gráfica y a 2160p nos entrega más de 110 FPS sostenidos, por lo que este juego es muy disfrutable por muy exigentes que nos pongamos. Una vez más, la RTX 4080 consigue superar con claridad a la RTX 3090 Ti.

Como os hemos anticipado unos párrafos más arriba, el sistema de refrigeración que han puesto a punto los ingenieros de NVIDIA en las versiones Founders Edition de las GeForce RTX 40 cumple su cometido con eficacia. En la siguiente gráfica podemos ver que bajo estrés la RTX 4080 se mantiene por debajo de los 60 ºC, un valor muy razonable que contrasta con las temperaturas con las que coquetean las nuevas CPU de Intel y AMD. De hecho, disipa menos calor no solo que la RTX 4090, sino también que la RTX 3090 Ti, la RTX 3080 Ti, la Radeon RX 6900 XT y la Radeon RX 6800 XT.

Para medir el nivel de ruido máximo emitido por cada tarjeta gráfica bajo estrés utilizamos nuestro sonómetro Velleman DVM805, y, como podéis ver en la siguiente gráfica, el nivel máximo arrojado por la GeForce RTX 4080 es muy similar al de la RTX 4090. Ambas tarjetas gráficas son un poco más ruidosas que las otras opciones con las que las hemos comparado, con la única excepción de la Radeon RX 6900 XT, que es, y con claridad, la más ruidosa de todas.

NVIDIA GeForce RTX 4080: la opinión de Xataka

El rendimiento de esta tarjeta gráfica es fabuloso. La tecnología de reconstrucción de la imagen DLSS 3 es una aliada esencial en algunos juegos si pisamos el acelerador a fondo con la calidad gráfica y activamos el trazado de rayos, pero con otros títulos, como ‘F1 22’, logra entregarnos una cadencia sostenida superior a los 60 FPS a 2160p sin recurrir al DLSS. Y no es fácil lograrlo.

Las tecnologías de reconstrucción de la imagen van a quedarse, de eso no cabe la menor duda

Estamos preparando un análisis minucioso de la calidad de imagen que nos ofrece DLSS 3, pero podemos anticiparos algo: esta revisión supera con cierta claridad la calidad global de DLSS 2, que ya de por sí es muy buena. Y, como hemos comprobado en este análisis, su rendimiento es sobresaliente. Las tecnologías de reconstrucción de la imagen van a quedarse, de eso no cabe la menor duda, por lo que es una buena idea que tanto NVIDIA como AMD se esfuercen para refinarlas.

En lo que se refiere a su diseño, estabilidad y rendimiento no podemos poner ningún ‘pero’ a esta tarjeta gráfica. Lo que sí nos apena es que su precio la coloque fuera del alcance de tantos y tantos entusiastas de los videojuegos que podrían disfrutarla muchísimo, y que van a tener que conformarse con una solución gráfica más modesta. Veremos qué nos proponen las ‘hermanas pequeñas’ de esta GeForce RTX 4080 cuando estén listas. Y cuánto costarán. Crucemos los dedos.

Esta tarjeta gráfica ha sido cedida para este análisis por NVIDIA. Puedes consultar nuestra política de relaciones con las empresas.

Más información: NVIDIA