RTX 3000 portada

Nvidia RTX 3000, entre el Hype y el Hate

El día 1 de Septiembre, Nvidia provocó un auténtico terremoto al presentar sus RTX 3000. Todos sabíamos que iban a ser muy potentes, llevábamos meses de rumores y filtraciones que hacían que el hype estuviera por las nubes… sin embargo nadie podría esperar lo que iba a suceder. Nvidia duplica la cantidad de núcleos CUDA de sus gráficas y unas frecuencias mucho más altas que las que habíamos visto en las filtraciones… y la cosa se descontrola.

La gente entra en auténtico pánico y ponen sus gráficas RTX 2000 en venta inmediatamente por todo el mundo, llenando el mercado de segunda mano de auténticas gangas (como RTX 2080ti por menos de 400€), mientras Reddit y Twitter se llenan de memes… ¿Razón? La RTX 3070 presume de un rendimiento superior a la RTX 2080ti por sólo 519€ (499$), haciendo que toda la actual jerarquía de precios caiga como un castillo de naipes.

Arquitectura Ampere

Con el paso de los años las GPUs de juegos de la gama GTX han ido ganando peso, no sólo como gráficas para jugar (gracias a sus Cuda Cores), sino también en sectores profesionales. Hace 2 años con el lanzamiento de las RTX 2000 subió la apuesta, añadiendo hardware dedicado para tareas de trazado de rayos (RT Cores), así como para Inteligencia Artificial y Deep/Machine Learning (con sus Tensor Cores).

Sin embargo el salto generacional de Turing (RTX 2000) no fue tan grande como habríamos esperado, sin embargo los precios se dispararon ante la falta competencia. Pero la situación actual es distinta y Ampere (RTX 3000) viene a enfrentarse al mercado más agitado que recordamos en los últimos 10 años… y Nvidia ha hecho una apuesta muy muy fuerte.

Fabricación Samsung en 8nm

El primero de los cambios ha sido que Nvidia ha dejado los 12nm FinFET de TSMC (usados en Volta y Turing que tan buen resultado les habían dado), buscando un nodo de fabricación de menos nanómetros. Mientras AMD habría apostando por los 7nm de TSMC para Zen2 y RDNA en 2019 y ahora repite apuesta por los 7nm+ de TSMC que son una evolución del anterior nodo.

samsung vs tsmc

El principal escollo es que las cadenas de fabricación de 7nm+ de TSMC están ya ocupadas por contratos largos con AMD, Apple, Qualcomm… además resulta algo caro (unos 10.000$ por oblea). Así que Nvidia decide cambiar de “foundry” y pone sus ojos en Samsung (que posee 2 nodos de 7nm y 8nm) en busca de obleas más baratas, aunque tienen que desestimar los 7nm EUV porque Samsung aún no tiene capacidad para fabricar tanto como quiere pedir Nvidia (un contrato de unos mil millones de dólares).

Así que llegamos a los 8nm uHD de Samsung con un precio entorno a un 40% inferior por oblea, algo clave ya que Nvidia quiere ser agresiva con los precios ante la salida inminente de RDNA2 y las consolas. Y son tan baratos porque en realidad son sólo una pequeña evolución sobre los 10nm HD que Samsung venía usando, lo que les hace tener una densidad de transistores un 40% inferior a los 7nm de TSMC.

El arte de contar CUDAs

Pero si algo nos llamó la atención en la presentación, fue que Nvidia había duplicado las cantidades de CUDA cores que manejaba la generación anterior… sin embargo una jugada así implicaría unos chips de gran tamaño que dispararían los precios. Es cierto que han reducido el nodo de fabricación de los 12nm a los 8nm de Samsung, pero algo no cuadraba.

Turing vs Ampere

Los núcleos de una GPU se dividen principalmente en INT32 y FP32: si están destinados a operaciones con números enteros tenemos los INT32, si están destinados a operar con decimales (coma flotante de 32bits) son FP32. Nvidia con la arquitectura Turing ya había conseguido que sus núcleos INT32 realizaran también operaciones de coma flotante (INT32+FP32), ganando así cierta potencia de cálculo sin aumentar el tamaño de los chips.

Sin embargo con Ampere han ido un paso más allá. Como se ve en la imagen los INT32 “han crecido” y han pasado a contabilizarse como CUDAs, dando a entender que son capaces de realizar el mismo trabajo que un CUDA. Hasta que no se optimice su uso por drivers, las gráficas no mostrarán ese inmenso potencial que implica el “duplicar” cores.

La realidad es que el incremento de rendimiento no es lineal con el aumento de CUDAs, ya que esos INT32+FP32 siguen destinando entre un porcentaje alto del tiempo a operaciones INT32 en lugar de FP32. Tenemos el doble de CUDAs, pero el rendimiento sólo se ha multiplicado un +20~30% y no el +100% que muchos esperaban.

GDDR6X para la gama alta, GDDR6 para el resto

Otra de las apuestas de Nvidia es por las memorias GDDR6X para sus modelos RTX 3080 y 3090. Unas memorias algo más caras pero que le permite duplicar la cantidad de información movida respecto al I/O, con 4 posibles valores por ciclo en lugar de 2. Además les permite ser más eficientes en la transmisión de datos, logrando una reducción del 15% de energía por cada bit transferido.

Mientras se espera que el resto de la gama RTX 3000 vayan con GDDR6, tendremos que esperar al lanzamiento de la RTX 3070 (29 de Octubre) para ver qué tal rendimiento logra sacar con memorias inferiores y así confirmar si montar las GDDR6X en los modelos superiores fue un acierto (o no).

Lanzamiento “agridulce” de las RTX 3000

Tras más de 6 meses de filtraciones sobre las Nvidia RTX 3000 y la presentación del 1 de Septiembre, todo el mundo estaba expectante de ver los primeros benchmarks y las primeras opiniones sobre la RTX 3080 (la primera en ponerse a la venta). Las expectativas estaban por las nubes… y aquí empieza el drama.

Rendimiento en juegos

Nvidia dijo que la RTX 3080 duplicaría a la RTX 2080 en rendimiento, mejora que en la vida real ha quedado reducida a la mitad (entorno a un 30-50% de mejora en juegos), salvo en casos muy concretos o bajo RTX+DLSS. Ahí si cuentan con una doble ventaja las RTX 3000 que han aumentado su potencia de RayTracing muy por encima de la generación anterior.

El rendimiento en general es bueno pero cuesta ver a la gráfica funcionando al 100%, quizá debido a los INT32+FP32. Lo mismo pasa con la RTX 3090, que no es capaz de justificar con su rendimiento en juegos el sobreprecio de 800€ respecto a las RTX 3080. Esperamos que Nvidia en próximos drivers vaya logrando exprimir un poco más el enorme potencial que tienen estas gráficas.

Problemas de disponibilidad

Luego vino el problema de disponibilidad: pocos ejemplares en venta para una demanda altísima, aderezada de los muchos bots/scripts/scalpers que buscaban comprarla a su precio de lanzamiento para revenderlas en foros y webs de medio mundo. Hasta el punto que Nvidia ha sacado un “preguntas y respuestas” sobre el lanzamiento de la RTX 3080 para intentar calmar a las masas

Consumo eléctrico y capacitores

Pero lo más grave es la cantidad de problemas derivados de su elevadísimo consumo eléctrico, cuando los 320W de TDP se convierten en cerca de 380W jugando, con cuelgues pasados los 2000MHz en algunos modelos, Nvidia recomendando fuentes de 750W y mucha gente dudando si su fuente será suficiente para mover estas GPUs.

POSCAPs vs MLCC. Fuente: VideocardZ

Las especificaciones de NVIDIA recomiendan el uso de dos tipos de condensadores que se pueden combinar entre sí, los POSCAPs (Conductive Polymer Tantalum Solid Capacitors) que podéis ver en rojo en la imagen de más arriba, y los MLCC (Multilayer Ceramic Chip Capacitor) que están marcados en verde. En principio las gráficas que han apostado por las configuraciones con 6 POSCAPs (en rojo) están dando problemas, provocando que los fabricantes cambien a configuraciones mixtas e incluso haciendo campañas para sustituir las RTX 3080 que vendieron con POSCAPs.

Nvidia ha salido a aclarar la situación al respecto, lanzando unos nuevos drivers que deberían solucionar el problema y mejorar la estabilidad. Además asegura que la cantidad o configuración de los capacitores no tiene mayor influencia y que el número apropiado de agrupaciones POSCAP vs. MLCC puede variar dependiendo del diseño y no es necesariamente indicativo de la calidad.

Stock vs Overclock vs Undervolt

Nvidia anunció que las RTX 3000 rondarían los 1700MHz de frecuencia turbo, sin embargo el autoOC de Nvidia hace que superemos desde el primer momento los 1700MHz, tanto en los modelos Founders Edition como en los modelos custom.

  • Rendimiento Stock: de fábrica la mayoría de fabricantes priorizan el silencio frente a las temperaturas o las frecuencias, alcanzando unos 1800-1900MHz con temperaturas entorno a 75-78ºC.
  • Rendimiento OC: con MSI Afterburner podemos hacerlas funcionar entorno a los 1935-2050MHz, pero tendremos que ajustar la ventilación, logrando entorno a 70ºC con ventiladores al 70%.
  • Rendimiento Undervolt: ajustando un voltaje fixed entorno a 0.750~0.850 V podremos mantener unas frecuencias similares a las Stock, pero con menos altibajos, mejores temperaturas y dando algo menos de trabajo a nuestra fuente de alimentación.

Futuro Incierto

Casi desde la semana siguiente al lanzamiento, los rumores de nuevas versiones han sido una constante. Modelos de RTX 3080 de 20GB, posibles versiones Super/Ti de las RTX 3070, posibilidad de saltar a los 7nm+ de TSMC…

Filtración de Galax. Fuente: TechPowerUp

Hemos pasado en cuestión de semanas de pensar que estas RTX 3000 son un “game changer”, a cuestionarnos si Nvidia en 2021 no sacará unas nuevas RTX 4000. La realidad es que los problemas se acumulan para Ampere, con una disponibilidad tan escasa que según algunos medios sólo se habrían llegado a vender un 7% de toda la demanda total recibida. Lo que abre la puerta a que AMD pueda llevarse un pedazo grande del pastel si las RX 6000 realmente rinden como se espera y tienen disponibilidad suficiente.

¿Marcará el Ray Tracing la diferencia?

El rendimiento de las GPUs está creciendo de forma muy rápida en los últimos años, siendo capaces de adaptarse a las nuevas exigencias (2K, 4K, ultrawide, 165Hz, 240Hz…) y haciendo que con una gráfica de unos 400€ podamos disfrutar todos los juegos a casi cualquier resolución y frecuencia sin casi bajar ajustes.

Y aquí entra el Ray Tracing a complicarnos la vida y a darnos unos juegos mucho más vistosos (a costa de rendimiento gráfico). Se trata de un proceso de cálculo de iluminación que se lleva usando muchos años en el mundo de los render de arquitectura, donde se calculan rebotes de los rayos de luz desde cada fuente de iluminación, dando unos reflejos muy realistas. Ésto se traduce en pesados cálculos matriciales para los que los INT32 y FP32 no están preparados, por lo que es necesario hardware dedicado.

Nvidia: RTcores+DLSS 2.1

El RayTracing es un proceso muy costoso (en cuanto a recursos gráficos) por lo que Nvidia ideó un sistema para aprovechar sus TensorCores: unos núcleos especializados en matrices 4×4 FP16 y muy útiles para tareas de Deep/Machine Learning pero “inútiles” a la hora de jugar.

La idea es utilizar una resolución más baja (para así reducir los cálculos que requiere el RayTracing), para posteriormente utilizar inteligencia artificial (con los Tensor cores) en el reescalado a la resolución deseada y posteriormente los CUDAs rasterizan cada frame. Este proceso recibe el nombre de DLSS (Deep Learning and Super Sampling) y en las nuevas RTX 3000 supondrá el poder jugar en 4K con RayTracing con máxima calidad y altos fps.

Ampere vs Turing

Respecto a la anterior generación, se habla de que la capacidad de cálculo de RayTracing se habría multiplicado x2.5, provocando que aunque una RTX 2080ti siga rindiendo en juegos igual que una RTX 3070, al momento de activar el RayTracing la balanza se desequilibra en favor de las nuevas RTX 3070. Y la realidad es que así está siendo.

Por lo que será clave la llegada de nuevos títulos con RayTracing y DLSS 2.1 para terminar de convencer a los más reticentes de dar el salto a las RTX 3000, así como que mejore la disponibilidad de las GPUs en las tiendas.

Nuestras conclusiones (y dudas)

La apuesta de Nvidia con Ampere es muy alta (trayendo auténticas bestias al mercado) pero también se siente algo precipitada, sin ser capaz de sacarle todo el rendimiento posible a las RTX 3000. Curioso cuando Nvidia siempre se ha destacado por salir con drivers bastante afinados, mientras que era AMD la que solía arrancar con drivers “verdes”.

Las RTX 3000 también parecen haber disparado su consumo eléctrico respecto la anterior generación, mientras que AMD parece apostar por una mayor eficiencia y menores consumos…. el mundo al revés. Gran parte de los problemas que están teniendo las RTX 3000 en su lanzamiento provienen de la elección de Samsung para su fabricación, la falta de stock y la calidad de sus silicios (como ha admitido Nvidia). Es por ello que los rumores se han disparado en las últimas semanas:

  • Se filtran futuros modelos Super / Ti (o con más GB de VRAM) que utilizaría para emparejarlas con los modelos AMD.
  • Informaciones apuntan a que Nvidia querría empezar a fabricar sus gráficas en los 7nm+ de TSMC a partir de 2021 (mismo nodo de fabricación que usa AMD)
  • Los últimos rumores dicen que es posible que esos modelos Super / Ti (o con más GB de VRAM) hayan sido suspendidos.

¿Quiere decir eso que los modelos Ti / Super llegarían ya en 7nm+? ¿Llegarán acompañados de más memoria VRAM? ¿Tendrán un rendimiento aún mayor que la actuales? ¿Nvidia habría dado por perdida esta generación y prepara las RTX 4000 en 7nm+ para 2021? De momento son sólo rumores, pero si pasa estaremos aquí en Newesc para contarlo.

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

  Acepto la política de privacidad