Blog Personal.

Ampere, Feedback, GeForce, Nvidia

RTX 30×0 (Final): Feedback

No me esperaba tal cantidad de comentarios entre las cuatro entradas.

Por lo que voy a tener que ser selectivo.

Comentario#1:

Una novedad sobre el RTX IO, en los comentarios de la web de nvidia uno de los administradores ha aclarado que lo podrán utilizar todas las gráficas RTX, tanto ampere como las actuales turing.

Pues me sorprende eso, no lo veo imposible pero aquí tengo que aclarar que me pensaba que Nvidia habia añadido un decodificador en la GPU pero veo que no que no, lo que me lleva a corregir mi afirmación de que lo hace a través de hardware dedicado para la descompresión que hice en un comentario.

En todo caso que lo pueda hacer no es sorprendente, el motivo de ello es que las unidad DMA que tienen las GPUs les permite husmear la RAM principal a través del puerto PCIe así como comunicarse con el resto de memoria en dicho puerto. La funcionalidad de añadir un SSD y que la GPU lo pudiese aprovechar siempre había estado ahí para poder ser utilizada.

En todo caso hay que tener en cuenta una cosa muy importante sobre la descompresión de datos. En consola lo puedes hacer porque es un hardware único que va a utilizar siempre el mismo descompresor. ¿Pero en PC? ¿Que ocurre si los assets de un juegos están comprimidos con el formato de Nvidia? El caso es que ningún juego actual en PC utiliza compresión y descompresión de ningún tipo.

En el Q&A que hicieron después dijeron:

RTX IO permite leer datos de SSD a una velocidad mucho más alta que los métodos tradicionales, y permite que la GPU almacene y lea los datos en un formato comprimido. para descompresión y uso por la GPU. No permite que el SSD reemplace la memoria del búfer de imagen, pero permite que los datos del SSD lleguen a la GPU y a la memoria de la GPU mucho más rápido, con mucha menos sobrecarga de CPU.

¿Pero cual es ese formato comprimido? El sistema de compresión de memoria referenciado en el whitepaper hace referencia al Delta Color Compression que tiene que ver con el búfer de imagen y por tanto esta fuera del tema del SSD por lo que no tiene nada que ver.

La ventaja de los sistemas de PS5 y Xbox Series X es que la descompresión de datos no la hace ni la CPU ni la GPU sino un sistema dedicado y que por tanto funciona en paralelo. Aquí si son las unidades SM (que engloban los «núcleos» CUDA y los Tensor «Cores») entonces la descompresión si que afectará y muy negativamente al rendimiento gráfico de los juegos.

Comentario#2:

Con toda la desinformación y hype desmesurado que inunda internet, eres un foco de información del que nos podemos fiar. Espero con ansias leer lo que tienes que decir sobre el RTX IO y tus divagaciones sobre si AMD podría implementar algo similar.

Gracias por tus entradas.

AMD puede implementar lo mismo sin problemas, ya he dicho que la capacidad de acceder a otras memorias conectadas al puerto PCIe por parte de la GPU a través de sus unidades DMA es algo que es posible en todos los casos. No penseis que Nvidia ha inventado la rueda con esto, ni Sony ni Microsoft.

Bueno, en realidad ya lo tenían implantado, lo que fallaba era la API, por eso yo acuso a Microsoft de haber lanzado el Direct Storage tarde.

Comentario#3:

Pobres lo que compraron un 2080/S estos ultimos 3 meses, ni Vram tienen XD

A mi pena no me dan, su tarjeta fue una buena compra y les va a dar muchos años de juegos con un excelente rendimiento.En el mundo del PC no tienes porque gastarte el dinero cada año o cada dos años en comprarte una tarjeta gráfica nueva como se va diciendo por ahí.

En todo caso, que iba a salir una versión de la RTX 2080 Super al precio de una 2070 pero mejorada en velocidad de reloj y con los Tensor Cores de tercera generación es algo que ya sabiamos desde hace meses.

Comentario#4:

Por lo que decían DLSS 3.0 traerá cambios muy importantes incluso de cara a desarrollo, ya que no requerira que los estudios realicen muestreos previos en las Saturn V para sacar el algoritmo para que funcione DLSS, DLSS 3.0 pasaria a poder funcionar en todos los juegos que soporten TAA, aunque continuara requiriendo que los estudios de desarrollo den compatibilidad a sus juegos para el nuevo DLSS, pero los cambios que requerirá son menos intrusivos por parte de nvidia que antes.

De momento de ser cierto DLSS 3.0 parece que se lo guardan bajo la manga ante lo que pueda presentar AMD ya que supuestamente nvidia lo iva a presentar para septiembre/octubre tras el lanzamiento de la serie 3000.

Oficialmente el DLSS 3.0 no existe, pero es posible que lo anuncien, quien sabe.

¿El problema que le veo yo al DLSS 2.0? Supuestamente Nvidia con el DLSS 2.0 creo un modelo que sirve para todos los juegos. En vez de entrenar la IA para generar un algoritmo para cada juego con el DLSS 1.x en el el DLSS 2.0 buscan un modelo más general.

La idea es que una vez tienes un modelo general no te hace falta entrenar la IA para generar un modelo que sirva para todos los juegos. ¿El problema? El DLSS no es un reescalado, sino que lo que hace es mentir ya que alucina los pixeles que faltan para componer la imagen pero para ello ha de tener un modelo predictivo. ¿El problema? Una predicción no es 100% exacta y es por ello que pese a que sobre el papel el DLSS 2.0 es genial tiene la contrapartida que la IA se ha de seguir entrenando para que ese modelo único sea efectivo para todos los juegos, lo que nos lleva a lo siguiente:

  • La interesada en entrenar la IA para pulir el DLSS 2.0 es Nvidia y solo Nvidia porque es el motivo de venta de sus tarjetas.
  • Puede que los assets de un juego desbarajusten el modelo y acaben afectando negativamente al resto. Puede que el modelo no escale bien todos los juegos.
  • El DLSS 2.0 para funcionar en todos los juegos requiere un testeo posterior de todos ellos. ¿Quien lo va a hacer? Esto provoca que la lista de juegoa sea muy baja.

Pero tened en cuenta que Nvidia va a pagarle a ciertos medios para que con dinero en la mano analicen los juegos via benchmark que tiene soporte para DLSS 2.0. A Nvidia lo que le interesa con Ampere son las gráficas comparativas y punto. ¿Pero que ocurre si un juego no soporta DLSS? Pues que la ventaja comparativa se pierde por completo. Cuando digo que Nvidia se va a comer el mercado en el segmento de gama alta es que los benchmarks importan. Incluso me los veo a ellos haciendo una versión DLSS del 3D Mark para que la cifra salga mucho más alta en esos escenarios especificos.

Comentario#5:

En teoría ¿se podría aplicar un algoritmo de escalado IA sin la intervención del desarrollador del juego?

Es decir, el juego se renderiza, y la API (o lo que sea) en vez de llevar la imagen al controlador de pantalla, lo escala via IA usando la GPU (Tensor Cores o CU) y después lleva la imagen escalada al controlador de pantalla.

Entiendo que en una consola, al ser una plataforma cerrada, no se podría, pues el tiempo de renderizado está controlado hasta el más mínimo detalle; en una plataforma abierta no, el tiempo de renderizado está también abierto y da igual sacar 80 imágenes por segundo que 120.

En teoría esto es lo que hace el DLSS 2.0 pero deber alucinar pixeles de forma lo suficientemente incorrecta para que este sea desactivado en la mayoría de juegos pese a ser un modelo general.

Comentario#6:

Urian parece que aquella información de que mas adelante saldran graficas Ampere con el doble de memoria podría ser cierta :), al menos lenovo a filtrado la existencia de una RTX3070ti con 16gb de vram.

NVIDIA GeForce RTX 3070 Ti spotted with 16GB GDDR6 memory

Estas gráficas con mas vram si terminan saliendo como parece van a ser muy golosas para los que se dedican a tareas de IA con las actuales turing de 8gb/11gb y que no se podiamos permitirnos el costo de las quadro y titan RTX por precio, en tareas de IA siempre es muy limitante para los proyectos la memoria disponible en la grafica, tener una rtx3070 con 16gb o una rtx3080 con 20 si se mantienen como se espera por debajo de los 1000€ las puede hacer muy atractivas para estos usos tambien.

La RTX 3070 utiliza memoria GDDR6 a 14Gbps, personalmente eso me parece muy decepcionante ya que me esperaría que al menos utilizarán la de 16Gbps.

El caso es que la GDDR6 esta disponible en densidades de 2GB por chip mientras que la GDDR6X no lo esta y por tanto tiene que tirar del modo Clamshell con el doble de chips. En cambio es posible montar una RTX 3070 de 16GB cambiando los chips de 1GB por los de 2GB, pero ese cambio no justificaría llamarla «Ti» al final pero el marketing es el marketing.

Lo que si que vamos a ver son los modelos Super con el uso completo de todo el chip (todas las SM activas) y GDDR6X con densidad de 2GB en todos los casos pero eso, para el año que viene.

Comentario#7:

A si alguien puede especular (un poquito más) sobre Big Navi:

El SoC de XsX es de 360 mm2, la GPU ocupa un 47% de espacio, o sea, 169,2 mm2. Si hubiera una versión de Big Navi que fuera el doble que la XsX, se iría a 340 mm2 más controladores y demás elementos, pero no subiría más allá de los 500 mm2 ¿o creéis que sería más?

Si Nvidia puede hacer chips monolíticos de más 600 mm2, AMD podría hacerlos de 500, espero que se anime.

Lo que ocupa eso es la unidad GFX (Conjunto C) ya que el Northbridge y el Conjunto D de la GPU en un SoC es el mismo que el de la CPU. A eso no podemos olvidarnos de las interfaces con la memoria externa y tampoco los aceleradores típicos de la GPU en todo el proceso por lo que la cosa se puede ir al 60%.

Sobre AMD ya comentare en otra entrada lo que pienso que es su estrategía.

Comentario#8:

INSIDE XBXO SERIES X – DF
Machine learning is a feature we’ve discussed in the past, most notably with Nvidia’s Turing architecture and the firm’s DLSS AI upscaling. The RDNA 2 architecture used in Series X does not have tensor core equivalents, but Microsoft and AMD have come up with a novel, efficient solution based on the standard shader cores. With over 12 teraflops of FP32 compute, RDNA 2 also allows for double that with FP16 (yes, rapid-packed math is back). However, machine learning workloads often use much lower precision than that, so the RDNA 2 shaders were adapted still further.
«We knew that many inference algorithms need only 8-bit and 4-bit integer positions for weights and the math operations involving those weights comprise the bulk of the performance overhead for those algorithms,» says Andrew Goossen. «So we added special hardware support for this specific scenario. The result is that Series X offers 49 TOPS for 8-bit integer operations and 97 TOPS for 4-bit integer operations. Note that the weights are integers, so those are TOPS and not TFLOPs. The net result is that Series X offers unparalleled intelligence for machine learning.»

«So we added special hardware support for this specific scenario.»

Es decir. Xbox Series X sí que tiene hard y firm. similar al de NVIDIA para el DLSS.
De hecho AMD y sus RDNA2 lo tendrán. Seguramente sea menos competente, pero todos reman en ese sentido.

Lo que tiene la Xbox Series X es lo que se llama SIMD sobre registro, si tuviese arrays sistolicos en la Compute Unit entonces hubiesen hablado de ellos en la presentación del Hot Chips y creeme que la cifra sería mayor que esos 97 TOPS en Int4.

Echemos un vistazo a lo que dice Microsoft sobre su consola. A nivel de Compute Units…

… y a nivel de la GPU en general.

SI AMD hubiese implementado arrays sistolicos que es lo que son los Tensor Cores lo sabríamos ya indirectamente por Microsoft pero no es así. En todo caso hay que tener en cuenta que los Tensor Cores comparten el Datapatch con las unidades SM por lo que solo se pueden utilizar en momentos puntuales lo que les fuerza a ser muy muy rápidos para compensar.

Ahora bien, en los juegos de media el DLSS lo que pide es que le dejes entre 0.7 y 2.5 ms de tiempo en Turing para realizar el reescalado. Ese es el tiempo en que los núcleos CUDA (FP32 e Int32) están inactivos y los Tensors pueden entrar. En el caso de Ampere el tiempo se va a la mitad.

En todo caso pienso que vamos ver una Xbox Series «Super» X llegado el punto. con arrays sistolicos en la Compute Unit y pudiendo realizar una especie de DLSS via DirectML desarrollado por AMD y Microsoft.

Comentario#9:

Soy al unico que creo que es raro que tanto Guerrilla como Kojima Productions que usando Decima engine hayan tirado de Directx 12 cuando ni siquiera los juegos tienen Ray Tracing? Me parece super raro que no hayan tirado de Vulkan.

Alguno sabe que pasa con Vulkan y el RT? Me preocupa que solo I’d Software lo use. Creo que a dia de hoy solo he visto Wolfenstein: Youngblood.

Incluso que Ubisoft anda tirando de Vulkan por Google Stadia creo que para el RT en el proximo Watch Dogs van a tirar de DXR.

Alguno ve a Google Stadia tirando pronto de RT? Tendran que cambiar de hardware mientras GeForce Now mientras tanto se rien de ellos.

Sabemos algo de la solucion Vulkan para I/O ?

En Vulkan puedes ir añadiendo extensiones para tu hardware especifico dentro de la API. Estas son ideales para probar cosas nuevas en el hardware que haya diseñado y ver su funcionalidad pero el resto del hardware no lo puede aprovechar.

Lo que ocurre con Vulkan es que es un cadaver andante a nivel comercial al que solo Google apoya a través de Android. ¿Motivo?

  1. Apple tiene su propia API que es Metal.
  2. Nintendo tiene su propia API que es NVN desarrollado en conjunto con Nvidia.
  3. Sony tiene su propia API que es GNM
  4. Microsoft tiene su propia API que es DX12.

Vulkan no esta integrado en las herramientas de desarrollo de las cuatro de arriba. Si tu escribes un juego para cualquiera de las cuatro plataformas utilizando la API de Vulkan… ¿Sabés que ocurre? Te lo vetan. En el caso de Android la cantidad de extensiones soportadas esta limitada para evitar incompatibilidades.

Esto provoca que sea una API de testeo para probar nuevas funcionalidades pero si esas no se encuentran en las APIs de los productos comerciales no se pueden utilizar.

Esto es todo, tenéis los comentarios de esta misma entrada para comentar y no olvideis que tenemos Discord.

4.5 2 votes
Article Rating
14 Comments
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
MASS

-«Si tu escribes un juego para cualquiera de las cuatro plataformas utilizando la API de Vulkan… ¿Sabés que ocurre? Te lo vetan». Pero entonces como es que se dieron los Doom mas recientes? (2016 y 2020); creo recordar que el Doom del 2016 incluso comenzo bajo OpenGL 4.3, luego se le dio el soporte a Vulkan, con el Doom Eternal se basaron desde el inicio en Vulkan, aunque ignoro si igualmente acepte OpenGL. *Desde luego que una excepcion no hace la regla, pero eso no quita que la poca presencia de Vulkan como API principal en juegos de actual gen… Read more »

Last edited 24 days ago by MASS
MASS

Nvidia, gracias por tus avances, tecnologias y vision, pero tambien GRACIAS POR TAN GRATIFICANTES MOMENTOS!!: Un fiel de Nvidia perdido en la red (de HardzoneES): -«@papito6166 yo acabo de vender mi rtx 2080 ti por 550€ para ir a por la 3080 ya que la 3090 no me cabe (y paso completamente de comprarme una tope de gama). Despues de haberme dejado el dinero en la GTX 690 y de la RTX 2080 Ti ya he aprendido la lección a palos. Algo le he podido sacar…. Cabe decir que tenia 2 meses que me monte el pc entero y estoy… Read more »

IntelCeleronMasterRace

Por dios, pero que gataflora es el del post. LA TECNOLOGIA AVANZA SIEMPRE, LAMENTABLEMENTE, y me encanta como se quejan como si les faltara para comer, como se nota cuales son sus preocupaciones….

La gama alta y entusiasta S I E M P R E van a ser las menos convenientes en precio/rendimiento, duh.

MASS

Una cosa son los precios de la Gama Alta tipicos en las GPUs y otra el desproposito de los precios que tuvieron las RTX 2000 (lo mismo que productos de Apple…pero en todos lados hay Borregada Fiel que hasta gustosa pone su pompa al aire para que la marca le de con toda su fuerza). Un ejemplo claro es el pavor que ha corrido por las venas de aquellos con una RTX 2080Ti y similares, poniendolas a precio de remate en los mercados de segunda mano ante su «urgencia» de quedarse en la ola principal (RTX 3000). Si nvidia hubiese… Read more »

Last edited 23 days ago by MASS
Marwyn

Apple tiene su propia API que es Metal. Nintendo tiene su propia API que es NVN desarrollado en conjunto con Nvidia. Sony tiene su propia API que es GNM Microsoft tiene su propia API que es DX12. Hay las dado la optimización contra la fuerza bruta de NVDA estaba obligada Con la docena de juegos Ray tracing y primer DLSS (no hacia nada) haber en el futuro.. A mi me viene de fabula ya me han ofrecido un amigo su RTX 2080 por 200€ e iba por una 2060 de 300€ jiji para mi Pc de 6 años me sobra… Read more »

MASS

Hasta ahora (a palos) han podido reconocer los Nvidia-Boys el Sobreprecio escandaloso de las RTX 2000 (culpan a AMD por su atraso/falta de competitividad, pero ya se sabe que el Escorpion Verde es el que es)…una RTX 2080 segunda mano a 200e y en las tiendas las RTX 2060 aun a 300e y mas alla!!! Ni el Raytracing da tantas alegrias. Jajajajaja

EDUARDO F LOPEZ GALAN

Supongo que es imposible que haya un asic fuera del chip principal que lleve esa función y no lo haya notado nadie en la serie 2000 pero no sé igual no es descartable que entre los miles de millones de transistores dentro del chip Nvidia tenga desde las 2000 el hardware dedicado integrado en el chip (podría ser suficientemente pequeño para no llamar la atención en las fotos esas de rayos x que salen de los núcleos.
Y lo dejasen integrado a la espera de poder darle uso. Igual es una locura no se.

EDUARDO F LOPEZ GALAN

Pensándolo, y con lo que le gusta a nvidia tener tecnologías propietarias,yo imagino que igual que hay juegos que la primera vez que inician se tiran un ratillo compilando los shaders (signifique esto lo que signifique), que al iniciarse y detectar una rtx, comprimiesen los assets y/o cualquier cosa que vaya a ir a la vram a la tecnología propietaria de nvidia. Sería un nuevo physix vamos para nvidia o un nuevo gsync, mejor rendimiento y los juegos pasarían a ocupar una fracción de los gigabytes iniciales. Y así podría usar su hardware dedicado propietario y pasarse por el arco… Read more »

Nitupensis

el problema de un sistema propietario es el de siempre que a la que exista uno estandar a tomar viento, o lo típico que los desarrolladores pasen de usarlo para decantarse por lo «estándar».
RTX IO se puede decir (aunque no sea del todo correcto) que es el sistema que usa nvidia para optimizar sus graficas cuando usen la api Direct Storage, no algo sacado para suplir dicha api.
No se si me explicare bien 😉

Last edited 23 days ago by Nitupensis
EDUARDO F LOPEZ GALAN

a ver lo que cambia será el método de compresión, que nvidia usaría el propio igual que microsoft usa el suyo o sony el que tenga disponible. y si amd se tiene que ir a un estándar «abierto» que es peor cuando tenga hardware para ello, pues otro punto para el departamento de marketing podríamos ver casos de 150GB necesarios si tienes AMD, y 100 GB necesarios si tienes RTX. que luego está direct storage por debajo en todos los casos vale y aunque acorten distancias…lo que dice urian siempre, van dos años de retraso, para cuando saquen algo que… Read more »

IntelCeleronMasterRace

Creo que no se me entendio, PRECISAMENTE ME BURLO DE LOS QUE NO PUEDEN ESPERAR 3 JODIDOS MESES XD

En fin, problemas de primer mundo. Y si hombre, mas vale que POTENCIA NO LES VA A FALTAR, pero gastarse esa pasta para estar en el «limbo» es…..igual a mi de mi RX 570 no me mueve nadie, hasta que no salga por menos de 300 dolares una gpu igual a una RTX 2080 meh, aguanto con uñas y dientes.

EDUARDO F LOPEZ GALAN

carajo acabo de ver que en densidad el nodo de 7nm de tsmc es un 50% mejor que el que usa nvidia con las 3000…. si amd saca un big navi como nvidia tenga en espera las ti o super con tsmc y el doble de memoria….es que se los comen con patatas
el subidón de specs a buenos precios es por las consolas, amd está demasiado lejos

Dani

En realidad, la RTX3080 sale a 44,5 millones de transistores por mm2 y la XsX a 42,5. En densidad Nvidia está mejor, quizá por los Tensor Core, por los RT Cores o lo que sea. Las consolas tienen arquitectura AMD, si han sido las consolas quienes han hecho que Nvidia se baje de la parra con los precios, indirectamente ha sido AMD. Sinceramente, creo que este año AMD viene fuerte de verdad (aunque lleva diciéndose eso desde Vega). RDNA1 ya fue una primera muestra de que AMD puede plantar cara en la gama alta y hacer mejores productos que Nvidia… Read more »