
Iniciado por
REN
Se dieron cuenta de que Ampere bajó la performance por núcleo con respecto a Turing, y su performance está puramente basada en la densidad descomunal que tiene?
O sea, una 3080 tiene 30 teraflops reales, algo totalmente inesperado. Pero una imaginaria "2080" de 30TF rendiría bastante más que esta Ampere, y obviamente sería un chip muy grande e imposible.
Esto es básicamente fuerza bruta. Acá no existe el costo de R&D que existió en Turing para inventarse los tensor cores y los RT cores, y por tal motivo no dudo de que Nvidia pueda bajar más los precios de Ampere si fuera necesario.
Turing habrá sido un fracaso como upgrade en rasterización sobre Pascal, pero es innegable que la guita que pedían no era simplemente por ambición. Habían metido mucha plata en eso.