https://www.youtube.com/watch?v=olfgrLqtXEo
https://www.youtube.com/watch?v=dQ8gSV_KyDw
Versión para imprimir
claramente AMD vio alguna grafica leakeada o algo y se cagaron hasta las patas y dijeron vamonos a la mierda.... Probablemente tenian pensado un precio similar a la 5070 y se dieron cuenta que era inviable, AMD esta realmente complicada, le queria dar la chance a la 9070 XT especialmetne por la memoria pero si se cagaron asi no pinta bien.... igual como siempre NGREEDIA racaneando en VRAM que por mas IA IA IA IA IA IA IA me tienen los huevos llenos con esa palabra siguen sin dar la cantiodad que deberian por el precio que estan colocando (y ya habra que ver el precio real, si esa paper launch o lo que bosta termine siendo para crear esa sequia artificial para que los precios suban....), la que luce mejorcita es la 5070 ti en terminos C/P. Aumento memoria y parece estar cercana a la 5080, probablemente tire como una 4080 super o por ahi ande...ya la 5090 es un mostro.
las tecnmologias son el selling point, DLSS 4 mejorara el DLSS normal lo cual va para todas las RTX lo cual bien, y luego esta esta nueva tecnologia de frame gen multi, a ver como va pero tiene pinta que sera una bosta super lageada, hay cosas que el Reflex no puede cambiar por mas que tengan uno nuevo y todo lo que quieras... a ver el Warp ese que inventaron pero no le tengo fé y mucho menos en juegos de disparos competitivos como ellos dicen.
Al final nos van a hacer esperar 1 año mas para sacar las graficas que debieron ser con las 5000 super con los modulos de 3gb.
Yo la queja de la VRAM siempre la veo comparando con la VRAM que ofrece AMD. Alguien aca se queda sin VRAM jugando?
tu tienes unas 3090, sin memoria no te vas a quedar jajaja, como mucho sin potencia pero no sin memoria. y si, 12gb a 1440p con las tecnologias, path tracing y demas se quedan cortas, no experimentado por mi pero asi es.
por cierto que tal tu 13600k, el tema del voltage y tal, como lo manejaste?
Tenia una 3080 antes, tenia 10GB. Y no tuve problema de VRAM jugando. Cargando proyectos medio grandes (y no voy a mentir, mal optimizados) con Unreal Engine y Unity me venia bien tener mas.
Y a 1440 no se que tanto decis, en lo de mis viejos tengo una RX 6800XT de 16GB, y un monitor 1440p, te puedo decir que no solo no me quedo sin VRAM, sino que nunca vi mas de 12GB a lo sumo. Y no tiro cosas light, ahi nomas estuve tirando Final Fantasy XVI estos dias. No veo que los juegos esten empujando el limite de que se necesite mas VRAM, teniendo en cuenta que el costo de fabricacion de VRAM es mas caro, segun Guru3D, la memoria GDDR6 es 4 veces mas cara de construir que la memoria RAM.
Y perdon que suene bruto/grosero, pero no lo experimentaste, el "me contaron" o "lei en internet" no es muy buen argumento, esta lleno de gente en internet que ve cosas. Hace que sea mas una excepcion ahi en la vuelta que la regla, y dependiendo mucho del contexto. Mucha 3050 o incluso 1650 de 6GB hay en la vuelta, si ya de por si no tenes la tarjeta con mas VRAM, te podes quedar corto, pero no quiere decir que masivamente se necesite mas.
A 1080p en general con 8GB estas bien, a 1440p con 10GB estas bien, y en 4K recien necesitarias 12 o mas. En general, siempre hay algun juego mas exigente, o algun juego peor optimizado y necesitas mas, pero no es que para jugar en 1080p necesites 16GB y los soretes de AMD y NVidia te den 4GB.
No hice nada. Lei en su momento que el quilombo era mas que nada con i7 e i9 el quilombo y me quede quieto en el molde. Por ahora 0 drama de CPU, no noto que se haya degradado nada, aunque nunca jugue con OC ni nada. Solo en el BIOS le activo el perfil XMP para que la ram vaya a 3600 Mhz y nada mas.
Yo con una 4070 ti en algunos juegos puntuales no le da la vram teniendo musuculo grafico, es decir tenes que bajar la resolucion, alguna opcion extra que consuma vram(sacando texturas) porque esta limitado por la vram, son pocos pero da bronca que si la gpu puede no puedas ponerlo a x resolucion setting por falta de vram. El frame generation consume pila de por si.
el mismo esta diciendo que con una grafica vieja que hoy seria gama media le llego a consumir 12gb en X juegos, imaginate una 5070 que rinde bastante mas y podes subir mas los settings.
En su momento lei que nvidia estaba con una tecnologia neural texture compression, que hacia que las texturas pesaran como 8 veces menos, pense que con la cantidfad de vram que sacaron estas graficas la iban a implementar, pero lo que implemnetaron no llega a ahorrar ni un 10 % de vram, al menos con el ejoemlo que pusieron ellos mismos. La 5070 va a quedar re limitada de vram, estamos hablando de una tarjeta en papeles re superior a la 4070 ti con la misma cantidad de vram.No entiendo eso que hacen mas con los precios de las graficas, a no ser que en poco tiempo saquen esa tecnologia. Ahora que me acuerdo el de indiana jones es el peor en tema de consumo los 12 gb se los come re facil con path tracing fg, tenes que bajar la opcion de textura pila. El spiderman el primero en 4k al maximo lo mismo tiene tirones cada tanto.
No entendi… 12GB son 12GB. Desde cuando depende de la GPU lo que se consume de VRAM?
Como decir que un i5 consume distinta ram que un i7.
Y si llego a consumir no entiendo, pense que las tarjetas con mas specs eran para usarlos, y me usó los 16gb de ram.
Y las tarjetas no cambian de gama con el tiempo. Son generaciones distintas, que van quedando obsoletas.
Y como dije, solo en FFXVI vi ese consumo, es mas una excepcion que una regla. Y teniendo todo al mango, siempre podes bajar alguna perillita y que ande mejor y ni lo notes.
No veo la epidemia de gente sin VRAM, no la flasheen.
Clarita la cuenta...
La gama esta dada por su rendimiento por lo cual si cambian de gama. Gracioso que uses la palabra obsoleto cuando la falta de memoria es una de las razones de esa obsolescencia.
De nuevo gracioso ver como alguien que promueve espejitos de colores como avances trata de menospreciar capacidades tecnológicas básicas como es la cantidad de ram. Sabes lo que hace que un juego se vea de verdad mejor? Texturas y detalles, no escalados, no fake frames, no RTX que se puede hacer con rasterización normal, que consumen o necesitan las texturas y detalles? o casualidad, memoria.
No menosprecio papi, pero posta, me gustaria ver ejemplos de juegos que esten rompiendo la VRAM de las tarjetas actuales, y alguna generacion para atras. Obviamente, 4 y 6GB es poco hoy en dia, pero ni que la gente este pasandola mal por tener 8,10, 12 o 16gb de VRAM en el 90% de los juegos.
@MINDZID no, tengo amd ryzen.
me pasó un par de veces y a mis amigos tambien, uno de ellos tiene una 3090. que se yo, cuando estoy jugando la 3070 anda en 98% de load siempre
Ta, pero claramente si es con una 3090 es o un falso error, o un bug terrible (en el juego, a nivel de driver o nivel de SO, anda a saber) que hace que entre en un loop de carga de cosas a la memoria de video de forma descontrolada y entre en un overflow de la VRAM.
Dificil que un juego se coma 24GB de VRAM hoy en dia, menos Marvel Rivals. Los juegos que por lo que he visto mas VRAM ocupan son, en general juegos en VR, Portal RTX, Hogwarts Legacy y Cyberpunk 2077, al recontra hiper mango con todo en mega ultra con RTX con todas las perillas al maximo trancadas con una pinza, y creo que ninguno llega a 16GB siquiera. Si esta siempre el 98% de load es un tema aparte.
Y para aportar a la discusion en general, al igual que la memoria RAM del sistema, una cosa es memoria asignada (Memory allocation, no se si asignada es el mejor termino en español) y otra cosa es memoria en uso efectivamente. Puede haber cosas en memoria cargadas, que no necesariamente esten en uso y son descartables, por si ven un numerito alto en el MSI Afterburner y se cagan parados.
No me huelen muy bien estas. A mi me sirve que el RT y los tensor cores sean el nuevo benchmark, pero toda la presentación está basada en que interpolan mas frames.
Genial, si la experiencia es correcta porque mejoraron mucho las latencias, fantástico. Va a ser en 4 juegos que una 5070 va a rendir parecido a una 4090, interpolando 800 mil frames, con más glitches, mayor latencia, y en 4 juegos.
No sé. Que las agarre DF y me tape la boca. Pero la mejora en raster contra la generaciónn anterior tiene pinta de que va a ser chica. Y en RT sin interpolación de frames, chica también.
Que importa que sea un 10%, la tarjeta debe quedarse por falta de potencia no por falta de vram, mas con los precios que tienen, y desconozco pero creo que la memoria no debe ser de los componentes mas caros. Estas limitando una tarjeta de video por vram, y si la 4070 ti esta limitada la 5070 se va a morir en todos los nuevos juegos con path tracing por falta de memoria. Te compras una tajreta de video de 600 dolares potente como una 4090 supuestamente y ya de entrada tenes que estar bajando el setting de textura porque no le da la vram.
Alguien se queda sin VRAM con una tarjeta de gama media-alta/alta?
Yo cite una fuente, y vos me venis con "desconozco pero creo"... no seas papanatas haceme el favor...
Realmente dudo que una 4070ti se quede sin VRAM teniendo 16GB, sacando 1 caso muy puntual, o algun juego de mierda mal optimizado, o que agarres algun juego y lo remangues de mods. Puede pasar, pero no debe ser ni el 1%. Ni el 1% de los juegos existentes deben llegar a consumir mas de 16GB de VRAM.
Que dicho sea de paso, cuales son los sintomas de quedarse sin VRAM? Como diagnosticas? Como sabes que es eso, y no un bug? Una falla puntual que el driver no liberó VRAM? No quiero insultar la inteligencia de nadie, pero hay mucho desconocimiento del tema, y mucha leida y repetida de pavadas de internet. Nomas unos mensajes mas arriba asociarion falta de VRAM con un juego que no pide nada, con nada mas y nada menos que una 3090 con 24GB...
Bueno si papi, pero si vos cobras 600 por una tarjeta que rinde como una 4090, pero no le das algun motivo para ir y comprar la de 750, 1000 y 2000 dolares... la gama media es eso, es rendimiento calidad precio, no excelencia.
Escribo poco pero se ve que sos bastante retardado porque siempre bardias , tenes que tener la razon siempre . hay varios que te estan diciendo que se queda corta de vram , pero vos seguis con tus argumentos o sos necio o medio tara.do. la 4070 ti comun tiene 12gb no 16gb.
Obviamente no existe juego que consuma 24 gb vram, fue la unica vez que acertaste papanatas.
Existe un programa que se llama rivaturner que podes ver el uso entre otras cosas de la vram, la alocada y la realmente en uso, no es muy dificil darse cuenta que se queda corta de vram
No hay que ser muy inteligente para darse cuenta que si una tarjeta de la 4ta generacion con 12gb vram se queda corta, obvimanete una tarjeta como la 5070 mucho mas potente que va a poder usar settings mas demandante pero con los mismos 12 gb vram se va a quedar mas que corta.
Varios? Solo te lei a vos jajaja, anda a jugar al minecraft lleno de mods.
Che y como sabes que te quedaste corto de VRAM? Solo que el uso estaba alto?
Bien tecnico y especifico, “tirones tipicos de falta de vram”
No naci con una 3090.
Y que argumento mas de culo ardido… supongo que en tu entorno no hablas de salud porque no tenes titulo de medico, por ejemplo
Si, si no te enteraste de esto este año vivis adentro de un tupper
Queres fuente? 8 GigaBytes de GDDR6 estan a ~19 usd al dia de hoy, no es nada, como casi simpre el precio de la memoria baja drasticamente, GDDR7 va bajar tambien, son ratones
https://youtu.be/dx4En-2PzOU?si=xVSiVj6X5HDt2J6N&t=426
7:07
Los 12gb de la 5070 son apenas "suficientes" hoy, y tenes que tener cuidado porque te vas a pasar en algunos juegos, peor si usas rt y dlss, una tarjeta de 550 dolares
Sin comentarios...
Limitan vram paraque los AI bros paguen mas, y es una conducta asquerosa para limitar el producto
No digo que no pase en algun caso, pero no es una epidemia como para tratar el tema de estafa o robo, cuando con el 95% de los juegos estas bien. Obviamente, no se, hay gente que prentede que una 3060 o 4060 le tire como una 4080 porque son tarjetas recientes, no paso nunca eso.
Y tambien te digo, siempre paso que alguna spec con gamas que no sean gamas altas esta recortada y tenes que bajar, no se donde esta la novedad. Nunca paso que tires todo en ultra con una gama media, siempre hasta en una gama media/alta como una 970 o 1070 tenias que bajar algun setting en 1440p o 4K porque no da para tirar todo en ultra en el 100% de los juegos.
No se donde esta el problema, capaz que porque es una spec que se ve y esta en la caja.
Te amo loco. Me encanta cuando la gente refuta con datos, y no con percepciones.
La serie RTX 5000 va a tener GDDR7. Ya tiene sus años GDDR6, incluso hasta se esta usando GDDR6X, es entendible que baje el precio, pero no es lo que usan todas las tarjetas.
Justo agarro los juegos mas pesados del momento, que tampoco muestra que en el 100% sea necesario mas de 12GB, que obviamente te van a consumir mas. Y ni que bajando algun setting no soluciones el problema apenas viendo diferencia. Esta mostrando el consumo de juegos en ultra con Ray Tracing, obviamente que por algun lado gamas medias van a hacer agua. Por algo son gama media y no gama alta. Antes no era la VRAM y eran los cuda cores, o los shaders, o los RT Cores en la serie 2000, pero alguna spec por algun lado se va a morir una gama media, sino como mierda te venden una gama alta?
Lo mismo pense cuando dijeron que una 3090 se queda sin VRAM con el marvel rivals.
Y la diferencia entre una 760 y una 780 era el 100% de procesadores de shaders, menos frecuencia, la mitad de transistores, y la mitad de TFLOPS. Que ratas estos de nvidia, limitaban todo eso en una 760 para que los gordos gamers paguen mas.
No tiene sentido el planteo.
No gracias, no me traslades tus gustos
en algunos juegos boludamente exigentes con path tracing y toda la movida se van por encima de los 12gb facil, ejemplo el Indiana Jones nuevo, tambien tenes otros titulos como el Ratchet and Clank que se lagean todo 12gb al palo, el Avatar al palo, hay varios titulos a 1440p a 4k ni hablar.... tenes varios videos al respecto, normalmente se soluciona bajando las texturas pero bueno, nadie quiere bajar las texturas en tu grafica recien comprada de gama media alta de 600 y pico dolares para arriba... obviamente que con 16 estas bien salvo 4k en escenarios concretos, pero con 12 no estas bien siempre y eso es un hecho todos los medios especializados te lo dicen Hardware Unboxed, ahora salio uno "nuevo"que a mi me gusta mirar Daniel Owen, etc, vas a tener que bajar graficos en ciertos titulos, no todos, en algunos, pero en 2025 sera peor, vendran mas titulos exigentes...
En 2023 no estaba mal 12gb pero acaban de sacar en 2025 otra vez productos de gama media con 12gb cuando debieron tener 16, la memoria es barata, bueno, la GDDR7 no sabemos cuanto vale pero si sabemos maso cuanto estan las GDDR6 porque siempre lees algun tipo en Youtube/videocardz/foro x que te dice que estan re baratos los modulos de VRAM y luego investigas y si, salen un par de dolares de mierda... entonces Nvidia es una rata hija de puta que artificialemente te limita el producto, lo de la 5080 con 16gb otra vez es criminal.
en cuanto a lo otro todos los 13 y 14 estan afectados, solo que los i5 estan "menos afectados", tienen menor consumo pero fijate en la BIOS el voltaje como va, si es alto puede degradarse lentamente, quiza se degrade mas lento pero fijate el voltaje, todos estan afectados y estan medio condenados a degradarse, es un tema propio de la arqutectura pero con buen voltaje se deberia poder sobrellevar mucho mas tiempo, por eso Intel saco VARIAS Bios que venian a intentar solucionar el problema del microcodigo....creo que solo los que consuman menos de 65w puede no lo esten o no les afecte, pero de esto ultimo no estoy tan seguro, pero el tema es que casi todos los desktop consumen esa cantidad o más, capaz algun i3 no lo haga? en fin...
La gama media no corre todo al mango porque no le da. Posta que no veo el problema ni la novedad… eso no pasaba antes?
No te vi aportar ningún dato así que no tenes derecho a exigir ningún dato, la estupidez de uno (el o yo) es perfectamente valida para cancelar la estupidez de otro (tu), es mas, le respondes sin ningún dato mas que percepciones, especulaciones y ofuscaciones, 0.00001 dólar mas es mas caro, anda a freír papas Master.
Así que no hay que usar juegos nuevos o pesados para probar entonces? Tampoco abra que usarlos para RT o DLSS, los juegos "viejos" están bien y funcionan sin estas tecnologías innecesarias. Para hacer un juego, cualquiera sea necesitas ram, cuanta mas mejor, para hacer un juego cualquiera no necesitas AI, no necesitas RT, no necesitas DLSS, sin embargo vivís defendiendo esa basura y de nuevo te repito menosprecias la ram que si es indispensable. Como segmentas? con capacidad de computo no de cargar texturas, objetos/modelos y demás, como mencionas acá, así se segmenta...
En fin, no podes ni ver las faltas en tus razonamientos, argumentos, contradicciones y demás así que esta "discusión" tiene 0 sentido.
Le estas pifiando, los Ai bros a los que te referís no existen, Nvidia no desarrolla o limita una VGA pensando en eso, los AI bros son Google, Amazon, Meta..., los Ai bros no compran estas tarjetas de mierda, compran NVIDIA Hopper (HXXX), mañana BlackWell BXXX (no RTX lo que sea). Todas las ventas de gaming (RTX y blah) en le utlimo Q de nvidia fueron 3 billones, las de data center (Hopper) 30 billones.
Cite un sitio, no fue una percepcion
Donde dije todo eso? Que se pruebe lo que sea, por mi. Lo que no tiene sentido es quejarse que una gama media se que da corta en alguna spec jugando un juego ultima generacion, en todo en ultra y 4K. No metiste los 500 dolares de diferencia entre una gama media y una alta, y pretendes que funcionen igual?
Antes eran otras specs que marcaban diferencia fuerte entre una gama media y una gama alta. Hoy en dia es la VRAM, pero la tendencia es la misma. La gama media y media alta no puede correr todo al recontra mango. Nunca pudo. Ni una 560/570, ni una 660/670, ni una 760/770, ni una 960/970, ni una 1060/1070, ni una 2060/2070, ni una 3060/3070, porque una 4060/4070 deberia poder? Por eso es gama media Donde esta el error de razonamiento?
La vram es importante Master... si no fijate LO MAL que envejecieron las 3070, tremendos productos, fijate la 3070 ti como se va detonada por la 6800 debido a la VRAM, eran productos de un tier similar y precio similar, la 6800 hoy no tiene dramas de caidas raras, la 3070 a pesar de que la potencia del chip le da para 1440p, solamente es con compromisos, compromisos que la 6800 si bien tiene lo son en menor medida... o sea, esta totalmente capada por VRAM, se queda corta y tira lagazos... ejemplos hay muchisimos... la 3080 es otro mas reciente, tremendo chip pero a bajar las texturas y demas porque se queda sin memoria con 10gb a 1440p en muchos escenarios, y pega trancazos cuando la 6800 xt su rival tiene 0 problemas... las VRAM importa muchisimo, ayuda a envejecer el producto mucho mejor, te da una experiencia mas "fina" libre de trancazos y bajones por falta de VRAM, cuando eso pasa empieza a haber uso de memoria compartida con la RAM que es muchisima mas lenta y bueno, el resto ya sabemos lo que pasa... EL GUILLOTE hizo un video hace no mucho, que puso la 6700 xt, la 4060 y alguna otra y ahi veiamos como tarjetas de potencia similar tenian rendimientos tan dispares justamente por la falta de memoria...
https://www.youtube.com/watch?v=J7bVrR7FLGs&t=1307s
ahi te lo deje, el tema es qeu ahora no estamos hablando de productos de gama media-baja, estamos hablando de productos que salen a 550dls para arriba que son ya mas de gama media-alta y que vuelven a tener 12gb cuando debieron tener 16 para ir mas tranquilas...
Muy divertida la charla de vram.
Volviendo al tema de las gráficas nuevas, parece que el aumento en raster es bien poco comparado con la gen anterior, de un 20% aprox.
Habrá que ver bien los review a ver que onda, pero por algo nvidia bajo un poco los precios cuando dijeron que la tendencia era a la alta.