mientras que puedan disipar todo ese calorcito no pasa nada, total ni que fuera cara la luz en uruguay como para andar mirando cuanto consume una vga... lol
https://i.imgur.com/0JUEfDpl.png
Versión para imprimir
mientras que puedan disipar todo ese calorcito no pasa nada, total ni que fuera cara la luz en uruguay como para andar mirando cuanto consume una vga... lol
https://i.imgur.com/0JUEfDpl.png
Un poco de contexto a algunas de esas subastas por precios locos en eBay:
https://www.reddit.com/r/pcmasterrac.../the_real_mvp/
https://uploads.tapatalk-cdn.com/202...34dc870a28.jpg
Algunos de los precios que se empiezan a ver en Uruguay
3090 - us$2600
3080 - us$1600
3070 - us$900
A mi me han pasado 3080s@1200 y menos.
Gigabyte confirma GeForce RTX 3080 de 20GB, RTX 3070 de 16GB y RTX 3060 de 8GB
A través del sitio web de canje de códigos de Watch Dogs Legion, Gigabyte dio a conocer modelos de tarjetas gráficas de la serie GeForce RTX 3000, que no han sido anunciadas por el fabricante ni por Nvidia.
La lista de productos incluye el modelo GeForce RTX 3060 (S = SUPER?) de 8GB, la GeForce RTX 3070 de 16GB (S = SUPER?) y Geforce RTX 3080 de 20GB (también etiquetada como S). No está claro si la S significa una serie SUPER o, como tienden a creer los rumores, los modelos Ti.
No se espera que el modelo GeForce RTX 3080 de 20GB presente un recuento de núcleos más alto que el modelo de 10GB recién lanzado, por lo que es incierto si el código del producto no es definitivo o si la tarjeta podría tener la marca 3080 Ti o 3080 SUPER.
Esta filtración confirma configuraciones de memoria que especulamos durante al menos dos meses. El modelo RTX 3060 basado en GA104 contará con 8 GB de memoria, mientras que se espera que el modelo RTX 3070 sobrealimentado con GPU GA104 completa (6144 CUDA) cuente con 16 GB de memoria GDDR6.
https://i1.wp.com/pcmrace.s3.amazona...-3080-20GB.png
Fuente: Pc Master Race.
NVIDIA, cuando vas a bajar de precio la serie RTX 2000? Se que es probable que no pase, entiendo que en el cambio de generación pasada no se dio, pero bueno, uno puede ilusionarse.
https://i.imgur.com/sGfu6hn.png
Siempre buscando la mosca en la sopa vos!
Y ahora resulta que tengo que entender alemán también.
O solo tengo que entender la palabra "100 grados" ?
Jajaja son un hermoso matrimonio disfuncional uds dos XD. No se divorcien nunca.
Con razon el underclock@19Gbps, va a haber que buscar las versiones con buena refrigeracion en las memos.
La solucion que usan las TUF por ej me gusta mucho.
Casi igual de tamaño que la Series S pero se va al choto lo que anda esa cosa (3090):
https://youtu.be/kFz9afj8lu0
Viene fuerte AMD.
Spoiler:
Lo iba a postear también , arranca con un "sponsored by Nvidia" pero igual da para darse una idea de lo que suma el dlss , en el video que postié se ve que el Control le da ktrasca a la 3090 , en el de Linus anda 60fps clavados.
En cualquier caso , 8k no es pavada , está polenteada la cosa esa.
30k U$S el LG 8k ese , los 1,5k U$S de la 3090 un cambio.
Me gusta que se empiece a introducir jugar en tele y con control en PC casi como una consola:P
Igual faltan años para que sea normal jugar con esas configuraciones, de momento se puede lograr un 80% de esa experiencia subjetivamente gastando un 1.6% de dinero con las consolas nextgen. Y eso solo TV + tarjeta. Sin sumarle que hay que cambiar la fuente, poner un gabinete más wide para que entre el GPU, etc etc etc).
Y eso que están corriendo juegos que ni siquiera estan adaptados del todo para 4K, mucho menos para 8K
En el video de linus se ve que está leyendo configuraciones en los juegos que seguramente les dieron los de nvidia y por eso está a 60 clavados. Parece más un demo medio guionado.
En el de Marques se ve que se dió la libertad de intentar maxear algunas cosas y ahí se empieza a arrastrar un poco.
Como dice el negro, hay que ver como maduran las consolas con los juegos realmente nextgen porque estoy seguro que un juego 4K bien exprimido no va a tener mucha diferencia en la práctica con los juegos early 8K.
https://youtu.be/kFz9afj8lu0
mirate este del marques jugando a 20fps entonces :D
La puta, no esperaba tan poca diferencia de rendimiento, es realmente horrible el rendimiento por dólar, el peor de la historia posiblemente, hasta diría que no tiene razón de existir esta tarjeta.
https://tpucdn.com/review/zotac-gefo..._3840-2160.pnghttps://tpucdn.com/review/zotac-gefo...er-maximum.png
https://www.techpowerup.com/forums/threads/rtx-3080-users-report-crashes-to-desktop-while-gaming.272540/
Hay que esperar a ver cual es el problema y como se soluciona, se especula mucho con algo que les pasó a la 5700 de AMD, que los (la mayoría) problemas de estabilidad se solucionaban con una fuente nueva.
El palo que le dio techjesus al 8k de la 3090, durísimo:
https://www.youtube.com/watch?v=Xgs-VbqsuKo
Es la realidad estimado, le pagaron una torta de guita a 2 tipos para que hagan un par de reclames y alegar algo que no es cierto, y la manera que lo hizo fue mas humor que cualquier otra cosa. Te puede parecer duro y esta perfecto, objetivamente no me parece.
P.D.: Ademas es un compañía, no es una persona ni nada, tener ese tipo de sensibilidad hacia una compañía me parece exagerado como mínimo.
Mirá que por mas que pareció durísimo , me cagué de la risa con el video , por las dudas.
Sensibilidad hacia una compañia ni ahí , como mucho a Linus y a Marques que son personas, pero se me pasa casi instantáneamente al pensar en que chivearon con esa 3090 practicamente antes que nadie con una tele de 30k U$S , a mi me encantaría geekear un rato asi , mas allá de que estoy casi seguro que si me sobrara la $ no me compraría algo así. Para completar calculo que también hicieron unos pesos, directamente e indirectamente por el tráfico que les genera esos videos.
Vi que a bastante gente se le solucionaron los problemas con unos drivers nuevos , como tu caso. Otros tantos los solucionaron al cambiar de fuente y otros tantos no tuvieron nunca problemas (press X to doubt si querés).
No es de mala onda por las dudas, pero no sería raro que algún momento rompan algo mas adelante con drivers mas nuevos XD, me ha pasado tanto con AMD como con NVIDIA.
Interesante para los que no entendemos mucho.
https://www.youtube.com/watch?v=x6bUUEEe-X8