Control no fue el primer juego en mostrar las virtudes del rtx?
Control no fue el primer juego en mostrar las virtudes del rtx?
Leo desde las sombras porque ni pincho ni corto y me nutro de las discusiones e intercambios, pero solo quiero aclarar porque parece que muy pocos vieron el video:
El titulo es el clasico clickbait que usan todos los creadores de contenido en todas las plataformas para generar flujo, usen esa inteligencia que demuestran hablando de cosas tecnicas para no quedar como unos boludos diciendo que el dijo que era una estafa.
Spoiler:
ASRock B650M PG Riptide / Ryzen 5 7600X / 2x16 GB G.Skill Trident Z5 Neo RGB DDR5 6000 / Gigabyte RTX 4070 Ti Super / SSD T-Force Cardea Z540 2 TB / HDD HGST 4 TB
Grabadora Blu-ray UHD Pioneer / 2 controles Xbox One X / 8BitDo M30 / Monitor LG 27" 4K 144 Hz HDR IPS GSync / TV LG C3 OLED 65" 4K HDR 120 Hz GSync / Bose Soundbar 700 5.1
Primera oleada es quake 2 rtx cagones. Eso es un juego full rtx.
// Desktop: Core i5 13600KF - 32GB DDR4@3600 Mhz (16 GB DDR4 Thermaltake Thoughram + 16 GB DDR4 TForce VulcanZ) - Asus Prime Z690-P D4 - EVGA RTX 3090 FTW3 Ultra 24GB GDDR6X - SSD M.2 Kingston 2TB x2 - SSD M.2 Kingston 1TB - Thermaltake GF1 850W - Cooler Master Masterliquid 240 - Cooler Master H500 - Asus Strix Soar - Windows 11 x64
// Gear: Razer Blackwidow V3 Mini 65% Hyperspeed - Razer Deathadder V2 Pro - Red Dragon Suzaku XL - Sony Dual Sense + Xbox Series Controller + 8BitDo USB Receiver 2 - Razer Kraken
// Display: Gigabyte M32U 32" 4K@144hz
// Retro: Core i3 6100 3.7Ghz - 8GB DDR4@2133 Mhz - 128 GB SSD - 1TB HDD - AMD Radeon R5 340X 2GB GDDR3 - 8 Bitdo SF30 Pro - Sony Wega Trinitron 36" CRT + VGA to Component transcoder - Batocera Linux
// Work: Macbook Pro 15" 2019 - Core i9 2.3 Ghz - 16 GB DDR4 - 512 GB SSD - Intel UHD Graphcis 630/AMD Radeon Pro 560X 4GB GDDR5
// Server ITX: Antec ISK 300 - Gigabyte GA AB350N Gaming WIFI - AMD Ryzen 3 3200g - 32GB RAM DDR4 - 1TB NVME SSD
// Console peasant: New Nintendo 3DS XL 128GB MicroSD - Xbox 360 Slim 120GB - Nintendo Wii 512GB MicroSD - Nintendo Switch 256GB MicroSD + RCMLoader
// Console no peasant: Steam Deck - 256GB SSD - 1TB MicroSD
Full rtx porque deben de ser texturas de la época del Atari.
Igual que el Minecraft. Claro, cada pixel ocupa la cuarta parte de la pantalla! jjjeje
Justo hoy salió esto.
https://twitter.com/i/status/1677846492638224385
ASRock B650M PG Riptide / Ryzen 5 7600X / 2x16 GB G.Skill Trident Z5 Neo RGB DDR5 6000 / Gigabyte RTX 4070 Ti Super / SSD T-Force Cardea Z540 2 TB / HDD HGST 4 TB
Grabadora Blu-ray UHD Pioneer / 2 controles Xbox One X / 8BitDo M30 / Monitor LG 27" 4K 144 Hz HDR IPS GSync / TV LG C3 OLED 65" 4K HDR 120 Hz GSync / Bose Soundbar 700 5.1
// Desktop: Core i5 13600KF - 32GB DDR4@3600 Mhz (16 GB DDR4 Thermaltake Thoughram + 16 GB DDR4 TForce VulcanZ) - Asus Prime Z690-P D4 - EVGA RTX 3090 FTW3 Ultra 24GB GDDR6X - SSD M.2 Kingston 2TB x2 - SSD M.2 Kingston 1TB - Thermaltake GF1 850W - Cooler Master Masterliquid 240 - Cooler Master H500 - Asus Strix Soar - Windows 11 x64
// Gear: Razer Blackwidow V3 Mini 65% Hyperspeed - Razer Deathadder V2 Pro - Red Dragon Suzaku XL - Sony Dual Sense + Xbox Series Controller + 8BitDo USB Receiver 2 - Razer Kraken
// Display: Gigabyte M32U 32" 4K@144hz
// Retro: Core i3 6100 3.7Ghz - 8GB DDR4@2133 Mhz - 128 GB SSD - 1TB HDD - AMD Radeon R5 340X 2GB GDDR3 - 8 Bitdo SF30 Pro - Sony Wega Trinitron 36" CRT + VGA to Component transcoder - Batocera Linux
// Work: Macbook Pro 15" 2019 - Core i9 2.3 Ghz - 16 GB DDR4 - 512 GB SSD - Intel UHD Graphcis 630/AMD Radeon Pro 560X 4GB GDDR5
// Server ITX: Antec ISK 300 - Gigabyte GA AB350N Gaming WIFI - AMD Ryzen 3 3200g - 32GB RAM DDR4 - 1TB NVME SSD
// Console peasant: New Nintendo 3DS XL 128GB MicroSD - Xbox 360 Slim 120GB - Nintendo Wii 512GB MicroSD - Nintendo Switch 256GB MicroSD + RCMLoader
// Console no peasant: Steam Deck - 256GB SSD - 1TB MicroSD
Vengo aportar mi granito de arena porque me summonearon y vuelvo a la cueva
RTX es un conjunto de algoritmos fisicamente reales que ejecuta la GPU para calcular la informacion de una superficie segun la luz y el viewport.
Shader es el conjunto de algoritmos que ejecuta la GPU para calcular el color de cada pixel en la pantalla.
Hoy en dia como tenemos mucho mas potencia de procesamiento en las GPUs, podemos ejecutar mas codigo (hacer mas cuentas, geometria, procesamiento, etc) por frame. Por ende la gente de NVIDIA dijo, opa, ahora podemos aplicar fisica real al rendering en vez de tomar atajos usando Shaders.
Y basicamente eso es todo, antes por limitaciones de poder de proceso se usaban atajos fisicamente incorrectos, pero que se veian lindos, en el Duke Nukem 3D teniamos espejos que funcionaban, la textura usaba una camara extra y pegaba la salida de esa camara en una geometria y la camara giraba inversa al viewport del jugador. Hoy en dia los reflejos se pueden hacer con los algoritmos fisicos de castear cada linea de vision segun el viewport base.
Conclusion, RTX es una estafa? no, pero a esta altura, los desarrolladores encontraron tantas formas de trucar iluminacion y reflejos sin usar RTX que la diferencia apenas se nota. A nivel de desarrollo es mas comodo RTX, porque quiere decir que ya no tenemos que ponernos a armar shaders para generar estos efectos, simplemente podemos configurar una superficie como reflectiva y dejar que RTX se engargue de todo.
@Juancho , a que te dedicas o por que te taggearon particularmente en este topic?
Esto resume en 3 lineas todo el video de Guille.
(Ni idea si esta bien o mal, comentario al margen para los que no lo vieron)
Hola! Nada... Solo quiero estar presente en el regreso de Juancho. Dejadlo entrar.
Enviado desde mi SM-A525M mediante Tapatalk
Ryzen 5 5600 / ASRock Challenger RX 6600 8GB
Patriot Viper 16gb 3000mhz / ASRock B550M Steel Legend
Xigmatek Hydra M 650w / SKHynix NVMe 256gb
SSD Sandisk Ultra II 480gb / Samsung PM871a 512gb / WD Green 480gb
Deepcool Matrexx55 / CoolerMaster Devastator MB24 + Logitech G502 / Acer ED270R
Clarísimo y con el plus de que con el RTX se lleva un 50 % del consumo.
Agrego, también lo de "estafa" se podría interpretar porque NVIDIA lo vendió como algo impresionante (como todo lo nuevo) y en la práctica para los consumidores hasta ahora no ha sido nada que no se haya visto, obviamente que lo revolucionario es el cómo se hace, cosa que por ahora solo beneficia a los desarrolladores, y lo que en un tiempo se va a poder hacer.
Y esto lleva a qué muchos prefieran que se siga usando la tecnología vieja que da más fps y se ve igual a que se invierta en esto que en principio solo afea los juegos de la gente que no tiene soporte a dicha tecnología...no sé si se entendió xD
Enviado desde mi M2103K19G mediante Tapatalk
Me permito una corrección.
Duke Nukem no usaba el método de la cámara virtual rendereando a una textura.
El Build Engine simulaba los espejos duplicando la geometría de todo lo que el espejo viera. Básicamente eran una ventana a un duplicado del nivel del otro lado.
Incluso al diseñar los niveles había que prever dejar atrás del espejo un espacio reservado suficiente para cuando el motor creara la habitación duplicada, y si desactivás el clipping podés atravesar el espejo y entrar al nivel "trucho" del otro lado.
ASRock B650M PG Riptide / Ryzen 5 7600X / 2x16 GB G.Skill Trident Z5 Neo RGB DDR5 6000 / Gigabyte RTX 4070 Ti Super / SSD T-Force Cardea Z540 2 TB / HDD HGST 4 TB
Grabadora Blu-ray UHD Pioneer / 2 controles Xbox One X / 8BitDo M30 / Monitor LG 27" 4K 144 Hz HDR IPS GSync / TV LG C3 OLED 65" 4K HDR 120 Hz GSync / Bose Soundbar 700 5.1
No le hagas cherry picking asi peleador. Fue para que se entienda la idea jajaja.
@DT-Agus, Juancho es desarrollador de videojuegos profesional hace pila. No es un gordo bobo frustrado hablando como cuando hablo yo de desarrollo de videojuegos.
// Desktop: Core i5 13600KF - 32GB DDR4@3600 Mhz (16 GB DDR4 Thermaltake Thoughram + 16 GB DDR4 TForce VulcanZ) - Asus Prime Z690-P D4 - EVGA RTX 3090 FTW3 Ultra 24GB GDDR6X - SSD M.2 Kingston 2TB x2 - SSD M.2 Kingston 1TB - Thermaltake GF1 850W - Cooler Master Masterliquid 240 - Cooler Master H500 - Asus Strix Soar - Windows 11 x64
// Gear: Razer Blackwidow V3 Mini 65% Hyperspeed - Razer Deathadder V2 Pro - Red Dragon Suzaku XL - Sony Dual Sense + Xbox Series Controller + 8BitDo USB Receiver 2 - Razer Kraken
// Display: Gigabyte M32U 32" 4K@144hz
// Retro: Core i3 6100 3.7Ghz - 8GB DDR4@2133 Mhz - 128 GB SSD - 1TB HDD - AMD Radeon R5 340X 2GB GDDR3 - 8 Bitdo SF30 Pro - Sony Wega Trinitron 36" CRT + VGA to Component transcoder - Batocera Linux
// Work: Macbook Pro 15" 2019 - Core i9 2.3 Ghz - 16 GB DDR4 - 512 GB SSD - Intel UHD Graphcis 630/AMD Radeon Pro 560X 4GB GDDR5
// Server ITX: Antec ISK 300 - Gigabyte GA AB350N Gaming WIFI - AMD Ryzen 3 3200g - 32GB RAM DDR4 - 1TB NVME SSD
// Console peasant: New Nintendo 3DS XL 128GB MicroSD - Xbox 360 Slim 120GB - Nintendo Wii 512GB MicroSD - Nintendo Switch 256GB MicroSD + RCMLoader
// Console no peasant: Steam Deck - 256GB SSD - 1TB MicroSD
Última edición por uKER; 11-07-2023 a las 03:52 PM
ASRock B650M PG Riptide / Ryzen 5 7600X / 2x16 GB G.Skill Trident Z5 Neo RGB DDR5 6000 / Gigabyte RTX 4070 Ti Super / SSD T-Force Cardea Z540 2 TB / HDD HGST 4 TB
Grabadora Blu-ray UHD Pioneer / 2 controles Xbox One X / 8BitDo M30 / Monitor LG 27" 4K 144 Hz HDR IPS GSync / TV LG C3 OLED 65" 4K HDR 120 Hz GSync / Bose Soundbar 700 5.1
Se aprecia que venga uno que entiendo que labura en gráficos, a decir un par de cosas.
Pero el fin del ray tracing no es utilizarlo para facilitar la tarea, aunque eso sea un valor añadido para el desarrollador.
Si decimos eso en una comunidad de Siggraph, no sacamos a uno que esté de acuerdo. El fin es la calidad del render.
No es que lo diga REN, que renderizaba una calderita con el 3dsMax.
Y aparte cuando Juancho dice que hoy los tipos hacen casi lo mismo con shaders, sería importante incluir la consideración de que RTX está siendo usado para sacar un par de efectos, mientras las capacidades de hardware permiten ir más lejos con RTX.
Sino alguien va a interpretar que el RT ya fue explotado en juegos y no sirve para mucho más de lo que se logra con shaders, y Nvidia nos mintió.
---
Si miramos juegos del 2016 (7 años), y decimos que salieron en el 2023 es creíble. The Division, Quantum Break, Uncharted 4...
O sea, ya no van a ningún lado esos gráficos.
A menos que uno piense que son prácticamente lo mismo que hay en 2023 porque los gráficos en videojuegos tocaron techo, lo que está a la vista es que tocaron techo con shaders, y no pueden moverse hacia luz y reflejos realistas.
Yo también decía que los desarrolladores venían haciendo malabarismos. Pero se termina eso.
3 generaciones metió Nvidia, cada una multiplicando la capacidad de RTX. Pero no solo eso, en cada una de ellas los RT cores ocupan más lugar en los dies. Y aún así están en pañales.
Cuando no se entiende que están en pañales, es cuando salen las quejas de "mentiras" y "estafas".
Claro, Jen-Hsun Huang no te va a contar que esto recien empieza, y que en realidad una RTX4090 es una gpu temprana y precaria para acompañar los primeros pasos del RT, y ver alguna cosa cool.
Última edición por REN; 11-07-2023 a las 05:51 PM
Es ambas. Mucho mas realismo, mas implementable. Estas dejando una pata importante de lado ahi, el secreto de una buena plataforma existosa es el SDK que use. Ya no es como antes que los engines y SDK de consolas eran un veneno y bancatela porque es lo unico que habia para desarrollar y publicar. Que un desarrollador pueda sacar algo de calidad sin esfuerzo desmedido es el 50% minimo del exito de videojuego. Te pongo otro ejemplo opuesto, Vulkan es mejor que todo (o asi lo venden) comparado con DirectX, pero es un veneno de culebra codificarlo. Del 2016 para aca solo 190 juegos usan Vulkan. Triple A ni un 25% de ese numero.
No voy a profundizar en plataformas que historicamente eran bestias como Saturn, que con su SDK en Assembly, o el PS3 y sus 8 chips auxiliares que nadie usaba, y nadie aprovecho tanto ambas plataformas como se pudo aprovechar, solo sus first parties.
Si, hay motores, assets, kits y de todo. Pero tambien que te puedan sacar un juego con graficos de alta fidelidad mucho mas rapido con 3 clicks es un monton grande. Tanto para el estudio indie como para el triple A.
// Desktop: Core i5 13600KF - 32GB DDR4@3600 Mhz (16 GB DDR4 Thermaltake Thoughram + 16 GB DDR4 TForce VulcanZ) - Asus Prime Z690-P D4 - EVGA RTX 3090 FTW3 Ultra 24GB GDDR6X - SSD M.2 Kingston 2TB x2 - SSD M.2 Kingston 1TB - Thermaltake GF1 850W - Cooler Master Masterliquid 240 - Cooler Master H500 - Asus Strix Soar - Windows 11 x64
// Gear: Razer Blackwidow V3 Mini 65% Hyperspeed - Razer Deathadder V2 Pro - Red Dragon Suzaku XL - Sony Dual Sense + Xbox Series Controller + 8BitDo USB Receiver 2 - Razer Kraken
// Display: Gigabyte M32U 32" 4K@144hz
// Retro: Core i3 6100 3.7Ghz - 8GB DDR4@2133 Mhz - 128 GB SSD - 1TB HDD - AMD Radeon R5 340X 2GB GDDR3 - 8 Bitdo SF30 Pro - Sony Wega Trinitron 36" CRT + VGA to Component transcoder - Batocera Linux
// Work: Macbook Pro 15" 2019 - Core i9 2.3 Ghz - 16 GB DDR4 - 512 GB SSD - Intel UHD Graphcis 630/AMD Radeon Pro 560X 4GB GDDR5
// Server ITX: Antec ISK 300 - Gigabyte GA AB350N Gaming WIFI - AMD Ryzen 3 3200g - 32GB RAM DDR4 - 1TB NVME SSD
// Console peasant: New Nintendo 3DS XL 128GB MicroSD - Xbox 360 Slim 120GB - Nintendo Wii 512GB MicroSD - Nintendo Switch 256GB MicroSD + RCMLoader
// Console no peasant: Steam Deck - 256GB SSD - 1TB MicroSD
ASRock B650M PG Riptide / Ryzen 5 7600X / 2x16 GB G.Skill Trident Z5 Neo RGB DDR5 6000 / Gigabyte RTX 4070 Ti Super / SSD T-Force Cardea Z540 2 TB / HDD HGST 4 TB
Grabadora Blu-ray UHD Pioneer / 2 controles Xbox One X / 8BitDo M30 / Monitor LG 27" 4K 144 Hz HDR IPS GSync / TV LG C3 OLED 65" 4K HDR 120 Hz GSync / Bose Soundbar 700 5.1
Actualmente hay 1 usuarios viendo este tema. (0 miembros y 1 visitantes)