PDA

Ver la versión completa : DirectX 12 PERMITIRÍA CrossSliFire



Legolas
25-02-2015, 02:52 PM
De que hablo? Una noticia habla de una muy lejana posibilidad de que quizás se pueda hacer un Crossfire/Sli entre una AMD y una Nvidia.
Personalmente creo que no estaría mal, pero no se que tan bueno, comercialmente hablando, sería...
A alguno no le va a gustar.
Quoteo la noticia.



Antes de leer, respirar profundo y considerarlo como una posibilidad algo incierta.

Según el respetado sitio Tom's Hardware, en una "API no mencionada" que bien podría ser DirectX 12, llegaría la posibilidad de usar dos tarjetas de video en tándem pero que no necesariamente sean de la misma marca. Algo así como un híbrido entre SLI y CrossFire, que a su vez le quitaría un poco el sentido a dichos nombres.

El nuevo DirectX 12 tendría la capacidad de combinar "diferentes recursos gráficos de un sistema y ponerlos todos en una sola olla". Luego, sería tarea de los desarrolladores gestionar las cargas de trabajo y asignar los componentes que se encarguen de las diferentes tareas.

Sin entrar en demasiados detalles técnicos, lo que haría posible esto es una característica llamada Split Frame Rendering (SFR), que rompe el esquema actual de las tarjetas funcionando en tándem ya que no necesitaría que ambas GPUs carguen información duplicada en su memoria antes de mostrarla por pantalla, como se hace actualmente al usar tarjetas de video en SLI o CrossFire.

"Con SFR los desarrolladores podrán dividir manual o automáticamente los datos de texturas y geometría entre las GPUs y todas podrán trabajar juntas en el mismo cuadro. Cada GPU podría trabajar en específicas partes de la pantalla, dependiendo de cuantas GPUs estén instaladas".

El artículo original tiene más detalles, para los interesados en echarle un vistazo. Si esto se materializa, podría ser un cambio importante en el mundo de las tarjetas gráficas, aunque por algún motivo pienso en que a la gente de NVIDIA podría no gustarle demasiado.

Fuente: niubie.com

eelnico09
25-02-2015, 02:59 PM
Lo vi hoy mas temprano, habrá que ver que onda la compatibilidad y como funciona, pienso que lo mas usado que si bien creo que hoy en dia se hace, que usen nvidia para PhysX y el resto AMD. O capaz metiendo ambas se podrá aprovechar Mantle de AMD aunque se tenga nvidia?

Es interesante.

Rico titulo btw :P

Rhapsody
25-02-2015, 03:02 PM
Rico titulo btw :P

Lesto. :P

BloodElf
25-02-2015, 03:08 PM
Linus una vez no habia hecho andar esto? Metio un SLI y un CFX en un mismo rig.

De todos modos, estaria bueno, yo que se, que este la posibilidad no significa que todo el mundo lo vaya a hacer, pero de ultima no te da para una segunda high-end, compras una mas barata de la otra marca y aumentas un poco el rendimiento, podria rendir.

Y si, hay gente que tiene una AMD para principal y una nVIDIA solo para PhysX.

Legolas
25-02-2015, 03:28 PM
Pensaba lo mismo.
Metés algo lindo y, en vez de tirar la vieja o sacarle dos mangos en una venta, la metés a darle una mano a la high.

Turco
25-02-2015, 04:05 PM
osea lo que dice la noticia es que van a laburar los dos gpu juntos, no que pueden "convivir" en la misma maquina que eso ya es una realidad

Legolas
25-02-2015, 04:16 PM
Eso

eelnico09
25-02-2015, 04:41 PM
Ta pero hay que ver hasta que punto rinde, ponele tengo una 970 ahora, y una 7750 de 1gb ahi juntando polvo, dudo que poniendo la 7750 me aumente la performance en juegos.

DT-Agus
25-02-2015, 05:25 PM
Ta pero hay que ver hasta que punto rinde, ponele tengo una 970 ahora, y una 7750 de 1gb ahi juntando polvo, dudo que poniendo la 7750 me aumente la performance en juegos.

Why not?

Sin saber un carajo y remitiendose simplemente a lo que es una vga podria ser, es decir, una vga es u "video graphic processor" es decir siempre deberia "sumar" en la teoria utopica que manejamos.

Es decir si tiene 1gb de vram, se sumaria a los 3,75 de la 970 y si tiene no se ponele un coreclock de 600 tambien aportaria.

Aunque la vga principal calculara todo y la otra solo las sombras o cosas chicas para restarle carga a la principal.


Claramente no se nada, y se que actualmente no existe eso, pero desde el punto de vista de hardware deberia ser lo correcto, que cuanto mas sumas, no restes (?

ShonaZan
25-02-2015, 05:47 PM
me parece medio bolaso y medio dificil de que pase pero bue... sere yo que ya no creo en papa noel

Master of the Wind
25-02-2015, 07:05 PM
En todo caso, andara al ritmo de la mas lenta, a menos que se manden una magia asincrona que no valdria la pena el esfuerzo.

jotaemee
25-02-2015, 07:30 PM
me parece medio bolaso y medio dificil de que pase pero bue... sere yo que ya no creo en papa noel

jajaa.. this is the veribest posta in de guorld

xD

BloodElf
25-02-2015, 08:13 PM
Why not?

Sin saber un carajo y remitiendose simplemente a lo que es una vga podria ser, es decir, una vga es u "video graphic processor" es decir siempre deberia "sumar" en la teoria utopica que manejamos.

Es decir si tiene 1gb de vram, se sumaria a los 3,75 de la 970 y si tiene no se ponele un coreclock de 600 tambien aportaria.

Aunque la vga principal calculara todo y la otra solo las sombras o cosas chicas para restarle carga a la principal.


Claramente no se nada, y se que actualmente no existe eso, pero desde el punto de vista de hardware deberia ser lo correcto, que cuanto mas sumas, no restes (?

:arrow:

Me pareceria mucho mas logico este razonamiento que el resto...
Si se puede manejar manual o automaticamente lo que le vas a mandar a procesar a cada tarjeta, podrias perfectamente hacer como dice DT.

Y por eso la gracia de que no estan linkeadas directamente, no depende una de la otra, o sea, no necesitan tener los mismo relojes y esas cosas

jotaemee
25-02-2015, 08:15 PM
:arrow:

Me pareceria mucho mas logico este razonamiento que el resto...
Si se puede manejar manual o automaticamente lo que le vas a mandar a procesar a cada tarjeta, podrias perfectamente hacer como dice DT.


perfecto! es solo que hay una bosta en el diome que no lo va a permitir asi como asi

se llama windows

BloodElf
25-02-2015, 08:17 PM
perfecto! es solo que hay una bosta en el diome que no lo va a permitir asi como asi

se llama windows

O sea, ellos mismos se van a cagar la vida decis? Na, no creo.

jotaemee
25-02-2015, 08:24 PM
O sea, ellos mismos se van a cagar la vida decis? Na, no creo.

no es que se hagan trampa al solitario, es un cuasi monopolio en el que se disputa un bando bastante importante entre nvidia y amd.. no creo que concuerden en algo que luego se aplique a directx

no se, no me parece que ocurra en el corto plazo

BloodElf
25-02-2015, 08:27 PM
Igual la posta de usar el API va a estar en los devs, o sea, si no quieren hacer que funcione determinado juego con ambas tarjetas, no lo programan y listo.
Es mas, a las desarrolladoras les sirve, porque pueden meter, que solo va a servir con AMD o solo con nVIDIA y le cobran a alguna por la exclusividad. O sea, no solo con una, sino que no va a servir con ambas al mismo tiempo quiero decir.

Arcangel
25-02-2015, 09:49 PM
http://www.youtube.com/watch?v=YqkI7bOfRkA

REN
25-02-2015, 10:37 PM
Interesante, pero hay otras cosas sobre DX12 que están como para ir babeandose.
Hace unos días estaban metiendo unas pruebas rindiendo escandalosamente por encima de DX11.
Ya hay 100 desarrolladores haciendo juegos dx12.
El meollo del asunto es que a partir de ahora cada core de cpu va a tener su thread hacia la GPU (a diferencia de DX11, con 1 thread por CPU).
Hay que esperar el GDC, que es en unos días. Porque además también se habla de unificación de la vram en sli/crossfire.
Una suma de cosas, que si se confirman se viene una etapa muy buena.
Hay números que realmente parecen joda, sin embargo tienen sentido. Mejor esperar un poco más.

ShonaZan
26-02-2015, 02:21 PM
pa si llegan a unir las vram en el sli es terrible golaso

NotAGamer
26-02-2015, 07:20 PM
pa si llegan a unir las vram en el sli es terrible golaso

Estaría bueno, más para los users de las 970. Tendrían 7Gb disponibles :rolleyes:

DT-Agus
26-02-2015, 09:35 PM
Es decir si tiene 1gb de vram, se sumaria a los 3,75 de la 970 y si tiene no se ponele un coreclock de 600 tambien aportaria.






me parece medio bolaso y medio dificil de que pase pero bue... sere yo que ya no creo en papa noel



pa si llegan a unir las vram en el sli es terrible golaso


Que paso capo? viste a papa noel que ahora crees?


Shebanding.

Arcangel
26-02-2015, 09:48 PM
que paso capo? Viste a papa noel que ahora crees?


Shebanding.




:lol:

ShonaZan
26-02-2015, 09:49 PM
Que paso capo? viste a papa noel que ahora crees?


Shebanding.

queres aportar algo o solo tenes ganas de armar bardo ?

Master of the Wind
26-02-2015, 09:57 PM
Agus, venia bien el topic, no da para demostrar ciberviveza al pedo.

REN
27-02-2015, 01:52 AM
pa si llegan a unir las vram en el sli es terrible golaso

En varios sitios teoricamente respetables lo andaban posteando.
http://www.guru3d.com/news-story/both-mantle-and-dx12-can-combine-video-memory.html

También dice que sería válido para juegos nuevos. Desde que los desarrolladores utilizen el feature. (que me importa, si lo que queremos es un salto de calidad en los juegos que vendrán, no?).

Pero incluso en eso lo estaríamos viendo con ojos para el hardware que tenemos hoy, porque supuestamente la stacked memory viene a meter un grán cambio (tanto en cantidad como en ancho de banda).
Y tal vez no nos preocupe tanto el manejo de la memoria.

Y bueno, le pongo todo el optimismo, pero habrá que ver que es lo que dicen dentro de pocos días.

Estaba el loco aquel (no recuerdo el nombre), que trabajó con nvidia mucho tiempo, y siempre pronostica como viene la nextgen, y le acierta.
Y esto del multi threading cpu>gpu, y la memoria 3d son cosas que las había hablado hace como 2 años. Y a medida que se van conociendo algunas cosas, parece que le acierta otra vez.
El tipo hablaba de que en muy poco tiempo el rendimiento de la GPU se disparaba.

Que se yo...para soñar un poco. :P

NotAGamer
27-02-2015, 06:41 AM
En teoría es posible, dividis la pantalla al medio y cada GPU pinta una parte. O sino cargas la mitad de la geometria en una y la mitad en la otra y cada una dibuja su parte sobre un mismo buffer. Yo que se mirandolo desde el punto de vista del desarrollador esta medio bravo para que escale bastante, pero a diferencia del multigpu actual siempre debería escalar (aunque sea mucho menos).

KbZa
27-02-2015, 09:52 AM
VRAM disponible en multi GPU = VRAM de la GPU mas "chica".
Ej: SLI GTX680 2GB + GTX680 4GB = 2GB de VRAM disponible.

Al menos así es hoy.

Poco probable la sumatoria de la/s VRAM, mas cuando los motores gráficos van camino a unificarse a nivel desarrollo ahora que las arquitecturas PC/Consolas son mucho mas similares (X86-64).

De todos modos, estaría bueno si se sumaran las potencias de computo, es una lastima ver sistemas tan potentes a la vez tan subutilizados.

dDaunloz
27-02-2015, 10:09 AM
el tema de la memoria siempre va a ser asi, xq no rinde que un gpu vaya a buscar data a la otra vga para procesarla

DT-Agus
27-02-2015, 10:37 AM
Agus, venia bien el topic, no da para demostrar ciberviveza al pedo.


Perdona Master, tenes razon, pero bueno, no me pude contener, queda por esa :P

MadsMax
27-02-2015, 10:37 AM
Que paso capo? viste a papa noel que ahora crees?


Shebanding.

Esto es un foro, no una cancha de fútbol ¿?

DT-Agus
27-02-2015, 10:41 AM
Esto es un foro, no una cancha de fútbol ¿?



Señores voy a la canchaaa a ver al magoo porque es mi vidaaa aunque no lo quiera el blatterr aunque no lo quiera el farselonaa ♫

Y de la manoo de Zinadine todoss la vueltas vamos a dar, vamos a darrr ♫

leo21780
27-02-2015, 01:00 PM
Igual la posta de usar el API va a estar en los devs, o sea, si no quieren hacer que funcione determinado juego con ambas tarjetas, no lo programan y listo.
Es mas, a las desarrolladoras les sirve, porque pueden meter, que solo va a servir con AMD o solo con nVIDIA y le cobran a alguna por la exclusividad. O sea, no solo con una, sino que no va a servir con ambas al mismo tiempo quiero decir.

si se diera el caso que presentas la perjudicada mayormente seria nVIDIA porque no olvides que la mayoria de los juegos son multiplataforma y las nuevas consolas son plataforma AMD.

hace unos dias lei que DX12 implementa Mantle (o al menos una variante de esa API) ; lo que me parece bastante logico si tomamos por verdaderos los numeros que han estado dando vueltas sobre el rendimiento de DX12.

REN
27-02-2015, 11:43 PM
el tema de la memoria siempre va a ser asi, xq no rinde que un gpu vaya a buscar data a la otra vga para procesarla

mmm, no estoy seguro de que sea tan prosaico el tema (en el buen sentido).
Si el ancho de banda del bus no es cuello de botella, es lo mismo que hacen los diferentes nucleos individualmente.
Habrá que ver, pero como decía, esto es mucho menos importante que el multi threading de CPU a GPU. De ahí vendría el verdadero incremento en rendimiento.
Después con la stacked ram sería un bollo (para ellos) hacer GPUs con mucha vram. La necesidad de unificar vrams es cosa de "muerto de hambre". En un futuro no se debería necesitar.

d3m0l3d0r
21-03-2015, 03:09 AM
reanimando este tema lei x todos lados sobre esto pero hay algo q me dejo una duda muy dudosa y es el tema cuando salgan las de gama alta de amd la 385x en adelante xq todas son con memo HBM (si no mezcle las siglas) me cuesta creer poder hacer un hybrid gpu entre una 980 y una 390x x ejemplo... teniendo en cuenta el tipo de memoria q tendran......

Ryuug4
21-03-2015, 12:00 PM
hace unos dias lei que DX12 implementa Mantle (o al menos una variante de esa API) ; lo que me parece bastante logico si tomamos por verdaderos los numeros que han estado dando vueltas sobre el rendimiento de DX12.

No creo que implemente Mantle (aunque debería ponerme a leer), lo que yo creo haber leído medio por arriba es que DX12 justamente funcionaba en algunos aspectos como Mantle, es tipo, si bien DX domina el mercado, se está atajando y soporta feautures como trabajar a mas bajo nivel (directo con el hardware), y por lo que se pronostica va a tener un buen boost de performance, lo que ya no hace a Mantle tan interesante.


En teoría es posible, dividis la pantalla al medio y cada GPU pinta una parte. O sino cargas la mitad de la geometria en una y la mitad en la otra y cada una dibuja su parte sobre un mismo buffer. Yo que se mirandolo desde el punto de vista del desarrollador esta medio bravo para que escale bastante, pero a diferencia del multigpu actual siempre debería escalar (aunque sea mucho menos).

Ese método es inefectivo porque en muchos juegos por ejemplo si partís la pantalla horizontalmente los first person shooters y racing games entre otros tienen mas detalles en la mitad de abajo que en la de arriba, por lo tanto una VGA tendría mas carga que otra y desaprovechas potencia (igual es mejor que usar una sola), y básicamente así es como funcionaba el SLI de 3dfx, en cambio cuando Nvidia introdució el SLI con la GF6800 corrigió eso para que el trabajo de procesamiento quedara mas parejo, básicamente la pantalla estaba cortada horizontalmente en "pedazos" mas chicos de píxeles.. estem, soy medio pete para explicarlo, te voy a hacer una imagen.


https://i.imgur.com/YZQbTNm.jpg

Una tarjeta dibuja las líneas que se ven, y la otra procesa las que estarían en las líneas negras (no voy a hacer la imagen inversa :P)

DESCHAIN
21-03-2015, 01:33 PM
Alienware había patentado un sistema que justamente balanceaba la carga de los 2 GPUs en el sistema y que no dependía de drivers de las VGAs sino de el propio software de alw (y un hub). Para mi esta sería la solución más elegante para multi GPU desde el punto de vista usuario, desde que el software fuera un estándar libre. Se podría usar VGAs diferentes en cualquier proporción ya que el software de balanceo distribuiría la carga de forma que así sea agregáramos una r5 a una r9 estaríamos mejorando la performance. Utópico...

casta
23-03-2015, 03:16 AM
es al pedo, siempre te va andar a la velocidad de la mas lenta, aparte como calculas los physx? no podes, es priopetaria de nvidia, a la larga es pija si podes 2 te va a andar a la velocidad de las mas lenta.

NotAGamer
24-03-2015, 09:37 PM
No creo que implemente Mantle (aunque debería ponerme a leer), lo que yo creo haber leído medio por arriba es que DX12 justamente funcionaba en algunos aspectos como Mantle, es tipo, si bien DX domina el mercado, se está atajando y soporta feautures como trabajar a mas bajo nivel (directo con el hardware), y por lo que se pronostica va a tener un buen boost de performance, lo que ya no hace a Mantle tan interesante.



Ese método es inefectivo porque en muchos juegos por ejemplo si partís la pantalla horizontalmente los first person shooters y racing games entre otros tienen mas detalles en la mitad de abajo que en la de arriba, por lo tanto una VGA tendría mas carga que otra y desaprovechas potencia (igual es mejor que usar una sola), y básicamente así es como funcionaba el SLI de 3dfx, en cambio cuando Nvidia introdució el SLI con la GF6800 corrigió eso para que el trabajo de procesamiento quedara mas parejo, básicamente la pantalla estaba cortada horizontalmente en "pedazos" mas chicos de píxeles.. estem, soy medio pete para explicarlo, te voy a hacer una imagen.


https://i.imgur.com/YZQbTNm.jpg

Una tarjeta dibuja las líneas que se ven, y la otra procesa las que estarían en las líneas negras (no voy a hacer la imagen inversa :P)

Mantle y DX12 son casi lo mismo, AMD demostró que el paradigma actual que usan DX11 y OpenGL era una mierda, porque se gasta mucho tiempo de CPU en cosas tontas, como chequeos adicionales cada vez que se hace una llamada al driver que son innecesarios. DX12 hace lo mismo. Mantle está renombrado como Vulkan ahora (OpenGL de ahora en mas se llama Vulkan), así que ya no veremos más a Mantle como tal.

Soy conciente de que ese método es inefectivo en cuanto a performance, pero a diferencia de los metodos actuales como AFR, a pesar de tirar menos FPS (el modo se llama SFR y está implementado en un solo juego que yo sepa, el Civilization Beyond Earth) las GPUs se comportan exactamente como una única GPU, osea no existe el más mínimo stutter, ni lag.

Lo que vos mostras en esa imagen ya se hacia desde el tiempo de 3Dfx con su SLI (scan line interleaving), simplemente cada GPU pintaba una unica linea de pixeles de la pantalla de por medio. Con el GF6800 y luego ATI con su primer CF mejoraron esto haciendo posible diferentes configuraciones, como la que pones vos, pero se que habia otra en que la pantalla se dividia en cuadrados, como un tablero de ajedrez, por ejemplo una tarjeta pintaba las blancas y las otras la negras.
Despues vino AFR que es la poronga que tenemos actualmente, el FPS se duplica porque las tarjetas funcionan trabajando sobre frames separados. Cuando una trabaja en el frame 0, la otra en el 1, luego la primera en el 2, y asi sucesivamente. Es una poronga porque entre otras cosas agrega LAG y es peor aún cuando se hace SLI o CF con más de una tarjeta, ademas el motor del juego me imagino que es un caos, para poder estar laburando en varios de los frames que el usuario va a ver.

Ryuug4
24-03-2015, 10:29 PM
Tenes razon, el la imagen de ejemplo que puse es como lo hacía 3dfx, y por lo que estoy viendo el SLI de nvidia era el que dividía la parte superior de la pantalla para la tarjeta principal y la de abajo para la otra, podría jurar era al reves porque ese método es más inefectivo, pero en fin.

NotAGamer
25-03-2015, 12:39 PM
Tenes razon, el la imagen de ejemplo que puse es como lo hacía 3dfx, y por lo que estoy viendo el SLI de nvidia era el que dividía la parte superior de la pantalla para la tarjeta principal y la de abajo para la otra, podría jurar era al reves porque ese método es más inefectivo, pero en fin.

No creo que esos SLI viejos dividieran la pantalla exactamente al medio, por un tema de lo que vos dijiste, algunos juegos tienen más detalles en cierta parte de la pantalla y quedaria desbalanceado. El AFR (lo actual) es como te decía arriba.
El SFR de Mantle y DX12, sinceramente no se como funciona, pero es un hecho de que ambos GPUs trabajan sobre el mismo frame, y de alguna manera divide la carga de la memoria entre las tarjetas (no se si lo hace dividiendo el frame mismo, o cargando modelos en una tarjeta y otros en la otra, o que magia hará, habrá que esperar a que nos expliquen un poco más).

NotAGamer
26-03-2015, 09:00 PM
No creo que implemente Mantle (aunque debería ponerme a leer), lo que yo creo haber leído medio por arriba es que DX12 justamente funcionaba en algunos aspectos como Mantle, es tipo, si bien DX domina el mercado, se está atajando y soporta feautures como trabajar a mas bajo nivel (directo con el hardware), y por lo que se pronostica va a tener un buen boost de performance, lo que ya no hace a Mantle tan interesante.

Te encontré lo que pasó con Mantle. No solo se convirtió en vulkan, sino que parece que también en DX12. Los mamaderas de microsoft son tan pelotudos que se copiaron el manual de Mantle como venía LOL:
https://pbs.twimg.com/media/CBBu9COWwAAPzZB.jpg:large

REN
26-03-2015, 09:51 PM
LOL. Igual, imho, lo único que importa es que abre un thread por nucleo de CPU --> GPU.
El beneficio es real y muy grande, en la medida en que le saquen provecho.

Copiarle cosas a amd, no solo microsoft.
Nvidia hace 2 años que viene curtiendo conferencias con Pascal y su revolucionaria 3d RAM.
Al final su 3d ram resulta que es HBM by AMD.

Magnus de Tiberis
18-04-2015, 05:52 PM
Si todo es cierto sería un golazo.