Gráfica nVidia RTX 4000 séries "Ada" (Modelos SUPER lançados)

Eu vou ficar-me por ampere durante muito tempo, a performance já é bem mais que o suficiente par o uso que dou.
Esses consumos são de assustar, o meu PC em full load toca nos 450W/500W, e isso é em stress tests.

Quem vai ficar a ganhar no meio disto tudo sao os fabricantes de psu's, sao precisos conectores novos e muitos mais watts de capacidade, a maioria das PSU's atuais para sistemas high end ficam obsoletas.
 
Vamos esperar para ver.

Custa muito a acreditar que a 4090 vai ter o dobro da performance e o dobro do consumo em relação à 3090.

Isso significaria que os 5nm da TSMC não teriam quase vantagem nenhuma em performance/watt sobre os 8nm da Samsung, o que obviamente não pode ser verdade.
 
A nVidia acabou de anunciar a H100 com 700W de TDP @ 1,78 Ghz TSMC 4nm. A anterior, a A100, tinha um TDP de 400W @ 1,41 Ghz TSMC 7 nm, com +/- a mesma área.
Esta H100 tem uma área gigante e a Lovelace "102" deve ter uma área mais pequena, mas esta H100 está a TSMC 4 nm e é provável que a Lovelace tenha Clocks mais elevados.
Na versão maior da Lovelace, numa "4090", não me parece que 600W de TDP seja uma surpresa. Talvez até acima disso em versões "OC".
 
A nVidia acabou de anunciar a H100 com 700W de TDP @ 1,78 Ghz TSMC 4nm. A anterior, a A100, tinha um TDP de 400W @ 1,41 Ghz TSMC 7 nm, com +/- a mesma área.
Esta H100 tem uma área gigante e a Lovelace "102" deve ter uma área mais pequena, mas esta H100 está a TSMC 4 nm e é provável que a Lovelace tenha Clocks mais elevados.
Na versão maior da Lovelace, numa "4090", não me parece que 600W de TDP seja uma surpresa. Talvez até acima disso em versões "OC".
Então mantenho as minhas expectativas face a performance! Se não rondar perto do dobro da performance, apanhar com o dobro de consumo não será garantidamente uma boa jogada.. :D
 
A nVidia acabou de anunciar a H100 com 700W de TDP @ 1,78 Ghz TSMC 4nm.

A variante PCIe não é assim tão menos potente e só consome 350W.

GhPVCTcg7pdNgPQm.jpg
 
A variante PCIe não é assim tão menos potente e só consome 350W.

GhPVCTcg7pdNgPQm.jpg
É bastante menos potente que a versão SXM. O "truque" que a nVidia usa nessas specs, é usar números em "boost". O que não estão nessas specs é quanto tempo cada uma das versões aguenta em "boost" e quais são os valores quando não estão em "boost". :) As versões SXM não existem, nem são mais populares, por acaso. :)
Além disso, um valor de 350 W na versão Pci-Ex, já é extraordinário, no mercado servidores. Em servidores, os slots Pci-Ex costumam estar limitados a 250W ou 300W. Isto é, não vai ser possível usa-la na maior parte dos servidores actuais e as OEMs terão que lançar novos modelos preparados para este TDP. :)
 
Mas comparando com a A100 PCIe, consome apenas mais 50W, mas tem mais do dobro dos stream processors e mais do dobro dos TFlops em FP32, por exemplo.

Isso já me parece bem mais normal e o que poderá acontecer com as 4090. Até pode consumir um pouco mais que a 3090, mas se tiver mais do dobro da performance, o racio performance/watt melhora consideravelmente. O que é algo expectável quando passas de 8nm Samsung para 5nm TSMC.
 
Tudo o que não seja o dobro da performance (dado ao quase dobro do consumo) de uma 3090 vs 4090, será desilusão..
Isso não faz sentido nenhum...
Desde quando é que a performance escala linearmente com o consumo?

E diz-me uma geração em que a nova placa da mesma gama teve o dobro(+100%) da performance em rasterização do que a placa anterior?
 
Na minha área, se um render de 10m não passar para pelo menos 6m, a escalada de consumo para quase o dobro torna-se tonta. Mas isto, connosco ainda a especular pois ainda não há 100% certezas de serem 600W de TDP.
 
Mas comparando com a A100 PCIe, consome apenas mais 50W, mas tem mais do dobro dos stream processors e mais do dobro dos TFlops em FP32, por exemplo.
Eu explico com um exemplo do mercado consumidor. O AMD 4800U e o 4800H têm os mesmos CPUs com 8 Cores, SMT, 8 MB de L3 e 4.2 Ghz. No GPU, o 4800U até tem mais 1 CU e mais 150 Mhz.
Apesar destas melhores especificações no papel, o 4800U tem um TDP de 15W e o 4800H tem um TDP de 45W.
No papel, é óbvio que a relação performance/consumo do 4800U deveria ser muito melhor que a do 4800H.

Agora coloca os 2 lado a lado, a correr algo pesado e que demore bastante tempo, tipo rendering e verás qual é a "verdadeira" diferença de performance entre o 4800U e o 4800H.
Isso já me parece bem mais normal e o que poderá acontecer com as 4090. Até pode consumir um pouco mais que a 3090, mas se tiver mais do dobro da performance, o racio performance/watt melhora consideravelmente. O que é algo expectável quando passas de 8nm Samsung para 5nm TSMC.
Eu falei da A100 e da H100 porque temos um ponto de comparação dentro de processos de fabrico da TSMC. Dentro da mesma área, socket e com um pouco mais de clock, temos uma subida de TDP de 400W para 700W.
Estou a colocar de lado os aumentos de performance. É uma comparação apenas de TDPs. Por estes valores, seja a 5 ou 4 nm TSMC, não me parece surpreendente que uma "4090" venha a ter um TDP de 600W.
Comparações de TDPs e performance, entre Samsung e TSMC, será sempre mais complicado e não faço essa comparação.
 
A Gtx 1060 tem praticamente o dobro dos TFlops em FP32 em comparação com a Gtx 960 e ambas têm o mesmo TDP de 120 Watts.
Tflops =/= performance.
Nem a arquitetura pascal, que teve dos maiores saltos de performance geracionais dos últimos tempos, tinha o dobro da performance da gtx 960 em rasterização...
 
Tflops =/= performance.
Nem a arquitetura pascal, que teve dos maiores saltos de performance geracionais dos últimos tempos, tinha o dobro da performance da gtx 960 em rasterização...

Mas quando falam que a 4090 terá o dobro da performance da 3090, não me parece que estejam a referir em rasterização, mas sim em poder bruto, que depois acaba por nunca se concretizar no dobro da framerate em determinado jogo.

A 3090 tem 10496 stream processors e diz-se que a 4090 terá cerca de 18.000. Mais uns pozinhos no clock que os 5nm tsmc permitem e facilmente chega ao dobro do poder bruto. Isso claro, não se vai refletir na performance de um jogo, em que se a 3090 conseguir 4k 60fps, a 4090 não vai conseguir 4k 120fps.
 
Mas quando falam que a 4090 terá o dobro da performance da 3090, não me parece que estejam a referir em rasterização, mas sim em poder bruto, que depois acaba por nunca se concretizar no dobro da framerate em determinado jogo.

A 3090 tem 10496 stream processors e diz-se que a 4090 terá cerca de 18.000. Mais uns pozinhos no clock que os 5nm tsmc permitem e facilmente chega ao dobro do poder bruto. Isso claro, não se vai refletir na performance de um jogo, em que se a 3090 conseguir 4k 60fps, a 4090 não vai conseguir 4k 120fps.
Epa, eu tenho o mal de normalmente olhar para as gráficas primeiro a nível de trabalho e só depois para jogos, e como tal quando dou a minha opinião deveria explicar que quando falo em performance acaba por ser a nível de poder bruto, para renders, e afins :)

Em jogos nunca se observa uma subida para o dobro, mas em poder computacional, a minha expectativa estará de acordo com a escalada de consumo.

Por exemplo, em determinado software que uso, um render de 22 minutos numa 2080ti é feito em 14 minutos numa 3090.

Não é exactamente a mesma gama, mas estamos a falar de uma gráfica de 250W vs uma de 350W. Passar de uma de 350W para 600W, no mesmo cenário, se não fizer abaixo de 8 minutos (a 5nm TSMC) desconfio que a subida de TDP será para mascarar uma péssima relação consumo - performance.

Em jogos se a 3090 faz 60fps a 4k, acho que será expectável uma 4090 conseguir rondar os 80 se calhar.
 
pessoalmente também penso que se as placas vierem com esses consumos que a malta anda a especular, o mesmo se deve ao facto de a nvidia estar com dificuldades a aumentar significativamente a performance através dos meios normais, ou seja através de uma melhoria na tecnologia...tendo por isso que ir por atalhos...para conseguir um aumento de performance que justifique a malta querer fazer upgrade e despender os valores provavelmente bastante elevados que vão pedir pelas placas...

duvido que alguém fosse gastar uns 1500€ numa placa para ter apenas mais uns 20% de performance por exemplo... para conseguir cativar as pessoas a despender valores dessa magnitude precisam que o salto geracional seja bastante evidente até porque tendo em conta que a geração atual deve ter sido a que provavelmente melhor vendeu ate aos dias de hoje, o mercado dos usados vai andar ao rubro...

quase que apostaria que a nvidia deve estar a torcer para que passagem do ethereum para POS seja adiada para bem depois do lançamento da proxima geração para não ter uma concorrência tão grande no mercado de usados...
 
Back
Topo