Gráfica nVidia RTX 4000 séries "Ada" (Modelos SUPER lançados)

Aqui é NVIDIA nada ver com cache L3 da AMD.

A única diferença é que a Nvidia usa L2 enquanto a Amd usa L3. De resto o funcionamento será similar, que é usar a cache ao invés da vram.

Por esses dados teremos uma 4060 que deve ser superior ha antiga 3070 Ti.

Com base no leak derivado do hack que a Nvidia foi alvo, o techpowerup também está a dar a sua previsão e é muito similar ao que disseste:

AWOT8Ug.png


Se a previsão da Techpowerup estiver correta e se as especificações não se desviarem do leak, a nova 4060 vai fazer 24.44 TFlops, enquanto a 3070 Ti faz ligeiramente menos, 21.75 TFlops.
Depois a 4060 perde largamente na Largura de Banda, 432 GB/s contra os 608 GB/s da 3070 Ti. Mas a 3070 Ti tem apenas 4 MB de cache L2 enquanto a 4060 terá 48 MB de L2, o que é uma diferença muito grande e estou curioso para saber se essa diferença compensa os quase 200 GB/s a menos de largura de banda.

Seja como for, a 1060 tem performance similar à 980, a 2060 tem performance similar à 1080 e só a 3060 é que tem somente performance similar à 2070. Por isso presumo que há boas hipóteses da 4060 ter performance similar à 3080.
 
Essa tabela faz-me todo o sentido!

Uma 4080 com uma diferença significativa de performance para uma 4009

Caso tenham aprendido alguma coisa com a quantidade de versões absurdas desta geração, parece-me muito bem mesmo.

E mais, tenho andado para montar uma máquina secundária de trabalho que tanto jeito já me havia feito, e no entanto nas 1001 possibilidades de configuração, e tenho estado a adiar apenas porque possivelmente faz mais sentido colocar uma 4060 ao invés de uma 3060 agora.
 
Última edição:
Essa tabela faz-me todo o sentido!

Uma 4080 com uma diferença significativa de performance para uma 4009

Caso tenham aprendido alguma coisa com a quantidade de versões absurdas desta geração, parece-me muito bem mesmo.

Sim, faz todo o sentido. Mas será que 256bit será suficiente para tanto Shader? Será que mais L2/L3 compensará a diferença?
 
Sim, faz todo o sentido. Mas será que 256bit será suficiente para tanto Shader? Será que mais L2/L3 compensará a diferença?
Eu já tinha pensado nisto, que se houver um salto de performance bom, podem bem fazer uma 4080 mais "limitada", que se a mesma tiver melhor performance que uma 3090, continua a justificar-se :)
 
Eu já tinha pensado nisto, que se houver um salto de performance bom, podem bem fazer uma 4080 mais "limitada", que se a mesma tiver melhor performance que uma 3090, continua a justificar-se :)

Também há um bom salto da 4060 para a 4070 se for como naquele quadro. Nesta geração a 3060Ti está muito proxima da 3070. Fica muito espaço para uma possivel 4060Ti se o lançamentos do lado vermelho for bom também.
 
Só acho estranho a 4070 com 192 bits, com o AD103 com 256 bits e a 4080 com 256 bits...

Se calhar fazia sentido 320 bits e 20 GB na 4080, 352 bits na 4080 ti e 384 bits na 4090
 
Eu só acho é que não faz sentido uma 4080 de 20gb com a 4090 com 24.. é que a ti, ainda vá que não vá. Mas a 4080 normal..
 
Ainda não há certezas de nada, e o Jpgod antes de mim é da opinião que talvez pudesse fazer sentido uma 4080 de 20gb (para manter os 320bits de Bus que a 3080 teve na geração actual) :)
 
Já percebi!

Mas como já se viu nos CPUs e nos GPUs mais recentes, estes aumentos nas caches acabam por compensar e bem a ausencia de grandes bandwidth de memória. Provavelmente chegará bem, mesmo a 4K. Especialmente com acesso cada vez mais rapido aos SSD como está previsto.
 
Eu imagino que mesmo a 256bits poderá ter um boost de performance significativo face à 3090, e assim deixar os 20GB e os 320bits para a 3080Ti.

Fora que, sendo optimista, poderá quem sabe permitir um "preço simpático" (leia-se, manter-se abaixo dos 800€).
 
já vimos que a próxima geração não vão ser grande espingarda para o mining :002:
De inúteis para o mining passamos, com o deley do POS da rede ethereum (é só mais um!) , para "não vão ser grande espingarda". Não é um bom início...
 
Última edição:
Só atrasaram uns 3 meses a merge de eth, isso não vai ter grande impacto na nova geração. E com módulos de memória praticamente com a mesma velocidade e com os mesmos barramentos não vamos ter um aumento de performance consideravel para mining nesta nova geração.
 
Porque motivo não são relevantes?

Imaginando que as nova geração duplica/triplica a rentabilidade em algumas moedas não dependentes da memória, o que iria acontecer? Ou ainda situações de dual mining usando a memoria para uma moeda e o core para outra moeda?
 
Rentabilidade não interessa se o mercado não tem profundidade, ou seja volume, para absorver uma quantidade grande de miners. Isso é obvio.

Podes ter uma moeda que passa de 100 para 10000, se o volume transacionado for baixo não interessa, a partir do momento que vários miners fossem atrás da mina de ouro e tivessem de dar cashout o valor da moeda voltava aos 100 ou ainda mais baixo do que isso num abrir e fechar de olhos. Ethereum tem impacto no mercado de gpus porque tem um volume diário de 14,77 mil milhões, o resto das moedas minaveis por gpu nem tem sequer comparação nessa métrica.
 
Back
Topo