Nvidia G80: info e rumores

Status
Fechado a novas mensagens.
Mas para que manda tantas "postas de pescada", também podia mandar em relação a isso...podia ser que acertassem, para variar :-D
 
_JP_ disse:
Mas para que manda tantas "postas de pescada", também podia mandar em relação a isso...podia ser que acertassem, para variar :-D
Foram os primeiros a acertar na quantidade de pipes do G71 (quando andava o vr-zone e os fanboys dos forums a insistir que eram 32) e no número de pixel shaders do R580.. portanto se acertarem não vai ser "para variar".
 
Claro.
Quando se "acerta", está-se a adivinhar.

De qualquer maneira, eles foram os primeiros a dizer "24 pipes na G71", mas também foram os primeiros a dizer "32".

Tantas pedras atiraram ao mar que alguma acabou por se molhar...
 
12

sim..é verdade nisso do várias tentativas e uma ha-de ACERTAR

mas..

mas geralmente eles mandam um número e depois corrigem com um segundo numero e esse tá certo.. também não andam a dizer vários numeros pro ar...

primeiro são numeros de estimativas e palpites.. e depois são numeros de insiders... geralmente o primeiro e segundo números não coincidem...e os segundos costumam ser certeiros..

aliás..o the inquirer é famoso por um dia dizer x e no segundo y... independentemente de y tar certo.. é mesmo dum dia pro outro que mudam de ideias...
 
Mais um segredo da G80 descoberto ?

G80-I.png


Permite combinar duas importantes funções dos pipelines gráficos programáveis e reduzir o nº de transístores necessários para as executar, quando comparado com as implementações tradicionais.

http://arith17.polito.it/foils/11_2.pdf

http://arith17.polito.it/final/paper-164.pdf


Segundo o post original do B3D, um dos criadores desta técnica foi o designer-chefe da unidade Floating Point (FPU) dos AMD Athlon/XP/64 (a mesma que lhe dá vantagem aínda hoje em jogos e apps que dela façam uso, mesmo contra um Core Duo "Yonah"), e trabalha agora na Nvidia.
 
blastarr disse:
Mais um segredo da G80 descoberto ?

G80-I.png


Permite combinar duas importantes funções dos pipelines gráficos programáveis e reduzir o nº de transístores necessários para as executar, quando comparado com as implementações tradicionais.

http://arith17.polito.it/foils/11_2.pdf

http://arith17.polito.it/final/paper-164.pdf


Segundo o post original do B3D, um dos criadores desta técnica foi o designer-chefe da unidade Floating Point (FPU) dos AMD Athlon/XP/64 (a mesma que lhe dá vantagem aínda hoje em jogos e apps que dela façam uso, mesmo contra um Core Duo "Yonah"), e trabalha agora na Nvidia.
Ainda relativamente a essa mesma informação, fica aqui uma espécie de resumo:

Beyond 3D forum member Uttar has made a most excellent find, which seems quite likely to discuss a hardware feature which will apply to NVIDIA's next generation architecture, codenamed G80. You can see the thread over at Beyond 3D where this is discussed here.
In short, the documentation cited in the thread in question refers to the creation of 'Multi-function interpolators' - To understand what this may mean for NVIDIA's G80 architecture, we need cover a few points regarding particular capabilities of current graphics hardware.
Firstly, it should be noted that current hardware already contains interpolation units (attribute interpolation units, to be precise) in each pixel shader unit - This functional unit sits before the ALUs (Arithmetic Logic Units) in the rendering pipeline, and is used to calculate attribute values on a per-pixel basis. These values can include color, depth, texture co-ordinates and the like. The values in question are calculated using the attributes of a vertex (in other words, one side of a triangle created by the vertex shader) via interpolation, and use known data from particular pixels to calculate the aforementioned attributes for the remainder of the pixels required (For those of you not of a mathematical bent, interpolation is basically a method of creating new data from a set of already known data).
Also available in current graphics hardware's pixel shader units is another functional unit which deals with supporting 'higher order' functions - That is, more advanced mathematical functions such as square root, reciprocal square root, sine, cosine, and so on.
Of course, both of these functional units take up both die size and transistors (and thus consume power as well), which is where the philosophy of the 'multi-function interpolator' comes in. In the 3D rendering pipeline, there is rarely any need to fully utilise both the attribute interpolation units and functional units for handling special functions at the same time, meaning that at any one time during 3D rendering, one or the other of these functional units is left either underutilised or unused, resulting in what is basically a waste of both power and die space. Thus, NVIDIA's plans circa G80 seems to be to combine these two functional units into one single, shared functional unit which can process both the necessary interpolation techniques as well as handling the processing of higher order functions. This has the obvious benefit of reducing both die size and transistor consumption, without sacrificing much in the way of performance. Indeed, it has been pointed out that in NVIDIA's current architectures, the interpolation units are a major bottleneck where more attributes can require interpolating for vertices than the interpolation unit can handle. It seems sensible to assume that the move to 'multi-function interpolators' will also see NVIDIA working to either ease this bottleneck or remove it entirely.
The big question from here is whether NVIDIA will simply combine these functional units to save on die size and power consumption and leave it at that, or whether they will then use the space and power they have 'won back' to add in additional pixel shader units to boost performance yet further. Of course, we won't be able to comment on this further until we see how G80 has been designed in its entirety. As always, in the world of GPUs, watch this space...


Fonte
 
Humm, a fonte é credível, e o "mascarar" do packaging e dos pormenores da die (excepto "G80") é óbvio:




Aínda não há confirmação absoluta, como é evidente.


Segundo a mesma fonte, o G80 tem 300mm^2 de área, enquanto o G71 (7900 GT/GTX) tinha apenas 196.
Se se juntar a isto o facto de a G71 ter 278 Milhões e ser fabricada a 90nm, enquanto a G80 é fabricada no half-node aínda mais pequeno de 80nm, dará um valor de transístores a rondar os 500 Milhões.
 
Xii já tem fotos do DIE?

Pelos vistos o DX 10 vira mesmo em setembro :wow:

giro, haver graficas DX 10 as carradas e nada de windows vista, a API e muito menos JOGOS.

Andar depois tudo a vender ax 7900 e x1800/1900 ao desbarato, comprar isto "só para dizer que tem" e ficar 6 meses a 1 ano a jogar jogos DX 9 :D

ok, o crisis vem ai, mas vai rodar na boa nas graficas actuais e será Half DX-10...
 
Quandio comprei a 9700 pro também fiquei sem jogos DX9 durante mto tempo, não foi por isso que fiquei propriamente desiludido, era muito mais rapida em tudo, e se estas placas DX10 forem como dizem de 5 a 6 vezes mais rapidas em aplicaçoes DX9 são muito benvindas.
 
Ansatsu disse:
Esta patente da Nvidia saiu hoje.

Será que tá relacionada com a G80?

http://patft.uspto.gov/netacgi/nph-...&co1=AND&d=PTXT&s1=nvidia&OS=nvidia&RS=nvidia

Humm, tanto pode estar, como não.
Foi aprovada hoje, mas submetida para escrutínio já em 2003, muito antes de se saber exactamente como seria o DirectX 10, ou mesmo o Windows Vista (que, todos sabemos, sofreu um "reboot" radical no seu desenvolvimento algures em Agosto de 2004, com o abandono da base Win2000/XP e a adopção do código Windows Server 2003/R2).


Muitas patentes podem nem ter aplicação práctica em produtos finais, enquanto outras não são tornadas públicas senão muito depois de ter sido apresentadas no mercado, pois o USPTO também assina por vezes NDA's sobre patentes dos autores das mesmas.
 
Punkas disse:
Quandio comprei a 9700 pro também fiquei sem jogos DX9 durante mto tempo, não foi por isso que fiquei propriamente desiludido, era muito mais rapida em tudo, e se estas placas DX10 forem como dizem de 5 a 6 vezes mais rapidas em aplicaçoes DX9 são muito benvindas.
A questão é tirar proveito ou não, os jogos DX 9.c actuais bulem bem nas graficas actuais, ou querem jogar tudo a 200 fps
 
destr0yer disse:
A questão é tirar proveito ou não, os jogos DX 9.c actuais bulem bem nas graficas actuais, ou querem jogar tudo a 200 fps

Não, mas se puder jogar td maxed out, com AA 6x, AF 16x e V-sync on, até que não me importava.
 
Eu activo e desactivo o V-sync e n vejo diferença absolutamente nenhuma. Sei que uma limitação do V-sync é limitar os frames ao refresh rate do monitor, se bem que isso n influencia em nada. Não adianta de nada ter um jogo a 120fps, se o monitor apenas faz refresh 60 vezes por segundo.
 
Ansatsu disse:
Eu activo e desactivo o V-sync e n vejo diferença absolutamente nenhuma. Sei que uma limitação do V-sync é limitar os frames ao refresh rate do monitor, se bem que isso n influencia em nada. Não adianta de nada ter um jogo a 120fps, se o monitor apenas faz refresh 60 vezes por segundo.

ALguem que se dê ao trabalho de explicar, sinceramente já não tenho paciência.
 
Ansatsu disse:
Eu activo e desactivo o V-sync e n vejo diferença absolutamente nenhuma. Sei que uma limitação do V-sync é limitar os frames ao refresh rate do monitor, se bem que isso n influencia em nada. Não adianta de nada ter um jogo a 120fps, se o monitor apenas faz refresh 60 vezes por segundo.
Vai ao google e escreve "Horizontal Tearing".

:P
 
destr0yer disse:
A questão é tirar proveito ou não, os jogos DX 9.c actuais bulem bem nas graficas actuais, ou querem jogar tudo a 200 fps

Olha que não é bem assim...
Tens o caso do Oblivion que qualquer gráfica actual ve-se bastante à rasca para ter 60fps com 1280x1024 all max e hdr ligado ;)
Talvez a GX2 se safe bastante bem mas também são "duas gráficas" :P
 
blastarr disse:
Se se juntar a isto o facto de a G71 ter 278 Milhões e ser fabricada a 90nm, enquanto a G80 é fabricada no half-node aínda mais pequeno de 80nm, dará um valor de transístores a rondar os 500 Milhões.

Podes refazer as contas (90nm):

Nvidia's G80 will stay a 90 nanometre chip

Getting ready to rock over R580, R580+


NVIDIA currently owns the best card on the market. The Geforce 7950 GX2 is the best performer that money can buy. And the firm doesn’t want to lose its current advantage while planning to upgrade its current generation with a new, faster chip.

We wrote before that the new G80 will feature 32 pipelines and 16 vertex + geometry Shader but now we've also learned that the chip will be developed on the older 90 nanometre process.

Nvidia doesn't want to risk the shrinkage to 80 nanometre. Its experiences with its own NV30 taught it not to take the unnecessary risks with chip shrinkage on such important chips.

It all makes sense now. The G80 is taped out. The first silicon is back and the company is about to get it in production. The announcement is imminent and the new chip has every chance of outperforming ATI’s upcoming R580+ based Radeon X1950 XTX.

G80 is also expected to use GDDR 4 - but we have been surprised before. We don’t know how G80 performs versus R600 but we know it is set to arrive a few months before the ATI's expected R600 killer. µ
http://www.theinquirer.net/default.aspx?article=33260
 
Status
Fechado a novas mensagens.
Back
Topo