Nvidia G80: info e rumores

Status
Fechado a novas mensagens.
DJ_PAPA disse:
Alguma reclamaçao culpa o TheInq nao a mim :x2:

E so mostrei uma explicaçao bem plausivel e mais razoavel para o numero de pipes por nucleo dada por um membro do TheInq. Parece-me muito correcta, pq a questao dos 48 pixel shaders por clock ja tinha sido confundido nas 7900 com os 48 alu´s.

Axas mesmo possivel meter 48 pixel-shaders em 250 milhoes de transistores, quando a G71 tem 24 pixel-shaders e 278 milhoes de transistores? ;)

Também é possível triplicar o nº de pixel shaders da X1800 XT para a X1900 XTX com apenas mais 50 milhões de transístores, ou até ter 48 pixel/vertex shaders em 235 milhões (Xenos).

À medida que o DX10 exige maior granularidade de operações, os pixel shaders ficam mais curtos, e mais general-purpose, e a ênfase é dada ao controlador/bus de memória, em vez de ser dada às unidades de operações propriamente ditas.
 
Última edição:
blastarr disse:
Também é possível triplicar o nº de transístores da X1800 XT para a X1900 XTX com apenas mais 50 milhões, ou até ter 48 pixel/vertex shaders em 235 milhões (Xenos).

À medida que o DX10 exige maior granularidade de operações, os pixel shaders ficam mais curtos, e mais general-purpose, e a ênfase é dada ao controlador/bus de memória.
Entao xama-lhe 48 pixel-processors e nao 48 pixel-shaders/pipes. Sao coisas diferentes.
Tb nao axo grande logica a Nvidia ir agora no caminho da X1900XT com pixel-processors. É possivel, mas continuo a axar a explicaçao do user do TheInq perfeitamente valida....

E como a Nvidia ja disse que nao ia ter hardware unificado a 2ª opçao esta posta de parte.
 
DJ_PAPA disse:
Entao xama-lhe 48 pixel-processors e nao 48 pixel-shaders/pipes. Sao coisas diferentes.

E como a Nvidia ja disse que nao ia ter hardware unificado a 2ª opçao esta posta de parte.

Aínda estou à espera que me digas onde é que a Nvidia disse isso oficial e definitivamente, mas pronto.
 
blastarr disse:
Aínda estou à espera que me digas onde é que a Nvidia disse isso oficial e definitivamente, mas pronto.
Ten vindo dizer ao longo das entrevistas a falar em soluçao intermedia e nao ao hardware unificado para ja.

Praticamente a 2º opçao é posta de lado e tb aqui é dito:
All we could confirm at this time is that the chip will be DirectX 10 compliant of course but it won't have the full implementation of Shader Model 4.0. It won't do the unified Shader but it will be Vista ready. Most of the chips out today are Vista ready at least the high end ones.
 
DJ_PAPA disse:
Ten vindo dizer ao longo das entrevistas a falar em soluçao intermedia e nao ao hardware unificado para ja.

Praticamente a 2º opçao é posta de lado e tb aqui é dito:

Esqueceste-te de dizer que é o segundo quote que fazes dessa especulação do The Inquirer, sem qualquer fonte oficial, tal como eu te pedira.
Mas continua com o The Inq, i like it...
 
Consta que vários fabricantes de placas Nvidia já receberam samples finais do G80, pelo que podemos esperar uns 2 a 3 meses no máximo até que cheguem ao mercado :D
 
blastarr disse:
Consta que vários fabricantes de placas Nvidia já receberam samples finais do G80, pelo que podemos esperar uns 2 a 3 meses no máximo até que cheguem ao mercado :D

Tem alguma fonte concreta disso, pois é uma notícia muito importante?

Abraços.
 
TSMC and UMC vying for Nvidia orders in 80nm production


Nvidia has started trial runs on 80nm node manufacturing at Taiwan Semiconductor Manufacturing Company (TSMC) and United Microelectronics Corporation (UMC), but UMC, bent on receiving the orders, may resort to fierce pricing, according to industry sources.


Both Nvidia and ATI Technologies are gearing up for migration to 80nm process production, with ATI scheduled to production later this year at both TSMC and UMC.

Nvidia CEO Huang Jen-hsun has described TSMC as its closest production partner, with the foundry making 90% of its products. The other 10% are manufactured by UMC and Chartered Semiconductor.

Nvidia said it will make the best use of its manufacturing partners' advanced processes, and it will make announcements concerning its production strategy at a proper time.

TSMC said it would not disclose details about its clients. But it maintained that Nvidia has always been a good partner, and it will remain so in the future. UMC declined to comment.


Nvidia expects to start producing its HDMI (high-definition multimedia interface) G73-B1 (7600/7700 ?) graphics card manufactured on an 80nm process at the end of the third quarter, and coming next will be its low-end G72 (7300/7400) graphics processing unit (GPU), the sources said.


While migration to an 80nm process will cut down production costs, Nvidia has no plans to adopt the 80nm process for its high-end G71 GPUs because the shipment volume is not high, and making them at a more mature process delivers better yields, the sources said.


http://www.digitimes.com/news/a20060630A1002.html

Eu aposto em G80's a 90nm, com um tamanho total da die a rondar o da X1900 XTX (afinal, a actual G71/7900 GTX tem metade do tamanho do R580, pelo que é bem possível, sobretudo num processo de fabrico perfeitamente maduro e apropriado para as placas de baixo volume de vendas no segmento high-end, como é indicado no artigo).
 
Última edição:
Nvidia G80 meets DX 10 spec with 'dis-unified' shader

Horses for courses


WE HEAR Nvidia has been beavering away fo meet the DirectX 10 specification.

And the firm decided it doesn't need a unified Shader for its upcoming G80 chipset. Instead, it decided that you will be fine with twice as many pixel Shader numbers as geometry and vertex Shaders.

AS we understand it, if a Nvidia DX10 chip ends up with 32 pixel-Shaders, the same chip will have 16 Shaders that will be able to process geometry instancing or the vertex information.

ATI's R600 and its unified Shaders work a bit differently. Let's assume that ATI hardware has 64 unified Shaders. This means that ATI can process 64 pixel lines only per clock. That may be in the proportions: 50 pixel, 14 vertex and geometry lines per clock, or 40 vertex, 10 pixel and 14 geometry information per clock. Any ratio that adds up to 64 will do. I hope you get this maths.

The Nvidian chippery is limited to 32 pixel and 16 vertex and geometry lines per clock, which might be a wining ratio but it is still too early to say. We don’t know who will win the next generation hardware game and whose approach is better: ATI's unified or Nvidia's two-to-one ratio.

DirectX 10 actually doesn’t care how you do your Shaders as you speak with an abstraction layer and hardware can do its pixel, vertex and geometry data the way it wants. It will serve up the information to DirectX 10 that will process it inthe end.

Nvidia's G80 is fully DirectX 10 capable as well as Shader Model 4.0 capable but it won't be unified, according to our sources.

In the end, people care about the frames per second that that will ultimately decide who will win the next-generation graphics hardware race. µ
http://www.theinquirer.net/default.aspx?article=32769
 
Nvidia G80 is taped out

Successful silicon

WE CAN now confirm that mighty Nvidia taped out its first G80 chip. The first successful silicon turned up from the fab a couple weeks ago now, it seems. This puts the company bang on the schedule for its Septembrish launch.
Nvidia believes it can have A six-to-eight-week lead over ATI with its new chip. ATI plans its new R600 chip for end of this year, probably Novemberish time.
Internal sources at Nvidia confirm that the company is apparently happy with what it has seen and that things look good. Nvidia already has a performance leader, the Geforce 7950 GTX, an interesting product that involves two mobile chips on two PCBs connected in SLI, but it needs a new performance chip.
The chip, G80 is supposed to take the performance lead but it will eventually be up against a nasty heavy-weight, ATI's upcoming R600.
It is still too early for details like the final clocks off these chips to emerge.

http://www.theinquirer.net/default.aspx?article=32768
 
Bem DJ, parece que até o The Inq já diz que o G80 vai ser 100% compativel com DX10 e SM4. Já acreditas agora??
Só por não ser unificada a arquitectura, não significa que não seja 100%, apenas realizará as tarefas de maneira diferente como disse o The Inq. ;)
Até porque, tal como this o The Inq, o DX10 não exige arquitectura unificada como pré-requesito.
 
_JP_ disse:
Bem DJ, parece que até o The Inq já diz que o G80 vai ser 100% compativel com DX10 e SM4. Já acreditas agora??
Só por não ser unificada a arquitectura, não significa que não seja 100%, apenas realizará as tarefas de maneira diferente como disse o The Inq. ;)
Até porque, tal como this o The Inq, o DX10 não exige arquitectura unificada como pré-requesito.
Ok, mas nao era eu que dizia á força toda que ia ser unificado. Logo nao fales so para mim ;)
 
É só impressão minha, ou o que o Inq diz, é que é que a G80 vai ter 32 pixel pipes normais, e 16 pipes unificados que podem ser pixeis ou shaders. É isso?
 
Nvidia's G80 has 32 pixel pipes

16 vertex & geometry Shaders


IT TURNS that the fancy Nvidia G80 chip taped out, and in working silicon stage it will have 32 pixel Shaders and, as predicted, have 16 vertex and geometry Shaders.

Nvidia wants to stick with a two to one ratio and assumes that the games of tomorrow will need twice as many pixels than they will need vertices and geometry information.

ATI believes in a different religion. ATI believes that every Shader should become one, united and bellowed. No more segregation to Pixel and Vertex Shaders. If ATI makes a chip with 64 Shader units all of them can do Shader either vertex or pixel or geometry stuff all the time. You can check the stories at the bottom for a better explanation.

We don’t know the clock speed of the upcoming performer but we don’t believe Nvidia can get more than 700MHz out of it - we could be wrong about that. µ
http://www.theinquirer.net/default.aspx?article=32856
 
700 MHz numa GPU com mais de 500 milhões de transístores (quase o dobro da G71/7900 GTX) ?

Para quê ?


Atirar números de Pixel/Vertex/Geometry Shaders totais ao acaso, sem saber como é que mudaram (porque tiveram mesmo de mudar profundamente para manter compatibilidade com o Shader Model 4.0, não é como a alteração ligeira da eficiência de cada um, da GF6 para a GF7, que são ambos SM 3.0) ?

E o nº e tipo de TMU's e ALU's por pipe, ou o nº e tipo de ROP's (fixed ou decoupled), o tipo de memória RAM usada e respectiva velocidade, etc ?
Já não interessam ?
 
Status
Fechado a novas mensagens.
Back
Topo