Nvidia G80: info e rumores

Status
Fechado a novas mensagens.
DJ_PAPA disse:
Entao se nao há retrocompatiblidade do DX10 e do DX9 e sendo o G80 uma grafica DX10 esta nao vai poder correr jogos DX9!! Simples!
Agora vais-me dizer que a Nvidia é especial de corrida e vai dar para tudo. Enfim.....

Eu nao tou a inventar nada. Eu so escrevi simplesmente o caminho que o DX_10 vai seguir e aquele que a Microsoft traçou.
Uau, nao ter arquitectura unificada vai ser bom. Vai contra o que a Microsoft traçou para o futuro, mas vai ser bom!!

Vejo que para alem de andares a ensinar os engenheiros da Asus, tb queres ensinar os engeneiros da Microsoft. Temos um Einstein em portugal.....

Bolas, que hás vezes custa-te a "engrenar"...
Tenho de fazer quote a mim próprio outra vez:
blastarr disse:
Não há retrocompatibilidade do DX 10 com o DX 9 (pelo menos ao nível do software), por isso pára com essas tretas do "eles inventam uma porcaria qualquer e já está".

Unified Software API e Unified Hardware Architecture não são a mesma coisa, senão como é que a G80 suportava DX 10 e SM 4.0 tal como é descrita ?

Percebeste agora ou aínda preciso de soletrar-te letra a letra ? :joker:
 
Da última vez que a nVidia construiu uma peça de hardware que não ia de acordo com os standards (NV1, "processava" quadrados em vez de triangulos), quase que ia à falência..

As vantagens de uma arquitectura unificada são óbvias. Um developer tem a liberdade de escolher se quer usar um ou outro tipo de efeitos. Ao não aderir a este tipo de arquitectura a nVidia está a forçar os developers a ter em conta o nº de pixel vs vertex shaders.
 
ToTTenTranz disse:
Da última vez que a nVidia construiu uma peça de hardware que não ia de acordo com os standards (NV1, "processava" quadrados em vez de triangulos), quase que ia à falência..

As vantagens de uma arquitectura unificada são óbvias. Um developer tem a liberdade de escolher se quer usar um ou outro tipo de efeitos. Ao não aderir a este tipo de arquitectura a nVidia está a forçar os developers a ter em conta o nº de pixel vs vertex shaders.

Primeiro:
Não eram "quadrados", mas sim "quadráticas":
http://www.sci.utah.edu/~gk/vis03/

A MS decidiu seguir os triângulos porque as julgava demasiado avançadas para o seu tempo, mas até a ATI tentou depois uma das suas vertentes, com o Truform.



Quanto ao facto de serem ou não unificadas, tem a liberdade de escolher sim, mas também tem a "obrigação" de programar se o pipeline vai ser usado para vertex ou pixel shading, o hardware por si só não sabe isso e tem de ser programado para fazer uma ou outra função, criando mais uma camada de software, logo, mais latência, logo, menos velocidade.
Na Xbox 360, tal como já se faz nos drivers actuais da nVidia e ATI, parte do vertex shading é desviado da GPU para a CPU, como forma de anular essa limitação.
Além disso, como a X360 é uma arquitectura fechada, é muito mais fácil prever se o vertex shading ou o pixel shading numa situação concreta é suficiente ou não.
Num PC, o jogo não pode ser feito a pensar que o user tem multi-core, tudo topo de gama ou muita ou pouca memória, simplesmente não sabe.


Um exemplo concreto já existe:
Como é que a 7800 GTX e a X1900XT são ambas compatíveis com Shader Model 3.0, se a arquitectura dos pipelines/ALU's, dos ROP's e do controlador de memória são completamente diferentes entre si, e, sendo segredo industrial, não podem ser copiadas pelo concorrente ?

Pois é, são compatíveis nas camadas de software (API) que suportam (DirectX 9.0c e OpenGL 2.0), mas o modo como chegam lá é completamente diferente.
Assim, se o software só sabe que está a correr em DirectX 10, nem precisa de ser programado para reconfigurar os pipelines para vertex ou shader, o scheduler da GPU trata disso on-the-fly.
Acho que a principal vantagem é ter o DX 10 pronto bem cedo, começando as equipas de software a programar em Shader Model 4.0 e, tal como no Shader Model 3.0, começam a fazê-lo primeiro e a optimizá-lo em hardware nVidia, é curioso...
 
Última edição:
Esquece Xbox360, esquece esquemas utilizadas por uma consola para processar dados. O dx_10 vai ser lançado para pc´s, nao para consolas.

O DX_10 a ser lançado para PC tem como sua principal revoluçao a arquitetura unificada e vai ser esta a arquitectura futura e que pela qual o DX_10 esta toda nela baseado.
Tao simples quanto isto.

Foi a Microsoft que decidiu (e muito bem a meu ver) e é a plataforma que a Microsoft tem tado a desenvolver, logo tera tudo o que é possivel para se tirar o melhor proveito deste tipo de arquitectura.

Se os jogos vao passar a vir com balancing entre vertex e shaders e como é que a Nvidia vai fazer esse balancing se nao tem arquitectura unificada? Nao pode.

O que acontece é que os GPU´s com tudo unificado poderao estar sempre a correr a 100% das suas capacidades, enquanto que o G80 estará muitas vezes abandonado á sua sorte pq nao pode balancear os vertex e os shaders.
A menos que os jogos implementem uma situaçao extra DX_10 so para o G80.... (praticamente impossivel)

Em aruitectura unificada pode haver menos velocidade, mas há + quantidade e isso compensa largamente o pequeno hit de ter unidades com calculos muito + complexos. (havia um artigo que dava a R600 com 64 "units", o que é um abuso.... mas tb nada confirmado, claro)
 
DJ_PAPA disse:
Esquece Xbox360, esquece esquemas utilizadas por uma consola para processar dados. O dx_10 vai ser lançado para pc´s, nao para consolas.

O DX_10 a ser lançado para PC tem como sua principal revoluçao a arquitetura unificada e vai ser esta a arquitectura futura e que pela qual o DX_10 esta toda nela baseado.
Tao simples quanto isto.

Foi a Microsoft que decidiu (e muito bem a meu ver) e é a plataforma que a Microsoft tem tado a desenvolver, logo tera tudo o que é possivel para se tirar o melhor proveito deste tipo de arquitectura.

Se os jogos vao passar a vir com balancing entre vertex e shaders e como é que a Nvidia vai fazer esse balancing se nao tem arquitectura unificada? Nao pode.

O que acontece é que os GPU´s com tudo unificado poderao estar sempre a correr a 100% das suas capacidades, enquanto que o G80 estará muitas vezes abandonado á sua sorte pq nao pode balancear os vertex e os shaders.
A menos que os jogos implementem uma situaçao extra DX_10 so para o G80.... (praticamente impossivel)

Em aruitectura unificada pode haver menos velocidade, mas há + quantidade e isso compensa largamente o pequeno hit de ter unidades com calculos muito + complexos. (havia um artigo que dava a R600 com 64 "units", o que é um abuso.... mas tb nada confirmado, claro)



O que é que te diz que a R600 tem o mesmo tipo de pipelines que as GPU's DirectX 9 ?
É que, se a API muda, é de esperar que a arquitectura de hardware também mude, não ?:rolleyes:
A MS desenhou a API DirectX (criada com base em tecnologia de uma empresa britânica que comprou nos anos 90), mas nunca a vi a saber ou querer desenhar GPU's, senão não contratava a nVidia e a ATI para fazer as suas consolas brilhar, tal como a Sony ou a Nintendo...



G80 "abandonado à sua sorte" ?
Mas tu conheces o G80 ?
Sabes como funciona ?
Sabes quais os benefícios prácticos ? (digo-te já que há mais benefícios para os programadores do que propriamente para os jogadores, que só verão gráficos mais cuidados e "eye-candy" por simplificar o trabalho dos departamentos de arte das software-houses)
Viste algum jogo e fizeste algum benchmark ?
Mais futurologia apoiada em números e conjecturas imaginárias sem qualquer base real ?



Para além deste rumor, nem tu, nem eu sabemos absolutamente nada sobre o G80, mas eu apoio-me na entrevista que o David Kirk (cientista-chefe da nVidia, deve perceber algo mais disto do que tu ou eu, não achas ?) concedeu no verão passado, onde referia isto mesmo, que a API DX 10 pode correr numa arquitectura híbrida em full-speed, sem sequer ter noção disso, e que a velocidade real só pode é beneficiar com isso nos tempos mais próximos.
 
Última edição:
blastarr disse:
Primeiro:
Não eram "quadrados", mas sim "quadráticas":
http://www.sci.utah.edu/~gk/vis03/

A MS decidiu seguir os triângulos porque as julgava demasiado avançadas para o seu tempo, mas até a ATI tentou depois uma das suas vertentes, com o Truform.

Dicionário da Língua Portuguesa disse:
Quadrático: adjectivo relativo ao quadrado. (do latim: quadratus)

Depois de consultar o link que meteste, pude confirmar que a unidade mais simples de um render por "quads" é mesmo um quadrado.
Obrigado pelo esclarecimento.

By the way, não foi a microsoft que decidiu prosseguir com triangulos.. na altura coitadinha da microsoft.. o voto da matéria em 3D do directx era tão influente como é hoje em dia o glide..
 
Última edição:
Totten,

Desculpa lá, mas por uma razão de mera justiça, a tua participação nas threads do hardware são em larga percentagem a responder às do blastarr e normalmente de forma muito caustica. É obvio que ele de santo não tem nada, mas a tua cruzada pessoal contra ele também me parece demasiado obcessiva.

Deviam fazer todos o mesmo e olhar para exemplo de outros utilizadores, como o Nemesis11 (por ex.). Chega aqui, deixa a informação, opina, discute os assuntos de forma meramente académica e não se preocupa em enfatisar o know-how que tem ou deixa de ter em função do próprio ego. Esses vossos ataques pessoais com motivações baseadas nas "cores" que preferem mais parece uma discussão de futebol.

Peço desculpa pelo offtopic, não sou mod nem nada que se pareça, mas já aqui ando à algum tempo para pelo menos ter direito a desabafar.

Greven, se quiseres apaga este post, já serviu o propósito. :)
 
ToTTenTranz disse:
Depois de consultar o link que meteste (porque eu estou aqui para aprender e argumentar, não tentar elevar-me acima dos outros), pude confirmar que a unidade mais simples de um render por "quads" é mesmo um quadrado.
Obrigado pelo esclarecimento.

Um quadrado é constituído por linhas rectas do mesmo comprimento paralelas duas a duas de forma não consecutiva.

Como podes ver nas imagens do link, uma quadrática pode ter forma quadrada se vista de "cima", mas em ângulo podem notar-se as linhas curvas no eixo Z, logo, não são rectas.
 
SilveRRIng disse:
Totten,

Desculpa lá, mas por uma razão de mera justiça, a tua participação nas threads do hardware são em larga percentagem a responder às do blastarr e normalmente de forma muito caustica. É obvio que ele de santo não tem nada, mas a tua cruzada pessoal contra ele também me parece demasiado obcessiva.

Deviam fazer todos o mesmo e olhar para exemplo de outros utilizadores, como o Nemesis11 (por ex.). Chega aqui, deixa a informação, opina, discute os assuntos de forma meramente académica e não se preocupa em enfatisar o know-how que tem ou deixa de ter em função do próprio ego. Esses vossos ataques pessoais com motivações baseadas nas "cores" que preferem mais parece uma discussão de futebol.

Peço desculpa pelo offtopic, não sou mod nem nada que se pareça, mas já aqui ando à algum tempo para pelo menos ter direito a desabafar.

Greven, se quiseres apaga este post, já serviu o propósito. :)

Peço desculpa se a minha condição de humano me leve por vezes a responder à letra, mesmo quando por vezes isso se reflecte no bom funcionamento do fórum.. Vou editar o meu post.
Chateia-me, no entanto, que tal personagem esteja a ser bem sucedida em tornar-se num mártir.. Que as pessoas estejam a aderir ao tipo de desinformação e palhaçada constante que se tem praticado neste fórum..
Já cá ando há 4 anos e nunca esta secção me pareceu tão "podre".. Se calhar sou só eu a ver isso.. E quem está mal muda-se..
 
Peço já desculpa a todos pelo Offtopic. Que sejam apagados estes meus posts offtopic, please.

Totten,

Se queres que te diga, o que a mim me faz confusão é que te deixes "enrolar" nessa rede. You're better than that. Daí me ter referido especificamente a ti.
Inicialmente, a "arrogância" da pessoa em questão também me incomodava, mas acabei por ir aprendendo a ler o que realmente é importante. Capacidade de argumentação, persuasão e dissuasão não lhe faltam, peca pela forma desrespeitosa como por vezes se exprime. Nesse aspecto o DJ é um anjo.

Eu sei que sentes aquele sabor da injustiça com as saidas que ele tem e que isso quase que te obriga a intervir em defesa "dos mais fracos". Eu percebo a nobreza da intenção, mas involuntariamente acabas por ficar igual a ele e perder a razão. Entendes o quero dizer?

Greven, mil perdões. apaga aqui please :D
 
- AGEIA: http://www.cmpevents.com/GD06/a.asp?option=C&V=11&SessID=2102



Agora comparem com esta apresentação programada para a mesma GDC'06, mas da concorrente Havok (tecnologia usada em jogos como o Half Life 2, e consolas como a PS3, etc)

- Havok: http://www.cmpevents.com/GD06/a.asp?option=C&V=11&SessID=2113

Excerto:
GDC 2006, March 23

Physics Simulation on NVIDIA GPUs

Simon Green, Mark Harris

Havok FX leverages state of the art software and hardware technology from NVIDIA to extend the capabilities of NVIDIA GPUs and SLI multi-GPU systems to include physics processing for massive real-time effects. In this presentation NVIDIA and Havok engineers will describe how Havok FX utilizes NVIDIA technology to simulate and render thousands of particles and rigid bodies in games. Live real-time demos will demonstrate the high performance available with current GPUs and provide a look into the future of physics processing on NVIDIA GPUs.



http://developer.nvidia.com/object/gdc-2006-sessions.html



Gentlemen, start your (physics) engines... :D
 
blastarr disse:
- AGEIA: http://www.cmpevents.com/GD06/a.asp?option=C&V=11&SessID=2102



Agora comparem com esta apresentação programada para a mesma GDC'06, mas da concorrente Havok (tecnologia usada em jogos como o Half Life 2, e consolas como a PS3, etc)

- Havok: http://www.cmpevents.com/GD06/a.asp?option=C&V=11&SessID=2113

Excerto:




http://developer.nvidia.com/object/gdc-2006-sessions.html



Gentlemen, start your (physics) engines... :D


Será que o RSX tem isso? Era uma boa explicação pro facto do RSX ter mais de 300 milhões de transitores e o G71 apenas 192 milhões.
 
Ansatsu disse:
Será que o RSX tem isso? Era uma boa explicação pro facto do RSX ter mais de 300 milhões de transitores e o G71 apenas 192 milhões.

O G71 tem 278 Milhões (como o RSX não tem Purevideo nem RAMDAC's -saídas D-sub analógicas, etc-, seriam menos 20~25 milhões, ou 258~253 Milhões no total, caso o The Inq tivesse a mínima ideia do que está a falar), o G70 tem 302 Milhões.

Mais detalhes da PS3 (e RSX, esperemos), daqui a 4 dias.
 
blastarr disse:
O G71 tem 278 Milhões (como o RSX não tem Purevideo nem RAMDAC's -saídas D-sub analógicas, etc-, seriam menos 20~25 milhões, ou 258~253 Milhões no total, caso o The Inq tivesse a mínima ideia do que está a falar), o G70 tem 302 Milhões.

Mais detalhes da PS3 (e RSX, esperemos), daqui a 4 dias.


Trava a trocar o numero de transitores com o tamanho :P

mm assim, se quantos transitores necessaria para passar de 24 para 32 pipelines?

Alguma coisa tem de ser para o RSX ter mais transitores, mas logo veremos daqui a 4 dias.
 
Última edição:
Nova entrevista do David Kirk sobre o G80 e o DirectX 10/Unified Shader Language/Unified Shader Hardware (em "anglo-japonês" :D):

http://babelfish.altavista.com/babe...ch.impress.co.jp/docs/2006/0419/kaigai262.htm

Alguns "highlights":

"Certainly, Unified-Shader is flexible, but it is flexible above necessity. 200 inches (approximately 5m) it is something like the belt of length. If there are also 200 inches, you how having gotten fat, it is agreeable, but if it has not gotten fat, there is no meaning.

"On the logical diagram of D3D 10, Vertex Shader, Geometry Shader and Pixel Shader have lined up. When these are stored to the same box, how it becomes? Respective Shader is the part which differs. When it integrates that, wastefulness occurs.

As for Kirk, Unified-Shader conversion, points out that it opposes to also the locus of GPU and CPU which increase efficiency due to pipeline processing.

"You will try looking at the flow of コンピƒ…テーション. Simple CPU of 20 years ago had only the function unit 1. In other words, it was Unified-Shader, (laughing). But, now either Intel, has not designed such a CPU.


"We desire, when we would like to remove specific intended function from GPU. But, on the other hand, (you desire also the fact that special function of グラフィクス can be sent) very fast. When mounting for all specific objects is shaved from GPU, that is mere Pentium ", (Kirk)



O que ele está a dizer neste último quote é que, à medida que a programabilidade aumenta, tem de haver balanceamento na mesma com a necessidade de velocidade e eficiência de rendering.
É preciso recordar que as CPU's de arquitectura x86 se tornaram tão complexas e ineficientes (comparadas com RISC ou VLIW, por exemplo), porque incorporaram ao longo do tempo funções e mais funções (muitas das mesmas desnecessárias), descurando a velocidade pura, e depois essas funções tornaram-se um "fardo" a manter, por causa da retrocompatibilidade.
Ter demasiada programabilidade e features, mas sem velocidade, foi o erro da GeforceFX, por exemplo.


É mais uma prova de que o push pelo Unified Shader foi feito pela MS, uma empresa de software que não é propriamente uma powerhouse no mundo do 3D (pelo menos não como a Autodesk/Alias, etc), e não tanto pelos fabricantes de jogos, que são quem define o que precisa para concretizar os seus projectos da melhor maneira.
 
Última edição:
É o chief-cientist da nVidia.. claro que não ia dizer "ah e tal a nossa futura arquitectura tem problemas de flexibilidade".

Em vez disso está a tentar dar a volta e a dizer que o caminho da concorrência (que neste caso parece-me que é o resto do mundo) é que é desequilibrado e tem "excesso de flexibilidade".
Conversa de PR.. nada de novo para ver..

Não vejo ninguem a queixar-se de "excesso de flexibilidade" ou falta de performance na X360..


Desde que suporte tudo o que o WGF 2.0 tem para oferecer, então o método é irrelevante para o end-user..
Agora se não for e vai andar a pedinchar aos developers para correr código específico.. então vai dar-se mal.


Em relação à performance.. só quando sair é que se vê.
 
ToTTenTranz disse:
É o chief-cientist da nVidia.. claro que não ia dizer "ah e tal a nossa futura arquitectura tem problemas de flexibilidade".

Em vez disso está a tentar dar a volta e a dizer que o caminho da concorrência (que neste caso parece-me que é o resto do mundo) é que é desequilibrado e tem "excesso de flexibilidade".
Conversa de PR.. nada de novo para ver..

Não vejo ninguem a queixar-se de "excesso de flexibilidade" ou falta de performance na X360..


Desde que suporte tudo o que o WGF 2.0 tem para oferecer, então o método é irrelevante para o end-user..
Agora se não for e vai andar a pedinchar aos developers para correr código específico.. então vai dar-se mal.


Em relação à performance.. só quando sair é que se vê.

"Pedinchar" para correr código específico é o que a ATI e a MS estão a fazer.

Que eu saiba nenhum jogo de PC actual é programado a pensar em shaders unificados, e até o Crysis é quase totalmente feito a partir do DirectX 9 Shader Model 3.0, soube-se recentemente...
Inclusivé muitos jogos estão a usar a GPU da Xbox 360 com uma relação fixa de 38 para 10, ou 40 para 8, em termos de distribuição de workload entre pixel e vertex, que é o mesmo que dizer que estão a tratá-la como se de uma GPU normal não unificada se tratasse.


"Unified Shader Language" nada tem a ver com "Unified Shader Hardware", e o G80 será compatível com o DirectX 10 ao nível do software, por isso não há problema por aí.
 
Última edição:
Isso ja se sabe como é.
Cada um puxa a brasa a sua sardinha, mas todos têm que se conscencializar de uma coisa. Se a Microsoft diz que vai ser "assim" entao todos vao fazer "assim" e quem se desviar desse caminho arrisca-se a ter graves problemas.....

A ATI nao tem dito nada e tem continuado com o projecto do R600, a Nvidia é que parece que anda a tentar desafiar a Microsoft.... que leva a caminhos muito perigosos.
 
Status
Fechado a novas mensagens.
Back
Topo