ATI in BIG trouble ?

Não se esperaria menos do que isso, com o LH à porta é preciso começar a venda de hardware e depois depurar as apps no mesmo, para estar tudo pronto no lançamento do SO.

Pelo menos WGF 1.0/DX9.0L é quase garantido.
FP32 tb requer grandes mudanças, mas tinha de ser feito.
Janelas como arrays de polígonos, fim da exclusividade das aplicações nos pipelines e virtualização por hardware destes últimos (imaginemos ter 5 ou 6 cópias do HL2 a correr em janelas, em simultâneo numa única placa gráfica) etc, devem requerer grandes mudanças.
A Nvidia tb passou por esse pesadelo com a NV30, tinha excesso de features mas pouca potência naquilo que importava (shaders, fill-rate, AA, etc).
Esperemos que não se repita.
 
A curto prazo é uma estrategia arriscada, mas a medio-longo prazo compensará esta fase, até pq com o re-spining do chip (processo extremamente caro), vao poder ter muito maior rendimento e depois compensar o investimento feito.

Se o G70 for lançado normalmente e tb nao tiver atrazos, vai ter que ser o crossfire (as boards Xpress200 e as placas crossfire) e as vendas nos notebooks a aguentar o barco até o lançamento da nova arquitectura.
Mas mesmo assim, devem continuar a ser as X800 e as X800XL as grandes apostas para ter algum lucro no mercado mid/high-end.

Agora quando é que a Nvidia vai renovar totalmente a sua arquitectura? O G70 (0.11nm) nao parece arquitectura totalmente nova, mas sim um esticanço á serie 6800!

EDIT:
Esta R520 parece mesmo uma reediçao do R300, visto que vair sair com uma série de tecnologias entre 4 a 6 meses á frente no tempo!
Se tudo correr como previsto deve dar plataforma á ATI para uns 2/3 anos, tal como aconteceu com a 9700 e as ediçoes que se seguiram até hoje as X850.....
 
Última edição:
Eu não quis ofender ninguém nem falei em flames!

Só disse aquilo porque tão a discutir o futuro e hipóteses! E acho que o futuro é sempre incerto e pode acontecer muita coisa! Mas em certa parte acho bem que continuem com a discussão visto ser apelativa para alguns!

Cumps.
 
blastarr disse:
Hey, no flames here. :)
Eu gosto de ambas as companhias.
São duas das melhores designers de chips da actualidade.

Qto à tua afirmação, a falta de qualidade de imagem, isso era nos tempos das FX, não pq não tivessem qualidade de orígem, mas sim pq a fraca potência do chip levou com "optimizações" de AA (não tinha RG AA) e filtragem "brilinear" nos drivers para tentar compensar.
Hoje em dia nas GF6 muito dificilmente encontras diferenças para qlqr ATI.


Alias, as Gforce6 têm melhor qualidade de imagem k as ATi X, isto porque a Nvidia usa Filtro Triliniar Puro, enquanto k a ATI fez uma pekena batota para conseguir mais frames, usa uma tecnica que inventaram que usa uma mistura de filtragem triliniar com biliniar obtendo assim mais alguns frames nos jogos. Mas Triliniar puro tem mais qualidade de imagem.
 
DJ_PAPA disse:
Agora quando é que a Nvidia vai renovar totalmente a sua arquitectura? O G70 (0.11nm) nao parece arquitectura totalmente nova, mas sim um esticanço á serie 6800!
A nVidia já renovou com a 6800U ainda pode fazer os esticanços que a Ati andou a fazer, eles devem estar bem lembrados do fiasco do NV30, por isso agora dá ideia que fazem as coisas, com mais calma.
Pelo que tenho visto dá ideia que as estratégias se inverteram, antigamente era a NV mhz agora é Ati, a NV a inovar NV30 ddr2 etc, agora é a Ati, espero bem que não se dê mal para bem de nós todos que gostamos de placas de topo.
Qualquer das maneiras penso que se quiserem inovar ainda têm espaço de manobra até meio de 2006.
 
Ansatsu disse:
Alias, as Gforce6 têm melhor qualidade de imagem k as ATi X, isto porque a Nvidia usa Filtro Triliniar Puro, enquanto k a ATI fez uma pekena batota para conseguir mais frames, usa uma tecnica que inventaram que usa uma mistura de filtragem triliniar com biliniar obtendo assim mais alguns frames nos jogos. Mas Triliniar puro tem mais qualidade de imagem.


Referi isso mais acima como "Brilinear".
A técnica não é exclusiva da ATI, tb a Nvidia a utiliza.
Nas FX continua lá, nas GF6 há opção nos drivers para a desactivar.
 
blastarr disse:
Isso de ser pior já é subjectivo, depende muito do jogo que está a ser testado.

Não Blastarr agora espera aí que estás a ser altamente biased! O briliniar da nVidia piorava consideravelmente a qualidade de imagem, enquanto que o falso triliniar que a ATI apenas usou optimizações que só foram visíveis quando aplicado o método RGB! É que não têm nada a ver! Nunca NUNCA uma ATI teve pior qualidade de imagem que uma nVidia da mesma geração, bem pelo contrário! E digo isto porque tive uma Radeon 9000 non-Pro e a mudança para a 9800 Pro foi abismal! E eu já notava diferença para uma GF 4 Mx! Sei que as 6800 têm certamente a melhor qualidade de imagem da história da nVidia, isso vê-se nas reviews de IQ, mas sinceramente não esperem que eu diga que já estão iguais, porque não estão.
 
Zealot disse:
O briliniar da nVidia piorava consideravelmente a qualidade de imagem, enquanto que o falso triliniar que a ATI apenas usou optimizações que só foram visíveis quando aplicado o método RGB!

Yep.
Mas é preciso ter em consideração que o "brilinear" só foi usado nas 5XXX e acho que não vem a default nas 6XXX.


Zealot disse:
É que não têm nada a ver! Nunca NUNCA uma ATI teve pior qualidade de imagem que uma nVidia da mesma geração, bem pelo contrário! E digo isto porque tive uma Radeon 9000 non-Pro e a mudança para a 9800 Pro foi abismal! E eu já notava diferença para uma GF 4 Mx!

É discutivel comparar uma Geforce 4 Mx com as 9000 ou 9800, já que não passa de uma Geforce 2 com umas melhorias.

Sorry pelo OT.
 
A única melhoria susbtancial das GF4mx em relação às GF2 diz respeito ao motor 2D, nomeadamente na qualidade e aceleração de vídeo.

As FX tinham optimizações visíveis em jogos que usassem mtos shaders e/ou que não estivessem optimizados para a arquitectura.
O Doom3 corre muito bem e com mto boa qualidade de imagem na FX5900XT do meu irmão, mesmo sem OC.
Hell, mesmo o HL2, com o hack FP16, corre bem no modo DX9 forçado, e ele joga sempre a 1280x1024 com 2x AA e 4x AF.
 
Nemesis11 disse:
Yep.
Mas é preciso ter em consideração que o "brilinear" só foi usado nas 5XXX e acho que não vem a default nas 6XXX.

Nem eu disse nada em contrário! ;)

Nemesis11 disse:
É discutivel comparar uma Geforce 4 Mx com as 9000 ou 9800, já que não passa de uma Geforce 2 com umas melhorias.

No fim do ano de 2002 as placas low-end eram as GF 4 Mx e as Radeon 9000. Era o que estava à venda por ambas as empresas! Que injustiça é que estou a cometer? :confused:
 
Zealot disse:
No fim do ano de 2002 as placas low-end eram as GF 4 Mx e as Radeon 9000. Era o que estava à venda por ambas as empresas! Que injustiça é que estou a cometer? :confused:

Tens toda a razão. Estava a confundir com a 9600.
Mas a culpa é da Ati por ter placas com nomes parecidos :D.

Mais on topic:

First, we remain concerned with the delay of ATI's next generation high-end graphics processor, code-named R520, which appears to be now due out in August, flatly missing the 'spring refresh' window. Given the tape-out took place as far back as October, and Taiwan Semiconductor's yields on 90nm have been generally good on other products including the Xbox 360 graphics chip, we believe the delay is due to a design issue

http://www.forbes.com/markets/2005/06/07/0607automarketscan10.html?partner=yahootix&referrer=

Agosto? Design issue?

Não sei até que ponto a "Goldman Sachs" está correcta, mas aqui fica. O resto da noticia tem mais info sobre a Ati.
 
Back
Topo