Pois, mas assim com o mesmo chip aborda vários mercados. Até que ponto é viável ter algo que só sirva para AI e tem na mesma que desenvolver o chip mais genérico na mesma? Claro que pronto um "GV100" só para AI deve ser um coisa descomunal...
É verdade que com a GP100 e a GV100 a nVidia tem bastante flexibilidade e cobre vários mercados. AI, HPC, Bases de dados, etc. A questão, parece-me a mim é que o que está a puxar os preços para cima e fazer com que a nVidia venda imediatamente cada uma que produz é o mercado de AI. Olha para os resultados da nVidia dentro do grupo Datacenter.
Depois há outros sinais. A google criou um ASIC para este mercado. Não sei se é a primeira vez que a Google faz um chip, mas pelo menos é o primeiro que mostra publicamente.
Um pdf a descreve-lo:
https://arxiv.org/ftp/arxiv/papers/1704/1704.04760.pdf
Ele nem é muito complexo. Consome pouco, tem pouca área, apesar de ser feito a 28 nm mas tem excelentes resultados.
E agora olha para o ataque da Intel para este mercado:
- Primeiro, tens o Knights Mill, que deve ser um Xeon Phi modificado para satisfazer este mercado de deep learning (menos precisão)
- Segundo tem o Lake Crest, antigo Nervana, que deve ser mesmo um ASIC só para este mercado e o Knights Crest, que será um Xeon bootable com tecnologia da Nervana:
- Terceiro, será com os FPGAs da Altera, empresa que a Intel comprou. Vão lançar uma placa com um Arria 10 pensado para o mercado de AI:
- Por último, o Broadwell (parece, com 15 cores) mais FPGA integrado no mesmo package:
A não ser que todos estes produtos sejam um falhanço, a nVidia vai ter que responder, se quiser manter este mercado. E não vejo melhor forma que não um ASIC com Tensor cores ou algo equivalente.
Além destas empresas, há mais startups a apostar neste mercado, normalmente com ASICs
Yup, daí que as variantes GV10X devem vir bem diferentes... Quanto a Titan V, provavelmente vão usar o Tensor core para diferenciar da 2080 Ti, sendo que nesta ultima devem desativar parcialmente ou totalmente os Tensor's cores. Nas variantes para baixo se calhar deve ser suprimido totalmente a não ser que tenha utilidade para gamming e cia. (Porque não usar para a AI dos jogos?)
É que a diferença da Titan Xp de uma 1080 ti é apenas raw performance! Paga-se quase o dobro para ter mais 1 GB de memória e 256 shaders. A primeira Titan, ainda Kepler tinha como diferencial a enorme capacidade FP64 que nas 780(ti) foi capado propositadamente!
Sim, as Titans actuais não fazem muito sentido. O nome Titan vem de um supercomputador que existe nos Estados Unidos, que usa nVidia pelo FP64 principalmente. No entanto isso foi cortado das Titans. Isto é, o próprio nome do produto já não faz sentido.
Adicionar os Tensor Cores era uma boa forma de diferenciar o produto e podia, com um custo baixo, atrair o pessoal que quer um acelerador para a sua workstation que acelere AI (e que não custe 69 mil $, como a workstation da nVidia).
Pois, é que se a densidade for como é agora, não terão muita margem para esticar. Graficas consumidor só devem sair lá pro final do ano ou início 2018, nem tem necessidade de já puxar...
Há um site alemão, que agora não me recordo qual era que dizia que Volta em consumidor, só em Q2 2018. Não sei se será assim tão tarde, mas não seria de admirar.
A nVidia neste momento, nos vários parâmetros, não tem concurrencia no mercado, a meu ver. Não precisa de estar a responder a nada. Duvido que tenha que responder à Vega da AMD.
Isso a Nvidia lança mais pro final do ano o "V101" com todos os 84 grupos ativados, uns 1600 mhz de boost e 32 GB a 1 TB/s...
A nVidia não lançou uma GP100 sem estar cortada (também estava cortada a GP100). Com 815 mm2 duvido que algum dia a nVidia lance a GV100 com todos os SMs activos. Uma versão com 32GB e talvez mais bandwidth, sim, já acredito bastante nessa possibilidade.