Emanuel Laguna 8 anos atrás
Em evento na noite de ontem (ou madrugada no Brasil), a nVidia apresentou na GTC — GPU Technology Conference todas as informações sobre a GeForce Titan X que ficaram de fora da conferência da empresa na GDC 2015 que revelou o console Shield. Vamos às especificações:
·
Traduzindo: a Titan X é uma GeForce menos cara que a Titan Z e ambas as placas aceleradoras são feitas para atrair os consumidores normais para as placas de vídeo menos caras, com processadores gráficos mais simples, como a bela GeForce GTX 960. Tanto processamento, embora sirva para rodar jogos como Middle-earth: Shadow of Mordor em 4K com todos os efeitos ligados (a 40 frames por segundo) é mais útil em aplicativos científicos que utilizem GPGPU.
Por fora a Titan X mal lembra a Titan Z (crédito: Anand Tech)
Com relação aos concorrentes mais diretos, a Titan X mesmo com um único chip supera a Radeon R9 295X2, inclusive no preço:
Comparação de preços entre GPUs high-end (1º trimestre de 2015) | ||
AMD | preço | nVidia |
— | US$ 2.999 | GeForce GTX Titan Z |
— | US$ 999 | GeForce GTX Titan X |
Radeon R9 295X2 | US$ 699 | — |
— | US$ 550 | GeForce GTX 980 |
Radeon R9 290X | US$ 350 | — |
— | US$ 330 | GeForce GTX 970 |
Radeon R9 290 | US$ 270 | — |
·
Sobre o desempenho em jogos, a Titan X conseguiu ser melhor em 4K que a Radeon R9 295X2 em títulos como Sleeping Dogs: Definitive Edition, embora alguns modelos de placas aceleradoras com a dupla GPU da AMD esquentem pouco menos. Melhor esperar pelos modelos overclock da Titan X, com sistema de arrefecimento melhor que o de referência.
Saindo dos jogos, uma das demonstrações técnicas de tamanho poder em GPGPU foi o de treinamento profundo de redes neurais convolucionais. Usando o AlexNet como exemplo, a recém lançada GeForce Titan X levou menos de três dias para treinar um modelo de rede neural que usa 1,2 milhão de imagens do banco de dados da ImageNet, algo que levaria 40 dias num cluster com 16 processadores centrais x86 dos mais avançados (Intel Core i7).
DIGITS DevBox
A nVidia anunciou a plataforma DIGITS — Interactive Deep Learning GPU Training System, que promete dar a cientistas e pesquisadores um sistema completo de redes neurais convolucionais. A ideia é que alguém com pouca intimidade com programação possa usar deep learning em mineração de grande quantidade de dados não-lineares e o sistema esteja pronto para iniciar as buscas em no máximo uma hora.
Para facilitar o treino de redes neurais, a camaleão verde de Santa Clara oferece o DIGITS DevBox. É basicamente uma estação de trabalho otimizada para pesquisas em deep learning, composta por no mínimo quatro GPUs Titan X. Essa workstation científica da nVidia custa apenas 15 mil dólares no modelo mais básico. Dá para terminar o treino na AlexNet em menos de um dia.