Na I/O do ano passado, a companhia apresentou a primeira geração dos TPUs (tensor processing units), que permitem correr algoritmos de machine learning de uma forma mais rápida e eficiente e, este ano, surge uma nova geração que está optimizada para treinamento e pode processar bastante mais informação. A companhia construiu matrizes destes TPUs que possuem 64 chips e entregam um poder de processamento de 11.5 petaflops.
As novas unidades são muito mais rápidas que qualquer outra unidade de processamento disponível, atualmente no mercado. Pelo menos é o que referem Jeff Dean e Urs Hölzle, dois investigadores da Google na área de AI e Infraestrutura em um post do blog da companhia.
“Um dos nossos novos modelos de tradução de grande escala costumava levar um dia inteiro para treinar 32 dos melhores GPUs disponíveis – agora ele treina com a mesma precisão em uma tarde usando apenas um oitavo de um pod TPU “, escreveram.
“É um avanço importante em nossa infraestrutura técnica para a era da nuvem”, disse Pichai ao revelar os novos chips durante a sua keynote de abertura do evento. “Vamos disponibilizar Cloud TPUs para o Google Compute Engine para que as empresas e programadores possam tirar partido dela”, afirmou o CEO que denota, assim, uma nova tendência na empresa.
É que o Google costuma guardar suas inovações mantendo os avanços tecnológicos para seu próprio uso, o fato de ir disponibilizar a terceiros, é assim uma novidade.