A Nvidia e o Google revelaram uma parceria para oferecer a família de instâncias VM (A2) otimizada para aceleradores, alimentada pela GPU de computação Ampere A100 da Nvidia.
A nova família de instâncias A2 VM é voltada para aplicativos de uso intensivo de computação, incluindo IA, análise de dados e computação científica.
Introduzido em meados de maio, o acelerador A100 da NVIDIA possui 6912 núcleos CUDA e está equipado com 40 GB de memória HBM2, oferecendo até 1,6 TB / s de largura de banda de memória. O dispositivo fornece até 9,7 desempenho do TFLOPS FP32, até 19,5 desempenho do tensor TFLOPS FP64 e até 624 TOPs de desempenho do tensor INT8.
Nvidia Ampere A100
O Google e a Nvidia esperam que as novas GPUs baseadas no AMPERE A100 aumentem em 20 vezes o desempenho do treinamento e da computação de inferência em relação aos processadores da geração anterior.
A família de instâncias VM otimizada para acelerador (A2) está disponível em alfa mediante solicitação e será oferecida com diferentes níveis de desempenho para clientes com vários requisitos. Aqueles com cargas de trabalho exigentes que exigem até 312 TFLOPS de desempenho FP64 ou até 20 POPS de desempenho INT4 poderão obter a instância A2-megagpu-16G alimentada por 16 GPUs NVIDIA AMPERE A100 interconectadas usando o NVSwitch com 640 GB de memória HBM2, 96 vCPUs e 1,3 TB de memória do sistema. Aqueles que não precisam de tanta potência computacional podem obter a instância A2-highgpu-1G alimentada por um único acelerador A100 e uma vCPU Intel Cascade Lake de 12 núcleos.
A disponibilidade pública das VMs A2 do Google é esperada ainda este ano. O Google diz que os aceleradores de GPU AMPERE A100 da NVIDIA serão suportados em breve pelo Google Kubernetes Engine (GKE), Cloud AI Platform e outros serviços do Google Cloud.
O Google Cloud é o primeiro provedor de computação em nuvem a oferecer os serviços A100 da Nvidia. A empresa usa os servidores HGX A100 da NVIDIA projetados internamente e construídos sob supervisão da empresa de GPU.