
Nvidia今年推出新世代的資料中心等級GPU,采用最新Ampere架構,當中包含了第三代Tensor Core與NVLink技術。
2018年3月開始,Nvidia推出GPU內存多達32GB的Tesla V100、可支持16個GPU互連的交織網路NVSwitch,以及運算效能更強、體型也更為龐大的深度學習整合應用設備DGX-2。
同年年底,他們發表了基于Turing架構、鎖定云端服務環境使用的GPU,名為T4。又于去年5月,將搭配這張GPU加速卡的EGX伺服器,與他們的電腦Jetson Nano、Drive AGX Pegasus,并列為EGX平臺,主攻邊緣運算。
2020年5月,該公司終于推出新世代的資料中心等級GPU,名為A100,采用了他們最新發展的Ampere架構。相較于Volta架構GPU的單精度浮點運算(FP32),改用A100新支持的TensorFloat-32(TF32)計算模式,來進行人工智能與高效能運算的處理作業,效能為156 TFLOPS,速度可提升至10倍;若結合TF32與結構化的稀疏性處理(Sparsity),A100的效能為312 TFLOPS,增長幅度可達到20倍之高。