ChatGPT需要1万张NVIDIA A100显卡 国内仅有6家公司做到

2023-04-06 10:05:47 来源:科技头条

(相关资料图)

ChatGPT这样的生成式AI不仅需要千亿级的大模型,同时还需要有庞大的算力基础,训练AI现在主要依赖NVIDIA的AI加速卡,达到ChatGPT这种级别的至少需要1万张A100加速卡。

能加速显卡现在是稀缺资源,国内购买NVIDIA高端显卡更是不容易,来自商汤科技的一份纪要显示,能达到ChatGPT这种算力要求的公司在国内凤毛麟角,只有6家。

他们是商汤、百度、腾讯、字节、阿里和幻方,其中百度、腾讯、字节、阿里这样的互联网巨头能买到且买得起1万张A100显卡不让人意外。

百度3月底已经发布了自己对标ChatGPT的产品文心一言,接下来其他公司也会陆续发布自己的AI产品。

NVIDIA A100核心及计算卡是2020年5月份发布的,也是安培架构的第一款产品,7nm工艺制造,542亿个晶体管,826方毫米面积,8196个流处理器,实际开启6912个,搭配5120-bit 40GB HBM2显存,PCIe版本功耗250W。

A100的单精度浮点能高达19.5TFlops,FP64能9.7TFLOPS,INT8能624TOPS,TDP 400W,显存的带宽也是恐怖的1.6TB/s,后期还发布过80GB HBM2e的版本,频率从2.4Gbps提升到3.2Gbps,使得带宽从1.6TB/s提升到2TB/s。

标签: 人工智能 计算机显卡 人工智能加速卡 高性能加速显卡

上一篇:
下一篇: