计算机:重视AI芯片配套的软件生态.pdf

1.CUDA是除性能外英伟达的重要壁垒
1.1.GPU在当下仍是AI算力最好的选择
AI大模型的训练过程对算力的需求极为庞大。AI大模型通常拥有数以亿计的参数,需要在海量数据集上进行训练。例如,GPT-3这样的模型训练所需的算力当量高达3640PD(Petatlops-Day),这意味着如果以每秒一千万亿次的计算速度,需要连续计算3640天。在AI领域,ScalngLaw表明,随着模型规模的扩大,其性能和能力也会相应提升,但同时也需要更多的计算资源。自2012年以来,AI训练应用的算力需求每3-4个月就会翻倍,从2012年至今,AI算力增长超过了30万倍。这种增长速度远远超过了摩尔定律预测的芯片性能提升速度。AI算力需求的迅速增长促使大家追逐更好用的算力芯片。在人工智能的世界里,算力就像是燃料,为AI模型的训练和推理提供动力。随着AI技术的发展,AI模型规模的不断扩大,训练和推理所需的计算资源呈现出爆发性的增长趋势,大家都在寻找更高效、更强大的算力芯片。全球学术与产业力量也正倾力投入于高性能、专用化算力芯片技术的探索与创新之中。

本文来自知之小站

 

PDF报告已分享至知识星球,微信扫码加入立享3万+精选资料,年更新1万+精选报告

(星球内含更多专属精选报告.其它事宜可联系zzxz_88@163.com)