在人工智能(AI)概念没有火热之前,无论手机还是个人电脑(PC)都已经悄然引入人工智能加速相关的硬件和技术,目的是在部分功能上获得更好的体验,比如手机相册中的人脸智能识别和分类, PC和NAS(网络附属存储)在算力闲暇时对图像、视频的整理,以及视频通话时的背景虚化等都是很好的例子。
这个时期的AI计算我们通常称为决策式AI,即在成熟的底层技术框架内,通过数据分类标签和辨别的形式,通过CPU、GPU、NPU等处理器合力。它们的特点是具备一套成熟的判断机制,通过夜以继日的训练识别,不断提升精度,并具有很强的针对性。
随着大模型的火爆,另一种AI也推向了大众视野,即生成式AI。无论是云端AI服务加速,还是近期能够本地运行200亿参数大语言模型的AI PC,它们的思维是发散且具有创造性的,同时也对硬件提出了更高的要求。
生成式AI 背后的海量数据
生成式AI与决策式AI最大的不同在于模型的规模,大模型计算本身意味着高算力、高存储需求。正因为如此,大语言模型(LLM)才会成为推向应用层面的首要选择,原因很简单,相对于图像、视频而言,抽象的文字已经是最好整理的了。
但即便如此,大语言模型本身占用的数据量仍然巨大,以GPT-3为例,光是训练参数就达到了1750亿个,训练数据达到45TB,每天会产生45亿字内容,每次训练费用需要460万美元。而进阶到GPT-4之后,训练参数从1750亿个增加到1.8万亿个,训练成本进一步提升到6300万美元,训练数据量信息虽然没有公布,但可想而知增长也是指数级的。
有意思的是,大语言模型训练在当下似乎已经变成了日常,头部厂商已经将目光投向了图像生成和视频生成,近段时间火热的文字生成视频应用Sora,以及文生图Midjourney都是很好的例子。现在我们知道光是文字内容就可以占据海量的存储空间,如果将训练模型换成图像、视频,对内容存储和读写性能需求也注定指数级攀升。
SSD 的重要性不断凸显
随着生成式AI深入到不同领域,能够提供高速存储性能的固态硬盘(SSD)变得至关重要。不仅如此,对于企业和数据中心而言,存储的可靠性、能效、性价比,以及对前沿技术的支持都变得至关重要。比如,企业级用户会考虑在有限的机房空间内获得更多的容量,即提升单位存储密度,并且还要考虑机架和机房的散热能力和供电能力,这时候EDSFF(企业与数据中心标准外形规格)规格似乎就成为了不错的选择。
EDSFF的特点是由头部企业引领并获得行业认可,针对物理尺寸、散热、性能、布局、安装便捷性等特性优化,从而达到更好的效果。
以存储制造商铠侠推向市场的CD8P产品为例,其配备了EDSFF E3.S版本,能支持PCIe® 5.0和NVMe™ 2.0,可提供高达30.72TB的存储容量,拥有可达12,000MB/s顺序读取性能,并具备2000K IOPS的4K随机读取能力,在能耗与应用性能表现之间做到很好的平衡,为数据中心和企业级用户提供合理的扩容选择。
如果希望性能更进一步,铠侠CM7系列作为高性能企业级双端口固态硬盘可以参考。事实上CM7系列是较早提供PCIe® 5.0和NVMe™ 2.0支持,并已经充足释放PCIe® 5.0性能的产品,最大容量同样也达到了30.72TB。它拥有高吞吐量和高密度存储的性能表现,非常适合大模型计算,大数据,深度学习加速、AIGC等人工智能应用场景。
随着生成式AI在行业内的发展,市场对硬件的需求越来越高,与此同时庞大的数据量需要高性能接口、大容量存储支持也不容忽视。对于身处其中的行业参与者而言,未来AI的发展创新之旅,也注定少不了由他们来承担的重要角色。
……
关注读览天下微信,
100万篇深度好文,
等你来看……