AI 应用大潮下,算力产业持续增长
- 来源:智能制造纵横 smarty:if $article.tag?>
- 关键字:人工智能,产业,AI smarty:/if?>
- 发布时间:2022-10-07 15:50
人工智能是通过对算力、算法和数据等数字资源进行创造、加工、整合,最终实现用机器替代人,为传统行业智慧赋能的过程。
完整的人工智能产业链是在上游厂商提供专有算力和开发环境支持下,中游通过自研核心AI算法,搭载在硬件设备上,开发出行业级解决方案,再销售给下游各行业客户。其涵盖:1)上游基础层,主要提供AI专有算力支持和开发环境的设备和服务,包括AI芯片、系统开发框架、AI服务器等基础设施;2)中游技术层,在 AI算力的支持下,通过系统开发框架进行各场景数据的训练和学习,开发出计算机视觉、语音语义、知识图谱等AI算法,并将其搭载于硬件设备上形成行业级解决方案;3)下游应用层,针对不同的行业和场景,进行人工智能技术的商业化落地。
AI平台化基础设施算力需求旺盛
以AI芯片和开发环境与框架为基础的算力基础平台具有各场景通用的属性,标准化程度较高,搭载在数据中心服务器、边缘计算和终端设备中,当前已实现规模化应用。AI平台化基础设施市场呈现出以下特点。
市场快速增长:随着AI应用在智慧城市、智慧金融、智能汽车等场景使用量和开发量的提升,AI算力市场快速增长。根据Stratview的数据,2020年,全球AI芯片市场规模为76亿美元,预计到2026年将增长到709亿美元,复合年增长率(CAGR)为45.1%。
行业集中度高:AI基础平台技术壁垒高,掌握关键技术的英伟达持续提升产品性能,培育软件开发生态,已有较高市占率。英特尔、AMD等海外芯片公司积极布局AI芯片产品;以华为海思、寒武纪为代表的国产厂商持续追赶,产品性能快速提升,与头部厂商差距逐渐缩小。
生态建设是关键:AI基础平台不仅包含AI芯片,还包括系统级软件。系统级软件集成了开发库、运行环境和工具链等,通过与AI芯片的优化和适配,提升底层硬件资源使用效率。此外,下游行业在熟悉了特定软件的开发环境和开发库后,较难切换到其他阵营的产品。系统级软件有效提升了用户粘性,有利于AI芯片公司打造生态壁垒。
在AI计算中,涉及较多的矩阵或向量的乘法和加法。通用型的CPU用于AI计算时,存在耗时长、功耗高等问题,性价比较低。具有并行计算、大规模数据训练能力的AI芯片是目前大规模商用的主要产品,其具体包括3种类型:
• GPU(图形处理器):它是显卡的核心单元,是单指令、多数据处理器。GPU采用数量众多的计算单元和超长的流水线,在图像领域的运算加速方面具有技术优势;
• FPGA(现场可编程门阵列):其集成了大量的基本门电路以及存储器,利用门电路直接运算、速度较快。用户可以自由定义这些门电路和存储器之间的布线,改变执行方案,从而调整到最佳运行效果。与GPU 相比,FPGA灵活度更高,功耗更低;
• ASIC(专用集成电路):是一种为特定目的、面向特定用户需求设计的定制芯片,具备体积小、功耗低、可靠性更高等优点。在大规模量产的情况下,还具备成本低的特点。
AI算力已成为数据中心算力的主要需求之一
1.数据中心算力结构正在改变,AI算力快速渗透中国市场的AI服务器出货量和渗透率都有提升。根据IDC的数据,2021年全年,全球人工智能服务器市场规模达156亿美元,同比增长39.1%。未来,随着AI模型训练和应用的兴起,预计需要支持AI功能的服务器和芯片将持续增加。
以AI芯片制造商英伟达为例,2022年第一季度,其数据中心业务营收37.5亿美元,同比增长83.1%,占营收比重达到 45.2%,超过游戏业务营收36.2亿美元。2016-2021年,英伟达的数据中心业务营收快速增长,CAGR为66.5%,占营收比重由12.0%提升至39.4%。英伟达的数据中心业务已成为驱动公司快速成长的主要动力。
在智能算力需求快速增长的背景下,英特尔也加快在AI 芯片产品领域的布局。2015年,英特尔收购Altera公司布局 FPGA芯片;2019年,英特尔收购以色列AI芯片公司Habana布局ASIC芯片。目前,英特尔已开发多款AI芯片,积极向智能化算力转型。
2.各地政府正积极开展智能计算中心(AIDC)的建设 AIDC是以AI芯片提供模型训练和推理专用算力为主,配合少量的通用算力进行数据预处理和其他任务的数据中心。在新基建等政策的鼓励和支持下,各地方政府正在积极开展 AIDC的建设。据智东西统计,2021年1月到2022年2月期间,全国规划、在建和投入运营的人工智能计算中心超过20个,其中8个城市的AIDC已建成并投入运营。各地的AIDC可提供或规划的算力规模一般为100PFLOPS,相当于5万台高性能电脑的算力。
各场景AI应用推动智能算力需求快速增长
AI芯片作为算力基础平台不受限于场景,具有广泛应用的属性。相较于下游碎片化的特点,产业的上游AI芯片标准化程度较高,已实现规模化应用。以AI芯片为代表的基础算力具有各场景通用的特性。在云、边、端各场景下,AI技术的大规模应用带来算力需求快速增长,其应用的具体场景包括:
1.云端AI模型正向着大型化的方向发展
AI预训练大模型的规模在持续增加,算力基础设施建设是竞争的关键要素。2019年谷歌推出的BERT大模型拥有3.4亿个参数,使用了64个TPU,训练到目标精度的花费为1.5万美元。2020年,OpenAI推出的GPT-3大模型拥有1750亿参数,训练成本达到了1200万美元。2021年,微软和英伟达使用了 4480个GPU训练出的拥有5300亿参数的MT-NLG大模型,其训练成本更是高达8500万美元。
2.边缘端对AI算力需求快速增加
新应用带来通信架构的改变,边缘端是AI芯片新的增长点。云游戏、自动驾驶等新兴应用场景对于数据传输的速度和量级都提出了更高要求,传统的云端直连模式已较难满足大数据量的实时通信的要求。在终端和云端间布设边缘端,形成“云-边-端”的通信架构已经成为未来技术发展的主要方向。在靠近用户侧的边缘端布设服务器提供中等算力的服务,一方面数据分析在边缘端完成并传输给终端用户,提高分析传输速度,满足AI应用场景实时性的要求;另一方面边缘端仅将精简的数据流传向云端,缓解带宽压力,减少运维成本。边缘计算的需求增长将有效带动边缘端AI芯片的出货量。
3.AI算力为智能网联汽车赋能感知、交互、决策等功能
汽车智能化趋势清晰,智能驾驶AI模型需要算力支持。自动驾驶汽车渗透率不断提升,汽车驾驶控制系统正向“感知-识别-交互”等智能功能发展。汽车智能化需要对行驶过程中各种信息正确理解。因此,汽车厂商需要通过数据中心训练前端搜集的各种数据,不断优化智能驾驶仿真模型。智能驾驶AI模型对于汽车从L1/L2辅助驾驶阶段走向L3/L4自动驾驶阶段,并最终实现“智能决策、实时控制”的功能具有重要作用。未来,随着需要训练的各类行驶数据量的增加,以及开发智能驾驶AI模型需求的增加,汽车厂商对于AI算力的需求将有望提升。