通信+AI的七大趋势

  • 来源:通信产业报
  • 关键字:人工,智能,技术
  • 发布时间:2021-01-01 15:19

  随着人工智能技术的广泛应用和通信领域技术的演化迈进,均具有赋能效应的二者的相互融合共生发展成为必然趋势,在通信网络架构优化及网络传输效率提升的大背景下,人工智能得以在极短周期内完成海量数据传输、整合,及推理运算,整体技术发展呈现七大趋势。

  方向一:端-云芯片“并驾齐驱”。云端方面,英特尔推出Nervana NNP-T和Nervana NNP-I芯片,并在2020年推出独立GPU Xe,寒武纪、比特大陆、燧原科技等国内企业纷纷从细分领域逐步切入云端AI芯片市场。终端方面,随着AI推理任务向边缘端转移,英伟达、谷歌等云端AI芯片龙头相继发布面向边缘端的AI芯片,英特尔也将在端云一体战略下构建多元化AI芯片体系。

  方向二:5G激发高通量计算发展活力。5G 技术将计算和存储能力前推至接入网,一方面通过边缘计算实现AI在终端侧的应用,打破以往数据处理主要集中在云端的制约,使终端与云端间实现良好衔接和互补,满足AI 对高通量计算力的需求;另一方面助力提升 AI技术连接效率,使深度学习、数据挖掘、自动程序设计等在更多应用领域得以实现。

  方向三:通用、边缘端深度学习开源框架持续演进。当前主流深度学习开源框架 TensorFlow和PyTorch性能持续发展完善,应用热度大幅增长。谷歌在TensorFlow 1.0基础上推出了升级版本2.0 Alpha,能够与iOS 系统集成,大大增强其移动性和可拓展性。据 arXiv.org平台数据,去年上半年发表的应用 PyTorch框架的论文同比增长率高达194%,应用热度实现强劲增长。

  方向四:量子机器学习搭建量子计算与人工智能融合桥梁。随着通信技术发展下的数据连接规模指数级增长,以及深度学习模型网络参数的持续扩增,冯式体系计算结构框架瓶颈亟待突破。2020年3月,谷歌发布用于快速构建量子机器学习模型的开源库(TFQ),为控制和模拟自然或人工量子系统提供助力。未来量子机器学习有望大幅降低机器学习计算复杂度,实现更高的计算效率。

  方向五:存算一体等可重构架构将驱动芯片架构创新。随着5G商用和云计算需求的迅猛增长,提升算力能力、降低算力成本成为各类大规模数据中心的核心诉求,而存算一体则被认为是突破AI算力瓶颈的关键技术之一。国内初创企业清微智能采用软硬件可编程、混合粒度的可重构架构(CGRA),解决了传统指令驱动的计算架构取指和译码操作的延时和能耗问题。

  方向六:认知智能走向产业化。在新一代通信技术助推下,数据传输能力、计算力和存储方式持续升级,图像、语音、视频、触点等感知智能快速演进,在计算智能和感知智能发展基础上,人工智能向具备分析、理解、推理、判断等能力的认知智能延伸,并在反洗钱和安防领域逐步走向应用。安防领域,中国人民公安大学开发了基于犯罪者微观行为和宏观行为特征提取的犯罪预测、资金穿透、城市犯罪演化模拟等认知模型,助力安全事件预警和风险态势感知。金融领域,中国银行基于图算法的跨境资金网络可疑交易AI模型,已大面积替代反洗钱人工甄别。由此可见,认知智能正逐步围绕不同场景服务于产业。

  方向七:算力生产的底层物理逻辑有望颠覆。在当前通信技术飞速发展背景下,数据传输更为高效,但传统硅基集成电路却逼近物理极限,高介电常数介电层、鳍式晶体管等新材料和器件虽延展了传统半导体性能并逐渐成为主流,但并未从源头上改变传统数据处理、存储的底层物理逻辑,难以根本性解决人工智能的算力制约问题。当前碳基材料(碳纳米管、石墨烯)、锗和III-V族等硅基替代材料、分子和生物材料(分子、原子级存储器件)、铁电材料等晶体管低能耗介电材料、可导致3D堆集的二维纳米材料等物理机制已逐步清晰,将为算力生产物理根基的颠覆性重塑、算力的指数级提升、数据高效处理与存储带来更多新的可能。例如,基于量子效应的强关联材料和拓扑绝缘体,以及磷烯、硼烯、石墨烯等二维超导材料可导致无损耗的电子和自旋运输,具有成为全新高性能计算逻辑、存储器件的基础。

关注读览天下微信, 100万篇深度好文, 等你来看……