获取竞争优势:美国生成式人工智能的军事应用

  • 来源:当代世界
  • 关键字:美国,生成式人工智能,军事应用
  • 发布时间:2024-06-12 18:01

  陈 婷 / 军事科学院战争研究院研究员

  【内容提要】美国高度关注生成式人工智能的发展,大力推动其在军事领域的运用,旨在全面提升作战能力,获取竞争优势。美方认为,生成式人工智能具有广阔应用前景,需要大力发展;面临多重风险挑战,需要稳步推进;处于初级发展阶段,需要科学统筹。为此,美方采取从上至下、“实践—理论—实践”的发展思路,成立生成式人工智能工作组,从政策指导、作战应用、安全维护三条线展开相关工作,并寻求在情报收集、作战筹划、作战指挥、作战训练、作战保障等方面运用取得进展。如何平衡风险与效益、“中心化”与“去中心化”、基础与前沿的关系,是美国生成式人工智能军事应用面临的三大难题。

  【关键词】美国 生成式人工智能 军事应用 ChatGPT

  生成式人工智能是指利用复杂的算法、模型和规则,以大规模数据集中学习,创造新的原创内容的人工智能技术。人工智能文生视频大模型Sora的发布,标志着该技术继ChatGPT后再次取得突破性进展。美国高度关注生成式人工智能技术的发展,大规模推动其在军事领域的运用,旨在全面提升作战能力,获取竞争优势。如何确立科学发展理念、建立务实发展路径、选准重点突破方向、看清未来面临问题,是美国推动生成式人工智能军事应用重点关注的问题。

  美国对生成式人工智能军事应用的基本认知

  美国对生成式人工智能军事应用的认知是指其对生成式人工智能在军事领域的应用价值、发展目标和推进方向等的认识。这主要反映在美军高层领导人讲话、发布的相关文件以及预算投入中,具体体现在以下三个方面。

  第一,具有广阔应用前景,需要大力发展。在2022年11月美国人工智能公司OpenAI推出ChatGPT时,生成式人工智能的直接影响和发展潜力就引起美军前所未有的重视。美国国防信息系统局局长、空军中将斯金纳表示,生成式人工智能可能是很长一段时间内最具颠覆性的技术和举措之一,“那些懂得如何最好地利用它,以及如何最好地防范它的人,将成为占据制高点的人”。在乌克兰危机中,ChatGPT等生成式人工智能的实践运用,进一步引起美军对该技术的重视。美国国防部在2023年11月发布的《数据、分析与人工智能采用战略》中,强调生成式人工智能在情报搜集、作战筹划、指挥决策、作战行动、后勤保障等方面具有巨大的潜在作用。为此,美国国防部各部门、各军种纷纷将生成式人工智能纳入尖端技术目录,并将其作为未来重点研发的技术之一。2024年2月,美国白宫科学技术政策办公室公布对美国家安全至关重要的关键和新兴技术最新清单,对18个技术领域进行了修订,其中人工智能领域包括机器学习、深度学习、生成式人工智能系统等。美国还为这些列入优先发展清单的技术提供专项研发经费。美国2024财年《国防授权法案》为包括生成式人工智能在内的人工智能研发与运用专门拨款18亿美元,并要求国防部长为生成式人工智能的开发、使用制定战略计划。

  第二,面临多重风险挑战,需要稳步推进。美国国防部对生成式人工智能的发展既寄予厚望,但也顾虑重重,不断强调其可能带来的风险。一方面是技术发展不成熟的风险。生成式人工智能根据提示使用统计数据来实现人类想法,但高质量数据的缺乏使其远不能代替人类进行深层思考和决策。美国国防部负责关键技术的副首席技术官梅纳德·霍利迪认为,美国国防部缺乏训练生成式人工智能模型的特定数据语料库,其还不能为军事决策提供很好的服务。美国空军部长弗兰克·肯德尔也表示,ChatGPT等生成式人工智能很有创意,但其军事用途有限,因其可能生成一些错误和虚假信息,短期内仍难以依靠类似工具执行编制行动命令等任务。美国中央司令部首席技术官斯凯勒·摩尔宣称,美国国防部正在积极运用生成式人工智能,但这些工具仍是武器库中“不成熟的技术”,涉及军事冲突时,它会被放在一边。

  另一方面,技术存在被恶意利用的风险。生成式人工智能可能生成虚假信息、虚假网站等,一些没有受过专业技术培训的人可以借此发起网络攻击,这可能被对手利用,造成新的网络威胁。美国国防高级研究计划局信息创新办公室主任凯瑟琳·费舍尔表示,生成式人工智能将使对手更容易开展高质量的网络钓鱼、勒索软件等活动,从而改变威胁格局。美国国家安全局网络安全主管罗布·乔也宣称,生成式人工智能将对数字安全和恶意黑客产生影响,美必须积极应对。

  为此,美国国防部希望稳步推进生成式人工智能发展,不直接采购成熟商业产品,而是依托自身数据,联合多家公司研发美军自己适用的“多模态”生成式人工智能。美国国防部负责关键技术的副首席技术官梅纳德·霍利迪表示,虽然大型语言模型有很多用处,但美国国防部不会使用现有ChatGPT,而将依托自身数据定制和培训生成式人工智能模型,然后借助云或本地计算对其进行加密、分析和反馈。

  第三,处于初级发展阶段,需要科学统筹。2023年9月,美国国防部生成式人工智能工作组负责人泽维尔·卢戈声称,生成式人工智能最终是否、以何种方式以及出于何种目的被军队和国防部大规模部署,仍然存在许多未知数。在美国国防部各部门、各军种、各战区纷纷大力开展生成式人工智能研发和应用的情况下,美军首先加强国防部层面集中统筹。美国防部第一副部长凯瑟琳·希克斯宣称,“美国国防部迫切需要探索生成式人工智能的使用,挖掘其模型的规模、速度和交互能力的潜力,以提高国防部执行任务的效率,同时采取适当的保护措施并减轻各种相关风险。”目前,美国国防部依托其下设的首席数字和人工智能办公室重点开展以下工作:一是制定生成式人工智能顶层发展规划,二是构建生成式人工智能跨部门合作机制,三是收集基于作战需求的生成式人工智能的用例,四是推动这些用例应用于作战实践,五是搭建多种生成式人工智能技术的集成平台,六是采取措施降低生成式人工智能带来的各种风险。

  美国生成式人工智能军事应用的实现路径

  为了加快生成式人工智能军事领域运用,美军采取从上至下、“实践—理论—实践”的发展思路,其核心是成立生成式人工智能工作组,分政策指导、作战应用、安全维护三条线展开相关工作。

  一、核心:设置专门指导机构

  2022年6月,美国国防部整合联合人工智能中心、国防数字服务局、首席数据办公室等机构成立的国防部首席数字和人工智能办公室正式运行,该办公室直接向国防部第一副部长报告工作,并对国防部22个涉及数据分析及人工智能的相关机构进行评估和精简。为了加强对生成式人工智能发展的指导,美国国防部于2023年8月在首席数字和人工智能办公室下设立生成式人工智能工作组,也称 “利马”工作组,旨在推进美军生成式人工智能能力的研发和“负责任的部署”。该工作组具有以下特点。

  一是打破跨部门壁垒。工作组是在美国国防部第一副部长凯瑟琳·希克斯亲自督导下成立的,希克斯专门发布备忘录,明确工作组的职责。在首席数字和人工智能办公室层面,工作组负责人由首席数字和人工智能办公室核心部门算法战局局长兼任,工作组的成果由首席数字和人工智能办公室核心部门“负责任人工智能工作委员会”进行转化。[1]在国防部层面,希克斯要求所有部门都要为工作组的举措实施和政策制定提供信息。与此同时,工作组通过举行 “行业日”等活动,整合企业界与学术界生成式人工智能研发力量。

  二是聚焦军事需求。基于国防部各部门、各军种等的需求,工作组重点开展以下工作:盘点国防部正在进行的生成式人工智能研发、部署、使用等工作;分析生成式人工智能的任务领域、工作流程与用例;支持国防部的技术开发工作,并监督相关技术整合情况;监督生成式人工智能与联合演习和实验的整合;针对生成式人工智能制定国防部长期发展计划等。[2]

  三是贯通研用环节。工作组的工作分学习、加速和指导3个阶段展开。学习阶段主要是全面了解人工智能的工作原理和外部数据应用过程,分析军方对生成式人工智能的需求,向业界发布信息征询书,收集和评估生成式人工智能军事用例,并把其集成到工作流程中。目前,工作组已收集230多个用例,主要集中在信息摘要、填表、物流、规划等管理层面,并正在评估这些用例,以确定哪些技术适合当前军队需求。加速阶段主要是聚焦军事用例与作战过程的联系,与国防部其他机构、军种部门等合作,加快对用例的理解、评估、部署及监测,根据任务需求整合相关技术。指导阶段主要是为国防部制定基于生成式人工智能的临时指南、框架和工作流程,参与国防部对大语言模型的实际研究和部署,并制定国防部生成式人工智能战略。

  二、政策线:颁布顶层规划指导

  2023年11月,在美国国防部发布《国防部数据、分析和人工智能采用战略》的同时,首席数字和人工智能办公室发布生成式人工智能工作组提交的《生成式人工智能临时指南》,主要围绕应对生成式人工智能带来风险提出建议,其内容体现在以下几个方面。

  一是理性看待风险。面对生成式人工智能带来的风险挑战,美国国防部敦促其各部门采用稳健的管理流程,而非彻底禁止使用生成式人工智能工具。美军认为,风险不可能完全消除,关键是记录使用案例相关的风险,分析哪些是可接受的、哪些是不可接受的。

  二是科学规避风险。谨慎使用商用生成式人工智能工具;禁止在没有审批的生成式人工智能模型中输入机密级国家安全信息或受控非机密信息;所有数据、代码、文本或媒体在输入军方的生成式人工智能模型前必须经批准公开发布;为提高透明度,鼓励对借助生成式人工智能工具创建的文档进行适当的标记。

  三是强化责任意识。所有国防部人员都要对生成人工智能协助下作出的结果和决策负责,建议用户验证并交叉检查此类工具的所有输出。

  三、作战线:开展作战实验测试

  生成式人工智能工作组成立以来,一直积极探索在作战领域使用生成式人工智能的可能性。其采取的主要措施是与各军种、战区司令部合作在相关作战环境中开展功能实验。

  一是“全球信息优势实验”。美国国防部首席数字和人工智能办公室于2023年2月重启“全球信息优势实验”,旨在为联合全域指挥控制提供数据集成以及人工智能使用的相关解决方案。实验团队由来自美军各军种和多个作战司令部的军人和文职人员组成,这是国防部举行的由数据、人工智能支持的全球综合实验。目前,该实验已经进行了9次。该实验的主管马修·斯特罗迈耶表示,“全球信息优势实验”为生成式人工智能工作组提供了一个基于美军作战任务试验人工智能能力的新场所。重启后的“全球信息优势实验”使作战人员能够利用生成式人工智能在战场上更快作出决策。2024年3月完成的第9次实验在多个作战司令部参与下对生成式人工智能工作组提供的用例进行测试,检验其能否执行后勤作战任务。

  二是人工智能作战实验。目前,美军欧洲司令部和印太司令部正与国防部首席数字和人工智能办公室的算法战局和国防创新小组合作,建立两个人工智能作战实验室,推动国防部人工智能技术的运用。国防部负责算法战的副首席数字和人工智能官乔伊·拉森表示,在人工智能作战实验室中,人工智能职能部门将与作战人员一起对人工智能工具的功能进行设计、测试和分析,从而能够准确掌握并提供作战人员需要的信息,为赢得作战胜利奠定基础。在人工智能作战实验室建设完善后,一些生成式人工智能工作组收集的用例在此实验。

  三是“虚拟沙盒”实验。2023年9月,美国“特别竞争研究项目”专家建议创建“沙盒”环境,推动生成式人工智能的应用。基于此,生成式人工智能工作组建立“虚拟沙盒”中心,旨在使作战人员使用经审核的生成式人工智能工具开展实验。生成式人工智能工作组负责人泽维尔·卢戈表示,该中心将为更多生成式人工智能用例的开发与验证提供安全可控的环境。[3]

  四、安全线:实施技术漏洞挖掘

  为应对包括生成式人工智能在内的人工智能技术带来的风险,美国国防部首席数字和人工智能办公室于2023年7月制定“赏金”计划,旨在发现人工智能模型存在的漏洞。2024年2月,该办公室开启针对人工智能漏洞的“赏金”活动,检测人工智能系统中的偏见,对已识别风险开展实验,确保人工智能系统在特定部署环境中安全、可靠和无偏见。该项活动由首席数字和人工智能办公室下设的负责任人工智能工作委员会牵头,首席数字和人工智能办公室下设的国防数字服务理事会负责指导。2024年1月29日—2月27日,第一次活动聚焦开源聊天机器人,主要识别大语言模型中的未知风险。

  此外,美国还通过加强国际合作,实施技术漏洞挖掘。2023年3月,美国国务院牵头在马里兰州科利奇帕克市召开人工智能军事应用会议。此次会议是53个国家签署《关于负责任地军事使用人工智能和自主技术的政治宣言》后的首次会议,42个签署国参加, 100多名与会者就过去几年中出现的各种人工智能军事应用进行研讨,并宣布将致力于利用人工智能优势降低军事领域风险,进一步落实《宣言》相关措施。

  美国生成式人工智能在军事领域的具体应用

  目前,美军将生成式人工智能更多用于部队日常管理,如利用软件机器人完成数据传输、单据处理等任务,不仅减轻了人工负担,而且还有效降低了人为错误的可能性,提高了管理质量。同时,美国国防部生成式人工智能工作组、国防创新小组等机构积极寻求将人工智能工具用于作战行动中,以改善决策、简化操作、降低风险,从而保持战场优势。

  第一,在情报搜集方面,利用生成式人工智能工具对海量的异构数据进行快速整合、分析,为指挥决策提供有力支撑。2023年5月,美国国防创新小组探求利用生成式人工智能,推进开源情报的收集与分析的技术方案。该技术可自动执行信息挖掘与评估,为指挥官展示可视化的战场信息环境。国防创新小组对技术方案提出3点要求:一是具备内容编辑和消息传播功能,协助分析师制定传播方案;二是遵守国防创新小组提出的人工智能准则;三是能在国防部信息环境中使用该技术。

  第二,在作战筹划方面,利用生成式人工智能工具迅速制定并调整作战规划,及时把握战场机遇和应对多种挑战。生成式人工智能工具能够对敌我战场情况,进行自动化持续分析,快速形成作战方案,并对其进行动态调整。2024年2月,美国陆军研究实验室的研究人员提出COA-GPT框架,旨在加速作战行动序列的开发。其主要是通过上下文学习将军事理论和领域专业知识整合到大模型中,在指挥官输入任务信息后,能够在几秒钟内产生初步作战行动序列,并且支持基于指挥官反馈对生成作战行动序列进行实时调整。[4]

  COA-GPT的开发,标志着利用人工智能技术特别是大语言模型技术在军事决策和规划中应用的一个重要进步。同时,美军印太司令部也在开发基于人工智能的联合作战规划工具包,该工具包可进行多域、战区级作战方案的规划、兵棋推演、分析和执行,大幅加速原先需要数小时、数天、数周、数年才能完成的作战规划过程,目前该系统的初始功能已交付。

  第三,在作战指挥方面,利用生成式人工智能工具在观察、判断等方面形成对敌优势,从而进行快速有效决策和兵力运用。2024年2月,美国国防部首席数字和人工智能办公室、国防创新小组以及印太司令部、陆军太平洋司令部、美空军在印太司令部人工智能作战实验室,举办面向全美的多级别“黑客马拉松”,旨在利用印太司令部机密级数据制定加强作战指挥能力的人工智能解决方案。之前的“黑客马拉松”已经产生包括大语言模型、无人系统、战斗损失评估等项目的原型。

  第四,在作战训练方面,利用生成式人工智能工具进行绩效和预测分析,甚至是课程规划和更新,在模拟仿真训练方面可以发挥更大作用。美国国防部首席数字和人工智能办公室正在考虑将生成式人工智能用于构建模拟训练的蓝方、红方或灰色部队,以减少进行模拟训练所需的人力,并探讨如何用生成式人工智能模拟多种作战场景并生成作战方案。而美陆军未来司令部已经开始使用生成式人工智能开展模拟对抗任务。

  第五,在作战保障方面,利用生成式人工智能工具根据作战保障的需要自动设置各项参数,大大简化保障流程,提高保障效率。美国空军快速战勤保障办公室采用“战备”生成式人工智能应用程序,优化空军作战飞机战勤保障流程,最大程度缩减飞机停飞检修时间,有效提高了作战飞机完备率和出勤率。美国海军第106攻击战斗机中队正在使用生成式人工智能工具实现舰载机辅助着陆、无人加油机空中加油,甚至为后勤补给管理提供帮助。

  美国生成式人工智能军事应用面临的主要问题

  美军生成式人工智能发展正处于初级阶段,但这也是日新月异的大发展时期,既有重大机遇,也面临巨大挑战。这主要体现在对风险与效益、“中心化”与“去中心化”、基础与前沿三种关系的处理方面。

  一是如何平衡风险与效益的关系。生成式人工智能正处于快速发展期,被广泛用于社会生活的方方面面,在给人们生活带来诸多便利的同时,也导致虚假信息、深度伪造等问题的出现更快速、更隐蔽。但技术的发展就是在试错中不断推进,在不断解决问题过程中推动其更有效地用于实践。生成式人工智能在军事领域的运用也是如此,不能因为风险禁止使用,也不能不顾风险贸然发展。美军在其发展的初级阶段比较重视平衡二者的关系,比如首份《生成式人工智能临时指南》强调在规避风险过程中稳妥发展。但在生成式人工智能的快速发展期,容易出现牺牲效益求安全或牺牲安全求效益的现象。例如,美军一些高级指挥官抵制生成式人工智能在军事领域的运用。能否在认知层面始终把握好风险与效益的关系是美军推进生成式人工智能发展面临的关键问题。

  二是如何平衡“中心化”与“去中心化”的关系。生成式人工智能将是美军联合全域作战的重要支撑。美军各军种、各战区都在大力推进生成式人工智能的运用,各方的模型需要具有互联互通互操作性,也要能在美军联合信息环境中运行。为避免冒进发展,美军成立生成式人工智能工作组,从国防部层面总体协调该技术的发展与运用,推进负责任地采用和使用生成式人工智能的统一方法。但各军种、各战区生成式人工智能的发展既需要顶层集中统一的规划,也需要各自内生需求的驱动。实践是连结集中规划和内生需求的纽带。目前,各军种、各战区的实践已经走在规划的前面,如何将这些实践结合需求形成科学的规划,是美军需要完成的一项重要任务。《生成式人工智能临时指南》也只是生成式人工智能工作组收集和评估100多条用例后制定的,其正在制定大语言模型的分类指南,国防部层面的生成式人工智能发展战略的出台还有待时日。实践需要规划指导,规划需要实践完善,能否在“中心化”和“去中心化”间保持平衡,避免出现“一统就死,一分就散”的局面是美军生成式人工智能发展面临的又一难题。

  三是如何平衡基础与前沿的关系。美国国防部的《数据、分析和人工智能采用战略》将人工智能的发展需求分为三个层次:底层是高质量的数据,中间是分析和指标,顶层是负责任的人工智能。生成式人工智能的发展需求亦是如此。高质量的数据是基础,负责任(或者说安全可靠)的生成式人工智能是前沿,但并不是只有拥有足够的高质量数据才去追求前沿。因为负责任生成式人工智能需要在其自身发展的过程积累有价值的数据,应该说这三个需求层次是相互联动、相互促进的。当前,美军一再强调在发展生成式人工智能过程中获取高质量数据的重要性,但在追求前沿的过程中会出现不注重基础、导致获取短暂的前沿,缺少长远的发展潜力;也可能出现过于重视基础,前沿止步不前的问题。如美军各军种都在开展生成式人工智能项目,但出现滥用涉密数据和敏感数据的问题。如何平衡基础与前沿,也是美军推进生成式人工智能应用所面临的难题。

  —————————

  [1] U.S. Department of Defense, “Responsible Artificial Intelligence Strategy and Implementation Pathway,” June 2022, https://media.defense.gov/2022/Jun/22/2003022604/-1/-1/0/Department-of-Defense-Responsible-Artificial-Intelligence-Strategy-and-Implementation-Pathway.PDF.

  [2] Josh Luckenbaugh, “New Pentagon Task Force Exploring Generative AI,” October 25, 2023, https://www.nationaldefensemagazine.org/articles/2023/10/25/new-pentagon-task-force-exploring-generative-ai.

  [3] Brandi Vincent, “Eric Schmidt-led panel pushing for new defense experimentation unit to drive military adoption of generative AI | Defense Scoop,” September 8, 2023, https://defensescoop.com/2023/09/08/eric-schmidt-led-panel-pushing-for-new-defense-experimentation-unit-to-drive-military-adoption-of-generative-ai/.

  [4] Vinicius G. Goecks, Nicholas Waytowich, “COA-GPT: Generative Pre-trained Transformers for Accelerated Course of Action Development in Military Operations,” March 28, 2024, https://arxiv.org/abs/2402.01786.

关注读览天下微信, 100万篇深度好文, 等你来看……