2025年6月中国银河证券,美国战略与国际问题研究中心(CSIS)发布文章《人工智能与战争——美国国防部如何负责任地领导》(Artificial Intelligence and War—How the Department of Defense Can Lead Responsibly)。文章主要介绍了人工智能的脆弱性对军事应用的挑战、美国需要解决此类挑战的急迫性、为此进行改革需要采取的关键措施等。文章强调,美国国防部需推动开发降低评估、管理和控制算法难度的工具。启元洞见编译该文章主要内容,旨在为读者了解相关研究提供参考。
引言
人工智能技术卓越却脆弱,即便在长期应用领域也易出错,若将其用于战争则会引发对错误后果的严重担忧。若无法预测人工智能军事能力的效果,便无法依赖其提升作战效益。文章指出,美国国防部尚未开发出系统评估人工智能军事能力准确性的分析工具,也未系统构建将人工智能有效融入战争的作战概念。美国国防部对人工智能军事能力的开发、使用、指导较笼统,要求具备“负责任、公平、可追溯、可靠、可治理”等特质,但这远不足够。
人工智能有望显著提升作战能力,但前提是效果可以被准确预测,而美国国防部目前还做不到这一点。和平时期推动军事创新极难,战争虽能快速提供技术整合经验,却往往需要付出惨重代价。对此,本文强调,美国国防部需开发分析工具,并就如何开发及运用这些工具提出建议。
一、核心挑战
和平时期的成功创新需解决多重难题:
1.人工智能在军事领域的应用可能导致失误频繁出现且后果严重。因此,需要开发分析工具确保人工智能在战场的准确性,但目前相关工作有限。
2.若将人工智能用于战争,指挥中心的决策需依赖对算法效果的预测,否则无法负责任地授权敏感应用(如传感器和火力网络)。
3.历史表明,新技术需融入新作战概念才能制胜,但美国国防部未系统开发、验证和实施此类概念。
4.有效地、负责任地整合新兴技术,虽困难但紧迫。
5.现实主义者、自由主义者和人道主义者在战争因果问题上观点分歧。现实主义者看重人工智能带来的精确和速度优势;自由主义者担忧速度加剧升级风险;人道主义者反对自主火力决策,认为其缺乏精确性和人道主义。
本报告聚焦常规作战中的人工智能,不直接涉及核领域。
二、关键改革中国银河证券
文章指出,美国需广泛改革以增强整合新兴技术的能力,但不能等待内部结构和流程修复,而是需要更快推进负责任的人工智能整合工作。美国国防部长应授权部分高级作战人员(包括特种作战司令部、印太司令部和欧洲司令部的指挥官)开发人工智能军事能力的作战概念,从而摆脱官僚限制。赋予其资金、人员配置、法规解读等新权限,可从多渠道选择解决方案,新作战概念和能力需在充分模拟的战争游戏中测试,2~4年后由美国国防部长决定是否保留其权限。
建议美国国防部长在开发分析工具初期创建竞争性环境,让选定的作战指挥官和重组后的首席数字与人工智能办公室分别开发,然后选择最有用的工具套件,在美国国防部内统一分析方法。
首席数字与人工智能办公室应补充作战与分析领域的专业知识,或成立兼具作战和人工智能分析能力的新机构。应确保JASON(为国家安全界提供敏感技术咨询的顶尖科学专家小组)吸纳顶尖人工智能学术专家,其建议虽初期不被瞩目,但往往具有启示性。
三、传感器与火力网络
战争的核心目标之一是定位红色目标并用蓝色武器摧毁。本文所指的“传感器和火力网络”是人工智能驱动系统,用于识别和描述红色目标、分配蓝色武器并发射,规模可达战场或战区级别,目前尚无如此规模和复杂度的网络。该网络整合蓝色传感器和信息流,评估成百上千个红色目标,从多渠道调配武器,然后由人员操作或在特定条件下自主发射。
以色列铁穹系统是小型案例,在拦截短程弹道导弹方面成效显著,成功率达90%,从发射到拦截导弹的反应时间仅为15秒。但随着中东战争持续,其脆弱性可能凸显,相关系统拦截成本高,且面对大量来袭导弹时可能因过载而失效。
传感器和火力网络可快速识别目标、分配武器并发射,人工智能网络(可能设为自主模式)或为唯一能及时起效的方式。该网络分三阶段:识别、筛选并分析红色军事目标;分配蓝色武器以最大化效能并合规;由人员或按预设规则由算法发射武器。分析认为人工智能网络具备精确和速度优势,小型网络已显效,大型网络虽似可行,但细节可能制约其规模。
四、分析工具的必要性
通常,战场、指挥中心和战争游戏中的决策,按不同场景需不同分析路径和工具。战场上的决策需明确问题,如士兵需确认人工智能算法在特定情境下的准确性,避免误击;指挥中心的决策需更深入理解军事措施的预期效果,评估军事效能和战争法合规性,但目前对算法稳健性的理解不足,无法负责任地做出判断;战争游戏中的决策也需分析工具,需模拟红蓝双方装备、战术的互动效果等。
无论传感器和火力网络是否自主,决策都需准确和稳健,人类授权的自主发射需更优数据,若无良好分析工具,意义不大。需要定义“敏感”的含义,明确不同的准确性和稳健性标准。
在当前发展阶段,生成式人工智能不应用于敏感领域,包括传感器和火力网络,因为易受随机错误影响。只要分析人员清楚生成式人工智能算法中固有的错误风险,其可作为情报分析师的辅助工具。人工智能还引发了其他问题,如人工智能做瞄准和发射决策的伦理问题等。
五、不同流派的观点中国银河证券
现实主义者、自由主义者和人道主义者是解释国际关系因果的主要流派,虽罕见地一致认为人工智能将改变战争,但对变革性质存在分歧。
现实主义者强调人工智能在有效威慑、决胜作战能力甚至防御主导方面的潜力,认为算法错误可管控至可接受水平。自由主义者警告算法错误和意外升级可能引发非预期战争,当两国都不想战争但担心对方先攻时,可能因恐惧失败而主动开战。人道主义者强调生命至上,担忧算法在武力使用决策中难以理解使用背景,不可避免出现不可接受的错误,反对用自主武器系统攻击人类,主张限制其使用。
三方均认为人工智能在战争中将具有变革性,但建议相互矛盾,分别呼吁加快人工智能的更广泛应用、对应用设限,以及禁止所有自主武器。分析工具的开发和使用虽不能消除分歧,却能体现对各方观点的尊重,起到协调作用。
六、人工智能算法的特性:
卓越但脆弱
人工智能的进步速度远超政策框架的应对速度。2022年11月,大语言模型引发广泛关注。2025年初,“更大训练数据库带来更准确算法”的规律被打破。DeepSeek展示了用更少算力开发出与美国顶尖大语言模型相当的技术;特定场景下,小型语言模型也能产生准确算法。这些进展表明人工智能技术进步迅速且不可预测。
人工智能的卓越令人惊叹,但同时也十分脆弱。其脆弱性体现在易出错,主要错误来源包括:
1.训练数据库错误。数据库与现实世界现象存在差异,如 “漂移”(训练数据集与输入数据之间逐渐出现差异)、“毒数据”(对手操纵数据误导算法)。
2.算法自身错误。生成式人工智能易产生随机错误(“幻觉”);强化学习可能出现 “对齐问题”(误解人类目标);混合算法可能因误差叠加导致严重错误。
3.用户交互错误。“自动化偏见”(被动接受而非严格重新评估算法结果)、“用户偏见”(选择性接受与自身预期一致的结果)、“反馈循环偏见”(算法将与用户交互的结果作为更新训练数据库的输入时强化偏见)。
七、所需分析工具的特性
应创建定量和定性工具,以有效且负责任地在战争中使用人工智能算法。
定量工具:用于评估准确性(战场效果)、鲁棒性(预测特定行动效果)、战争游戏建模(模拟互动效果)。军事人员不应将算法视为“黑箱”,无需成为人工智能专家,但需能判断现实作战条件是否与算法设计规格足够匹配,以负责任地使用。
定性工具:帮助军事人员判断现实作战条件是否与算法设计规格匹配,训练材料和模拟应突出可能使标准算法不准确的未来作战特征,演练纠正算法问题的替代技术。此外,定性工具还应帮助评估算法在区分战斗人员与非战斗人员方面的信心是否需调整,识别预训练算法准确性何时过低等。 对任何用于任务的算法,其定性工具的评估应成为作战单位的常规职责。
八、人工智能在战场的首次应用
近几个月,在乌克兰和俄罗斯边境地区,观察到人工智能在战争中的首次持续应用。乌克兰最初使用小型廉价商用无人机进行侦察和监视,后在无人机上安装炸药,由操作员操控引爆。面对俄罗斯的通信干扰,乌克兰让无人机使用图像识别算法识别目标并在指定距离引爆。这可能是人工智能传感器和火力网络在战争中的首次应用,规模虽小但往往成功。
俄乌双方均在探索人工智能和小型平台(尤其是无人机)的下一阶段作战应用,如无人机“蜂群”协同行动。尽管美国国防部内部各个项目已取得一定进展,但需更系统地理解、利用并防范这些技术。
人工智能正快速改变大多数领域,其在战争中的应用充满挑战。需推动开发降低评估、管理和控制算法难度的工具,这些工具也可应用于非国防领域。公民应主动塑造人工智能应用的未来,而非被动接受。
免责声明:本文转自启元洞见。文章内容系原作者个人观点,本公众号编译/转载仅为分享、传达不同观点,如有任何异议,欢迎联系我们!
转自丨启元洞见
研究所简介
国际技术经济研究所(IITE)成立于1985年11月,是隶属于国务院发展研究中心的非营利性研究机构,主要职能是研究我国经济、科技社会发展中的重大政策性、战略性、前瞻性问题,跟踪和分析世界科技、经济发展态势,为中央和有关部委提供决策咨询服务。“全球技术地图”为国际技术经济研究所官方微信账号,致力于向公众传递前沿技术资讯和科技创新洞见。
地址:北京市海淀区小南庄20号楼A座
电话:010-82635522
微信:iite_er
广升网提示:文章来自网络,不代表本站观点。