同胞·同袍:跨越海峡的抗战记忆
同胞·同袍:跨越海峡的抗战记忆
同胞·同袍:跨越海峡的抗战记忆◇从自主化武器(wǔqì)的集群协同到智能化后勤的精准保障,从自动化(zìdònghuà)防御的实时响应到沉浸式训练的场景重构(zhònggòu),人工智能正推动军事变革进入“算法驱动战争”的新阶段
◇这是美国开放人工智能研究中心(OpenAI)首次向(xiàng)军事领域开放技术,标志着生成式AI从民用场景向国防安全(ānquán)的跨界应用
◇人工智能技术在军事领域的深度渗透带来作战效能的革命性提升,但其内生的技术特性与战场复杂环境交织,衍生出多重安全隐患,不仅挑战(tiǎozhàn)传统战争法原则(yuánzé),更对国际安全秩序构成系统性(xìtǒngxìng)冲击
◇人工智能军事应用的快速发展(fāzhǎn)与全球安全治理的滞后性形成鲜明矛盾,国际社会在规则构建、机制(jīzhì)协调(xiétiáo)与责任界定等核心议题上陷入多重困境
美国海军一架电子战飞机在美国加利福尼亚州(jiālìfúníyàzhōu)南部的(de)圣迭戈附近海域坠毁,参与打捞坠毁飞机的小艇在海面作业(2025 年 2 月(yuè) 15 日摄)新华社 / 路透
在全球科技革命与军事变革深度融合的进程中,人工智能(AI)正以革命性力量重塑战争形态(xíngtài)。从自主化武器的体系化(tǐxìhuà)协同到多域防御系统的智能响应,从全链条后勤的精准调控到沉浸式训练(xùnliàn)场景的构建,人工智能军事应用已形成覆盖作战全流程(liúchéng)的赋能体系,推动战争从“能量对抗”向“智能博弈(bóyì)”加速演进。
技术进步(jìnbù)带来的安全(ānquán)风险与治理困境同步(tóngbù)凸显:算法决策缺陷引发高频误伤,作战节奏加快加速冲突升级,传统战略稳定框架遭到动摇,而相关全球治理体系陷入机制性停滞。如何在释放技术效能与管控安全风险中找到平衡点,成为(chéngwéi)人工智能时代全球安全治理的核心命题。
当前(dāngqián),人工智能技术正以前所未有的速度重塑军事领域的作战模式与保障体系,其应用已渗透至武器系统、防御(fángyù)体系、情报分析、后勤管理(guǎnlǐ)及训练模拟等核心军事领域。
从自主化武器的集群协同到智能化后勤的精准保障,从自动化防御的实时(shíshí)响应到沉浸式训练的场景重构,人工智能正(zhèng)推动军事变革(biàngé)进入“算法驱动战争”的新阶段。
自主化武器:从单一平台(píngtái)到体系协同的智能化跃升。
在自主(zìzhǔ)化武器发展中,美(měi)军无人(wúrén)艇蜂群技术展现出分布式协同作战的(de)潜力。2025年4月(yuè),美国海军宣布成功演示(yǎnshì)八艘小型无人水面(shuǐmiàn)航行器,这些航行器由海军先进的“利维坦”软件包驱动,将传统需40人操控的流程压缩至(zhì)1人监控。“利维坦”包括自主基线库、通用控制系统(kòngzhìxìtǒng)、自动目标识别和感知工具。其中,自主基线库是首个符合美国海军无人海事自主架构6.0标准的完全开放架构自主软件,可灵活调整并吸引广泛的行业参与。这些航行器还可与美濒海战斗舰任务模块无缝协同,标志着无人平台融入作战舰队的进程迈出了重要一步。
波士顿动力(dònglì)公司四足机器人“大狗”的(de)演进则体现了(le)强化(qiánghuà)学习在复杂地形机动中的军事(jūnshì)应用。在美国国防部高级研究项目局(DARPA)资助下,波士顿动力公司通过激光雷达与立体视觉融合,使“大狗”在35度斜坡、积雪等复杂地形移动,可负重伴随步兵班组实施山地补给。
DARPA空战演进计划聚焦人机协同的空中缠斗场景,构建了层级化自主系统框架:人类负责制定总体交战(jiāozhàn)策略(cèlüè)与目标优先级(yōuxiānjí),AI系统执行战术机动与武器交战细节。该计划通过“马赛克战”理念(lǐniàn),将传统单一平台杀伤链转化为“有人-无人”异构(yìgòu)网络系统,为未来空战的“人在回路”控制模式奠定技术基础。
自动化防御:多域(duōyù)威胁的实时感知与智能响应。
在反无人机(wúrénjī)领域,美国开放(kāifàng)人工智能研究中心(OpenAI)与安杜(āndù)(āndù)里尔的合作开创了大模型(móxíng)技术在动态威胁处理中的新路径。2024年12月,美国防科技公司安杜里尔宣布其部署(bùshǔ)的晶格(Lattice)软件平台将集成GPT-4o等先进模型,实现对无人机群的实时发现与打击。这是OpenAI首次向军事领域开放技术,标志着生成式AI从民用场景向国防安全的跨界应用(yìngyòng)。安杜里尔与美海军陆战队已签订2亿美元的反无人机系统研发合同。
美军工企业洛克希德·马丁对“宙斯盾”系统(xìtǒng)的(de)智能化升级,展现了AI在复杂海战环境中的决策(juécè)优势。最新系统通过机器学习算法同时跟踪100多个目标,基于实时威胁评估(pínggū)自动优化武器配置,在高超音速导弹拦截场景中决策时间压缩至毫秒级。
末端高空区域防御系统(xìtǒng)(萨德(sàdé))6.0版本通过弹道轨迹(guǐjì)深度学习模型,将来袭导弹的跟踪准确率提升至92%。该系统融合雷达数据与卫星情报,构建了(le)覆盖战略、战役、战术层面的多层防御网络,成为区域反导体系的智能核心。
情报分析:从数据处理到认知(rènzhī)决策的范式转型。
美国帕兰提尔(Palantir)公司(gōngsī)的(de)AIP平台构建了多源情报融合的智能中枢,通过集成大型语言(yǔyán)模型(LLM)实现对战场文本、图像、信号数据(shùjù)的实时解析,分析战场情况、制定行动方案并进行作战总结。它支持(zhīchí)识别敌方单位、请求(qǐngqiú)新图像以(yǐ)及将干扰器等资源分配给通信目标(mùbiāo)等任务。AIP还使AI能够将决策与操作系统同步,确保AI编写的提案得到人类的验证并与军事目标保持一致。此外,AIP还帮助构建、标记和准备国防数据,以在所有分类级别进行AI训练和开发。
攀登人工智能公司(ScaleAI)的多诺万(duōnuòwàn)(Donovan)平台专注于情报报告的自动化(huà)处理,通过强化学习(xuéxí)从海量文档中提取关键信息。多诺万支持战场情报准备,提供友军和敌军行动的实时背景,帮助指挥官更(gèng)快做出决策。其定制化模型Defense Llama针对军事术语进行优化,可准确识别冲突区域(qūyù)的兵力部署(bùshǔ)与装备动向。该平台已在美军第十八空降军部署。
DARPA“心眼”项目突破传统计算机视觉的(de)静态识别局限,构建了动态行为理解的生成式(shēngchéngshì)模型。该系统通过无监督学习解析战场视频(shìpín)中的动作链,对复杂场景的叙事准确率达(dá)78%,为后续“马赛克战”的战场态势预测提供了关键技术(guānjiànjìshù)支撑。其成果已融入多域指挥控制系统。
后勤管理(guǎnlǐ):全链条资源的精准化智能调控。
在装备维护领域,洛克希德·马丁为C-130J运输机构建的预测性维护系统,通过600个传感器实时采集发动机振动、液压(yèyā)压力等数据,实现135类故障的提前预警,维护成本下降22%。该系统采用数字孪生(luánshēng)技术模拟极端环境(huánjìng)对部件寿命(shòumìng)的影响,已从运输机扩展(kuòzhǎn)至AC-130炮艇机与EC-130电子战机队。
美国空军熊猫(xióngmāo)(PANDA)系统将人工智能嵌入“基于(jīyú)状态的维护”框架,通过分析F-35战斗机的传感器数据,生成预测性(yùcèxìng)维护建议,实现从定期维护向视情维护的模式转变(zhuǎnbiàn)。该系统构建(gòujiàn)了跨机型、跨地域的统一维护平台,使装备完好率显著提升,成为全球最大规模的军事装备智能保障系统。
美国海军后勤人工智能集成计划通过(tōngguò)兵棋推演建模,优化舰艇零部件库存与全球供应链调配。该系统基于历史消耗数据(shùjù)与实时任务需求,动态调整维修备件储备(chǔbèi),将(jiāng)关键部件缺货率降低30%,同时通过强化学习算法模拟不同补给策略的效能,为航母战斗群的远洋部署提供决策(juécè)支持。
训练模拟:沉浸式场景构建与(yǔ)个性化能力生成。
美国陆军“合成训练(xùnliàn)环境”通过融合虚拟现实与增强现实技术,构建了全地形(dìxíng)交互式训练场景。该(gāi)系统集成综合视觉增强系统护目镜传感器,实时跟踪士兵心率、脑电波等生理数据,通过压力模拟算法生成逼真的战场应激反应,提升训练效果。标志性项目“下一代班组武器”训练模块,已实现实弹射击(shídànshèjī)与虚拟目标(mùbiāo)的无缝融合,大幅降低(jiàngdī)实装训练成本。
微软(wēiruǎn)推动DALL-E图像生成技术在军事训练中的应用,为战斗管理系统提供低成本数据增强方案。通过生成高逼真度的战场(zhànchǎng)图像,训练算法(suànfǎ)可覆盖绝大多数极端场景。该技术已应用于无人机目标识别系统,使复杂背景下的目标检测准确率提升,为智能武器系统实战化部署(bùshǔ)提供了数据支撑(zhīchēng)。
人工智能技术在军事领域的深度渗透(shèntòu)虽带来作战效能的革命性提升,但其内生的技术特性与(yǔ)战场复杂环境交织,衍生出多重安全隐患(ānquányǐnhuàn),挑战传统战争法原则,也对国际安全秩序构成系统性冲击。
算法决策的局限性在实战中集中表现为目标识别偏差(piānchā)。基于历史数据训练的模型,在面对复杂社会场景时,极易因数据样本的片面性(piànmiànxìng)产生认知盲区。如2021年8月,美军MQ-9无人机(wúrénjī)在喀布尔误击民用(mínyòng)车辆,导致10名平民死亡(含7名儿童),事后调查(diàochá)显示无人机影像分析算法未能有效区分携带民用物品还是武器。
自主武器系统的(de)环境适应性不足也是误判的重要诱因。当前AI系统在动态场景中的多源数据(shùjù)融合能力存在缺陷,仅依赖视觉识别的决策模型,难以处理人体姿态、环境遮蔽(zhēbì)等复杂变量,导致在无明确军事特征目标的判定中出现系统性偏差(piānchā)。
人工智能(réngōngzhìnéng)对战场感知(gǎnzhī)与精确打击(dǎjī)的赋能,正动摇以(yǐ)核威慑为核心的传统战略稳定框架。《不确定性下的威慑:人工智能与核战争》一书揭示了人工智能与战略稳定之间的一个深层矛盾:当非核国家凭借AI驱动的常规技术获得穿透性打击能力时,核大国(hédàguó)的核打击能力将不再绝对可靠。例如,通过整合机器学习与多源传感器数据,AI系统可将机动导弹(dǎodàn)发射器与核潜艇的定位精度提升至米级。而AI驱动的“协同式态势感知”,正使非核国家能够(nénggòu)构建“发现即摧毁”的常规打击闭环(bìhuán):通过无人机蜂群实时监测(jiāncè)敌方机动核力量动向,依托高超音速导弹实施快速精准打击。
进攻方(fāng)A国可利用AI提升侦察精度(jīngdù),但防御方B国更熟悉自身核系统的弱点,能够通过(tōngguò)主动对抗措施(如电磁干扰、假目标生成)与被动伪装技术(jìshù)(如动态路由规划、多模态信号欺骗)等,将AI侦察的有效识别率降低。当常规技术进步不断压缩核威慑的战略空间时,任何一方(rènhéyīfāng)的技术突破都可能引发安全困境(kùnjìng)的螺旋升级,这对于每一个主要大国都是重大战略环境的改变。
人工智能军事应用的快速发展与(yǔ)全球安全治理的滞后性形成鲜明矛盾,国际社会在规则构建、机制协调与责任界定(jièdìng)等核心议题(yìtí)上陷入多重困境。
大国(dàguó)缺乏战略互信:治理框架的价值分歧与集团博弈。
在人工智能军事应用的(de)全球(quánqiú)治理体系构建中,主要大国的战略目标差异构成根本性障碍。
美国的治理框架带有明显的地缘政治意图,实质是将人工智能军事化纳入西方安全同盟体系。2024年(nián)“奥库斯”联盟测试(cèshì)的AI驱动无人机(wúrénjī)协同作战系统,更是绕过联合国等多边平台,通过封闭性技术合作强化小圈子军事优势。这种“技术霸权主义(bàquánzhǔyì)”遭到发展中国家普遍反对(fǎnduì)。
多边进程陷入停滞(tíngzhì):机制低效与规则真空的双重困境。
现有国际法律框架在人工智能军事应用领域的适用性争议,导致多边治理机制陷入功能瘫痪。《特定常规武器(chángguīwǔqì)公约(gōngyuē)》(CCW)框架下的致命性自主武器系统(LAWS)谈判持续多年没有成果(chéngguǒ)。
技术霸权与规则(guīzé)赤字形成恶性循环。北约2024年更新的(de)(de)《人工智能(réngōngzhìnéng)战略》,将(jiāng)“跨大西洋(dàxīyáng)技术标准”凌驾于联合国规则之上,要求成员国优先采用西方主导的算法透明度评估体系。这种“机制替代”策略削弱了CCW的权威性,导致“禁止杀手机器人”运动等民间倡议与政府间谈判严重脱节。红十字国际委员会2024年报告指出,自主武器系统对受(shòu)武装冲突影响民众造成伤害的风险极高,但一些国家(guójiā)的军方似乎仍在不断放松对使用此类武器的地点及攻击对象的限制。这使得陷入最新地区冲突中的国家或区域有成为(chéngwéi)AI武器“试验场”的趋势。
更深刻的矛盾在于治理(zhìlǐ)议题的“安全化”与“技术化”失衡(shīhéng)。当美国将人工智能(réngōngzhìnéng)军事化纳入“印太战略”,将其(qí)他国家视为其假想敌和对手,多边治理平台就沦为(lúnwèi)地缘竞争的角力场。2024年9月联合国(liánhéguó)人工智能高级别咨询机构发布的七项建议中,“设立国际科学顾问委员会”“建立(jiànlì)全球数据框架”等技术性措施因缺乏政治共识而难以落地,而“严格限制AI军事用途”的核心诉求在美西方双重标准下沦为空谈。
问责机制面临缺失:法律空白与执行困境的(de)叠加效应。
人工智能军事应用的技术特性,使传统国际法中(zhōng)的责任(zérèn)归属原则遭遇系统性挑战。《罗马规约》第28条确立的“指挥官责任”,在面对(duì)算法决策导致的平民伤亡时陷入(xiànrù)认定困境。如2021年喀布尔(kābùěr)无人机误击平民事件中,美军以“算法训练数据偏差”为由免除操作员责任,暴露“技术黑箱”对责任链的切割效应。
合规性评估机制的(de)缺失加剧(jiājù)风险(fēngxiǎn)敞口。根据卡内基国(guó)际和平基金会2024年报告,全球现役的32种AI武器系统中,仅7种接受过第三方伦理审查(shěnchá),且审查标准由研发国自行制定。土耳其“旗手”TB2无人机在纳卡冲突中的使用,暴露出“技术出口国与使用国责任分离”的漏洞。而现有《武器贸易条约(tiáoyuē)》甚至未将无人机乃至自主AI系统纳入管制清单。
更深层(shēncéng)的挑战在于“人机关系”的法律定位模糊。美军“马赛克(mǎsàikè)战”体系中的AI决策节点已实现“战术级自主(zìzhǔ)”,人类指挥官仅保留“战略否决权”,责任主体虚化。
当前人工智能(réngōngzhìnéng)军事应用(yìngyòng)的(de)治理困境,本质上是工业时代的国际治理体系与(yǔ)数字(shùzì)时代技术革命的错配。人工智能军事应用与全球治理,更需要全球安全秩序从“权力制衡”向“规则共建”的范式转换。唯有摒弃“技术霸权”与“零和思维”,回归《联合国宪章》确立的集体安全理念,才能为人工智能划定文明发展的轨道。
(作者(zuòzhě)为中国现代国际关系研究院科技与网络安全研究所副研究员)
(《瞭望》2025年第21期(qī) )
◇从自主化武器(wǔqì)的集群协同到智能化后勤的精准保障,从自动化(zìdònghuà)防御的实时响应到沉浸式训练的场景重构(zhònggòu),人工智能正推动军事变革进入“算法驱动战争”的新阶段
◇这是美国开放人工智能研究中心(OpenAI)首次向(xiàng)军事领域开放技术,标志着生成式AI从民用场景向国防安全(ānquán)的跨界应用
◇人工智能技术在军事领域的深度渗透带来作战效能的革命性提升,但其内生的技术特性与战场复杂环境交织,衍生出多重安全隐患,不仅挑战(tiǎozhàn)传统战争法原则(yuánzé),更对国际安全秩序构成系统性(xìtǒngxìng)冲击
◇人工智能军事应用的快速发展(fāzhǎn)与全球安全治理的滞后性形成鲜明矛盾,国际社会在规则构建、机制(jīzhì)协调(xiétiáo)与责任界定等核心议题上陷入多重困境
美国海军一架电子战飞机在美国加利福尼亚州(jiālìfúníyàzhōu)南部的(de)圣迭戈附近海域坠毁,参与打捞坠毁飞机的小艇在海面作业(2025 年 2 月(yuè) 15 日摄)新华社 / 路透
在全球科技革命与军事变革深度融合的进程中,人工智能(AI)正以革命性力量重塑战争形态(xíngtài)。从自主化武器的体系化(tǐxìhuà)协同到多域防御系统的智能响应,从全链条后勤的精准调控到沉浸式训练(xùnliàn)场景的构建,人工智能军事应用已形成覆盖作战全流程(liúchéng)的赋能体系,推动战争从“能量对抗”向“智能博弈(bóyì)”加速演进。
技术进步(jìnbù)带来的安全(ānquán)风险与治理困境同步(tóngbù)凸显:算法决策缺陷引发高频误伤,作战节奏加快加速冲突升级,传统战略稳定框架遭到动摇,而相关全球治理体系陷入机制性停滞。如何在释放技术效能与管控安全风险中找到平衡点,成为(chéngwéi)人工智能时代全球安全治理的核心命题。
当前(dāngqián),人工智能技术正以前所未有的速度重塑军事领域的作战模式与保障体系,其应用已渗透至武器系统、防御(fángyù)体系、情报分析、后勤管理(guǎnlǐ)及训练模拟等核心军事领域。
从自主化武器的集群协同到智能化后勤的精准保障,从自动化防御的实时(shíshí)响应到沉浸式训练的场景重构,人工智能正(zhèng)推动军事变革(biàngé)进入“算法驱动战争”的新阶段。
自主化武器:从单一平台(píngtái)到体系协同的智能化跃升。
在自主(zìzhǔ)化武器发展中,美(měi)军无人(wúrén)艇蜂群技术展现出分布式协同作战的(de)潜力。2025年4月(yuè),美国海军宣布成功演示(yǎnshì)八艘小型无人水面(shuǐmiàn)航行器,这些航行器由海军先进的“利维坦”软件包驱动,将传统需40人操控的流程压缩至(zhì)1人监控。“利维坦”包括自主基线库、通用控制系统(kòngzhìxìtǒng)、自动目标识别和感知工具。其中,自主基线库是首个符合美国海军无人海事自主架构6.0标准的完全开放架构自主软件,可灵活调整并吸引广泛的行业参与。这些航行器还可与美濒海战斗舰任务模块无缝协同,标志着无人平台融入作战舰队的进程迈出了重要一步。
波士顿动力(dònglì)公司四足机器人“大狗”的(de)演进则体现了(le)强化(qiánghuà)学习在复杂地形机动中的军事(jūnshì)应用。在美国国防部高级研究项目局(DARPA)资助下,波士顿动力公司通过激光雷达与立体视觉融合,使“大狗”在35度斜坡、积雪等复杂地形移动,可负重伴随步兵班组实施山地补给。
DARPA空战演进计划聚焦人机协同的空中缠斗场景,构建了层级化自主系统框架:人类负责制定总体交战(jiāozhàn)策略(cèlüè)与目标优先级(yōuxiānjí),AI系统执行战术机动与武器交战细节。该计划通过“马赛克战”理念(lǐniàn),将传统单一平台杀伤链转化为“有人-无人”异构(yìgòu)网络系统,为未来空战的“人在回路”控制模式奠定技术基础。
自动化防御:多域(duōyù)威胁的实时感知与智能响应。
在反无人机(wúrénjī)领域,美国开放(kāifàng)人工智能研究中心(OpenAI)与安杜(āndù)(āndù)里尔的合作开创了大模型(móxíng)技术在动态威胁处理中的新路径。2024年12月,美国防科技公司安杜里尔宣布其部署(bùshǔ)的晶格(Lattice)软件平台将集成GPT-4o等先进模型,实现对无人机群的实时发现与打击。这是OpenAI首次向军事领域开放技术,标志着生成式AI从民用场景向国防安全的跨界应用(yìngyòng)。安杜里尔与美海军陆战队已签订2亿美元的反无人机系统研发合同。
美军工企业洛克希德·马丁对“宙斯盾”系统(xìtǒng)的(de)智能化升级,展现了AI在复杂海战环境中的决策(juécè)优势。最新系统通过机器学习算法同时跟踪100多个目标,基于实时威胁评估(pínggū)自动优化武器配置,在高超音速导弹拦截场景中决策时间压缩至毫秒级。
末端高空区域防御系统(xìtǒng)(萨德(sàdé))6.0版本通过弹道轨迹(guǐjì)深度学习模型,将来袭导弹的跟踪准确率提升至92%。该系统融合雷达数据与卫星情报,构建了(le)覆盖战略、战役、战术层面的多层防御网络,成为区域反导体系的智能核心。
情报分析:从数据处理到认知(rènzhī)决策的范式转型。
美国帕兰提尔(Palantir)公司(gōngsī)的(de)AIP平台构建了多源情报融合的智能中枢,通过集成大型语言(yǔyán)模型(LLM)实现对战场文本、图像、信号数据(shùjù)的实时解析,分析战场情况、制定行动方案并进行作战总结。它支持(zhīchí)识别敌方单位、请求(qǐngqiú)新图像以(yǐ)及将干扰器等资源分配给通信目标(mùbiāo)等任务。AIP还使AI能够将决策与操作系统同步,确保AI编写的提案得到人类的验证并与军事目标保持一致。此外,AIP还帮助构建、标记和准备国防数据,以在所有分类级别进行AI训练和开发。
攀登人工智能公司(ScaleAI)的多诺万(duōnuòwàn)(Donovan)平台专注于情报报告的自动化(huà)处理,通过强化学习(xuéxí)从海量文档中提取关键信息。多诺万支持战场情报准备,提供友军和敌军行动的实时背景,帮助指挥官更(gèng)快做出决策。其定制化模型Defense Llama针对军事术语进行优化,可准确识别冲突区域(qūyù)的兵力部署(bùshǔ)与装备动向。该平台已在美军第十八空降军部署。
DARPA“心眼”项目突破传统计算机视觉的(de)静态识别局限,构建了动态行为理解的生成式(shēngchéngshì)模型。该系统通过无监督学习解析战场视频(shìpín)中的动作链,对复杂场景的叙事准确率达(dá)78%,为后续“马赛克战”的战场态势预测提供了关键技术(guānjiànjìshù)支撑。其成果已融入多域指挥控制系统。
后勤管理(guǎnlǐ):全链条资源的精准化智能调控。
在装备维护领域,洛克希德·马丁为C-130J运输机构建的预测性维护系统,通过600个传感器实时采集发动机振动、液压(yèyā)压力等数据,实现135类故障的提前预警,维护成本下降22%。该系统采用数字孪生(luánshēng)技术模拟极端环境(huánjìng)对部件寿命(shòumìng)的影响,已从运输机扩展(kuòzhǎn)至AC-130炮艇机与EC-130电子战机队。
美国空军熊猫(xióngmāo)(PANDA)系统将人工智能嵌入“基于(jīyú)状态的维护”框架,通过分析F-35战斗机的传感器数据,生成预测性(yùcèxìng)维护建议,实现从定期维护向视情维护的模式转变(zhuǎnbiàn)。该系统构建(gòujiàn)了跨机型、跨地域的统一维护平台,使装备完好率显著提升,成为全球最大规模的军事装备智能保障系统。
美国海军后勤人工智能集成计划通过(tōngguò)兵棋推演建模,优化舰艇零部件库存与全球供应链调配。该系统基于历史消耗数据(shùjù)与实时任务需求,动态调整维修备件储备(chǔbèi),将(jiāng)关键部件缺货率降低30%,同时通过强化学习算法模拟不同补给策略的效能,为航母战斗群的远洋部署提供决策(juécè)支持。
训练模拟:沉浸式场景构建与(yǔ)个性化能力生成。
美国陆军“合成训练(xùnliàn)环境”通过融合虚拟现实与增强现实技术,构建了全地形(dìxíng)交互式训练场景。该(gāi)系统集成综合视觉增强系统护目镜传感器,实时跟踪士兵心率、脑电波等生理数据,通过压力模拟算法生成逼真的战场应激反应,提升训练效果。标志性项目“下一代班组武器”训练模块,已实现实弹射击(shídànshèjī)与虚拟目标(mùbiāo)的无缝融合,大幅降低(jiàngdī)实装训练成本。
微软(wēiruǎn)推动DALL-E图像生成技术在军事训练中的应用,为战斗管理系统提供低成本数据增强方案。通过生成高逼真度的战场(zhànchǎng)图像,训练算法(suànfǎ)可覆盖绝大多数极端场景。该技术已应用于无人机目标识别系统,使复杂背景下的目标检测准确率提升,为智能武器系统实战化部署(bùshǔ)提供了数据支撑(zhīchēng)。
人工智能技术在军事领域的深度渗透(shèntòu)虽带来作战效能的革命性提升,但其内生的技术特性与(yǔ)战场复杂环境交织,衍生出多重安全隐患(ānquányǐnhuàn),挑战传统战争法原则,也对国际安全秩序构成系统性冲击。
算法决策的局限性在实战中集中表现为目标识别偏差(piānchā)。基于历史数据训练的模型,在面对复杂社会场景时,极易因数据样本的片面性(piànmiànxìng)产生认知盲区。如2021年8月,美军MQ-9无人机(wúrénjī)在喀布尔误击民用(mínyòng)车辆,导致10名平民死亡(含7名儿童),事后调查(diàochá)显示无人机影像分析算法未能有效区分携带民用物品还是武器。
自主武器系统的(de)环境适应性不足也是误判的重要诱因。当前AI系统在动态场景中的多源数据(shùjù)融合能力存在缺陷,仅依赖视觉识别的决策模型,难以处理人体姿态、环境遮蔽(zhēbì)等复杂变量,导致在无明确军事特征目标的判定中出现系统性偏差(piānchā)。
人工智能(réngōngzhìnéng)对战场感知(gǎnzhī)与精确打击(dǎjī)的赋能,正动摇以(yǐ)核威慑为核心的传统战略稳定框架。《不确定性下的威慑:人工智能与核战争》一书揭示了人工智能与战略稳定之间的一个深层矛盾:当非核国家凭借AI驱动的常规技术获得穿透性打击能力时,核大国(hédàguó)的核打击能力将不再绝对可靠。例如,通过整合机器学习与多源传感器数据,AI系统可将机动导弹(dǎodàn)发射器与核潜艇的定位精度提升至米级。而AI驱动的“协同式态势感知”,正使非核国家能够(nénggòu)构建“发现即摧毁”的常规打击闭环(bìhuán):通过无人机蜂群实时监测(jiāncè)敌方机动核力量动向,依托高超音速导弹实施快速精准打击。
进攻方(fāng)A国可利用AI提升侦察精度(jīngdù),但防御方B国更熟悉自身核系统的弱点,能够通过(tōngguò)主动对抗措施(如电磁干扰、假目标生成)与被动伪装技术(jìshù)(如动态路由规划、多模态信号欺骗)等,将AI侦察的有效识别率降低。当常规技术进步不断压缩核威慑的战略空间时,任何一方(rènhéyīfāng)的技术突破都可能引发安全困境(kùnjìng)的螺旋升级,这对于每一个主要大国都是重大战略环境的改变。
人工智能军事应用的快速发展与(yǔ)全球安全治理的滞后性形成鲜明矛盾,国际社会在规则构建、机制协调与责任界定(jièdìng)等核心议题(yìtí)上陷入多重困境。
大国(dàguó)缺乏战略互信:治理框架的价值分歧与集团博弈。
在人工智能军事应用的(de)全球(quánqiú)治理体系构建中,主要大国的战略目标差异构成根本性障碍。
美国的治理框架带有明显的地缘政治意图,实质是将人工智能军事化纳入西方安全同盟体系。2024年(nián)“奥库斯”联盟测试(cèshì)的AI驱动无人机(wúrénjī)协同作战系统,更是绕过联合国等多边平台,通过封闭性技术合作强化小圈子军事优势。这种“技术霸权主义(bàquánzhǔyì)”遭到发展中国家普遍反对(fǎnduì)。
多边进程陷入停滞(tíngzhì):机制低效与规则真空的双重困境。
现有国际法律框架在人工智能军事应用领域的适用性争议,导致多边治理机制陷入功能瘫痪。《特定常规武器(chángguīwǔqì)公约(gōngyuē)》(CCW)框架下的致命性自主武器系统(LAWS)谈判持续多年没有成果(chéngguǒ)。
技术霸权与规则(guīzé)赤字形成恶性循环。北约2024年更新的(de)(de)《人工智能(réngōngzhìnéng)战略》,将(jiāng)“跨大西洋(dàxīyáng)技术标准”凌驾于联合国规则之上,要求成员国优先采用西方主导的算法透明度评估体系。这种“机制替代”策略削弱了CCW的权威性,导致“禁止杀手机器人”运动等民间倡议与政府间谈判严重脱节。红十字国际委员会2024年报告指出,自主武器系统对受(shòu)武装冲突影响民众造成伤害的风险极高,但一些国家(guójiā)的军方似乎仍在不断放松对使用此类武器的地点及攻击对象的限制。这使得陷入最新地区冲突中的国家或区域有成为(chéngwéi)AI武器“试验场”的趋势。
更深刻的矛盾在于治理(zhìlǐ)议题的“安全化”与“技术化”失衡(shīhéng)。当美国将人工智能(réngōngzhìnéng)军事化纳入“印太战略”,将其(qí)他国家视为其假想敌和对手,多边治理平台就沦为(lúnwèi)地缘竞争的角力场。2024年9月联合国(liánhéguó)人工智能高级别咨询机构发布的七项建议中,“设立国际科学顾问委员会”“建立(jiànlì)全球数据框架”等技术性措施因缺乏政治共识而难以落地,而“严格限制AI军事用途”的核心诉求在美西方双重标准下沦为空谈。
问责机制面临缺失:法律空白与执行困境的(de)叠加效应。
人工智能军事应用的技术特性,使传统国际法中(zhōng)的责任(zérèn)归属原则遭遇系统性挑战。《罗马规约》第28条确立的“指挥官责任”,在面对(duì)算法决策导致的平民伤亡时陷入(xiànrù)认定困境。如2021年喀布尔(kābùěr)无人机误击平民事件中,美军以“算法训练数据偏差”为由免除操作员责任,暴露“技术黑箱”对责任链的切割效应。
合规性评估机制的(de)缺失加剧(jiājù)风险(fēngxiǎn)敞口。根据卡内基国(guó)际和平基金会2024年报告,全球现役的32种AI武器系统中,仅7种接受过第三方伦理审查(shěnchá),且审查标准由研发国自行制定。土耳其“旗手”TB2无人机在纳卡冲突中的使用,暴露出“技术出口国与使用国责任分离”的漏洞。而现有《武器贸易条约(tiáoyuē)》甚至未将无人机乃至自主AI系统纳入管制清单。
更深层(shēncéng)的挑战在于“人机关系”的法律定位模糊。美军“马赛克(mǎsàikè)战”体系中的AI决策节点已实现“战术级自主(zìzhǔ)”,人类指挥官仅保留“战略否决权”,责任主体虚化。
当前人工智能(réngōngzhìnéng)军事应用(yìngyòng)的(de)治理困境,本质上是工业时代的国际治理体系与(yǔ)数字(shùzì)时代技术革命的错配。人工智能军事应用与全球治理,更需要全球安全秩序从“权力制衡”向“规则共建”的范式转换。唯有摒弃“技术霸权”与“零和思维”,回归《联合国宪章》确立的集体安全理念,才能为人工智能划定文明发展的轨道。
(作者(zuòzhě)为中国现代国际关系研究院科技与网络安全研究所副研究员)
(《瞭望》2025年第21期(qī) )


相关推荐
评论列表
暂无评论,快抢沙发吧~
你 发表评论:
欢迎