打印纸张 字号选择:超大 行高 带图打印 返回原文

首页 > 文库 理论大视野 时政

致命性自主武器系统:从概念走向实战

2025年08月22日 16:13

人工智能军事化的发展,使得致命性自主武器系统(LAWS)正从概念验证走向实战部署,逐渐成为未来战争战略力量体系中的关键支柱,被称为继火药和核武器之后的第三次军事革命。在军事层面,致命性自主武器系统具有自主识别、判断和攻击目标的能力,并依靠人工智能算法在复杂、高速甚至通信受阻的战场环境中独立完成任务。

何为致命性自主武器系统

致命性自主武器系统带来了新的“奥本海默时刻”,即人类在取得巨大科技突破的同时,也面临着其可能引发的灾难性后果。然而,国际社会尚未就致命性自主武器系统搭建有效的治理框架,其自主性和致命性所造成的潜在危害尚不可预料和未经证实,加剧了对其监管的难度和对未来灾难降临的担忧。

目前国际上对致命性自主武器系统的定义尚未达成共识。美国国防部在2012年发布的关于自主性武器系统的《DoD Directive 3000.09》文件中认为,自主武器系统是一种能够自主选择并攻击目标,无需进一步人为干预的武器系统,若该系统的攻击能够造成致命伤害,则可被认定为是致命性自主武器系统。基于此,该文件要求自主和半自主武器系统应被设计为使指挥官和操作人员能够对武力的使用行使适当程度的人类判断。

联合国《特定常规武器公约》(CCW)在多个会议文件中提出并讨论了致命性自主武器系统的工作性定义,其在2017年发布的《致命性自主武器系统的定义初探》区分了致命性自主武器系统和非致命性自主武器系统,认为两者具有性质上的不同,前者如任其发展,将会把人类排除在决策过程之外,从而使致命效果的实施对人类来说将具有高度的不可预测性。红十字国际委员会(ICRC)在2021年关于自主武器系统的立场文件中明确认为,自主武器系统能够在没有人类干预的情况下选择目标并对其使用武力,使用者可以不选择自主武器系统使用武力攻打的具体目标以及精确的时间、地点,甚或对此一无所知。

虽然不同国家和组织对致命性自主武器系统的定义看法不同,但自主性和致命性作为该武器系统的两大主要特征已成为共识。针对自主性可借鉴“人在回路”理论加以甄别,评估人在“回路”程序中有无干预及干预多少。致命性则意味着该武器系统可致人死亡,这并不限定进攻型武器或防御型武器。致命性自主武器主要用于战场,以战争技术的形态影响着战势和地缘政治。国际关系理论学者汉斯·摩根索认为,20世纪的战争技术经历了四次革新,分别以潜艇、坦克、空军力量引起的战争技术变化和核武器为标志。

从狭隘的技术角度看,特定的武器、地理和军事组织带有一种“通往和平或战争的固有倾向”的特性,武器特性一定程度上决定了是否继续战争或等待、战争边缘留给双方谈判的时间。人工智能赋能武器标志着新的战争技术革新,不仅使现代战略更为复杂,也会通过赋能常规武器、核武器和网络能力,使对手间的安全关系更难以预测和维护,冲突的限制也更难以管控。

三个发展阶段

到目前为止,根据自主性和致命性的发展程度,LAWS大致走过三个发展阶段。

第一阶段,20世纪下半叶,自主或半自主武器系统开始出现并应用到战场。这些自主或半自主武器系统主要用于侦察和监视任务。20世纪60至70年代,美国在越南战争中使用的“火蜂”无人机,是第一款大规模应用于实战的侦察无人机。20世纪70年代,美国军械实验室开始加大研发自主或半自主武器系统,推出了“捕获者反潜水雷”(Mk60CAPTOR)用于与苏联展开对抗。20世纪90年代伊始,无人机被更广泛地应用于军事行动。“捕食者”无人机兼具侦察和发射导弹进行攻击的能力。此阶段的自主或半自主武器系统需要人类干预,例如无人机需要地面操作员选择目标、激活、瞄准并发动攻击。

第二阶段,21世纪初期至2010年代,武器自主能力提升。随着人工智能技术的增强和传感器技术的发展,人工智能与武器技术融合,无人系统具备更多的自主操作和决策能力,能够执行更复杂的任务,不过大多数任务尚需人类干预,仍属于半自主武器系统。“全球鹰”无人机具有自主导航和长时间侦察的能力,X-47B无人机能够在航母上自主起降,具有高度的自主性。2014年美国国防部公布了第三次抵消战略,呼吁专门制定一个针对包括人工智能、机器人和纳米武器在内的长期研究和开发计划,其核心是人工智能和武器自主性。

第三阶段,2010年代至今,探索全自主武器系统。部分军事强国开始探索和试验全自主武器系统,这些系统能够在没有人类干预的情况下识别、跟踪和攻击目标。且在此时期,自主武器系统开始在实战中得到应用。“密集阵”近程防御武器系统是一种用于摧毁反舰导弹的雷达制导速射火炮系统,其部分最新型号一经激活就会在无人类介入的情况下选择目标并发动攻击。尤其是近年的地区冲突中,自主武器系统的应用引起了国际社会的关注和讨论。2013年国际社会创办了希望禁止致命性自主武器的“禁止杀手机器人”运动,警告世界正处于军用人工智能军备竞赛的威胁,具备人类水平智能的自主武器将会使作战的复杂性和战争的不确定性加剧。

风险巨大,治理艰巨

致命性自主武器系统的发展带来了一场军事革命,同时也引发了深刻的伦理、法律挑战。从军事角度来看,致命性自主武器系统拥有快速决策和精准打击能力,能够在战场上减少士兵伤亡并提升作战效率,但这种军事变革背后隐藏着巨大风险。

首先,技术可靠性问题是其内在困境。自主武器系统依赖算法进行目标识别和攻击决策,但在复杂战场环境中,算法本身可能因数据偏差或传感器干扰而误判目标,导致不必要误伤,从而可能违反国际人道法的“区分原则”和“比例原则”。其次,“责任空缺”问题悬而未决。算法工程师并非决策者,决策者不承担直接风险,战斗人员与伤亡之间的情感距离扩大,这些都可能更容易发动战争。就此而言,谁来承担战争风险和责任是一个尚有争议的话题。最后,致命性自主武器的广泛部署可能破坏战略稳定性,引发军备竞赛。由于高速反应可能绕过传统的“冷静期”与人类判断过程,导致危机升级失控。致命性自主武器制造成本和门槛远低于核武器,恐怖组织等也可能获取简化版的致命性自主武器,增加全球安全威胁。

国际社会面临规范致命性自主武器的艰巨任务,但目前进展缓慢且分歧严重。现有国际法如《特定常规武器公约》(CCW)尚未形成具有约束力的协议,各国对自主武器的定义、使用范围和监管程度存在根本性分歧。技术领先国家倾向于反对全面禁止,主张通过“有意义的人类控制”来限制风险,而一些小国和人权组织则呼吁全面禁止此类武器。长远来看,需建立具有法律效力的国际条约,并设立专门机构审查自主武器的合规性。基于致命性自主武器系统的特点,国际社会应从防止新军备竞赛的角度出发,以平等安全、共同安全与普遍安全的原则来处理致命性自主武器系统问题,反对借助其谋求绝对军事优势和霸权。

文章来源:http://www.71.cn/2025/0822/1269494.shtml