2025年12月13日,苏丹南科尔多凡州卡杜格利,联合国维和部队的后勤基地遭遇无人机袭击,导致6名孟加拉国籍维和人员死亡、8人受伤。联合国秘书长古特雷斯强烈谴责这一暴行,并明确指出,针对联合国维和人员的袭击可能构成战争罪。这起发生在遥远非洲的悲剧,与正在东欧平原上进行的激烈冲突,通过一个共同的纽带紧密相连:人工智能(AI)赋能下的新型作战手段,正以前所未有的速度和广度改变战争的面貌,并带来严峻的道德与法律挑战。当前,以俄乌冲突为最残酷的“试验场”,智能化战争已不再是未来构想,而是触手可及的当下现实。
俄乌战场已被世界公认为首个大规模、成体系验证AI军事应用的现实实验室。双方在AI技术加持下,作战模式正发生根本性演变:
其次,“无人蜂群”与协同作战的演进。 廉价商用无人机经简单改装后,在AI程序控制下可进行编队飞行、自主搜索与协同攻击。俄乌双方均大量使用此类无人机执行侦察、校正炮击甚至直接“自杀式”攻击坦克、火炮等高价值目标。这种低成本、高消耗性的“蜂群”战术,正在抵消传统重型装备的数量与质量优势,迫使陆军战术向分布式、隐蔽化转型。
再者,认知战与信息攻防的升级。 AI不仅是战场物理域的工具,更是认知域对抗的武器。通过深度伪造(Deepfake)技术生成真假难辨的音视频,利用算法在海量社交网络中精准投放和放大特定叙事,已成为标准操作程序。这种攻击旨在瓦解敌方军民士气,影响国际舆论,其威力不亚于实体炸弹。
然而,技术的扩散如同打开潘多拉魔盒。苏丹的悲剧警示世界,AI与无人机技术正快速流向全球各地的冲突热点。无论是正规军、准军事组织还是武装团伙,都能轻易获得并运用这些原本属于尖端领域的工具。在苏丹,交战方互相指控对方发动了针对维和基地的无人机袭击,这恰恰凸显了此类袭击的难以溯源性与低门槛特性。当技术变得唾手可得,其使用便极易脱离国际法和战争伦理的约束,维和人员、平民、医院等受国际法保护的对象正面临日益增长的威胁。古特雷斯秘书长的严厉谴责,正是国际社会对规则遭受侵蚀的普遍焦虑的体现。
这场由AI驱动的军事革命,其深刻影响远不止于战术层面,更触及战略与哲学核心:
其一,权力结构面临重构。 传统军事强国在坦克、战机、航母等领域构筑的“代差”优势,可能被基于开源算法和商用部件的智能化、分布式作战系统部分抵消。非国家行为体和中小国家获得了前所未有的不对称打击能力,全球安全格局因此注入新的不确定性。
其二,战争伦理与法规遭遇空前挑战。 致命性自主武器系统(LAWS)的“开火权”归属问题争论不休;算法偏见可能导致对平民目标的误判;模糊了“战斗员”与“开发者”界限的“算法战争”,使得追责变得异常困难。苏丹维和人员遇袭事件,再次以鲜血拷问国际社会:我们是否已为这个“算法决胜”的新时代准备好了相应的规则与红线?
其三,战略稳定的基石受到侵蚀。 AI在核指挥控制系统、战略预警领域的应用,在提升效率的同时也带来了因误判而引发灾难性冲突的更高风险。当机器的运算速度远超人类决策者的理解与反应时间,传统基于威慑和沟通的危机管控机制是否依然有效?
可以预见,全球主要军事力量对AI主导权的争夺将愈演愈烈。这不仅是技术竞赛,更是围绕未来战争规则制定权、伦理话语权的全面博弈。我国在积极推动AI技术发展的同时,也一贯倡导智能技术应服务于人类福祉,主张在联合国框架下开展对话,共同制定负责任的国家AI行为准则。因为历史的教训告诉我们,任何脱离人类最终控制、践踏生命尊严的“智能”,无论其多么高效,都绝非文明的进步,而是危险的深渊。在智能化战争的时代,捍卫和平,不仅需要技术上的盾牌,更需要基于人类共同价值的、坚实的伦理与法律基石。