据香港亚洲时报网站22日报道,俄乌冲突正在加速推进全球“杀手机器人”的发展。
报道称,一项美国国防部指示的更新证实,美国军方正在加强对自主武器的开发和使用。这项更新令于2023年1月25日发布,是10年来该部门首次关注人工智能(AI)自主武器。
此前,北约于2022年10月13日发布了一项相关的实施计划,旨在保持该联盟在“杀手机器人”方面的“技术优势”。
这两项宣布都反映了世界各地的军队从俄乌冲突中吸取的重要教训:武器化的人工智能是战争的未来。
战争的压力
随着乌克兰伤亡人数的增加,使用完全自主武器——可以自行选择、追捕和攻击目标,而无需任何人工监督的机器人——获得决定性战场优势的压力也越来越大。
本月,一家主要的俄罗斯制造商宣布计划开发其“标记”战斗机器人的新战斗版本,这是一种无人驾驶的地面车辆,为的是增强俄军在乌克兰的现有力量。
制造半自动的“弹簧刀”无人机的美国国防承包商的首席执行官瓦希德·纳瓦比表示,将这些武器转变为完全自主武器的技术已经触手可及。
乌克兰数字转型部长米哈伊洛·费多罗夫称,完全自主武器是战争“合乎逻辑且不可避免的下一步”。并且他表示,士兵可能会在未来6个月内在战场上看到它们。
完全自主武器系统的支持者认为,这项技术将使士兵远离战场,从而使他们免受伤害。它们还将以超人的速度做出军事决策,从而从根本上提高防御能力。
目前,半自主武器,例如跟踪目标并在目标上自爆的巡飞弹,还需要“人的参与”,它们可以推荐操作,但需要它们的操作员来进行启动。
相比之下,完全自主的无人机,比如现在部署在乌克兰的所谓的“无人机猎人”,可以全天候跟踪来袭的无人机并使其失效,它不需要操作员干预,且速度比人为控制的武器系统快。
请求暂停
十多年来,像“阻止杀手机器人运动组织”这样的批评者一直在倡导禁止自主武器系统的研发。
他们指出,未来自主武器系统是专门针对人类而设计,而不仅仅是针对车辆、基础设施和其他武器。他们说,生死攸关的战时决定权必须掌握在人的手中。将它们交给算法相当于数字去人性化的终极形式。
“阻止杀手机器人运动组织”与“人权观察”组织都认为,自主武器系统缺乏区分平民和合法军事目标所需的人类判断力。而且,自主武器系统降低了可感知的风险也意味着降低了战争的门槛,并削弱了人类对战场形势的有意义的控制。
这些组织认为,包括美国、俄罗斯和欧盟在内的在自主武器系统上投资最多的军队,正在将世界带入一场代价高昂且影响局势稳定的新军备竞赛。
不可能的平衡?
同时部署自主武器系统并遵守国际人道主义法的承诺,是对五角大楼的新挑战。美国将如何平衡这些承诺及这种平衡是否可能实现,还有待观察。
国际人道主义法的监护者红十字国际委员会坚持认为,指挥官和操作员的法律义务“不能转移到机器、算法或武器系统上”。
现在,人类有责任通过确保武力的使用与军事目标相称,来保护平民和限制战斗损害。但如果在战场上部署人工智能武器,当发生不必要的平民死亡时,谁应该为此负责?这个非常重要的问题还没有明确的答案。