"杀手机器人"即将成为现实 人类只剩1年时间阻止

2016-06-18 10:18发布

据每日邮报报道,随着人工智能技术的进步,机器人独立选择和射杀目标的可能性正日益加大。全自动武器或称“杀人机器人”正迅速从科幻小说变成现实。但是新技术突破可能导致人类失去使用致命武器的控制权,人类现在只剩1年时间可以阻止“杀人机器人”诞生。


“杀人机器人”可被部署在陆海空领域,有望以惊人的方式彻底改变武装冲突和执法现状。支持者表示,“杀人机器人”的存在很有必要,因为现代战争节奏非常快,而机器人参战可以确保士兵和警察免受伤害。

可是“杀人机器人”对人类的威胁可能超过任何军事或执法部门获得的好处,人类失去对执法目标决策权将导致世界陷入危险,机器将可自主决定人类生死。平民受到不对称伤害或被列为错误目标的危险将大幅增加,而没人会为此负责。

鉴于全自动武器存在的道德、法律以及责任风险,控制它们的研发、制造以及使用已经迫在眉睫。应对这种威胁的最好方式就是制定有法律约束力的国际禁令。至少20个国家已经在4月份的联合国大会上表态,支持人类决定执法目标的选择。由人权观察组织和哈佛法学院国际人权诊所共同发布报告,也呼吁禁止全自动武器。

保持人类对“杀人机器人”的控制具有道德意义。因为人类拥有同情心,可以感受到受害者的情绪变化。他们尊重人类尊严,会慎重考虑行动后果。而机器人缺少这些情绪,包括移情作用。此外,无情的机器并不理解人类生命的价值。由机器人决定是否使用武力将伤害人类尊严。

人类控制“杀人机器人”也会促进遵守国际法,后者主要用于保护平民和士兵。人类可以基于以往的经验和道德规范做出判断,可是“杀人机器人”无法复制这种判断,无法对它们进行可应对所有假设情况的预先编程。结果,这些“杀人机器人”无法像“理性指挥官”那样做出选择和判断。

按照国际刑法规定,人类操作者大多数情况下不必承担武器伤害引发的责任。除非人类使用全自动武器实行犯罪,否则让人类为机器人的行为负责是不公平的,毕竟人类操作员无法预防或惩罚机器人。此外,寻求让全自动武器程序员和制造商承担责任也存在法律障碍,比如美国大多数武器制造商拥有豁免权。

在4月份的联合国会议上,94个国家支持对处理“致命自动武器系统”开始正式讨论,以决定这些系统是否受到《常规武器公约》限制。这些国家将于12月份参加评估会议,为未来工作设定议程。在12月份评估大会上,加入常规武器公约的国家有可能提议完全禁止全自动武器。

他们应该发起新的国际协议谈判以应对全自动武器威胁,但是制定国际法的过程相当缓慢,许多国家应该更快行动起来,以应对全自动武器的威胁。他们应该抓住评估大会的机会,让技术失去控制可能产生可怕的、空前的人道主义灾难。