专家呼吁国际上禁止自主武器

1分钟阅读

100多名机器人专家和人工智能专家呼吁国际上禁止致命的自主武器系统。

模块化先进武装机器人系统
模块化先进武装机器人系统

这一呼吁是在墨尔本举行的国际人工智能联合会议(IJCAI 2017)开始时发出的由116家机器人和人工智能公司的创始人签署,他们担心自己的技术被重新利用自动武器在没有人为干预的情况下选择并攻击目标。

这封信的签署人包括特斯拉、SpaceX和OpenAI的创始人埃隆·马斯克(Elon Musk),信中写道:“致命的自主武器有可能成为战争中的第三次革命。

“一旦发展起来,它们将允许武装冲突以比以往任何时候都大的规模进行,并且以人类无法理解的速度进行。

“这些可以是恐怖武器,可以是暴君和恐怖分子用来对付无辜民众的武器,也可以是黑客用来做出不良行为的武器。

“我们采取行动的时间不多了。潘多拉的魔盒一旦打开,就很难关上了。”

一个类似的这封信发表了在2015年布宜诺斯艾利斯举行的IJCAI会议上,数千名人工智能和机器人领域的研究人员警告了自主武器的危险。

MQ-9死神无人机
MQ-9死神无人机

它警告说,人工智能已经达到了在几年内部署这种系统是可行的,并补充说“自主武器将成为明天的卡拉什尼科夫冲锋枪”。

“与核武器不同,它们不需要昂贵或难以获得的原材料,因此它们将变得无处不在,价格低廉,所有重要的军事大国都可以大规模生产,”报告称。

Clearpath Robotics的创始人兼首席技术官Ryan Gariepy说:“我们不应该忽视这样一个事实,即与仍然存在于科幻小说领域的人工智能的其他潜在表现不同,自主武器系统目前正处于发展的尖端,并且非常有可能对无辜的人造成重大伤害以及全球不稳定。”

“开发致命的自主武器系统是不明智的、不道德的,应该在国际范围内被禁止。”

2016年12月,123个联合国成员国《常规武器公约》审查会议一致同意就自主武器展开正式讨论。其中19个已经呼吁彻底禁止。

//www.peseonline.com/issues/march-2013-online/say-no-to-killer-robots/