上周的民意调查:“杀手机器人”和战争中的人工智能

1分钟读取

从最早的长矛到长弓的发展,人类一直在设计他们的投射武器,使其杀伤力最大化,同时尽可能远离目标。

考虑到这一逻辑,似乎不可避免的是,开发自主机器人武器系统的行动正在进行中,这些系统可以处理恐怖而丑陋的战争事务,同时将对人类战斗人员的风险降至最低。

这似乎是美国的情况,对先进瞄准和杀伤力自动化系统(或阿特拉斯,帮助地面战斗车辆的枪手瞄准)的升级将使该系统更快地“获取、识别和交战目标”。

正如作者所说工程师之后,美国陆军撤回了最初的声明,强调人类在系统中的作用以及对指令的遵守3000.09美国国防部制定了一套指导方针,“旨在最大限度地降低自主和半自主武器系统发生故障的可能性和后果,这些故障可能导致意外交战”。

机器人杀手
Atlas可用于通用动力Mutt(多用途战术运输)等车辆上。图片来源:通用动力陆地系统公司

军事指令加入了国际人道主义法和其他保障措施,以保护武装冲突中的平民,诺埃尔·夏基教授在一篇名为《工程师》的文章中讨论了这一问题“向杀人机器人说不”出版于2013年。

由于人们的担忧,26个国家的政府支持该计划阻止杀手机器人运动该组织寻求达成一项国际条约,禁止在致命武器系统中使用完全自主的人工智能,理由包括如果由机器执行,可能会引发战争。

人类生活在一种永恒的冲突状态中,但这能成为“杀手机器人”发展的借口吗?在上周的民意调查中,45%的受访者认为“每个扳机上都必须有一根人的手指”。与中国政府一样,共有13%的受访者同意禁止使用转基因药物,但研发应继续进行。超过五分之一(21%)的人表示应该全面禁止,同样数量的受访者选择以上任何一项都不做。

你怎么看?请在下面的评论中加入辩论,但请熟悉我们的评论内容的指导方针在提交之前。

点击浏览新闻