上周的民意调查:人工智能和战争

3分钟阅读

工程师读者看到了人工智能在武器系统中的实用作用

人工智慧

最近几周,谷歌取消了与美国国防部(US Department of defense)开发机器视觉系统Project Maven的合同,该系统将分析军用无人机捕获的图像,以探测车辆和其他物体,跟踪它们的运动,并向军方提供数据。该公司的员工集体签署了一封致公司首席执行官桑达尔·皮查伊(Sundar Pichai)的信,称这样的项目将把他们的工作应用的道德责任外包给第三方,他们不准备支持谷歌或其承包商开发他们所谓的“战争技术”。

谷歌的重新定位并不是第一个施加压力阻止人工智能被开发用于军事用途的例子。工程师今年4月报道称,一群学者威胁要抵制韩国科学技术院(KAIST),如果它要开发可以在没有人类控制的情况下定位和消灭目标的自主武器。无论该机构是否计划进行这样的研究,其总裁很快就保证不会进行这样的研究抵制活动被取消了.此外,亚马逊最近取消了向美国警方出售面部识别软件的计划民权组织对此表示担忧有色人种和移民等群体可能成为此类系统的目标。我们还在多个场合报道了反对“杀手机器人”的运动,比如由Noel Sharkey教授

在我们上周关于这个问题的民意调查中,有410名读者表达了他们的意见。在这些人中,明显多数(57%)持务实观点,认为人工智能将不可避免地用于战争,防御是必要的。值得注意的是,18%的人表示,攻击性地使用人工智能总是不道德的,另有16%的人表示,人工智能应该与化学武器和生物武器归为一类。最小比例的受访者(9%)拒绝选择我们的一个选项。

评论区非常活跃,有21条评论。其中许多人对民意调查的组成提出了质疑,抱怨它提出了错误的问题,或者选项不足。Tony Scales给出了一个典型的回答:“‘AI技术’是什么意思?各种类型的人工智能技术已经在游戏中存在多年了。我们需要一场更“明智”的辩论,讨论什么是人工智能技术,以及它可以、可能、已经、应该如何使用和不应该如何使用。人工智能很容易与自主系统混为一谈。”托比·沃尔什说:“这是一次糟糕的民意调查。它问错了问题。全球正在开展一项运动,禁止没有人类有效控制的致命自主武器。但在民意调查中,没有一个选项让你支持人工智能可以用于军事,但前提是有意义的人类控制。”

对于更具建设性的评论,伊恩·巴格拉斯指出:“人工智能已经被武器化了。那匹马跑掉了,马厩的门也从铰链上掉了下来。实现武器化人工智能的知识、原始信息和硬件已经可以免费获得。我们中间那些不太受欢迎的人迟早会意识到,他们可以利用已发表的研究成果,以十倍的效率达到自己的目的。”

罗杰·十二树补充道:“在水雷和‘发射后忘记’导弹中已经有相当数量的可以被描述为人工智能的东西,我不认为这些系统的发展会停止,因此用于武器的人工智能的发展将不可避免地继续下去。”

一位名为first Watch的读者指出:“我们当然应该发展它们,并力争走在它们发展的前列。如果我们不采取积极行动,可能的流氓就会开发并使用它们,如果我们受到攻击,我们就会处于绝对的劣势。”克里斯·艾略特指出,机器人士兵也有积极的一面:“机器人不会因为看到自己的同伴昨天被简易爆炸装置炸死而生气并犯下战争罪行。如果机器人不确定接近的人是否有敌意,它们可以被指示牺牲自己;如果有疑问,人类必须被允许采取自卫行动。”

请继续向我们发送你对这个问题的意见。