对机器人杀手说不

的观点

英国机器人专家诺尔夏基教授呼吁先发制人地禁止部署自主武器

这是对工程师们的号召,他们应该站起来,要求禁止机器人自主杀伤。我问工程师这个问题,是因为你们知道机器在做出判断时是多么的有限;只有人类才能做出的判断;关于杀谁和何时杀他们的判断。

战争正迅速走向更大程度的自动化,高科技国家可以在不危及本国军队的情况下进行战争。我们看到在伊拉克和阿富汗使用无人机的人数呈指数级增长,中央情报局在巴基斯坦、也门和索马里进行有针对性的杀戮和标志性袭击。现在,超过70个州已经获得或正在开发军用机器人技术。

目前的无人机是远程控制的,用于在一个宽松的空域对付低技术含量的社区。从移动操纵杆到机动反应有1.5到4秒的延迟时间,空对空战斗或躲避防空火力都是有问题的。此外,技术先进的对手可能会采取反策略,通过干扰通信使无人机毫无用处。

完全自主的无人机无需与操作员通信就能寻找和攻击目标,不受人类重力或响应时间的限制,允许以超音速进行急转弯和机动。所以让人类脱离控制回路已经被所有的美国的军事自2004年以来的路线图。这将使美国能够减少战场所需人员的数量,降低成本,减少操作延迟。但它们也从根本上削弱了我们的人性。

英国公司BAE系统公司将于今年春天在澳大利亚测试Taranis洲际自主战斗机。美国一直在测试这种完全自主的亚音速飞行器幻影雷x - 47 b它将于2019年左右出现在太平洋的美国航空母舰上。与此同时,中国沈阳飞机制造公司正在研制Anjian超音速无人战斗机,第一架设计用于空中缠斗的无人机。

BAE今年将测试其自主无人机Taranis
BAE今年将测试其自主无人机Taranis

美国开发武装高超音速无人机的HTV-2项目已经以13000英里每小时的速度测试了猎鹰。其目标是在60分钟内用无人驾驶战斗机到达地球上的任何地方。未来的高超音速全自动无人机将制造出非常强大的武器,能够在看似合理的人类干预速度之外做出决策。

一个大问题是,自动武器将无法遵守国际人道主义法(IHL)和其他必要的保障措施,以保护武装冲突中的平民。没有计算机系统能够区分平民和战斗人员,也没有计算机系统能够按照区别原则所要求的方式对杀戮的适当性作出直觉判断。未来的机器可能具有某些类型的歧视能力,但它们不太可能具备人类用于进行比例评估的判断、推理能力或情境感知能力。对事故或滥用的问责是一个主要问题,因为许多不同的组织将参与自主武器的生产和部署。

美国国防部关于“武器系统自主”的指令(2012年11月),“一旦激活,可以选择和打击目标,而无需人类操作员进一步干预”,寻求向我们保证,这类武器的开发将遵守所有适用的法律。但这并不能得到保证,它为具有战斗自主性的机器的发展开了绿灯。

波音的幻影雷
波音的幻影雷

美国的政策指令强调验证和测试,以最大限度地减少可能导致意外交战或失去控制的失败概率。可能出现的故障包括“人为错误、人机交互故障、故障、通信退化、软件编码错误、敌人网络攻击或渗入工业供应链、干扰、欺骗、诱饵、敌方其他对抗或行动,或战场上的意外情况”。

研究人员如何才能将意外情况的风险降到最低?强调了测试、验证和验证,但没有承认确认移动自主武器将“在现实的作战环境中与自适应对手抗衡”实际上是不可能的。该指令没有认识到,扩散意味着我们可能会遇到来自其他大国的同等技术。正如我们所知,如果两个或更多的机器与未知的战略算法相遇,结果是不可预测的,可能会对平民造成不可预见的伤害。

底线是,不应该允许武器系统决定选择人类目标,并使用致命的武力。我们现在就得行动起来阻止杀死功能被自动化。我们已经禁止化学武器、生物武器、致盲激光、集束弹药和杀伤人员地雷。

我们现在需要一项新的国际条约来先发制人地禁止完全自主武器。

我呼吁你这么做在我们的禁令上签字吧http://icrac.net/在太多的国家开发这项技术之前,我们冒险走上一条没有回报的道路。

Noel Sharkey是谢菲尔德大学人工智能和机器人教授