资讯

杀手机器人对未来战争意味着什么?

原创 2023-01-14 09:25 倚歌 来源:无人机网

杀手机器人现在看起来不像这样。图片来源:Denis Starostin/Shutte

你可能从电影和书籍中听说过杀手机器人、屠宰机器人或终结者--官方称为致命自主武器(LAWs)。而超级智能武器横行的想法仍然是科幻小说。但是,随着人工智能武器变得越来越复杂,公众对缺乏责任感和技术故障风险的担忧也在增加。

我们已经看到所谓的中立人工智能是如何做出性别歧视的算法和无能的内容审核系统的,主要是因为它们的创造者不了解这项技术。但在战争中,这些类型的误解可能会杀死平民或破坏谈判。

例如,一个目标识别算法可以被训练为从卫星图像中识别坦克。但是,如果用于训练该系统的所有图像都以坦克周围的士兵编队为特征,那该怎么办?它可能会把穿过军事封锁线的民用车辆误认为是目标。

我们为什么需要自主武器?

由于全球超级大国建造和使用日益先进的武器的方式,许多国家(如越南、阿富汗和也门)的平民遭受了痛苦。许多人会认为它们造成的伤害多于好处,最近的一次是指2022年初俄罗斯入侵乌克兰的事件。

在另一个阵营中,有人说一个国家必须有能力保护自己,这意味着要跟上其他国家的军事技术。人工智能已经可以在国际象棋和扑克上胜过人类。它在现实世界中的表现也超过了人类。例如,微软声称其语音识别软件的错误率为1%,而人类的错误率约为6%。因此,军队正在慢慢地把缰绳交给算法,这并不令人惊讶。

但是,我们如何避免将杀手机器人加入我们希望从未发明过的一长串东西中呢?首先:了解你的敌人。

什么是致命的自主武器(LAWs)?

美国国防部将自主武器系统定义为:“一种武器系统,一旦启动,就可以选择和攻击目标,而不需要人类操作员进一步干预。”

许多战斗系统已经符合这一标准。无人机和现代导弹上的计算机拥有的算法可以探测目标,并以远比人类操作员更精确的方式向其开火。以色列的 "铁穹 "是几个主动防御系统中的一个,可以在没有人类监督的情况下攻击目标。

虽然是为导弹防御而设计,但铁穹可能会意外杀人。但这种风险在国际政治中被认为是可以接受的,因为铁穹在保护平民生命方面通常有着可靠的历史。

也有设计用于攻击人的人工智能武器,从机器人哨兵到在乌克兰战争中使用的闲逛的神风无人机。LAWs已经在这里了。因此,如果我们想影响致命性武器的使用,我们需要了解现代武器的历史。

战争的规则

国际协议,如《日内瓦公约》,规定了冲突期间对待战俘和平民的行为。它们是我们控制战争方式的少数工具之一。不幸的是,美国在越南和俄罗斯在阿富汗使用化学武器,证明这些措施并不总是成功的。

更糟糕的是,关键参与者拒绝签字。国际禁止地雷运动(ICBL)自1992年以来一直在游说政治家禁止地雷和集束弹药(在大范围内随机散布的小型炸弹)。1997年,渥太华条约包括禁止这些武器,122个国家签署了该条约。但美国、中国和俄罗斯并不买账。

自2015年以来,地雷每年至少使5000名士兵和平民受伤和死亡,2017年多达9440人。2022年地雷和集束弹药监测报告》说。

“伤亡人数......在过去七年里一直令人不安地居高不下,此前有十多年历史性的减少。2021年也不例外。这一趋势主要是由于2015年以来观察到的冲突和简易地雷污染的增加。平民占记录的受害者的大部分,其中一半是儿童。”

尽管国际禁雷运动作出了最大努力,但有证据表明,俄罗斯和乌克兰(渥太华条约的成员)在俄罗斯入侵乌克兰期间都在使用地雷。乌克兰还依靠无人机来指导炮击,或者最近对俄罗斯的基础设施进行 "神风攻击"。

以色列导弹防御系统

我们的未来

但更先进的人工智能武器呢?阻止杀手机器人运动列出了致命武器的九个关键问题,重点是缺乏问责制,以及随之而来的固有的非人性化杀戮。

虽然这种批评是有效的,但全面禁止致命性武器是不现实的,原因有二。首先,和地雷一样,潘多拉的盒子已经被打开了。另外,自主武器、致命性武器和杀人机器人之间的界限非常模糊,很难区分它们。军方领导人总是能够从禁令的措辞中找到漏洞,将杀手机器人作为防御性自主武器偷偷投入使用。他们甚至可能在不知不觉中这样做。

我们几乎肯定会在未来看到更多启用人工智能的武器。但这并不意味着我们必须另眼相看。更加具体和细微的禁令将有助于让我们的政治家、数据科学家和工程师负责任。

例如,通过禁止。

人工智能的黑匣子:用户除了输入和输出之外没有关于算法的信息的系统。

不可靠的人工智能:经过不良测试的系统(如前面提到的军事封锁的例子)。

而且,你不必成为人工智能专家,也可以对LAWs有自己的看法。保持对新的军事人工智能发展的了解。当你读到或听到人工智能被用于战斗时,问问自己:它是合理的吗?它是否保护了平民的生命?如果不是,请与正在努力控制这些系统的社区接触。团结起来,我们就有机会防止人工智能造成更大的伤害。

0 0

网友评论

取消