鉴于“公民,政策制定者和领导人迫切需要区分人工智能的可接受和不可接受的用途”,签署承诺的公司也呼吁各国政府制定一套反对自主武器的具体法律。“我们签名人同意,不应该将人类生命的决定委托给机器。这个职位有一个道德因素,我们不应该让机器做出生命决定,其他人 - 或者没有人 - 会有罪的是,“ 生命未来研究所(FLI)组织的承诺 ” 。签署者认为,这种武器,包括在没有人为参与的情况下选择和参与目标,在地缘政治层面可能极其不稳定。
他们还一致认为,取消人为控制因素以及与监视和数据系统的密切联系,可能导致自主武器成为“暴力和压迫手段”。“此外,致命的自主武器具有与核武器,化学武器和生物武器截然不同的特点,单一集团的单方面行动很容易引发国际社会缺乏管理的技术工具和全球治理体系的军备竞赛,”承诺继续。“煽动和防止这种军备竞赛应成为国家和全球安全的重中之重。”
随着越来越多的抗议活动 - 不仅来自活动家和活动家 - 而且来自世界上一些最大的科技公司(如谷歌)的员工,这一承诺也随之而来。
上个月,这家科技巨头表示,在数千名员工公开批评该公司参与之后,该公司不会续约一个备受争议的五角大楼领导的军事项目。名曰项目Maven的,合同涉及谷歌公司的贷款程序TensorFlow包,以提高军事无人机的性能。
但是,在今年早些时候有3,100名谷歌员工签署了一封要求该公司退出“战争业务”的信件后,谷歌云首席执行官黛安格林在上个月的一次内部会议上证实,该公司将在2019年到期后再续约。
“我们认为谷歌不应该参与战争。因此我们要求取消Maven项目,谷歌起草,宣传并执行一项明确的政策,声明谷歌及其承包商都不会制造战争技术,”原致首席执行官桑达皮采的信中说。
然而,目前尚不清楚新签署的承诺是否会违反谷歌参与Project Maven,因为它只能阻止决定采用机器生命 - 而不是反对切入参与任何武器系统中的人工智能技术
该协议中值得注意的缺席者包括全球最大的人工智能投资者之一Apple,而只有微软,IBM和亚马逊等其他主要参与者的选定员工 - 而不是公司本身 - 已经签署了该承诺。
“我很高兴看到人工智能领导人从谈话转向行动,实施政治家迄今未能实施的政策,”FLI总裁马克斯泰格马克在今年国际联合会议期间宣布斯德哥尔摩承诺人工智能(IJCAI)。
“人工智能有巨大的潜力来帮助世界 - 如果我们耻辱并防止其滥用。自主决定杀人的人工智能武器就像生物武器一样恶心和不稳定,应该以同样的方式处理。”