这些研究人员分布在30个国家,他们表示,他们不会访问KAIST,接待大学的访客,或者与其研究项目合作,直到它承诺在没有“有意义的人为控制”的情况下不开发人工智能武器。
KAIST于2月份与韩国制造集束弹药制造商之一的韩华系统公司合作开设了该中心,并在数小时内作出回应,称其“无意参与开发致命的自主武器系统和杀手机器人”。
大学校长Sung-Chul Shin表示,该大学“非常了解”人工智能的道德问题,并补充说:“我再次重申KAIST不会进行任何与人类尊严相反的研究活动,包括缺乏有意义的人为控制的自主武器。”
该大学表示,新的国防和人工智能融合研究中心将专注于将AI用于指挥和控制系统,大型无人驾驶海底车辆导航,智能飞机训练以及物体跟踪和识别。
组织抵制活动的悉尼新南威尔士大学教授托比沃尔什说,该大学的快速反应是成功的,但他需要与所有签署这封信的人交谈,然后再取消联合抵制。
“KAIST做出了两项重大让步:不发展自主武器并确保有意义的人为控制,”他说,并补充说,该大学的回应将增加联合国下周就整个问题进行的讨论。
沃尔什说,目前尚不清楚人们如何能够建立有意义的人类控制无人潜艇 - 其中一个发射项目 - 当它在海底并且无法通信时。
在宣布抵制的公开信中,研究人员警告说:“如果发达,自主武器将......允许战争更快,并且规模比以往任何时候都大。他们将有可能成为恐怖武器。“
他们引用了对先前武器技术的有效禁令,并敦促KAIST禁止任何有关致命自主武器的工作,并避免使用会损害人类生命的人工智能。
AI是计算机科学领域,旨在创建能够感知环境并做出决策的机器。
该信还由深度学习和机器人技术的顶级专家签署,在下周一由联合国123个成员国在日内瓦召开会议之前发布了由致命自主武器构成的挑战,批评者称之为“杀手机器人”。
沃尔什告诉路透社,机器人和人工智能在军队中有很多潜在的好用途,包括将人类从危险任务中移除,例如清除雷区。
“但我们不应该将生命或死亡的决定移交给机器。这跨越了明确的道德路线,“他说。“我们不应该让机器人决定谁住,谁死。