这些公司都同意,如果所构建的AI模型带来的风险无法控制或缓解,则不会开发或部署该模型。
该承诺适用于基础或“前沿”模型——这种AI模型可以应用于广泛的领域,通常是能够处理图像、文本和其他输入的多模态系统。
Meta、三星、Claude开发商Anthropic和Elon Musk的初创公司xAI也在签署者之列。
ChatGPT制造商OpenAI、总部位于迪拜的技术创新研究所和韩国互联网提供商Naver也签署了“前沿AI安全承诺”。
开发中国版ChatGPT的初创公司Zhipu AI也在签署这些由英国和韩国政府制定的承诺的公司之列。
“我们相信‘前沿AI安全承诺’将在全球AI行业生态系统中建立最佳实践,我们希望公司将继续与政府、学术界和民间社会对话,并在未来与AI安全研究所建立合作网络。”韩国科学和信息通信技术部长Lee Jong Ho表示。
每个同意这些承诺的公司将公开其基础模型带来的风险级别以及他们计划采取的确保这些模型安全部署的措施。
签署者必须在2025年初在法国举行的下一次AI安全峰会之前公布他们的发现。
“这些承诺确保全球领先的AI公司在开发安全AI的计划上提供透明度和问责制。”英国首相Rishi Sunak表示。
这些承诺旨在建立在去年11月在首届AI安全峰会上签署的Bletchley协议的基础上,该协议对AI风险进行分类和归类。
根据安永全球咨询数据和AI负责人Beatriz Sanz Saiz的说法,科技公司的承诺是受欢迎的。
“在开发和实施可信AI时,提供透明度和问责制是至关重要的,”Saiz说,“虽然AI对企业和个人都有巨大的潜力,但只有通过谨慎和伦理的方法才能发挥这一潜力。”
Zoho英国公司董事总经理Sachin Agrawal表示:“使用AI的公司应该优先考虑伦理考量和负责任的数据实践,以建立客户信任。采用正确的AI程序可能意味着超越当前的隐私法规,考虑最具伦理的做法,以平衡AI的利益而不损害客户数据,并确保任何做法都是完全透明的。”
企业网D1net(www.d1net.com):
国内主流的to B IT门户,同时在运营国内最大的甲方CIO专家库和智力输出及社交平台-信众智(www.cioall.com)。同时运营19个IT行业公众号(微信搜索D1net即可关注)。
版权声明:本文为企业网D1Net编译,转载需在文章开头注明出处为:企业网D1Net,如果不注明出处,企业网D1Net将保留追究其法律责任的权利。