当前位置:人工智能行业动态 → 正文

AIGC的六大风险

责任编辑:cres 作者:Manasi Vartak |来源:企业网D1Net  2023-07-24 10:52:00 原创文章 企业网D1Net

运营ChatGPT的OpenAI公司CEO Sam Altman最近在国会听证会上呼吁政府对AI进行监管,引起了不小的轰动。Altman称,“我们认为,政府的监管干预对于减轻日益强大的AI模式的风险至关重要。”
 
ChatGPT是AIGC的一个例子,这种技术可以通过学习嵌入在大量训练数据中的模式,自主创建新的原创内容,如文本、图像或音乐。AIGC在多个方面都与当前其他的机器学习技术不同。
 
首先,AIGC模型(如GPT和Stable Diffusion)的输出是开放式的。这些模型从零开始生成文本和图像数据,而其他常用的判别性(discriminative)ML模型(如分类或回归模型)创建的输出属于一组定义良好的值(例如,Yes/No, 0-1之间的数字)。情感分析模型将根据一些输入文本产生积极或消极的情绪,GPT本身可以产生许多不同类型的输入文本。
 
此外,与目前使用的大多数模型相反,当前的AIGC模型已经在大量数据集上进行了训练。例如,OpenAI在5000亿个令牌上训练了GPT-3。GPT-4、Stable Diffusion和Codex等最新版本的AIGC模型背后的组织尚未披露用于训练模型的确切训练数据。这引发了人们对潜在的隐私侵犯或版权侵犯的担忧。
 
这些模型的绝对力量也使它们与众不同。如今进入市场的AIGC模型比过去的任何模型都要强大,而且它们开始展示出其没有经过专门训练来复制的“涌现特性”(emergent properties,指的是在一个复杂系统中,一些新的、意想不到的特性逐渐显现出来,这些特性在系统的各个组成部分中并不存在)。从实际的角度来看,这意味着用于一个功能的模型可以被重新利用并用于其他任务。
 
最后,这些模型本质上是不透明的。解释一个有1750亿参数的模型的结果,或者理解它是如何做出任何给定决定的,几乎是不可能的。与此同时,这项技术仍处于初期阶段,目前的AIGC模型存在众所周知的局限性,比如“幻觉”(hallucinations,即产生明显错误的信息),会产生新的风险。
 
AIGC的六大风险
 
AIGC模型的独特属性带来了一系列我们在其他类型的模型中看不到的风险。以下是业务领导者在考虑AIGC项目时必须警惕的六大风险。
 
输出质量问题:首先,由于其不可预测的性质,确保AIGC模型生成的输出质量极具挑战性。营销GPT模型的一个结果可能与您的品牌指导方针一致,但另一个结果可能不一致。模型创作的广告在一种文化背景下可能是合适的,但在另一种文化背景下可能是令人反感的。虽然人类可能会很快辨别出这些区别,但该模型缺乏对文化细微差别的意识,可能会无意中产生不适当的内容。因此,人工审查对于评估输出质量仍然是必不可少的。
 
虚构的“事实”和幻觉:第二,AIGC模型虽然发展迅速,但仍然存在明显的局限性,最重要的可能是上面提到的模型编造“事实”时的“幻觉”。结果可能是无害的(误报谁发明了轧棉机),也可能引发诉讼(捏造刑事指控)。在企业应用程序中,模型产生幻觉的可能性意味着,在需要准确信息(如搜索)的情况下使用这些工具之前,需要设置重要的防护机制。
 
版权和其他法律风险:第三,AIGC存在潜在的重大法律和监管风险,例如,AIGC工具在未经创作者许可的情况下使用了受版权保护的材料。此外,AIGC应用程序的使用条款往往缺乏对用户交互数据用于模型改进的明确规定,这可能会引发隐私和安全问题,就像涉及企业源代码的事件一样。此外,AIGC模型的训练数据缺乏透明度可能会导致监管影响,意大利出于对隐私、输出准确性和年龄验证的担忧而暂时禁止ChatGPT就是明证。
 
有偏见的输出:第四,基于用于训练模型的数据中的偏见,AIGC模型与其他模型一样容易遭受有偏见输出的风险。例如,Stable Diffusion可能会根据提示显示“公司首席执行官”的图像,并只生成白人男性的图像。传统的机器学习模型也会带来同样的公平和偏见风险,但当AIGC直接与客户互动时,新AI模型的生成特性会增加风险。
 
易被滥用:第五,AIGC的绝对力量使其容易被“越狱”。虽然GPT的训练主要集中在单词预测上,但它的推理能力是一个意想不到的结果。随着我们在AIGC模型方面取得进展,用户可能会发现绕过模型最初预期功能的方法,并将其用于完全不同的目标。例如,如果您的心理健康聊天机器人是使用GPT开发的,恶意行为者可能会破解聊天机器人,引发不适当的响应或泄露机密数据。几乎所有基于GPT构建的聊天界面在发布后不久都容易被“越狱”。
 
专业知识和计算成本:第六,也是最后一点,与AIGC开发应用相关的额外有形业务风险是专业知识和计算资源的有限可用性。目前,只有少数著名的技术公司能够集中资源来使用这种技术构建弹性应用程序。虽然云提供商可以提供计算能力,或者组织可以使用OpenAI或Azure的API,但该领域的专业知识仍然集中在少数实体手中。
 
这并不是说业务领导者不应该推进AIGC项目。但他们应该在自己的AIGC之旅中,睁大眼睛洞察这项技术的潜在风险,并在必要时采取措施缓解这些风险。
 
关于企业网D1net(www.d1net.com):
 
国内主流的to B IT门户,同时在运营国内最大的甲方CIO专家库和智力输出及社交平台-信众智(www.cioall.com)。同时运营19个IT行业公众号(微信搜索D1net即可关注)
 
版权声明:本文为企业网D1Net编译,转载需在文章开头注明出处为:企业网D1Net,如果不注明出处,企业网D1Net将保留追究其法律责任的权利。

关键字:AIGC人工智能

原创文章 企业网D1Net

x AIGC的六大风险 扫一扫
分享本文到朋友圈
当前位置:人工智能行业动态 → 正文

AIGC的六大风险

责任编辑:cres 作者:Manasi Vartak |来源:企业网D1Net  2023-07-24 10:52:00 原创文章 企业网D1Net

运营ChatGPT的OpenAI公司CEO Sam Altman最近在国会听证会上呼吁政府对AI进行监管,引起了不小的轰动。Altman称,“我们认为,政府的监管干预对于减轻日益强大的AI模式的风险至关重要。”
 
ChatGPT是AIGC的一个例子,这种技术可以通过学习嵌入在大量训练数据中的模式,自主创建新的原创内容,如文本、图像或音乐。AIGC在多个方面都与当前其他的机器学习技术不同。
 
首先,AIGC模型(如GPT和Stable Diffusion)的输出是开放式的。这些模型从零开始生成文本和图像数据,而其他常用的判别性(discriminative)ML模型(如分类或回归模型)创建的输出属于一组定义良好的值(例如,Yes/No, 0-1之间的数字)。情感分析模型将根据一些输入文本产生积极或消极的情绪,GPT本身可以产生许多不同类型的输入文本。
 
此外,与目前使用的大多数模型相反,当前的AIGC模型已经在大量数据集上进行了训练。例如,OpenAI在5000亿个令牌上训练了GPT-3。GPT-4、Stable Diffusion和Codex等最新版本的AIGC模型背后的组织尚未披露用于训练模型的确切训练数据。这引发了人们对潜在的隐私侵犯或版权侵犯的担忧。
 
这些模型的绝对力量也使它们与众不同。如今进入市场的AIGC模型比过去的任何模型都要强大,而且它们开始展示出其没有经过专门训练来复制的“涌现特性”(emergent properties,指的是在一个复杂系统中,一些新的、意想不到的特性逐渐显现出来,这些特性在系统的各个组成部分中并不存在)。从实际的角度来看,这意味着用于一个功能的模型可以被重新利用并用于其他任务。
 
最后,这些模型本质上是不透明的。解释一个有1750亿参数的模型的结果,或者理解它是如何做出任何给定决定的,几乎是不可能的。与此同时,这项技术仍处于初期阶段,目前的AIGC模型存在众所周知的局限性,比如“幻觉”(hallucinations,即产生明显错误的信息),会产生新的风险。
 
AIGC的六大风险
 
AIGC模型的独特属性带来了一系列我们在其他类型的模型中看不到的风险。以下是业务领导者在考虑AIGC项目时必须警惕的六大风险。
 
输出质量问题:首先,由于其不可预测的性质,确保AIGC模型生成的输出质量极具挑战性。营销GPT模型的一个结果可能与您的品牌指导方针一致,但另一个结果可能不一致。模型创作的广告在一种文化背景下可能是合适的,但在另一种文化背景下可能是令人反感的。虽然人类可能会很快辨别出这些区别,但该模型缺乏对文化细微差别的意识,可能会无意中产生不适当的内容。因此,人工审查对于评估输出质量仍然是必不可少的。
 
虚构的“事实”和幻觉:第二,AIGC模型虽然发展迅速,但仍然存在明显的局限性,最重要的可能是上面提到的模型编造“事实”时的“幻觉”。结果可能是无害的(误报谁发明了轧棉机),也可能引发诉讼(捏造刑事指控)。在企业应用程序中,模型产生幻觉的可能性意味着,在需要准确信息(如搜索)的情况下使用这些工具之前,需要设置重要的防护机制。
 
版权和其他法律风险:第三,AIGC存在潜在的重大法律和监管风险,例如,AIGC工具在未经创作者许可的情况下使用了受版权保护的材料。此外,AIGC应用程序的使用条款往往缺乏对用户交互数据用于模型改进的明确规定,这可能会引发隐私和安全问题,就像涉及企业源代码的事件一样。此外,AIGC模型的训练数据缺乏透明度可能会导致监管影响,意大利出于对隐私、输出准确性和年龄验证的担忧而暂时禁止ChatGPT就是明证。
 
有偏见的输出:第四,基于用于训练模型的数据中的偏见,AIGC模型与其他模型一样容易遭受有偏见输出的风险。例如,Stable Diffusion可能会根据提示显示“公司首席执行官”的图像,并只生成白人男性的图像。传统的机器学习模型也会带来同样的公平和偏见风险,但当AIGC直接与客户互动时,新AI模型的生成特性会增加风险。
 
易被滥用:第五,AIGC的绝对力量使其容易被“越狱”。虽然GPT的训练主要集中在单词预测上,但它的推理能力是一个意想不到的结果。随着我们在AIGC模型方面取得进展,用户可能会发现绕过模型最初预期功能的方法,并将其用于完全不同的目标。例如,如果您的心理健康聊天机器人是使用GPT开发的,恶意行为者可能会破解聊天机器人,引发不适当的响应或泄露机密数据。几乎所有基于GPT构建的聊天界面在发布后不久都容易被“越狱”。
 
专业知识和计算成本:第六,也是最后一点,与AIGC开发应用相关的额外有形业务风险是专业知识和计算资源的有限可用性。目前,只有少数著名的技术公司能够集中资源来使用这种技术构建弹性应用程序。虽然云提供商可以提供计算能力,或者组织可以使用OpenAI或Azure的API,但该领域的专业知识仍然集中在少数实体手中。
 
这并不是说业务领导者不应该推进AIGC项目。但他们应该在自己的AIGC之旅中,睁大眼睛洞察这项技术的潜在风险,并在必要时采取措施缓解这些风险。
 
关于企业网D1net(www.d1net.com):
 
国内主流的to B IT门户,同时在运营国内最大的甲方CIO专家库和智力输出及社交平台-信众智(www.cioall.com)。同时运营19个IT行业公众号(微信搜索D1net即可关注)
 
版权声明:本文为企业网D1Net编译,转载需在文章开头注明出处为:企业网D1Net,如果不注明出处,企业网D1Net将保留追究其法律责任的权利。

关键字:AIGC人工智能

原创文章 企业网D1Net

电子周刊
回到顶部

关于我们联系我们版权声明隐私条款广告服务友情链接投稿中心招贤纳士

企业网版权所有 ©2010-2024 京ICP备09108050号-6 京公网安备 11010502049343号

^