当前位置:人工智能行业动态 → 正文

公司高管们担心与ChatGPT意外共享公司数据

责任编辑:cres 作者:Victor Dey |来源:企业网D1Net  2023-05-17 13:22:00 原创文章 企业网D1Net

《企业中的生成式人工智能状态》报告发现,ChatGPT是企业中最受欢迎的聊天机器人,其次是CopyAI(35%)和Anyword(26%),分别位居第二和第三。然而,许多公司已经禁止在工作场所使用生成式人工智能工具,其中ChatGPT是最常被禁止的(32%),其次是CopyAI(28%)和Jasper(23%)。
 
Writer联合创始人兼首席技术官Waseem Alshikh表示,“如今关于生成式人工智能的炒作太多了,我们想了解一下实际情况——谁在使用它,他们在使用什么工具,他们在用它做什么,以及企业有哪些限制和约束。研究结果确实令人大开眼界。实际上,至少每个行业都在试验生成式人工智能,而且它不仅仅局限于企业中的一个功能。生成式人工智能的使用涵盖了IT、运营、营销、人力资源、法律、L&D等各个领域。”
 
最常见的生成式AI用例
 
根据调查显示,生成式人工智能最常见的应用是为广告和标题生成简洁的文本(31%),为各种媒体和渠道重新利用已有内容(27%),以及创建广泛的内容,如博客和知识库文章(25%)。
 
Alshikh表示,“人工智能为营销人员、用户体验设计师、编辑、客户服务专业人员等节省了大量从零开始生成新内容的时间。但真正的价值来自内容开发过程的其他部分——乏味的部分:重新利用、分析、研究、转换甚至分发内容。当你很忙,想要快速行动时,这些东西会拖垮你,而生成式人工智能可以自动处理它。”
 
在工作场所使用生成式人工智能:是福还是祸?
 
该调查产生了重大发现,其中一个关键发现是几乎所有企业都在各种功能中使用生成式人工智能,其中信息技术(30%)、运营(23%)、客户成功(20%)、营销(18%)、支持(16%)、销售(15%)和人力资源(15%)都是最常见的实施领域。
 
根据该报告,59%的受访者表示,他们的公司今年已经购买或计划购买生成式人工智能工具。此外,近五分之一(19%)的受访者表示,他们的公司目前使用五种或更多的生成式人工智能工具。此外,56%的受访者表示,生成式人工智能将生产率提高了至少50%,26%的受访者表示,它将生产率提高了75%或更多。
 
Alshikh表示,“令人惊讶的是,建筑和IT(16%)是生成式人工智能使用最多的行业。紧随其后的是金融保险(8%)、科技服务(8%)和制造业(5%)。特别是在Writer,我们在金融和保险领域看到了很多用例。”
 
Alshikh认为ChatGPT对大多数人来说是有价值的,因为它是免费的,易于使用,且适合一般用途。然而,该工具的局限性(如有限的数据集、不准确、幻觉、偏见和数据隐私问题)也是公认的。
 
Alshikh补充道,“ChatGPT本身也意识到它不是特别准确。企业需要的不仅仅是创作创意故事和十四行诗的能力——它们还必须保护自己的品牌和声誉。不幸的是,ChatGPT和其他类似的工具正在导致错误信息的增加,这对于必须依赖准确性和品牌一致性的企业来说是一个关键问题。”
 
Writer的新产品功能
 
该公司最近宣布了新的产品功能,旨在为其企业客户提供从数据源到人们工作的所有阶段的最高水平的准确性、安全性、隐私性和合规性。这些特性包括自托管的大型语言模型(LLM),允许客户在本地或云服务中托管、操作和定制LLM。
 
此外,该公司还在Writer平台上引入了知识图谱(Knowledge Graph),允许客户索引和访问任何数据源(从Slack到wiki到知识库到云存储实例)。
 
Writer的CEO兼联合创始人May Habib在一份书面声明中表示:“我们为企业提供完全的控制——从LLM可以访问哪些数据,到LLM托管在哪里。如果你无法控制你的生成式人工智能的输出,你当然无法控制输出的质量或品牌和安全风险。”
 
降低生成式人工智能风险的关键考虑因素
 
Alshikh表示,像ChatGPT这样的商业模式通常会从各种公共来源收集情报,这可能有利于创造力,但不利于品牌的一致性。
 
他补充说,企业领导人已经意识到在整个企业中实施生成式人工智能的竞争优势。然而,他们也认识到使用像ChatGPT这样的免费聊天机器人的风险,包括生成不准确内容和暴露机密数据的可能性。
 
他解释称,“这就是为什么我们Writer的目标是超越新奇的用例,给企业带来真正的影响。我们已经解决了与准确性和隐私相关的问题,我们的技术正在被部署在高度监管的行业,包括为Intuit和UnitedHealthcare等客户提供技术、医疗保健和金融服务。”
 
鉴于ChatGPT的受欢迎程度,他建议公司考虑ChatGPT或任何基于OpenAI的工具是否符合他们的数据隐私、品牌和监管政策。此外,他建议公司收集功能性用例和需求来评估备选方案。
 
Alshikh建议称,“如果一个企业已经制定了使用ChatGPT的政策,他们应该考虑实施一个持续的沟通和培训计划,这样每个人都知道哪些工具是安全的,以及如何在不泄露敏感公司数据的情况下使用它们。同时,企业高管也需要问自己一些重要的问题,比如:它安全吗?它能保护我们公司的数据吗?它是否允许我们根据我们的品牌、风格、信息和公司情况定制输出?它能集成到我们的业务工作流程中吗?”
 
关于企业网D1net(www.d1net.com):
 
国内主流的to B IT门户,同时在运营国内最大的甲方CIO专家库和智力输出及社交平台-信众智(www.cioall.com)。同时运营19个IT行业公众号(微信搜索D1net即可关注)
 
版权声明:本文为企业网D1Net编译,转载需在文章开头注明出处为:企业网D1Net,如果不注明出处,企业网D1Net将保留追究其法律责任的权利。

关键字:人工智能ChatGPT

原创文章 企业网D1Net

x 公司高管们担心与ChatGPT意外共享公司数据 扫一扫
分享本文到朋友圈
当前位置:人工智能行业动态 → 正文

公司高管们担心与ChatGPT意外共享公司数据

责任编辑:cres 作者:Victor Dey |来源:企业网D1Net  2023-05-17 13:22:00 原创文章 企业网D1Net

《企业中的生成式人工智能状态》报告发现,ChatGPT是企业中最受欢迎的聊天机器人,其次是CopyAI(35%)和Anyword(26%),分别位居第二和第三。然而,许多公司已经禁止在工作场所使用生成式人工智能工具,其中ChatGPT是最常被禁止的(32%),其次是CopyAI(28%)和Jasper(23%)。
 
Writer联合创始人兼首席技术官Waseem Alshikh表示,“如今关于生成式人工智能的炒作太多了,我们想了解一下实际情况——谁在使用它,他们在使用什么工具,他们在用它做什么,以及企业有哪些限制和约束。研究结果确实令人大开眼界。实际上,至少每个行业都在试验生成式人工智能,而且它不仅仅局限于企业中的一个功能。生成式人工智能的使用涵盖了IT、运营、营销、人力资源、法律、L&D等各个领域。”
 
最常见的生成式AI用例
 
根据调查显示,生成式人工智能最常见的应用是为广告和标题生成简洁的文本(31%),为各种媒体和渠道重新利用已有内容(27%),以及创建广泛的内容,如博客和知识库文章(25%)。
 
Alshikh表示,“人工智能为营销人员、用户体验设计师、编辑、客户服务专业人员等节省了大量从零开始生成新内容的时间。但真正的价值来自内容开发过程的其他部分——乏味的部分:重新利用、分析、研究、转换甚至分发内容。当你很忙,想要快速行动时,这些东西会拖垮你,而生成式人工智能可以自动处理它。”
 
在工作场所使用生成式人工智能:是福还是祸?
 
该调查产生了重大发现,其中一个关键发现是几乎所有企业都在各种功能中使用生成式人工智能,其中信息技术(30%)、运营(23%)、客户成功(20%)、营销(18%)、支持(16%)、销售(15%)和人力资源(15%)都是最常见的实施领域。
 
根据该报告,59%的受访者表示,他们的公司今年已经购买或计划购买生成式人工智能工具。此外,近五分之一(19%)的受访者表示,他们的公司目前使用五种或更多的生成式人工智能工具。此外,56%的受访者表示,生成式人工智能将生产率提高了至少50%,26%的受访者表示,它将生产率提高了75%或更多。
 
Alshikh表示,“令人惊讶的是,建筑和IT(16%)是生成式人工智能使用最多的行业。紧随其后的是金融保险(8%)、科技服务(8%)和制造业(5%)。特别是在Writer,我们在金融和保险领域看到了很多用例。”
 
Alshikh认为ChatGPT对大多数人来说是有价值的,因为它是免费的,易于使用,且适合一般用途。然而,该工具的局限性(如有限的数据集、不准确、幻觉、偏见和数据隐私问题)也是公认的。
 
Alshikh补充道,“ChatGPT本身也意识到它不是特别准确。企业需要的不仅仅是创作创意故事和十四行诗的能力——它们还必须保护自己的品牌和声誉。不幸的是,ChatGPT和其他类似的工具正在导致错误信息的增加,这对于必须依赖准确性和品牌一致性的企业来说是一个关键问题。”
 
Writer的新产品功能
 
该公司最近宣布了新的产品功能,旨在为其企业客户提供从数据源到人们工作的所有阶段的最高水平的准确性、安全性、隐私性和合规性。这些特性包括自托管的大型语言模型(LLM),允许客户在本地或云服务中托管、操作和定制LLM。
 
此外,该公司还在Writer平台上引入了知识图谱(Knowledge Graph),允许客户索引和访问任何数据源(从Slack到wiki到知识库到云存储实例)。
 
Writer的CEO兼联合创始人May Habib在一份书面声明中表示:“我们为企业提供完全的控制——从LLM可以访问哪些数据,到LLM托管在哪里。如果你无法控制你的生成式人工智能的输出,你当然无法控制输出的质量或品牌和安全风险。”
 
降低生成式人工智能风险的关键考虑因素
 
Alshikh表示,像ChatGPT这样的商业模式通常会从各种公共来源收集情报,这可能有利于创造力,但不利于品牌的一致性。
 
他补充说,企业领导人已经意识到在整个企业中实施生成式人工智能的竞争优势。然而,他们也认识到使用像ChatGPT这样的免费聊天机器人的风险,包括生成不准确内容和暴露机密数据的可能性。
 
他解释称,“这就是为什么我们Writer的目标是超越新奇的用例,给企业带来真正的影响。我们已经解决了与准确性和隐私相关的问题,我们的技术正在被部署在高度监管的行业,包括为Intuit和UnitedHealthcare等客户提供技术、医疗保健和金融服务。”
 
鉴于ChatGPT的受欢迎程度,他建议公司考虑ChatGPT或任何基于OpenAI的工具是否符合他们的数据隐私、品牌和监管政策。此外,他建议公司收集功能性用例和需求来评估备选方案。
 
Alshikh建议称,“如果一个企业已经制定了使用ChatGPT的政策,他们应该考虑实施一个持续的沟通和培训计划,这样每个人都知道哪些工具是安全的,以及如何在不泄露敏感公司数据的情况下使用它们。同时,企业高管也需要问自己一些重要的问题,比如:它安全吗?它能保护我们公司的数据吗?它是否允许我们根据我们的品牌、风格、信息和公司情况定制输出?它能集成到我们的业务工作流程中吗?”
 
关于企业网D1net(www.d1net.com):
 
国内主流的to B IT门户,同时在运营国内最大的甲方CIO专家库和智力输出及社交平台-信众智(www.cioall.com)。同时运营19个IT行业公众号(微信搜索D1net即可关注)
 
版权声明:本文为企业网D1Net编译,转载需在文章开头注明出处为:企业网D1Net,如果不注明出处,企业网D1Net将保留追究其法律责任的权利。

关键字:人工智能ChatGPT

原创文章 企业网D1Net

电子周刊
回到顶部

关于我们联系我们版权声明隐私条款广告服务友情链接投稿中心招贤纳士

企业网版权所有 ©2010-2024 京ICP备09108050号-6 京公网安备 11010502049343号

^