所有企业在开发AI解决方案时都应避免的陷阱

责任编辑:cres

作者:John Schwarz

2024-08-22 15:51:42

来源:企业网D1Net

原创

本文探讨了AI项目的挑战和成功策略,以微软Tay的失败为例,强调了训练AI模型的复杂性和潜在风险。

2016年,科技巨头微软推出了Tay,一款旨在通过与Twitter用户互动来提升对话能力的聊天机器人,然而,由于Tay接收到的数据,事情很快失控。在与一群Twitter用户的互动中,这个机器人迅速学会了种族主义和厌女言论,并将其转化为一连串令人反感的推文。微软在24小时内便关闭了Tay。
 
这件事对那些计划使用最新GenAI技术来深入了解业务的公司来说也是一个教训,不论是了解薪酬水平还是识别哪些客户有取消订阅风险。
 
首先,大多数公司缺乏丰富的数据集,而AI模型需要这些数据集来提供针对其业务和行业的准确且可靠的见解。
 
作为一家帮助客户挖掘HR数据洞见的公司的联合创始人,我亲眼见证了拥有合适工具的好处。以下是为什么自行构建解决方案比看上去要复杂得多,以及为什么合适的合作伙伴可以带来巨大差异的原因。
 
何时DIY AI
 
假设一家公司希望开发一个AI助手,帮助解决员工薪酬公平的老问题。与其费力地计算数字,是否不如让AI从薪资、加薪到奖金等方面提供智能建议?
 
虽然可以轻松获取许多现成的大型语言模型(LLM)——从GPT到Gemini、Coral和Falcon——它们能够以简单的语言回答问题。根据用例的复杂性,成本可能每次查询仅需几美分。
 
然而,对于任何使用AI来制定薪酬决策的企业来说,模型本身是次要的。在这个例子中,重要的是让AI深入了解薪酬的复杂性,既要考虑团队内部的相对薪酬,也要参考行业中相应技能和绩效水平的标准。
 
为了获得这些知识,AI模型需要进行适当的训练,这需要在研究上投资,向其输入公司内部和外部的相关数据,最重要的是,加入一个人类反馈环路来验证和改进结果。
 
这也是为什么自助式AI工具往往不可靠的主要原因之一。据一项调查发现,六成自行开发AI解决方案的公司都存在准确性问题。
 
此外,还有成本问题。尽管大型语言模型(LLM)的基本费用相对较低,但为了适应一家公司的特定需求而进行训练却需要大量投入。例如,据报道,Bloomberg在开发其LLM时花费了数百万美元,而且,维护也是一个问题。每次LLM的基础版本发生变化时,都必须重新训练以确保其一致性和可靠性。
 
还值得注意的是,大多数AI项目都会失败,它们的失败率可能高达80%,几乎是内部IT项目的两倍。
 
如何与AI合作伙伴合作
 
对于大多数公司来说,更好的方法是找到一家专门为企业开发AI的合作伙伴,并且该伙伴拥有针对其行业和功能需求的大量数据集。
 
毕竟,只有在相关数据的基础上进行训练,AI对企业才有用。你用来训练AI的数据越多,它的价值就越大。在大多数情况下,获得足够的数据的唯一途径是从许多相关企业中汇总数据。
 
我之前举的薪酬例子来自HR和人力资源分析领域。在这里,获取大量的员工记录至关重要。当我们为HR构建自己的AI助手时,我们在来自各种行业和地区的数千万条记录上进行了训练,这些记录代表了极为多样化的技能。
 
重要的是,这种训练只使用元数据,即客户的查询记录,而不是他们的实际数据,然后,助手会根据每个客户的需求进行“调整”,以支持他们独特的公司语言。提示工程在准备更好的答案方面至关重要,最后,知道什么是优质数据也非常重要。丰富的基准数据源是关键的先决条件。
 
与合适的供应商合作意味着企业也可以确保其安全性和隐私需求得到满足,这包括保护机密数据并为组织中的不同用户提供访问权限。
 
例如,普通员工询问特定角色的薪酬时,只能看到公司相对于行业的基准,而授权经理则可以查看其直接下属的个人薪酬详细信息。
 
归根结底,任何计划利用AI力量的公司都必须选择最适合其需求的方法。根据我的经验,找到一个拥有专门技术并且能够访问大量相关行业数据的合作伙伴,会取得更好的结果。单打独斗的公司可能会给自己制造麻烦,最终无法获得推动竞争业务成果所需的丰富而精确的洞见。
 
企业网D1net(www.d1net.com):
 
国内主流的to B IT门户,旗下运营国内最大的甲方CIO专家库和智力输出及社交平台-信众智(www.cioall.com)。旗下运营19个IT行业公众号(微信搜索D1net即可关注)。
 
版权声明:本文为企业网D1Net编译,转载需在文章开头注明出处为:企业网D1Net,如果不注明出处,企业网D1Net将保留追究其法律责任的权利。

链接已复制,快去分享吧

企业网版权所有©2010-2025 京ICP备09108050号-6京公网安备 11010502049343号