随着企业开始扩大其AI服务的规模并将其投入生产,构建一个可管理、可追踪、可审计且健壮的流程管道能够确保其智能体按预期运行。如果没有这些控制措施,企业可能无法意识到其AI系统中正在发生什么,可能只有在出现问题或未能遵守法规时才发现问题,而那时可能为时已晚。
企业编排公司Airia的总裁Kevin Kiley在接受采访时表示,框架必须包括可审计性和可追踪性。
“具备这种可观察性(observability)并能够回溯审计日志(audit log),显示在何时提供了什么信息,这一点至关重要,”Kiley说,“你必须知道是恶意行为者、内部员工在无意中分享了信息,还是系统出现了幻觉(hallucination),你需要一份记录。”
理想情况下,健壮性和审计追踪(audit trails)应在AI系统的早期阶段就融入其中。了解新AI应用或代理的潜在风险,并确保它们在部署前继续符合标准,这将有助于缓解人们对将AI投入生产的担忧。
然而,企业最初设计其系统时并未考虑可追踪性和可审计性,许多AI试点项目最初是作为实验开始的,没有编排层或审计追踪。
企业现在面临的最大问题是如何管理所有代理和应用,确保其流程管道保持健壮,并在出现问题时能够知道问题所在并监控AI性能。
选择正确的方法
不过,专家表示,在构建任何AI应用之前,企业需要盘点其数据。如果一家公司知道哪些数据可以让AI系统访问,以及哪些数据用于微调模型,那么他们就有了比较长期性能的基准。
“当你运行某些AI系统时,更重要的是,我能验证我的系统实际上是否在正常运行,使用哪种数据?”DataDog产品副总裁Yrieix Garnier在接受采访时表示,“要真正做到这一点,理解我拥有正确的参考系统来验证AI解决方案是非常困难的。”
一旦企业识别并定位了其数据,就需要建立数据集版本控制(dataset versioning)——本质上是为数据集分配时间戳或版本号——以使实验可重复,并理解模型发生了什么变化,这些数据集和模型、任何使用这些特定模型或代理的应用、授权用户以及基准运行时间数字都可以加载到编排或可观察性平台中。
就像在选择基础模型(foundation models)进行构建时一样,编排团队需要考虑透明度和开放性。虽然一些闭源编排系统具有众多优势,但更多的开源平台也可能为企业提供所重视的好处,例如增加对决策系统的可见性。
开源平台如MLFlow、LangChain和Grafana为代理和模型提供了细致且灵活的指令和监控。企业可以选择通过一个单一的、端到端的平台(如DataDog)来开发其AI流程管道,或利用AWS的各种互连工具。
企业考虑的另一个方面是接入一个系统,该系统能够将代理和应用响应映射到合规工具或负责任的AI政策上。AWS和Microsoft都提供了跟踪AI工具以及它们如何紧密遵守用户设定的护栏(guardrails)和其他政策的服务。
Kiley表示,企业在构建这些可靠流程管道时需要考虑的一个方面是选择一个更透明的系统。对于Kiley来说,无法看到AI系统如何工作是不可行的。
“无论使用案例是什么,甚至无论行业是什么,你都会遇到需要灵活性的情况,而一个封闭的系统将无法满足需求。有些提供商拥有很棒的工具,但它们就像是一个黑箱,我不知道它是如何得出这些决定的,我也没有能力在我可能想要干预或介入的点上进行操作。”他说。
企业网D1net(www.d1net.com):
国内头部to B IT门户,旗下运营国内最大的甲方CIO专家库和智力输出及社交平台-信众智(www.cioall.com)。旗下运营19个IT行业公众号(微信搜索D1net即可关注)。
版权声明:本文为企业网D1Net编译,转载需在文章开头注明出处为:企业网D1Net,如果不注明出处,企业网D1Net将保留追究其法律责任的权利。