安全使用GenAI模型进行软件开发的步骤

责任编辑:cres

作者:Dzmitry Lushchyk

2024-02-23 11:12:00

来源:企业网D1Net

原创

本文将深入探讨如何构建一个在软件开发中使用ChatGPT和类似的GenAI的环境,该环境对所有参与者都是安全和有益的。

如果你是一家大型公司,最近的AI热潮并没有逃脱你的注意,今天,AI正在协助完成大量与开发和数字相关的任务,从内容生成到自动化和分析。
 
AI的发展很快,随着它在很大程度上是一个未经探索的领域,伦理、经济、社会和法律问题也浮出水面。在关于AI增强内容的知识产权以及AI是否能够在短期内完全取代人类劳动力(并导致大规模裁员)的激烈讨论中,企业希望利用GenAI提供的优势,同时又是安全的。
 
正视风险,破除神话
 
AI的相对新颖性和爆炸性扩散造成了大量的误解和信息混乱,让我们来看看与ChatGPT相关的一些常见风险和流传的神话,看看如何应对或减轻它们。
 
1.AI的发展速度快于政府对其的监管
 
在区块链和加密货币方面,我们以前就看到过这种情况。AI的发展进程很快,而法律程序和监管程序却滞后,这造成了一个很难导航的大灰色地带:大量空白,几乎没有先例,这可能会导致企业采用不安全或不道德的方式使用ChatGPT,甚至在未来被认为是非法的。
 
要解决此问题,你可以创建与在企业中使用ChatGPT有关的明确行为准则,并强制要求员工熟悉它。
 
这段代码应该尽可能多地涵盖使用GenAI的各个方面,例如,它应该包括你的企业中允许使用ChatGPT的任务类型,以及所需的访问类型。由于该领域有许多空白,最好与值得信赖的专家合作,或者将GenAI实践的创建和实现外包给具有该领域专业知识的人。
 
2.关于知识产权、过度分享和隐私风险的辩论
 
有很多已知的案例,人们试图用敏感或私人数据训练AI,或者将其用作分析的输入。对于这些数据是否对企业外部的人可用,仍存在很大争议,另一场激烈的辩论是,如何为使用ChatGPT的任何产品赋予知识产权。请记住,如果员工使用他们的个人帐户使用ChatGPT,结果将是他们的知识产权,而不是你公司的知识产权。
 
这就是为什么在你的AI相关政策中引入并遵守处理敏感、隐私或受版权保护的信息的规则非常重要。
 
3.AI发展的不可预测性
 
这是风险和大量投机的另一个因素。AI在很大程度上仍然是一个空白纸,尽管技术奇点不太可能在短期内成为现实,但仍然重要的是要记住,AI的未来非常不可预测。正因为如此,很难知道我们是否能够对AI及其未来的发展施加同样多的控制,另一件很难预测的事情是,我们的工作可能会变得对AI有多大的依赖,这也是一个很大的风险因素。
 
我们可以通过创建和实现灵活、敏捷的ChatGPT工作流来降低这种风险,这样的工作流程应该容易扩展,并具有很强的适应发展和法规变化的能力。
 
4.AI最终将取代人类劳动
 
这在很大程度上仍然是阴谋论领域,但即使是现在,我们也看到有多少工作可以在AI的帮助下实现自动化,这一神话很容易被任何试图使用AI来执行更复杂任务的人打破。如今,AI输出的质量在很大程度上取决于输入的质量和精度,但要编写连贯、有用的提示,生成准确和可用的结果,操作员通常需要至少接受过一些使用AI的基本培训,而且总是需要领域知识。
 
一方面,快速工程和领域知识的经验与AI输出质量之间的关系是直接的,这意味着,要有效地使用AI,需要高效和合格的工作人员。
 
绕过这个伦理敏感话题的一种方法是,通过增加精确度、覆盖率、承担平凡和重复性的任务以及消除由于人为因素而发生的错误,推动与ChatGPT相关的工作更多地走向自动化,并增强人工工作。
 
5.AI相关流程和文档的复杂性
 
由于AI仍是未知领域,大多数企业在设法建立清晰且有效的AI工作流程、记录面向ChatGPT的任务的协议之前,仍需走试错之路。积累的知识匮乏,让企业盲目导航。这可能会导致代价高昂的错误、效率损失以及时间和资源的浪费。
 
解决这一问题的最佳解决方案是将AI流程和文档的实施委托给专家,聘请可靠的内部员工或将这些任务外包给专业人员。
 
为在软件开发中使用GenAI构建安全环境的最佳实践和步骤
 
实施AI工作的流程应该仔细进行,并牢记这样的解决方案需要量身定做,并考虑许多与业务和领域相关的细节和上下文,以下是一些最佳实践,它们将帮助你驾驭这片浑浊的水域。
 
1.关注用户同意、数据隐私、安全和合规
 
了解你所在地区已经针对AI制定了哪些法规,并密切监控政府流程,为即将到来的立法行动做好准备。如果你的产品以基于AI的服务为特色,请确保用户充分了解这一事实,知道收集了哪些数据,并在使用你的产品之前征得他们的同意。对于开发过程,避免使用敏感、私有或受版权保护的数据来训练AI或生成输出。
 
2. 人机回环实践
 
人机回环是一套设计和操作实践,其中人的判断被集成到AI驱动的系统和流程中,这种方法限制了任何AI的潜在自主权,并给了你更多的控制和监督,特别是在关键的决策点。在AI的决定可能具有突出的伦理、法律或个人影响的情况下,这一概念是必不可少的。
 
3.负责任的披露和部署
 
如果你看到与AI相关的工作把你引向了错误的方向,你应该随时准备放弃它,被确定为构成风险的潜在有害的ChatGPT结果和经过训练的AI模型应该被丢弃并关闭,可能不会对你的其他进程造成太大破坏。
 
4.透明文档
 
如果你希望企业中的每个人都对你使用AI的立场达成一致,那么使用AI的清晰透明的协议、统一的程序、在术语和关键点上没有任何模棱两可和双重含义是至关重要的,它还有助于快速让员工上岗,并大规模引入AI实践。
 
5.界定和限制AI参与的范围
 
AI的确切参与范围应该从项目开始就定义,这应该记录在有关使用ChatGPT的必要文档中,你需要向所有员工提供这些文档。允许使用AI的任务应明确规定,禁止使用AI的任务也应明确规定。
 
6.参与AI社区,提高AI意识和识字能力
 
如上所述,缺乏积累的知识库是软件开发中阻碍ChatGPT相关工作的因素之一。为AI社区做出贡献,交换想法,分享经验,对你的企业和社区本身都是有利可图的。对你的员工进行AI开发方面的教育并提高对与其相关的各种问题的认识也成为必要。
 
7.透明度和问责制
 
虽然这是一种更通用的最佳实践,对任何软件开发过程都有好处,但它对于AI增强的任务尤其重要,因为这个领域仍然是一个灰色地带。你应该明确谁对什么负责,每个参与ChatGPT工作的员工都应该知道自己的个人责任,谁是各种具体任务或问题的负责人。
 
8.持续监测
 
与任何快速发展的领域一样,持续的反馈及其纳入周期、对ChatGPT生成的输出的监控、对与AI相关的工作流程、法规和外地发展的审查有助于你改进你的流程并使其尽可能高效,它还将帮助你避免与ChatGPT和其他GenAI相关的许多陷阱。
 
结论
 
对于任何数字企业来说,驾驭复杂且快速演变的生成性AI图景既带来了前所未有的机遇,也带来了重大挑战。
 
通过解决与ChatGPT和类似技术相关的伦理、法律和实践问题,并实施最佳实践框架,企业级公司可以安全有效地利用GenAI的力量,这种方法不仅可以帮助建立一个故障安全的环境,还可以确保AI驱动的创新增强而不是取代人类的专业知识,从而产生更健壮、更高效和更有道德责任感的软件开发过程。
 
企业网D1net(www.d1net.com):
 
国内主流的to B IT门户,同时在运营国内最大的甲方CIO专家库和智力输出及社交平台-信众智(www.cioall.com)。同时运营19个IT行业公众号(微信搜索D1net即可关注)。
 
版权声明:本文为企业网D1Net编译,转载需在文章开头注明出处为:企业网D1Net,如果不注明出处,企业网D1Net将保留追究其法律责任的权利。

链接已复制,快去分享吧

企业网版权所有©2010-2024 京ICP备09108050号-6京公网安备 11010502049343号