当前位置:人工智能行业动态 → 正文

人工智能治理如何在收获回报的同时降低风险

责任编辑:cres 作者:Maria Korolov |来源:企业网D1Net  2021-03-25 13:26:26 原创文章 企业网D1Net

人工智能治理涉及企业内的许多功能和领域,其中包括数据隐私、算法偏见、合规性、道德等方面。因此,企业解决使用人工智能技术的治理问题需要在许多层面上采取行动。
 
塔塔咨询服务公司数据和分析业务负责人Kamlesh Mhashilkar说:“人工智能治理并不只在IT层面或项目层面实施,也要得到政府、企业董事会和首席安全官的重视。”
 
他指出,例如在医疗保健领域,人工智能模型必须通过严格的审核和检查。其他行业也有适用的法规。Mhashilkar说,“企业董事会关注人工智能治理与经济行为有关,这是因为当引入人工智能技术时,企业将会面临一些风险。”
 
至于企业管理层,有关人工智能的议程是有目的性的。例如,首席财务官需要考虑人工智能带来的股东价值和盈利能力。首席信息官和首席数据官也是主要的利益相关者,企业市场和合规负责人也是如此,更不用说客户和供应商。
 
并非所有企业需要在构建人工智能治理战略的各个方面采取行动。尤其一些规模较小的公司。尽管如此,各种规模的企业都将使用人工智能和相关技术,即使它们只是嵌入到他们使用的第三方工具和服务中。
 
但是如果在未经适当监督的情况下使用人工智能技术可能出现一些严重错误,从而损害业务运营、侵犯隐私权,违反行业法规或对企业带来不良信誉的影响。
 
具有前瞻性思维的企业将人工智能项目从试点扩展到生产,并重点关注数据质量、算法性能、合规性和道德规范。以下是他们需要解决的人工智能治理问题:
 
人工智能的道德问题
 
如今,很少有哪个领域比面部识别领域面临更多的道德方面的问题。其技术滥用的可能性很大,提供面部识别技术的一些企业正受到公众的抵制,有时还受到自己员工的抵制。
 
Patriot One科技公司的子公司Xtract AI公司就面临着这种情况,该公司使用图像识别技术来识别携带武器的人员。
 
Xtract AI公司运营副总裁Justin Granek表示,面部识别技术还可以用于其他场合,例如识别不遵守面具或社交疏导准则的人员。
 
他说,“对于我们来说,道德是一个主要的话题。例如我们的员工说:‘我们正在做些什么?’,这迫使我们需要制定人工智能治理的政策。”
 
他指出,“客户有自己的一些要求,需要确定一个平衡点。加拿大国防部是我们的客户之一,我们还有一些医疗保健领域的客户。他们正在从不同的角度看待它。”
 
他表示,该公司面临最大的问题是要为哪些客户工作,以及面部识别技术应该应用在哪些方面?这是一个与企业使命有关的重要决定。但是还必须解决一些技术问题,这些问题的起因都是数据。
 
正确获取数据
 
算法偏差的最大来源是数据集。例如,对于面部识别技术来说,其数据集并不代表一般人群。Granek说,“我们发现,采用数据集更加关注白人男性,这种情况已经得到纠正,但还有很多工作要做。”
 
Granek表示,专家可以帮助解决数据偏差问题,商业数据提供商正在努力填补他们提供数据的空白。也有创建合成数据集的方法,但其解决办法往往是从外部获得更好的数据。
 
对于Xtract AI公司的枪支检测算法来说,这意味着需要设置一个实验室,而在实验室中携带枪支的人员需要混杂在人群中。
 
他说:“这种方法就好像是好莱坞电影中在人群中寻找持枪歹徒的画面,我们的人工智能系统需要在人群中进行识别,但这并不代表事情的真相。”
 
取而代之的是,Xtract AI公司努力收集大量的个人资料作为训练数据。Granek说,“对于可能携带武器的人员没有任何规定。我们的测试人员有一些学生,还有一些年纪较大的人,总之我们需要采集不同的群体的数据。”
 
对于某些人工智能应用程序来说,具有代表性的准确数据集可能是生与死之间的区别,并具有重大的道德和伦理意义。但是,即使不良数据集的影响不会导致发生公共灾难,仍然有可能对企业造成运营影响或财务损失,或导致监管或合规性问题。
 
这是总部位于墨西哥的Cemex公司关注的问题,Cemex公司是世界上最大的建筑材料分销商之一,已有100多年的经营历史。该公司正在通过在供应链管理和运营中使用人工智能来重塑自己。大约三年前,Cemex公司开始研究人工智能和相关技术,以扩大其市场份额,改善客户服务,提高利润。
 
该公司首席人工智能官Nir Kaldero说:“我们这两年实际上在全球范围内看到了人工智能的价值,而不仅仅是在小规模试点项目中。”
 
他说,随着人工智能技术融入该公司的经营理念之中,Cemex公司意识到有必要围绕人工智能建立治理结构。
 
Kaldero说:“这一切都始于数据。没有良好的信息架构,就不会有良好的、可靠的人工智能。没有良好的信息,就无法拥有良好可靠的模型。”
 
Cemex公司的数据治理涵盖了安全性、监控、隐私、合规性和道德规范,并且需要知道数据位于何处,在何处使用以及如何使用,是否符合法规要求以及是否没有偏见。
 
Kaldero表示,Cemex公司依靠Snowflake云数据平台管理数据。该公司有一位高管专门负责数据,另一位高管则负责治理团队的治理。
 
正确设置模型
 
除了数据治理之外,Cemex公司开始围绕人工智能模型和结果创建人工智能治理策略。Kaldero说,“这些新的东西,不仅对于Cemex公司来说,而且对于整个世界也是如此。”
 
这项任务由Kaldero带领的人工智能和数据科学小组以及首席信息官带领的小组共同承担。Cemex公司当前使用人工智能技术来预测其产品需求,因此可以通过与供应商协商更好的交易来节省成本。它还将人工智能用于卡车的路线安排和调度以及销售和定价。如果这些计算中的任何一项出现错误,该公司将蒙受大量损失。
 
因此,为了防止模型漂移和算法偏差,Cemex公司使用了基于Seattle的Algorithmia的技术。
 
KenSci公司是另一家关注人工智能模型后果的公司。总部位于西雅图的KenSci公司使用人工智能技术分析医疗保健数据,在这个领域中,准确的人工智能模型实际上面对的是生死攸关的问题。
 
该公司首席数据科学家Muhammad Aurangzeb Ahmad说:“我们总是从与不同利益相关者一起审查人工智能模型的目标开始。为确保这些模型透明并且负责任,可解释性是一个核心组成部分。我们甚至发布了一个开源Python软件包fairMLHealth,任何人都可以使用它来衡量机器学习模型的公平性。”
 
Ahmad还建议审核人工智能模型在不同群体之间的表现,以确保公平对待少数群体和其他弱势群体。
 
他说:“人工智能模型的透明度和可解释性使它们更容易被最终用户使用和信任。而且更易于审核,并在需要时进行更正。”
 
人工智能与道德
 
制定人工智能治理策略时要考虑的另一个关键领域是人工智能使用的道德规范。Ahmad说,“有关人工智能的法规并没有跟上技术的发展,机器学习系统的创造者有责任将机器学习系统的价值与道德目标结合起来。当需要权衡时,我们应该谨慎行事。”
 
数字服务咨询机构Nerdery公司首席技术官Joe Tobolski认为,越来越多的企业意识到人工智能的潜在道德风险。他说,“但是,企业是否完全了解自己正在运行的系统以及所拥有的培训数据?可能并不是这样。”
 
很少有企业拥有明确的人工智能道德规范以适用于其人工智能项目、数据源和技术使用。他说:“这就是我们希望去做的事情,为解决这些问题建立一个强大的、经过整理的框架。”
 
Cemex公司的主要业务是研究限制和阻碍人工智能使用的问题,以最大程度地减少潜在的道德问题。例如,该公司正在优先考虑改善服务和帮助客户的项目,而不是仅仅减少企业员工的项目。
 
他说:“员工是企业的中心,而不是技术。我们可以使所有的客户呼叫中心自动化,但这不符合我们的利益。Cemex公司对于能为更多员工提供工作机会而感到自豪。在我们公司的使命中,这是一件很美好的事情。
 
选择人工智能项目会对员工产生积极影响。对于人工智能而言,这是一项巨大的创举。Cemex公司对于人工智能技术所犯错误的研究,已经显著地减少了事故数量,而使其减少犯错的方法是采用图像识别技术。”
 
人工智能治理策略
 
对于总部位于马萨诸塞州的人寿保险商MassMutual公司来说,人工智能治理是基于一套不断发展的数据道德原则,这些原则指导着企业的行动和决策。
 
该公司数据、战略和架构负责人Sears Merritt说:“我们专门为使用人工智能制定了一套原则,以使业务发展与企业价值和保单持有人的利益保持一致。我们还建立了一个团队,通过创建政策框架来监督人工智能的使用。”
 
大约一年前,MassMutual公司开始研究人工智能的道德规范和治理,当时该公司意识到需要证明并确保使用人工智能为其保单持有人带来利益。
 
Merritt现在带领着一个由6名专家组成的团队,其中包括人工智能伦理和治理顾问,他们追踪人工智能算法是否遵守治理原则,以及它们如何随着时间推移而发生的变化,从而为该公司已经遵循的方法创建正式的框架。
 
Merritt说:“我们相信我们的工作会对所有利益相关者产生巨大影响。”他建议,人工智能治理需要从与企业价值观和客户利益保持一致的核心原则入手,并与法律、合规性、道德和商业合作伙伴一起实施。
 
他说,MassMutual公司下一步的计划将其框架推广为行业最佳实践。
 
设置护栏的重要性
 
Booz Allen Hamilton公司高级副总裁John Larson表示,人们关于人工智能治理的许多最佳实践可能会有些熟悉。
 
他说:“我从业已有25年的时间,如今开发人工智能软件和算法采用的是以前就存在的原理。但是以前不存在的是收集数据的速度、处理能力和学习算法。”
 
企业训练数据的人工智能系统通常使用比以往更大的数据集,并且由于当今业务的数字化,数据正以前所未有的速度从网站、网络传感器、物联网设备和其他来源进入人工智能系统。
 
处理这些数据的能力也比以往任何时候都要显著提高,这在很大程度上要归功于可以无限扩展的云计算资源。
 
最后,某些人工智能系统的反馈性质意味着它们实际上是在实践中学习,而这些学习可以把它们带到意想不到的方向,其速度之快让人们无法想像。
 
Larson说:“现在人工智能治理模式与25年前的治理模式的原则是相同的,但它们不能只是适应所面临的挑战。其解决方案是在人工智能系统中建立自动化的保障措施。”
 
例如,开发人员可以设置护栏。如果人工智能模型的预测精度超出预定目标,或者模型在设计参数范围内停止运行,则可能需要某种形式的干预。同样,如果进入人工智能系统的数据不再反映所需的特性,则需要发出警报,以重新评估数据源,或选择更适合传入数据的不同模型。
 
对于人工智能系统还有其他监控方式。例如,测试被禁止的相关性(如种族、年龄或宗教信仰)的最终建议,有助于在问题导致监管罚款或公共关系灾难之前发现问题。
 
Larson说:“谷歌和微软等一些公司已经开发了一些工具,它们可以评估模型是否偏向某些事物。Booz Allen公司也正在开发一些工具套件,并试图为我们的数据科学家提供工具。”
 
Loeb&Loeb律师事务所隐私和安全业务合伙人兼联席主席Jessica Lee表示,任何良好的人工智能治理计划都需要明确所有权和问责制。
 
她说:“谁将主导这项计划,如何纠正这些错误?企业需要回答这些问题。虽然不能保证能够避免算法、偏见、歧视性结果或其他伤害带来的意外后果。但良好的人工智能治理肯定会有所帮助。”
 
版权声明:本文为企业网D1Net编译,转载需注明出处为:企业网D1Net,如果不注明出处,企业网D1Net将保留追究其法律责任的权利。

关键字:人工智能

原创文章 企业网D1Net

x 人工智能治理如何在收获回报的同时降低风险 扫一扫
分享本文到朋友圈
当前位置:人工智能行业动态 → 正文

人工智能治理如何在收获回报的同时降低风险

责任编辑:cres 作者:Maria Korolov |来源:企业网D1Net  2021-03-25 13:26:26 原创文章 企业网D1Net

人工智能治理涉及企业内的许多功能和领域,其中包括数据隐私、算法偏见、合规性、道德等方面。因此,企业解决使用人工智能技术的治理问题需要在许多层面上采取行动。
 
塔塔咨询服务公司数据和分析业务负责人Kamlesh Mhashilkar说:“人工智能治理并不只在IT层面或项目层面实施,也要得到政府、企业董事会和首席安全官的重视。”
 
他指出,例如在医疗保健领域,人工智能模型必须通过严格的审核和检查。其他行业也有适用的法规。Mhashilkar说,“企业董事会关注人工智能治理与经济行为有关,这是因为当引入人工智能技术时,企业将会面临一些风险。”
 
至于企业管理层,有关人工智能的议程是有目的性的。例如,首席财务官需要考虑人工智能带来的股东价值和盈利能力。首席信息官和首席数据官也是主要的利益相关者,企业市场和合规负责人也是如此,更不用说客户和供应商。
 
并非所有企业需要在构建人工智能治理战略的各个方面采取行动。尤其一些规模较小的公司。尽管如此,各种规模的企业都将使用人工智能和相关技术,即使它们只是嵌入到他们使用的第三方工具和服务中。
 
但是如果在未经适当监督的情况下使用人工智能技术可能出现一些严重错误,从而损害业务运营、侵犯隐私权,违反行业法规或对企业带来不良信誉的影响。
 
具有前瞻性思维的企业将人工智能项目从试点扩展到生产,并重点关注数据质量、算法性能、合规性和道德规范。以下是他们需要解决的人工智能治理问题:
 
人工智能的道德问题
 
如今,很少有哪个领域比面部识别领域面临更多的道德方面的问题。其技术滥用的可能性很大,提供面部识别技术的一些企业正受到公众的抵制,有时还受到自己员工的抵制。
 
Patriot One科技公司的子公司Xtract AI公司就面临着这种情况,该公司使用图像识别技术来识别携带武器的人员。
 
Xtract AI公司运营副总裁Justin Granek表示,面部识别技术还可以用于其他场合,例如识别不遵守面具或社交疏导准则的人员。
 
他说,“对于我们来说,道德是一个主要的话题。例如我们的员工说:‘我们正在做些什么?’,这迫使我们需要制定人工智能治理的政策。”
 
他指出,“客户有自己的一些要求,需要确定一个平衡点。加拿大国防部是我们的客户之一,我们还有一些医疗保健领域的客户。他们正在从不同的角度看待它。”
 
他表示,该公司面临最大的问题是要为哪些客户工作,以及面部识别技术应该应用在哪些方面?这是一个与企业使命有关的重要决定。但是还必须解决一些技术问题,这些问题的起因都是数据。
 
正确获取数据
 
算法偏差的最大来源是数据集。例如,对于面部识别技术来说,其数据集并不代表一般人群。Granek说,“我们发现,采用数据集更加关注白人男性,这种情况已经得到纠正,但还有很多工作要做。”
 
Granek表示,专家可以帮助解决数据偏差问题,商业数据提供商正在努力填补他们提供数据的空白。也有创建合成数据集的方法,但其解决办法往往是从外部获得更好的数据。
 
对于Xtract AI公司的枪支检测算法来说,这意味着需要设置一个实验室,而在实验室中携带枪支的人员需要混杂在人群中。
 
他说:“这种方法就好像是好莱坞电影中在人群中寻找持枪歹徒的画面,我们的人工智能系统需要在人群中进行识别,但这并不代表事情的真相。”
 
取而代之的是,Xtract AI公司努力收集大量的个人资料作为训练数据。Granek说,“对于可能携带武器的人员没有任何规定。我们的测试人员有一些学生,还有一些年纪较大的人,总之我们需要采集不同的群体的数据。”
 
对于某些人工智能应用程序来说,具有代表性的准确数据集可能是生与死之间的区别,并具有重大的道德和伦理意义。但是,即使不良数据集的影响不会导致发生公共灾难,仍然有可能对企业造成运营影响或财务损失,或导致监管或合规性问题。
 
这是总部位于墨西哥的Cemex公司关注的问题,Cemex公司是世界上最大的建筑材料分销商之一,已有100多年的经营历史。该公司正在通过在供应链管理和运营中使用人工智能来重塑自己。大约三年前,Cemex公司开始研究人工智能和相关技术,以扩大其市场份额,改善客户服务,提高利润。
 
该公司首席人工智能官Nir Kaldero说:“我们这两年实际上在全球范围内看到了人工智能的价值,而不仅仅是在小规模试点项目中。”
 
他说,随着人工智能技术融入该公司的经营理念之中,Cemex公司意识到有必要围绕人工智能建立治理结构。
 
Kaldero说:“这一切都始于数据。没有良好的信息架构,就不会有良好的、可靠的人工智能。没有良好的信息,就无法拥有良好可靠的模型。”
 
Cemex公司的数据治理涵盖了安全性、监控、隐私、合规性和道德规范,并且需要知道数据位于何处,在何处使用以及如何使用,是否符合法规要求以及是否没有偏见。
 
Kaldero表示,Cemex公司依靠Snowflake云数据平台管理数据。该公司有一位高管专门负责数据,另一位高管则负责治理团队的治理。
 
正确设置模型
 
除了数据治理之外,Cemex公司开始围绕人工智能模型和结果创建人工智能治理策略。Kaldero说,“这些新的东西,不仅对于Cemex公司来说,而且对于整个世界也是如此。”
 
这项任务由Kaldero带领的人工智能和数据科学小组以及首席信息官带领的小组共同承担。Cemex公司当前使用人工智能技术来预测其产品需求,因此可以通过与供应商协商更好的交易来节省成本。它还将人工智能用于卡车的路线安排和调度以及销售和定价。如果这些计算中的任何一项出现错误,该公司将蒙受大量损失。
 
因此,为了防止模型漂移和算法偏差,Cemex公司使用了基于Seattle的Algorithmia的技术。
 
KenSci公司是另一家关注人工智能模型后果的公司。总部位于西雅图的KenSci公司使用人工智能技术分析医疗保健数据,在这个领域中,准确的人工智能模型实际上面对的是生死攸关的问题。
 
该公司首席数据科学家Muhammad Aurangzeb Ahmad说:“我们总是从与不同利益相关者一起审查人工智能模型的目标开始。为确保这些模型透明并且负责任,可解释性是一个核心组成部分。我们甚至发布了一个开源Python软件包fairMLHealth,任何人都可以使用它来衡量机器学习模型的公平性。”
 
Ahmad还建议审核人工智能模型在不同群体之间的表现,以确保公平对待少数群体和其他弱势群体。
 
他说:“人工智能模型的透明度和可解释性使它们更容易被最终用户使用和信任。而且更易于审核,并在需要时进行更正。”
 
人工智能与道德
 
制定人工智能治理策略时要考虑的另一个关键领域是人工智能使用的道德规范。Ahmad说,“有关人工智能的法规并没有跟上技术的发展,机器学习系统的创造者有责任将机器学习系统的价值与道德目标结合起来。当需要权衡时,我们应该谨慎行事。”
 
数字服务咨询机构Nerdery公司首席技术官Joe Tobolski认为,越来越多的企业意识到人工智能的潜在道德风险。他说,“但是,企业是否完全了解自己正在运行的系统以及所拥有的培训数据?可能并不是这样。”
 
很少有企业拥有明确的人工智能道德规范以适用于其人工智能项目、数据源和技术使用。他说:“这就是我们希望去做的事情,为解决这些问题建立一个强大的、经过整理的框架。”
 
Cemex公司的主要业务是研究限制和阻碍人工智能使用的问题,以最大程度地减少潜在的道德问题。例如,该公司正在优先考虑改善服务和帮助客户的项目,而不是仅仅减少企业员工的项目。
 
他说:“员工是企业的中心,而不是技术。我们可以使所有的客户呼叫中心自动化,但这不符合我们的利益。Cemex公司对于能为更多员工提供工作机会而感到自豪。在我们公司的使命中,这是一件很美好的事情。
 
选择人工智能项目会对员工产生积极影响。对于人工智能而言,这是一项巨大的创举。Cemex公司对于人工智能技术所犯错误的研究,已经显著地减少了事故数量,而使其减少犯错的方法是采用图像识别技术。”
 
人工智能治理策略
 
对于总部位于马萨诸塞州的人寿保险商MassMutual公司来说,人工智能治理是基于一套不断发展的数据道德原则,这些原则指导着企业的行动和决策。
 
该公司数据、战略和架构负责人Sears Merritt说:“我们专门为使用人工智能制定了一套原则,以使业务发展与企业价值和保单持有人的利益保持一致。我们还建立了一个团队,通过创建政策框架来监督人工智能的使用。”
 
大约一年前,MassMutual公司开始研究人工智能的道德规范和治理,当时该公司意识到需要证明并确保使用人工智能为其保单持有人带来利益。
 
Merritt现在带领着一个由6名专家组成的团队,其中包括人工智能伦理和治理顾问,他们追踪人工智能算法是否遵守治理原则,以及它们如何随着时间推移而发生的变化,从而为该公司已经遵循的方法创建正式的框架。
 
Merritt说:“我们相信我们的工作会对所有利益相关者产生巨大影响。”他建议,人工智能治理需要从与企业价值观和客户利益保持一致的核心原则入手,并与法律、合规性、道德和商业合作伙伴一起实施。
 
他说,MassMutual公司下一步的计划将其框架推广为行业最佳实践。
 
设置护栏的重要性
 
Booz Allen Hamilton公司高级副总裁John Larson表示,人们关于人工智能治理的许多最佳实践可能会有些熟悉。
 
他说:“我从业已有25年的时间,如今开发人工智能软件和算法采用的是以前就存在的原理。但是以前不存在的是收集数据的速度、处理能力和学习算法。”
 
企业训练数据的人工智能系统通常使用比以往更大的数据集,并且由于当今业务的数字化,数据正以前所未有的速度从网站、网络传感器、物联网设备和其他来源进入人工智能系统。
 
处理这些数据的能力也比以往任何时候都要显著提高,这在很大程度上要归功于可以无限扩展的云计算资源。
 
最后,某些人工智能系统的反馈性质意味着它们实际上是在实践中学习,而这些学习可以把它们带到意想不到的方向,其速度之快让人们无法想像。
 
Larson说:“现在人工智能治理模式与25年前的治理模式的原则是相同的,但它们不能只是适应所面临的挑战。其解决方案是在人工智能系统中建立自动化的保障措施。”
 
例如,开发人员可以设置护栏。如果人工智能模型的预测精度超出预定目标,或者模型在设计参数范围内停止运行,则可能需要某种形式的干预。同样,如果进入人工智能系统的数据不再反映所需的特性,则需要发出警报,以重新评估数据源,或选择更适合传入数据的不同模型。
 
对于人工智能系统还有其他监控方式。例如,测试被禁止的相关性(如种族、年龄或宗教信仰)的最终建议,有助于在问题导致监管罚款或公共关系灾难之前发现问题。
 
Larson说:“谷歌和微软等一些公司已经开发了一些工具,它们可以评估模型是否偏向某些事物。Booz Allen公司也正在开发一些工具套件,并试图为我们的数据科学家提供工具。”
 
Loeb&Loeb律师事务所隐私和安全业务合伙人兼联席主席Jessica Lee表示,任何良好的人工智能治理计划都需要明确所有权和问责制。
 
她说:“谁将主导这项计划,如何纠正这些错误?企业需要回答这些问题。虽然不能保证能够避免算法、偏见、歧视性结果或其他伤害带来的意外后果。但良好的人工智能治理肯定会有所帮助。”
 
版权声明:本文为企业网D1Net编译,转载需注明出处为:企业网D1Net,如果不注明出处,企业网D1Net将保留追究其法律责任的权利。

关键字:人工智能

原创文章 企业网D1Net

电子周刊
回到顶部

关于我们联系我们版权声明隐私条款广告服务友情链接投稿中心招贤纳士

企业网版权所有 ©2010-2024 京ICP备09108050号-6 京公网安备 11010502049343号

^