当前位置:人工智能行业动态 → 正文

在人工智能恐惧之下 你必须明白的四个道理!

责任编辑:jackye 作者:Richard Socher编译 |来源:企业网D1Net  2018-01-26 09:44:09 本文摘自:网易智能

在人工智能恐惧之下 你必须明白的四个道理!

每一项技术进步都带来了一股恐惧和不确定性。

一、克服毫无根据的恐惧

我们看到这种情况反复出现。自工业革命以来,人们一直在思考新技术对他们生活和工作的影响,今天我们看到,每一次人工智能突破之后,恐惧就会出现。尽管人工智能近年来取得了巨大进步,但其仍处于早期阶段,这带来了一定程度的不确定性。这种不确定性只有在出现问题或预期大于现实时才会加剧,从而导致误解和焦虑。作为一名直言不讳的人工智能评论家,Elon Musk利用这一误解,描绘了一场即将到来的人工智能大灾难的画面,尽管他将强大的人工智能嵌入特斯拉的汽车中。所有这些都表明,在某种程度上,我们发现自己陷入了一个危险的、不必要的炒作周期。

我们必须克服这种毫无根据的恐惧。现实是这样的:今天没有可信的研究支持这些末日场景。他们是令人信服的小说。我喜欢看《终结者》,就像和我同龄的其他孩子一样,但这些有趣的场景无法让我们应对人工智能带来的直接威胁。

我们面临的主要问题是偏见和多样性,这些问题比奇点和机器人暴动更直接,也更人性化。这些问题包括嵌入的偏见和缺乏多样性的领域和数据集。用有偏见的数据训练人工智能,我们可能会无意识地在人工智能中灌输我们自己的偏见。如果不加以控制,偏见会导致人工智能对某些人有利,而其他人则会付出代价。如果不增加领域的多样性,一些人将对人工智能创造背后隐藏的决策产生更大的影响。随着人工智能整合到对个人生活影响更大的决策过程中,例如招聘、贷款申请、司法审查和医疗决定,我们将需要警惕它吸收我们最坏的倾向。

二、没有无辜的数据

当人工智能触及最基本的人类系统时,我们需要记住它不是在真空中运行。人工智能依赖于海量数据,强大的算法可以分析这些数据,然后得出具有启示性的洞见。但是人工智能依赖训练数据。如果数据存在偏见,比如带有种族主义或性别歧视的语言,这会影响结果。无论你训练人工智能什么,结果都会被放大,因为算法会无数次地复制它的决策。在数据中未被发现的偏见逐渐显现,令人不安,这是人工智能系统开始输出反映我们自己最根深蒂固的偏见的结果。与机器人暴动不同,有偏见的人工智能并不是一个假设的风险。有偏见的人工智能在选美比赛中选择了浅色皮肤的选手,而非深色皮肤的选手。一种带有偏见的谷歌算法将黑脸归类为大猩猩。

在一项研究中,一个有偏见的人工智能筛选简历,会更倾向于欧裔美国人(相对于非裔美国人)。在另一项研究中,有偏见的AI将男性的名字与职业导向、数学和科学词汇联系起来,同时将女性的名字与艺术概念联系在一起。就像我们自己的点击让我们处在自己的Facebook过滤器泡泡里一样,带有偏见的数据创造出了传播人类偏见的人工智能。

我们不能因为服从人工智能而逃避责任。我们越多地将这些系统纳入我们的决策过程,我们就必须做得越多,以确保我们能够负责任地使用这些系统。解决数据偏见问题的第一步是在数据收集过程中建立更大的透明度。它是从哪里来的?它是怎么收集的?是谁收集的?我们还需要解决模型中的偏见问题。通过让我们的模型的内部工作更加清晰,我们将能够发现我们之前没有发现的数据中的偏见。

如果我们能够恰当地解决人工智能中存在的偏见问题,那么人工智能将继续成为创造一个更美好世界的有用工具。虽然解决世界上数十亿人的偏见问题可能是完全不可行的,但我们完全有可能创造出比创造者更少偏见的人工智能。

虽然人类的偏见造成了这些挑战,但人类的洞察力可以解决这些问题。算法在清除虚假新闻和识别歧视方面取得了巨大进步,但人类的监督将成为构建更公平的人工智能系统的必要条件。在正在进行的“关于人工智能将如何改变工作”的讨论中,我们很容易想到一个新角色出现:人工智能监视器。我们仍然需要人工检查人工智能的输入和输出。

三、更公正的人工智能

这让我们想到了第二个与之相关的问题,那就是建立更公正的人工智能:我们需要在开发这些系统的研究人员和开发人员的社区中拥有更多的多样性。

几项研究揭示了该行业严重的不平衡。根据Code.org的数据,“黑人、拉丁裔、美洲印第安人以及土著太平洋岛民的比例显著偏低,仅占计算机科学专业学生总数的17%。”较少的代表性往往与更少的可获得性相吻合,不仅在课堂上,在公司、政府和公民团体中也是如此。

我们需要积极确保这些新技术出现时的可获得性。幸运的是,人工智能也可以帮助解决这个问题。通过使用人工智能,我们可以继续提供更直观的开发者工具,并增加对教育的获取渠道,从而扩大可能首先从事人工智能的人的网络。

我们现在已经可以看到这种情况,一些学徒计划专门寻求将弱势群体带入计算机科学课堂的方式。一个名为“Year Up”的组织每年培训4,000名年龄在18岁到24岁之间的低收入成年人。他们取得了巨大的成功:84%的学生上了大学,或者在毕业后的6个月内找到了工作。

通过为更广泛的人群创造教育机会,劳动力将变得更加多样化,对人工智能数据和设计的方式也将变得更加多样化。如果有更多的多样性,我们就可以避免一些偏见的陷阱。

四、人工智能的承诺

展望未来,我们必须调动紧迫感来应对这些挑战。未来在我们知道之前就已经到来了。

人工智能可能是有史以来最先进的工具,就像一把锤子一样,可以用在好的地方,也可以用于侵害。在正确监督下,人工智能可以让世界变得更好。它可以实现食品生产和运输的自动化,让个性化医疗成为现实,填补信息空白,让每个人(无论技能水平或背景)都能提高效率。

在这方面,创造更好的人工智能与为人们创造更好的生活息息相关。这就是人工智能的承诺:让我们变得更好、更高效,并让我们有机会更多地专注于有创造性的、有影响力的任务。即使是在最初的日子里,它也在帮助我们举起一面镜子。

(选自:fortune作者:Richard Socher编译:网易智能 参与:nariiy)

关键字:人工智能Facebook谷歌

本文摘自:网易智能

x 在人工智能恐惧之下 你必须明白的四个道理! 扫一扫
分享本文到朋友圈
当前位置:人工智能行业动态 → 正文

在人工智能恐惧之下 你必须明白的四个道理!

责任编辑:jackye 作者:Richard Socher编译 |来源:企业网D1Net  2018-01-26 09:44:09 本文摘自:网易智能

在人工智能恐惧之下 你必须明白的四个道理!

每一项技术进步都带来了一股恐惧和不确定性。

一、克服毫无根据的恐惧

我们看到这种情况反复出现。自工业革命以来,人们一直在思考新技术对他们生活和工作的影响,今天我们看到,每一次人工智能突破之后,恐惧就会出现。尽管人工智能近年来取得了巨大进步,但其仍处于早期阶段,这带来了一定程度的不确定性。这种不确定性只有在出现问题或预期大于现实时才会加剧,从而导致误解和焦虑。作为一名直言不讳的人工智能评论家,Elon Musk利用这一误解,描绘了一场即将到来的人工智能大灾难的画面,尽管他将强大的人工智能嵌入特斯拉的汽车中。所有这些都表明,在某种程度上,我们发现自己陷入了一个危险的、不必要的炒作周期。

我们必须克服这种毫无根据的恐惧。现实是这样的:今天没有可信的研究支持这些末日场景。他们是令人信服的小说。我喜欢看《终结者》,就像和我同龄的其他孩子一样,但这些有趣的场景无法让我们应对人工智能带来的直接威胁。

我们面临的主要问题是偏见和多样性,这些问题比奇点和机器人暴动更直接,也更人性化。这些问题包括嵌入的偏见和缺乏多样性的领域和数据集。用有偏见的数据训练人工智能,我们可能会无意识地在人工智能中灌输我们自己的偏见。如果不加以控制,偏见会导致人工智能对某些人有利,而其他人则会付出代价。如果不增加领域的多样性,一些人将对人工智能创造背后隐藏的决策产生更大的影响。随着人工智能整合到对个人生活影响更大的决策过程中,例如招聘、贷款申请、司法审查和医疗决定,我们将需要警惕它吸收我们最坏的倾向。

二、没有无辜的数据

当人工智能触及最基本的人类系统时,我们需要记住它不是在真空中运行。人工智能依赖于海量数据,强大的算法可以分析这些数据,然后得出具有启示性的洞见。但是人工智能依赖训练数据。如果数据存在偏见,比如带有种族主义或性别歧视的语言,这会影响结果。无论你训练人工智能什么,结果都会被放大,因为算法会无数次地复制它的决策。在数据中未被发现的偏见逐渐显现,令人不安,这是人工智能系统开始输出反映我们自己最根深蒂固的偏见的结果。与机器人暴动不同,有偏见的人工智能并不是一个假设的风险。有偏见的人工智能在选美比赛中选择了浅色皮肤的选手,而非深色皮肤的选手。一种带有偏见的谷歌算法将黑脸归类为大猩猩。

在一项研究中,一个有偏见的人工智能筛选简历,会更倾向于欧裔美国人(相对于非裔美国人)。在另一项研究中,有偏见的AI将男性的名字与职业导向、数学和科学词汇联系起来,同时将女性的名字与艺术概念联系在一起。就像我们自己的点击让我们处在自己的Facebook过滤器泡泡里一样,带有偏见的数据创造出了传播人类偏见的人工智能。

我们不能因为服从人工智能而逃避责任。我们越多地将这些系统纳入我们的决策过程,我们就必须做得越多,以确保我们能够负责任地使用这些系统。解决数据偏见问题的第一步是在数据收集过程中建立更大的透明度。它是从哪里来的?它是怎么收集的?是谁收集的?我们还需要解决模型中的偏见问题。通过让我们的模型的内部工作更加清晰,我们将能够发现我们之前没有发现的数据中的偏见。

如果我们能够恰当地解决人工智能中存在的偏见问题,那么人工智能将继续成为创造一个更美好世界的有用工具。虽然解决世界上数十亿人的偏见问题可能是完全不可行的,但我们完全有可能创造出比创造者更少偏见的人工智能。

虽然人类的偏见造成了这些挑战,但人类的洞察力可以解决这些问题。算法在清除虚假新闻和识别歧视方面取得了巨大进步,但人类的监督将成为构建更公平的人工智能系统的必要条件。在正在进行的“关于人工智能将如何改变工作”的讨论中,我们很容易想到一个新角色出现:人工智能监视器。我们仍然需要人工检查人工智能的输入和输出。

三、更公正的人工智能

这让我们想到了第二个与之相关的问题,那就是建立更公正的人工智能:我们需要在开发这些系统的研究人员和开发人员的社区中拥有更多的多样性。

几项研究揭示了该行业严重的不平衡。根据Code.org的数据,“黑人、拉丁裔、美洲印第安人以及土著太平洋岛民的比例显著偏低,仅占计算机科学专业学生总数的17%。”较少的代表性往往与更少的可获得性相吻合,不仅在课堂上,在公司、政府和公民团体中也是如此。

我们需要积极确保这些新技术出现时的可获得性。幸运的是,人工智能也可以帮助解决这个问题。通过使用人工智能,我们可以继续提供更直观的开发者工具,并增加对教育的获取渠道,从而扩大可能首先从事人工智能的人的网络。

我们现在已经可以看到这种情况,一些学徒计划专门寻求将弱势群体带入计算机科学课堂的方式。一个名为“Year Up”的组织每年培训4,000名年龄在18岁到24岁之间的低收入成年人。他们取得了巨大的成功:84%的学生上了大学,或者在毕业后的6个月内找到了工作。

通过为更广泛的人群创造教育机会,劳动力将变得更加多样化,对人工智能数据和设计的方式也将变得更加多样化。如果有更多的多样性,我们就可以避免一些偏见的陷阱。

四、人工智能的承诺

展望未来,我们必须调动紧迫感来应对这些挑战。未来在我们知道之前就已经到来了。

人工智能可能是有史以来最先进的工具,就像一把锤子一样,可以用在好的地方,也可以用于侵害。在正确监督下,人工智能可以让世界变得更好。它可以实现食品生产和运输的自动化,让个性化医疗成为现实,填补信息空白,让每个人(无论技能水平或背景)都能提高效率。

在这方面,创造更好的人工智能与为人们创造更好的生活息息相关。这就是人工智能的承诺:让我们变得更好、更高效,并让我们有机会更多地专注于有创造性的、有影响力的任务。即使是在最初的日子里,它也在帮助我们举起一面镜子。

(选自:fortune作者:Richard Socher编译:网易智能 参与:nariiy)

关键字:人工智能Facebook谷歌

本文摘自:网易智能

电子周刊
回到顶部

关于我们联系我们版权声明隐私条款广告服务友情链接投稿中心招贤纳士

企业网版权所有 ©2010-2024 京ICP备09108050号-6 京公网安备 11010502049343号

^