当前位置:人工智能行业动态 → 正文

我们应该害怕人工智能吗?

责任编辑:zsheng |来源:企业网D1Net  2018-11-22 18:26:22 本文摘自:搜狐科技

一些知名人士,如传奇物理学家斯蒂芬霍金和特斯拉以及SpaceX领导者和创新者埃隆马斯克认为人工智能可能非常危险; 马斯克曾一度将人工智能与朝鲜独裁者的危险进行比较。微软联合创始人比尔盖茨也认为有理由保持谨慎,但如果管理得当,好处可能会超过坏处。由于最近的发展使得超智能机器比最初想象的要早得多,现在是时候确定人工智能带来的危险。

什么是应用和广义人工智能?

人造智能的核心是建立能够智能思考和行动的机器,并包括诸如谷歌的搜索算法或使自动驾驶汽车成为可能的机器等工具。虽然大多数当前的应用程序都被用来积极地影响人类,但任何强大的工具都可以在落入坏人手中时用于有害目的。今天,我们已经实现了应用AI-AI,它执行面部识别,自然语言处理或互联网搜索等狭窄任务。最终,该领域的专家正在努力实现更广泛的AI,系统可以处理智能人类可以执行的任何任务,并且最有可能在每个人身上击败我们。

在一篇评论中,Elon Musk写道:“人工智能的进步速度(我指的是狭窄的人工智能)非常快。除非你直接接触像Deepmind这样的团体,否则你不知道它的增长速度有多快接近指数的速度。发生严重危险的风险发生在五年时间框架内。最多10年。“

确实有很多AI应用程序可以让我们的日常生活变得更加方便和高效。人工智能应用程序在确保马斯克,霍金和其他人在宣布对技术犹豫时所担心的安全方面发挥着关键作用。例如,如果人工智能负责确保我们的电网运行并且我们的最大恐惧已经实现,并且系统变得流氓或被敌人攻击,则可能导致巨大的伤害。

人工智能如何危险?

虽然我们尚未实现超级智能机器,但法律,政治,社会,金融和监管问题是如此复杂和广泛,现在有必要对它们进行审视,以便我们准备好在它们之间安全运行。时机成熟。现在,除了为超级智能机器做好准备之外,人工智能已经在目前的形式下造成危险。让我们来看看一些与AI相关的关键风险。

自主武器

人工智能被编程为做一些危险的事情,就像被编程杀死的自主武器一样,这是人工智能可能带来风险的一种方式。期望核军备竞赛将被全球自主武器竞赛取代甚至可能是合理的。俄罗斯总统弗拉基米尔普京说:“ 人工智能不仅是俄罗斯的未来,也是全人类的未来。它带来了巨大的机遇,但也存在难以预测的威胁。无论谁成为这个领域的领导者,都将成为世界的统治者。“

除了担心自主武器可能获得“自己的思想”之外,更迫切需要关注的是自主武器可能对个人或政府不利于人类生命的危险。一旦部署,它们很可能难以拆除或打击。

社交操纵

社交媒体通过其自主驱动算法在目标营销方面非常有效。他们知道我们是谁,我们喜欢什么,并且非常善于推测我们的想法。调查仍在进行中,以确定剑桥分析公司和其他与该公司有关的其他公司的错误,该公司使用了来自5000万Facebook用户的数据来试图影响2016年美国总统大选和英国退欧公投的结果,但如果指控是正确的,它说明了AI对社交操纵的力量。通过将宣传传播给通过算法和个人数据识别的个人,AI可以针对他们并以他们最有说服力的事实或虚构的任何形式传播他们喜欢的任何信息。

侵犯隐私和社会分级

现在可以跟踪和分析个人在线的每一步以及他们日常业务的时间。相机几乎无处不在,面部识别算法知道你是谁。事实上,这是为中国的社会信用体系提供动力的信息类型,预计将根据他们的行为方式为其14亿公民中的每一个人提供个人得分 - 例如他们jaywalk,他们吸烟吗?非吸烟区以及他们花多少时间玩视频游戏。当老大哥正在观察你,然后根据英特尔做出决定时,它不仅会侵犯隐私,而且很快就会转向社会压迫。

我们的目标与机器之间的不一致

人类在人工智能机器中所重视的部分原因是它们的效率和有效性。但是,如果我们不清楚我们为人工智能机器设定的目标,那么如果机器没有我们拥有的相同目标,则可能会很危险。例如,“尽快让我到机场”的命令可能会产生可怕的后果。没有说明道路规则必须得到尊重,因为我们重视人的生命,机器可以非常有效地实现其目标,即尽快让您到机场,并按照您的要求进行,但留下一连串的事故。

区别

由于机器可以收集,跟踪和分析很多关于您的信息,因此这些机器很可能会对您使用该信息。不难想象一家保险公司告诉你,根据你在手机上用相机说话的次数,你不可保险。雇主可能会根据您的“社会信用评分”扣留工作机会。

任何强大的技术都可能被滥用。今天,人工智能被用于许多好的事业,包括帮助我们做出更好的医疗诊断,找到治愈癌症的新方法,让我们的汽车更安全。不幸的是,随着我们的AI功能扩展,我们也会看到它被用于危险或恶意目的。由于人工智能技术发展如此迅速,因此我们必须开始讨论人工智能积极发展的最佳方式,同时尽量减少其破坏性潜力。

关键字:智能

本文摘自:搜狐科技

x 我们应该害怕人工智能吗? 扫一扫
分享本文到朋友圈
当前位置:人工智能行业动态 → 正文

我们应该害怕人工智能吗?

责任编辑:zsheng |来源:企业网D1Net  2018-11-22 18:26:22 本文摘自:搜狐科技

一些知名人士,如传奇物理学家斯蒂芬霍金和特斯拉以及SpaceX领导者和创新者埃隆马斯克认为人工智能可能非常危险; 马斯克曾一度将人工智能与朝鲜独裁者的危险进行比较。微软联合创始人比尔盖茨也认为有理由保持谨慎,但如果管理得当,好处可能会超过坏处。由于最近的发展使得超智能机器比最初想象的要早得多,现在是时候确定人工智能带来的危险。

什么是应用和广义人工智能?

人造智能的核心是建立能够智能思考和行动的机器,并包括诸如谷歌的搜索算法或使自动驾驶汽车成为可能的机器等工具。虽然大多数当前的应用程序都被用来积极地影响人类,但任何强大的工具都可以在落入坏人手中时用于有害目的。今天,我们已经实现了应用AI-AI,它执行面部识别,自然语言处理或互联网搜索等狭窄任务。最终,该领域的专家正在努力实现更广泛的AI,系统可以处理智能人类可以执行的任何任务,并且最有可能在每个人身上击败我们。

在一篇评论中,Elon Musk写道:“人工智能的进步速度(我指的是狭窄的人工智能)非常快。除非你直接接触像Deepmind这样的团体,否则你不知道它的增长速度有多快接近指数的速度。发生严重危险的风险发生在五年时间框架内。最多10年。“

确实有很多AI应用程序可以让我们的日常生活变得更加方便和高效。人工智能应用程序在确保马斯克,霍金和其他人在宣布对技术犹豫时所担心的安全方面发挥着关键作用。例如,如果人工智能负责确保我们的电网运行并且我们的最大恐惧已经实现,并且系统变得流氓或被敌人攻击,则可能导致巨大的伤害。

人工智能如何危险?

虽然我们尚未实现超级智能机器,但法律,政治,社会,金融和监管问题是如此复杂和广泛,现在有必要对它们进行审视,以便我们准备好在它们之间安全运行。时机成熟。现在,除了为超级智能机器做好准备之外,人工智能已经在目前的形式下造成危险。让我们来看看一些与AI相关的关键风险。

自主武器

人工智能被编程为做一些危险的事情,就像被编程杀死的自主武器一样,这是人工智能可能带来风险的一种方式。期望核军备竞赛将被全球自主武器竞赛取代甚至可能是合理的。俄罗斯总统弗拉基米尔普京说:“ 人工智能不仅是俄罗斯的未来,也是全人类的未来。它带来了巨大的机遇,但也存在难以预测的威胁。无论谁成为这个领域的领导者,都将成为世界的统治者。“

除了担心自主武器可能获得“自己的思想”之外,更迫切需要关注的是自主武器可能对个人或政府不利于人类生命的危险。一旦部署,它们很可能难以拆除或打击。

社交操纵

社交媒体通过其自主驱动算法在目标营销方面非常有效。他们知道我们是谁,我们喜欢什么,并且非常善于推测我们的想法。调查仍在进行中,以确定剑桥分析公司和其他与该公司有关的其他公司的错误,该公司使用了来自5000万Facebook用户的数据来试图影响2016年美国总统大选和英国退欧公投的结果,但如果指控是正确的,它说明了AI对社交操纵的力量。通过将宣传传播给通过算法和个人数据识别的个人,AI可以针对他们并以他们最有说服力的事实或虚构的任何形式传播他们喜欢的任何信息。

侵犯隐私和社会分级

现在可以跟踪和分析个人在线的每一步以及他们日常业务的时间。相机几乎无处不在,面部识别算法知道你是谁。事实上,这是为中国的社会信用体系提供动力的信息类型,预计将根据他们的行为方式为其14亿公民中的每一个人提供个人得分 - 例如他们jaywalk,他们吸烟吗?非吸烟区以及他们花多少时间玩视频游戏。当老大哥正在观察你,然后根据英特尔做出决定时,它不仅会侵犯隐私,而且很快就会转向社会压迫。

我们的目标与机器之间的不一致

人类在人工智能机器中所重视的部分原因是它们的效率和有效性。但是,如果我们不清楚我们为人工智能机器设定的目标,那么如果机器没有我们拥有的相同目标,则可能会很危险。例如,“尽快让我到机场”的命令可能会产生可怕的后果。没有说明道路规则必须得到尊重,因为我们重视人的生命,机器可以非常有效地实现其目标,即尽快让您到机场,并按照您的要求进行,但留下一连串的事故。

区别

由于机器可以收集,跟踪和分析很多关于您的信息,因此这些机器很可能会对您使用该信息。不难想象一家保险公司告诉你,根据你在手机上用相机说话的次数,你不可保险。雇主可能会根据您的“社会信用评分”扣留工作机会。

任何强大的技术都可能被滥用。今天,人工智能被用于许多好的事业,包括帮助我们做出更好的医疗诊断,找到治愈癌症的新方法,让我们的汽车更安全。不幸的是,随着我们的AI功能扩展,我们也会看到它被用于危险或恶意目的。由于人工智能技术发展如此迅速,因此我们必须开始讨论人工智能积极发展的最佳方式,同时尽量减少其破坏性潜力。

关键字:智能

本文摘自:搜狐科技

电子周刊
回到顶部

关于我们联系我们版权声明隐私条款广告服务友情链接投稿中心招贤纳士

企业网版权所有 ©2010-2024 京ICP备09108050号-6 京公网安备 11010502049343号

^