当前位置:人工智能行业动态 → 正文

Bet365科技关于人工智能AI五个最可怕的预测

责任编辑:zsheng |来源:企业网D1Net  2018-08-04 08:09:35 本文摘自:伊木科技

当人们想到人工智能(AI)时,经常会想到机器人杀手和计算机消失的场景。像“银翼杀手”和“终结者”系列这样的好莱坞电影给我们带来了一种对人工智能违背其编程和转向人类的恐惧感。

今年可能产生超过1万亿美元商业价值的行业,到2022年将近4万亿美元,人工智能是一个流行语,经常在商业世界和媒体上被抛弃,bet365公司采用新科技嵌入到平台游戏当中给更多玩家带来不一样的用户体验。但它已经为许多行业带来了实际效果 - 尤其是那些依赖大量手工劳动的行业。

 

 

随着人工智能越来越接近成熟,企业继续加大对其的投入,一些人担心没有关注这项技术的更广泛的社会和道德含义。

CNBC与一些专家进行了交谈,他们认为人工智能的五个最可怕的潜在未来情景:

大规模失业

分析人员和工人之间普遍担心的是,随着工作越来越自动化并且不再需要人工,人工智能将导致全球大规模失业。“失业可能是最大的担忧”爱丁堡大学信息学院教授艾伦·邦迪说。

但人工智能的支持者表示,该技术将导致创造新的就业机会。随着新技术的复杂性需要合适的人才来开发,对工程师的需求将会提高。倡导者说,为了在日常工作中发挥新的作用,人类也必须使用人工智能。

 

 

Bet365科技研究公司预测,到2020年,人工智能将创造230万个工作岗位并减少180万个工作岗位 - 净增加50万个工作岗位。这并不意味着它将导致全球范围内的裁员急剧减少。

虽然可以通过提高技能和发明新工作,甚至可能引入普遍的基本收入来最大限度地减少人工智能对劳动力市场造成的损害。

战争

所谓的“杀手机器人”的出现以及人工智能在军事应用中的其他用途让专家担心这项技术最终可能导致战争。特斯拉首席执行官伊隆马斯克(Elon Musk)因其对人工授精的直言不讳的观点而闻名,他去年曾警告说,这项技术可能会导致第三次世界大战。

 

 

虽然以其夸张而闻名,马斯克的评论引起了对专家的非常恐惧。一些分析家和活动家认为,致命的自主武器的发展和人工智能在军事决策中的使用造成了许多道德困境,并开启了人工智能增强或人工智能主导的战争的可能性。

机器人医生

虽然专家们大多同意AI将为医疗从业者提供的好处 - 例如很早就诊断疾病并加快整体医疗保健体验 - 但一些医生和学者也很谨慎,我们也可能朝着数据驱动的医疗实践方向前进快速。

 

 

学术界的一个担忧是人们期待过多的AI,假设它可以形成人类拥有的一般智能来解决各种各样的任务。另一个问题是计算机吞并的数据量和共享数据 - 以及使用该数据自动化应用程序的数据驱动算法 - 可能会对患者的隐私产生伦理影响。大数据的曙光,现在是一个价值数十亿美元的行业,涵盖了从交易到酒店业的所有内容,这意味着机器可以收集的个人信息量已经膨胀到不可思议的大小。

大规模监视

专家还担心人工智能可用于大规模监视。在中国,这种恐惧似乎正在成为现实。在中国各个城市,面部识别技术和人工智能的结合正被用于当局打击犯罪的利益。世界超级大国以其社会专制主义而闻名,已故的毛泽东主席的人格崇拜在他死后四十年仍在全国各地普遍存在。批评人士说,国家对全面监视的推动只不过是奥威尔式的噩梦。

 

 

据“纽约时报”本月早些时候发布的一份报告称,中国目前拥有约2亿台监控摄像头。它也是世界上唯一一个推出“社会信用体系”的国家,该体系跟踪公民的活动,对其进行排名,以确定他们是否可以禁止从飞机飞行到某些在线约会服务。

中国正在争取在2030年成为人工智能的全球领导者,它希望将其人工智能部门的价值提高到1万亿元人民币(1466亿美元)。该国正在向该行业倾注数十亿美元,以帮助推动这一雄心壮志。

区别

一些读者可能还记得Tay,一个由微软创建的AI聊天机器人,两年前引起轰动。该机器人获得了一个推特账户,用户不到一天的时间就可以用它来发布支持阿道夫希特勒和白人霸权的攻击性推文。这里的问题是聊天机器人经过培训,模仿用户在线与之交互。

 

 

专家说,这个问题涉及使人工智能成为一个客观,理性的思想家的可行性,而不是偏向一个特定种族,性别或性行为的偏见。

这是研究人员和开发人员一直在认真思考的问题,研究面部识别技术在识别白色面孔方面比黑色面孔更好的方式,以及语言处理AI系统如何表现出偏见,将某些性别和种族与陈规定型角色联系起来。

IBM甚至还有致力于解决人工智能歧视问题的研究人员,今年早些时候,他们表示将发布两个包含不同肤色和其他面部属性的面部数据集,以减少人工智能面部识别系统的偏见。

关键字:预测智能科技

本文摘自:伊木科技

x Bet365科技关于人工智能AI五个最可怕的预测 扫一扫
分享本文到朋友圈
当前位置:人工智能行业动态 → 正文

Bet365科技关于人工智能AI五个最可怕的预测

责任编辑:zsheng |来源:企业网D1Net  2018-08-04 08:09:35 本文摘自:伊木科技

当人们想到人工智能(AI)时,经常会想到机器人杀手和计算机消失的场景。像“银翼杀手”和“终结者”系列这样的好莱坞电影给我们带来了一种对人工智能违背其编程和转向人类的恐惧感。

今年可能产生超过1万亿美元商业价值的行业,到2022年将近4万亿美元,人工智能是一个流行语,经常在商业世界和媒体上被抛弃,bet365公司采用新科技嵌入到平台游戏当中给更多玩家带来不一样的用户体验。但它已经为许多行业带来了实际效果 - 尤其是那些依赖大量手工劳动的行业。

 

 

随着人工智能越来越接近成熟,企业继续加大对其的投入,一些人担心没有关注这项技术的更广泛的社会和道德含义。

CNBC与一些专家进行了交谈,他们认为人工智能的五个最可怕的潜在未来情景:

大规模失业

分析人员和工人之间普遍担心的是,随着工作越来越自动化并且不再需要人工,人工智能将导致全球大规模失业。“失业可能是最大的担忧”爱丁堡大学信息学院教授艾伦·邦迪说。

但人工智能的支持者表示,该技术将导致创造新的就业机会。随着新技术的复杂性需要合适的人才来开发,对工程师的需求将会提高。倡导者说,为了在日常工作中发挥新的作用,人类也必须使用人工智能。

 

 

Bet365科技研究公司预测,到2020年,人工智能将创造230万个工作岗位并减少180万个工作岗位 - 净增加50万个工作岗位。这并不意味着它将导致全球范围内的裁员急剧减少。

虽然可以通过提高技能和发明新工作,甚至可能引入普遍的基本收入来最大限度地减少人工智能对劳动力市场造成的损害。

战争

所谓的“杀手机器人”的出现以及人工智能在军事应用中的其他用途让专家担心这项技术最终可能导致战争。特斯拉首席执行官伊隆马斯克(Elon Musk)因其对人工授精的直言不讳的观点而闻名,他去年曾警告说,这项技术可能会导致第三次世界大战。

 

 

虽然以其夸张而闻名,马斯克的评论引起了对专家的非常恐惧。一些分析家和活动家认为,致命的自主武器的发展和人工智能在军事决策中的使用造成了许多道德困境,并开启了人工智能增强或人工智能主导的战争的可能性。

机器人医生

虽然专家们大多同意AI将为医疗从业者提供的好处 - 例如很早就诊断疾病并加快整体医疗保健体验 - 但一些医生和学者也很谨慎,我们也可能朝着数据驱动的医疗实践方向前进快速。

 

 

学术界的一个担忧是人们期待过多的AI,假设它可以形成人类拥有的一般智能来解决各种各样的任务。另一个问题是计算机吞并的数据量和共享数据 - 以及使用该数据自动化应用程序的数据驱动算法 - 可能会对患者的隐私产生伦理影响。大数据的曙光,现在是一个价值数十亿美元的行业,涵盖了从交易到酒店业的所有内容,这意味着机器可以收集的个人信息量已经膨胀到不可思议的大小。

大规模监视

专家还担心人工智能可用于大规模监视。在中国,这种恐惧似乎正在成为现实。在中国各个城市,面部识别技术和人工智能的结合正被用于当局打击犯罪的利益。世界超级大国以其社会专制主义而闻名,已故的毛泽东主席的人格崇拜在他死后四十年仍在全国各地普遍存在。批评人士说,国家对全面监视的推动只不过是奥威尔式的噩梦。

 

 

据“纽约时报”本月早些时候发布的一份报告称,中国目前拥有约2亿台监控摄像头。它也是世界上唯一一个推出“社会信用体系”的国家,该体系跟踪公民的活动,对其进行排名,以确定他们是否可以禁止从飞机飞行到某些在线约会服务。

中国正在争取在2030年成为人工智能的全球领导者,它希望将其人工智能部门的价值提高到1万亿元人民币(1466亿美元)。该国正在向该行业倾注数十亿美元,以帮助推动这一雄心壮志。

区别

一些读者可能还记得Tay,一个由微软创建的AI聊天机器人,两年前引起轰动。该机器人获得了一个推特账户,用户不到一天的时间就可以用它来发布支持阿道夫希特勒和白人霸权的攻击性推文。这里的问题是聊天机器人经过培训,模仿用户在线与之交互。

 

 

专家说,这个问题涉及使人工智能成为一个客观,理性的思想家的可行性,而不是偏向一个特定种族,性别或性行为的偏见。

这是研究人员和开发人员一直在认真思考的问题,研究面部识别技术在识别白色面孔方面比黑色面孔更好的方式,以及语言处理AI系统如何表现出偏见,将某些性别和种族与陈规定型角色联系起来。

IBM甚至还有致力于解决人工智能歧视问题的研究人员,今年早些时候,他们表示将发布两个包含不同肤色和其他面部属性的面部数据集,以减少人工智能面部识别系统的偏见。

关键字:预测智能科技

本文摘自:伊木科技

电子周刊
回到顶部

关于我们联系我们版权声明隐私条款广告服务友情链接投稿中心招贤纳士

企业网版权所有 ©2010-2024 京ICP备09108050号-6 京公网安备 11010502049343号

^