当前位置:新闻中心行业动态 → 正文

初窥AI版“未来简史”

责任编辑:zsheng |来源:企业网D1Net  2018-09-24 08:11:36 本文摘自:IT时报

“人工智能和生物基因技术正在重塑世界,计算机和大数据将比我们自己更了解自己。”在2017年度“大众喜爱的50种图书”中,尤瓦尔·赫拉利的《未来简史》榜上有名,这本书以宏大的视角审视人类未来的终极命运:人类,正一步步进化为神一般的存在,开始复制自身,创造新的智慧生命体。

人工智能是全球竞争的新焦点,而中国成为AI大秀的舞台。2018世界人工智能大会(WAIC)上,最新AI应用纷纷亮相,来自世界各地的学者、产业精英共同探讨AI产业发展,《未来简史》中未来人类与AI的变化,从这里可以一窥端倪。

AI什么时候能进入2.0?AI下一代技术是什么?AI能和哪些行业结合共同探索世界?

人类的未来已来,AI的未来尚需等待。

算法2.0

下一个“深度学习”是谁?

半个世纪以前,麻省理工学院几个计算机系的教授第一次提到人工智能这个词时,他们以为人工智能是一个夏天就能解决的问题,但直到现在人工智能还是实验科学。2016年AlphaGo对弈让普通人意识到人工智能的魅力,其采用的深度学习方式在图像识别和语音识别领域的成功,让它几乎成为AI的代名词,短短两年,人工智能技术已经应用到自动驾驶、机器人、医疗诊断等多个领域,深度学习成为人工智能热潮的主力军。

然而,深度学习的缺点也很明显:对数据和算力要求高,而最终机器给出的结论是“黑盒子”,人们只能知其然却不知其所以然。

“大概五六年以后,深度学习的算法可能会到达增长极限。下一波AI创新应该来自哪里?”图灵奖获得者、清华大学交叉信息研究院院长姚期智在本次WAIC大会上提出了“姚之问”。

如何回答“姚之问”?

深度学习的“高门槛”

“能够引领AI发展的顶级人才,环顾全球尚不足千人,这让AI成为供不应求的抢手货,只有AI的应用门槛降低到普通开发者甚至是业务人员也能做的程度,才能够真正爆发。”第四范式的创始人戴文渊在WAIC上表示,据《全球人工智能人才白皮书》数据统计,目前全世界只有不超过 1000 家公司拥有能够开发 AI 系统的人才,与此同时,更多公司却拥有开发 AI 系统所需的数据。

屡屡在国际语音识别大赛中夺魁的科大讯飞,对深度学习的优劣也深有体会,其董事长刘庆峰在WAIC的不同论坛上多次表示,“深度神经网络学习面临着算法突破的挑战,比如目前数据参数的设定都是手动,很多优秀的硕士、博士生只能将时间耗费在这种机械操作上,其次,深度学习对样本需求量过大,能否有少量数据就可以学习,而且目前深度学习很难突破有监督训练,未来能否变成半监督或者无监督训练?”

刘庆峰指出的正是两个深度神经网络学习最难和最耗时的问题:处理数据格式化和培养深度学习模型,而这两个难题在某种程度上阻碍了AI的普及,因为数据、算力、建模都需要耗费大量人力和资本,普通企业根本无力“AI化”,而这恰恰也是斯坦福教授李飞飞希望倡导“AI民主化”的缘由。

算法突破

AutoML实现“AI的民主”

从学界来看,迁移学习、冷扑大师、胶囊网络等等新的算法都有可能在接下来的几年中实现突破,但目前最早进入商业化、并且已经相对成熟的是基于迁移学习的AutoML。

可以让机器自动建模、自动调参的AutoML被李飞飞称为“AI民主化的重要进展”,因为它大大降低了AI使用者的门槛,每个人都可以利用AI技术自动生成AI应用,将企业的数据自动变为模型,整个机器学习过程是自动化的。

戴文渊以及第四范式的联合创始人、香港科技大学计算机系主任杨强都是迁移学习领域全球排名前三的科学家。

戴文渊告诉《IT时报》记者,尽管在AutoML领域,微软和谷歌都在2017年发布了相关产品,但中国AI公司在这方面毫不逊色,前不久,国际人工智能顶尖学术会议NIPS正式宣布,第四范式击败了谷歌获得AutoML Challenge(挑战)2018 大赛的承办权。

国产“AI操作系统”时机成熟

戴文渊将第四范式的AI Prophet AutoML(以下简称“AutoML平台”)定义为“AI的AI”,开发者无需深入理解算法原理和完成大量编码训练,只需做到“收集行为数据、收集反馈数据、模型训练、模型应用”四步,便可以直接升级为AI开发者,这样一个公司AI应用的开发周期从以半年为单位缩短至周级别。

或许将之比喻为“AI中的Windows”更容易理解,一家中小企业不需要去自己做一套Windows,而是在Windows上打开Office输入数据便可以得到自己想要的答案。但对于科技创新而言,从0到1的路走得最难,软件时代,中国国产操作系统半途折戟,AI时代,中国能有自己的AI“操作系统”吗?

“操作系统能否成功,核心不在技术而是应用,软件时代,所有的应用软件也都来自国外,国产操作系统根本无力与Windows竞争,而AI时代,全球应用需求的中心在中国,我认为,国产AI操作系统的市场时机已经成熟。”戴文渊表示。

下一代人工智能要有推理能力

为什么研究人工智能?基础科学不太接地气,澳大利亚科学院院士陶大程试图用更形象的语言让大家理解,他拿出一张画面满是人的照片问:谁知道照片中有多少人?会场近千名观众无人作答,有人下意识的开始去数,但通过人工智能技术,照片很快显示出答案,3秒中检测出920张人脸。

“除了图片,现在的技术也能对视频中的人物做人脸检测、特征点检测,识别人与镜头的距离,甚至把视频的背景检测出来改成油画和中国画。人类通过眼睛看见这个世界,对周围的事物有迅速的判断和认知,如今我们做的是教机器如何变得像人类一样聪明。”陶大程的主要研究方向是表征学习,这也是人工智能领域非常重要的研究方向之一,包括多视角学习、多标签学习、多任务学习、迁移学习、张量学习、噪声数据学习等,这些研究成果被应用于计算机视觉、图像处理以及生物识别技术等领域。

人工智能技术在向前行进过程中,总是遇到不同的问题,机器学习也像“盲人摸象”,看到某一部分,在已有信息的条件下做出最好的决策。“我们研究多视角学习,通过多个传感器拍摄同一个物体的不同状态,再汇总到一个平台做出选择。就像无人驾驶,有激光雷达、获取视觉数据的摄像机,获取听觉数据的麦克风阵列等非常多的传感器,之后把传感器信息最终结合起来做出判断。未来,能不能有一个上帝视角,让机器知道自己看到的是一个物体的不同角度?”陶大程希望通过多视角学习来改善这一问题,把一些不同源、不同表达方式的信息整合起来,以改善后续的识别问题。

对于下一代人工智能具有什么特征,陶大程同样用一张图片举例,通过图片人物的着装和神情,人类一眼即可判别图片中的人在看球赛,“机器是能做到,但需要收集大量的信息才能教会它判断,这样的人工智能是我们需要的吗?不是!下一代的人工智能应该有推理能力,也只能是推理的时代。”

算力2.0

无限向人脑靠近

对于AI的未来,调整算法固然可以减少对数据量和算力的需求,但根本而言,AI仍然是一个需要大算力的技术,尤其在生物、气象等大自然领域,海量的数据依然要靠大型超算夜以继日地运算,而量子计算和AI的结合,则很可能让算力呈现爆发式增长。

量子人工智能将真正认知自然

2000年,因为对计算理论的贡献,姚期智被授予图灵奖,而他的回国填补了国内计算机学科的空白。在这位年过古稀的老科学家眼中,量子物理是最美丽的物理法则,如果有一个足够强大的量子计算机,也许有可能模仿大自然量子法则,从而理解自然智能。当人工智能与量子计算机结合,人们对世界甚至宇宙的探索会有更加深刻的认识, “深度学习的发展给了科学家一个如何看待计算机科学的新角度,是不是可以将量子计算和人工智能结合,进行量子人工智能,量子计算本身就能扩大了人类获得知识、认知宇宙的能力,也许通过两者的结合,人类可以真正有机会‘攻克’自然界。”

姚期智把着眼点放在量子人工智能不难理解,量子计算是他上世纪90年代开始主攻的研究领域。

抛去多粒子纠缠、量子比特、多量子系统等晦涩难懂的名词,具有超快的并行计算和模拟能力的量子计算机令人兴奋。量子计算机的计算能力有多强?有人打了个比方:如果将现在的计算机速度比作自行车,那么量子计算机的速度就是飞机。

人工智能可与多学科结合

量子计算机什么时候出现?何时能与人工智能相结合?对于看好这一产业的人来说,这是必须要思考的问题。迄今为止,科学家们还并没有对开发量子计算机的最佳方法达成一致。面对场景多元化的人工智能,其他学科已经率先与之结合。

“人工智能刚刚开始,需要做的不只是把机器的计算能力再提升,还有许多科学问题亟待突破,要把心胸放大,深度学习需要和很多学科结合在一起,数学、计算机、神经科学等等。”姚期智说。

值得注意的是,学术界已经注意到交叉学科为人工智能发展带来的更多可能性,开始汇聚计算机、统计、心理学、人文社科等领域的力量与人工智能相结合。比如,通信和计算机的交叉学科云计算,把云计算的运作模式与人工智能深入融合,可以把庞大的人工智能运行成本转移到云平台,从而降低终端设备使用人工智能技术的门槛。另外,神经科学提供的神经网络模型,对人工智能的发展也颇有贡献,2018世界人工智能大会的学者不乏生物领域的专家,一些企业甚至已经喊出“神经科学是人工智能领域创新关键”的口号。

数据显示,2011年,人工智能识别图像的错误率是26%,2016年的错误率下降到3%,比人类的识别能力要高出2%,这样的数字源于神经网络和深度学习在人工智能领域的爆发。

类脑芯片让机脑超越人脑

人工智能正在改变各行各业,而芯片是实现人工智能的载体,但传统芯片却遇上冯·诺依曼结构瓶颈。

目前,计算机采用的是冯·诺依曼体系结构,而满足这个结构必须有一存储器、一个控制器、一个运算器、必须有输入设备和输出设备用于人机通信,另外,程序和数据统一存储并在程序控制下自动工作。有人将这称之为“内存墙”,意思是CPU再快,也要等内存。

如今,越来越多的人工智能应用需要专门的AI加速器或计算卡,从业认识开始关注专门用于处理人工智能应用中的大量计算任务的模块,与通用芯片不同,AI芯片主要用于处理专用任务,比如安防中高清视频的识别、自动驾驶时的数据计算等等。这类的处理器主要分为GPU、FPGA、ASIC等类型,其中专用定制的ASIC芯片被认为是人工智能芯片的主要方向,寒武纪的GPU,地平线的BPU都属于ASIC芯片。

值得关注的是,在ASIC芯片里还有一个特殊的群体——类脑计算,正如尤瓦尔·赫拉利的《未来简史》中传达出的观点,人类开始复制自身,几十年来,科学家一直“训练”电脑,使其能够像人脑一样思考,而类脑芯片就是模拟人类大脑处理信息的新奇的微芯片。

“为了应对各种认知任务,大脑要在短时间内保存和处理各种感兴趣的信息,完成这个过程的大脑系统就是‘工作记忆’。工作记忆是形成语言理解、学习与记忆、推理和计划等复杂认知能力的基础。此外,基于生物层面的神经突触信号传递作用机制、脑区间环路特征、脑信息表达与处理、脑结构和功能图谱、脑重大疾病发病的环路机制等成为研究热点,这些都为人工智能的突破性发展提供了新的方向。” 在9月18日至19日复旦大学举办的类脑人工智能主题论坛上,复旦大学校长许宁生说。

研究表明,人类大脑平均每秒可执行 1 亿亿次操作,所需能量只有 10〜25 瓦特,如果让一台超级计算机来完成同样的工作,需要消耗的能量超过人脑的 1000 万倍。科学家们试图通过模拟人脑运转机制,利用神经元进行传输数据,使计算机能低能耗高功效地进行计算。

类脑芯片的研发非常困难,许宁生表示,复旦大学已经布局了四年,期望通过脑科学的深入研究和神经机制的系统解析,“破译”大脑信息处理与神经编码的原理,再通过信息技术予以参照、模拟和逆向工程,形成新一代人工智能通用模型与算法、类脑芯片器件和类脑智能各类工程技术应用等新型研究领域。

异构计算

“后摩尔定律时代”的新选择

“摩尔定律”究竟还能走多远? 一旦摩尔定律正式成为历史,半导体产业该如何继续向前迈进?过去30年里,集成电路的工艺进步经历了多个现象级的飞跃提升,例如,工艺从毫米、微米、纳米级进步,到现在的3-5nm工艺,接近现有电子材料及光刻技术的极限,然而,芯片厂商们突然发现,按照“摩尔定律”继续提升芯片性能所付出的成本也变得越来越庞大,甚至已经成为当前集成电路行业面临的最大挑战:芯片设计和应用的编程开发越来越复杂,研发投入(IP、设计团队等)和工艺制造越来越昂贵,而市场却开始呈现碎片化的趋势。

然而,在AI领域,却呈现出另一种新的现象,不少企业纷纷宣布推出自己的AI芯片,在本次WAIC上,地平线、寒武纪、酷芯等公司都展出了自己的AI芯片,且研究方向各有不同。记者发现,酷芯的AR8000系列芯片组,采用自己研制开发的无线通信协议,可以在4G等移动蜂窝网络信号弱的时候传输高清图像,2014年起,全球出货的中高端民用无人机中,70%以上都是使用酷芯方案,而酷芯在WAIC上新发布的AR9201芯片组,是通信与边缘智能处理的融合SoC(系统集成芯片),采用自主研发的远距离无线基带和射频、高性能ISP (Image Signal Processing)、神经网络专用加速器、视频编解码等核心技术;地平线的自动驾驶软硬体一体化计算平台Matrix则在WAIC上入围了世界人工创新大赛,也是入围该榜单的唯一一个软硬结合嵌入式人工智能计算平台,其二代自动驾驶处理器也已经基本成型,预计于明年1月流片,其算力从一代的1T提升至4-5T。

成本与需求的同步增加,使半导体行业越来越需考虑一个问题:能否通过芯片架构的创新,实现大幅提升性能和降低功耗的同时,显著降低设计制造费用和芯片设计、应用编程开发的门槛,一个更小的设计团队能不能完成复杂芯片的设计、应用开发的复杂度能不能大幅度降低。

在目前所有的架构创新中,量子计算、类脑计算等离大规模商用还有相当长的距离,而最近十分火热的“异构计算”成为近年来架构创新的主赛道。

国内第一家从事下一代异构计算处理器芯片设计的集成电路企业华夏芯相关人士告诉记者,广义来说,不同指令架构的计算单元(如CPU与GPU)之间实现高效协同计算都可以称之为“异构计算”。全球异构系统架构(HSA)联盟主席John Glossner认为,面对大数据、人工智能对计算性能的爆发式需求,各种创新的神经网络算法及相应的计算实现架构层出不穷,传统芯片设计架构已经难以满足应用对计算能力的需求,因此以异构计算为代表的架构创新正在成为一个新的风口,并且正在成为新一代软硬件计算体系和高端复杂芯片的主流设计平台。

但由于产品设计难度大、生态系统需要重新构建等挑战,在过去很长一段时间里,异构计算一直处于不断演进中,John Glossner认为,必须要走建立相关标准和规范、众多厂商协同合作这一途径。

在中国,异构标准化行动也已开始,由HSA联盟成员中国电子技术标准化研究院和华夏芯(北京)通用处理器技术有限公司牵头,组建了HSA中国区委员会(CRC),目前成员单位已有40余家,涵盖中国本土知名的半导体企业、高校和科研院所,CRC主要针对中国异构计算的实际需求,对HSA标准进行扩展、适配和修订,这些工作成果将反馈回HSA联盟,成为全球标准的一部分。

关键字:未来

本文摘自:IT时报

x 初窥AI版“未来简史” 扫一扫
分享本文到朋友圈
当前位置:新闻中心行业动态 → 正文

初窥AI版“未来简史”

责任编辑:zsheng |来源:企业网D1Net  2018-09-24 08:11:36 本文摘自:IT时报

“人工智能和生物基因技术正在重塑世界,计算机和大数据将比我们自己更了解自己。”在2017年度“大众喜爱的50种图书”中,尤瓦尔·赫拉利的《未来简史》榜上有名,这本书以宏大的视角审视人类未来的终极命运:人类,正一步步进化为神一般的存在,开始复制自身,创造新的智慧生命体。

人工智能是全球竞争的新焦点,而中国成为AI大秀的舞台。2018世界人工智能大会(WAIC)上,最新AI应用纷纷亮相,来自世界各地的学者、产业精英共同探讨AI产业发展,《未来简史》中未来人类与AI的变化,从这里可以一窥端倪。

AI什么时候能进入2.0?AI下一代技术是什么?AI能和哪些行业结合共同探索世界?

人类的未来已来,AI的未来尚需等待。

算法2.0

下一个“深度学习”是谁?

半个世纪以前,麻省理工学院几个计算机系的教授第一次提到人工智能这个词时,他们以为人工智能是一个夏天就能解决的问题,但直到现在人工智能还是实验科学。2016年AlphaGo对弈让普通人意识到人工智能的魅力,其采用的深度学习方式在图像识别和语音识别领域的成功,让它几乎成为AI的代名词,短短两年,人工智能技术已经应用到自动驾驶、机器人、医疗诊断等多个领域,深度学习成为人工智能热潮的主力军。

然而,深度学习的缺点也很明显:对数据和算力要求高,而最终机器给出的结论是“黑盒子”,人们只能知其然却不知其所以然。

“大概五六年以后,深度学习的算法可能会到达增长极限。下一波AI创新应该来自哪里?”图灵奖获得者、清华大学交叉信息研究院院长姚期智在本次WAIC大会上提出了“姚之问”。

如何回答“姚之问”?

深度学习的“高门槛”

“能够引领AI发展的顶级人才,环顾全球尚不足千人,这让AI成为供不应求的抢手货,只有AI的应用门槛降低到普通开发者甚至是业务人员也能做的程度,才能够真正爆发。”第四范式的创始人戴文渊在WAIC上表示,据《全球人工智能人才白皮书》数据统计,目前全世界只有不超过 1000 家公司拥有能够开发 AI 系统的人才,与此同时,更多公司却拥有开发 AI 系统所需的数据。

屡屡在国际语音识别大赛中夺魁的科大讯飞,对深度学习的优劣也深有体会,其董事长刘庆峰在WAIC的不同论坛上多次表示,“深度神经网络学习面临着算法突破的挑战,比如目前数据参数的设定都是手动,很多优秀的硕士、博士生只能将时间耗费在这种机械操作上,其次,深度学习对样本需求量过大,能否有少量数据就可以学习,而且目前深度学习很难突破有监督训练,未来能否变成半监督或者无监督训练?”

刘庆峰指出的正是两个深度神经网络学习最难和最耗时的问题:处理数据格式化和培养深度学习模型,而这两个难题在某种程度上阻碍了AI的普及,因为数据、算力、建模都需要耗费大量人力和资本,普通企业根本无力“AI化”,而这恰恰也是斯坦福教授李飞飞希望倡导“AI民主化”的缘由。

算法突破

AutoML实现“AI的民主”

从学界来看,迁移学习、冷扑大师、胶囊网络等等新的算法都有可能在接下来的几年中实现突破,但目前最早进入商业化、并且已经相对成熟的是基于迁移学习的AutoML。

可以让机器自动建模、自动调参的AutoML被李飞飞称为“AI民主化的重要进展”,因为它大大降低了AI使用者的门槛,每个人都可以利用AI技术自动生成AI应用,将企业的数据自动变为模型,整个机器学习过程是自动化的。

戴文渊以及第四范式的联合创始人、香港科技大学计算机系主任杨强都是迁移学习领域全球排名前三的科学家。

戴文渊告诉《IT时报》记者,尽管在AutoML领域,微软和谷歌都在2017年发布了相关产品,但中国AI公司在这方面毫不逊色,前不久,国际人工智能顶尖学术会议NIPS正式宣布,第四范式击败了谷歌获得AutoML Challenge(挑战)2018 大赛的承办权。

国产“AI操作系统”时机成熟

戴文渊将第四范式的AI Prophet AutoML(以下简称“AutoML平台”)定义为“AI的AI”,开发者无需深入理解算法原理和完成大量编码训练,只需做到“收集行为数据、收集反馈数据、模型训练、模型应用”四步,便可以直接升级为AI开发者,这样一个公司AI应用的开发周期从以半年为单位缩短至周级别。

或许将之比喻为“AI中的Windows”更容易理解,一家中小企业不需要去自己做一套Windows,而是在Windows上打开Office输入数据便可以得到自己想要的答案。但对于科技创新而言,从0到1的路走得最难,软件时代,中国国产操作系统半途折戟,AI时代,中国能有自己的AI“操作系统”吗?

“操作系统能否成功,核心不在技术而是应用,软件时代,所有的应用软件也都来自国外,国产操作系统根本无力与Windows竞争,而AI时代,全球应用需求的中心在中国,我认为,国产AI操作系统的市场时机已经成熟。”戴文渊表示。

下一代人工智能要有推理能力

为什么研究人工智能?基础科学不太接地气,澳大利亚科学院院士陶大程试图用更形象的语言让大家理解,他拿出一张画面满是人的照片问:谁知道照片中有多少人?会场近千名观众无人作答,有人下意识的开始去数,但通过人工智能技术,照片很快显示出答案,3秒中检测出920张人脸。

“除了图片,现在的技术也能对视频中的人物做人脸检测、特征点检测,识别人与镜头的距离,甚至把视频的背景检测出来改成油画和中国画。人类通过眼睛看见这个世界,对周围的事物有迅速的判断和认知,如今我们做的是教机器如何变得像人类一样聪明。”陶大程的主要研究方向是表征学习,这也是人工智能领域非常重要的研究方向之一,包括多视角学习、多标签学习、多任务学习、迁移学习、张量学习、噪声数据学习等,这些研究成果被应用于计算机视觉、图像处理以及生物识别技术等领域。

人工智能技术在向前行进过程中,总是遇到不同的问题,机器学习也像“盲人摸象”,看到某一部分,在已有信息的条件下做出最好的决策。“我们研究多视角学习,通过多个传感器拍摄同一个物体的不同状态,再汇总到一个平台做出选择。就像无人驾驶,有激光雷达、获取视觉数据的摄像机,获取听觉数据的麦克风阵列等非常多的传感器,之后把传感器信息最终结合起来做出判断。未来,能不能有一个上帝视角,让机器知道自己看到的是一个物体的不同角度?”陶大程希望通过多视角学习来改善这一问题,把一些不同源、不同表达方式的信息整合起来,以改善后续的识别问题。

对于下一代人工智能具有什么特征,陶大程同样用一张图片举例,通过图片人物的着装和神情,人类一眼即可判别图片中的人在看球赛,“机器是能做到,但需要收集大量的信息才能教会它判断,这样的人工智能是我们需要的吗?不是!下一代的人工智能应该有推理能力,也只能是推理的时代。”

算力2.0

无限向人脑靠近

对于AI的未来,调整算法固然可以减少对数据量和算力的需求,但根本而言,AI仍然是一个需要大算力的技术,尤其在生物、气象等大自然领域,海量的数据依然要靠大型超算夜以继日地运算,而量子计算和AI的结合,则很可能让算力呈现爆发式增长。

量子人工智能将真正认知自然

2000年,因为对计算理论的贡献,姚期智被授予图灵奖,而他的回国填补了国内计算机学科的空白。在这位年过古稀的老科学家眼中,量子物理是最美丽的物理法则,如果有一个足够强大的量子计算机,也许有可能模仿大自然量子法则,从而理解自然智能。当人工智能与量子计算机结合,人们对世界甚至宇宙的探索会有更加深刻的认识, “深度学习的发展给了科学家一个如何看待计算机科学的新角度,是不是可以将量子计算和人工智能结合,进行量子人工智能,量子计算本身就能扩大了人类获得知识、认知宇宙的能力,也许通过两者的结合,人类可以真正有机会‘攻克’自然界。”

姚期智把着眼点放在量子人工智能不难理解,量子计算是他上世纪90年代开始主攻的研究领域。

抛去多粒子纠缠、量子比特、多量子系统等晦涩难懂的名词,具有超快的并行计算和模拟能力的量子计算机令人兴奋。量子计算机的计算能力有多强?有人打了个比方:如果将现在的计算机速度比作自行车,那么量子计算机的速度就是飞机。

人工智能可与多学科结合

量子计算机什么时候出现?何时能与人工智能相结合?对于看好这一产业的人来说,这是必须要思考的问题。迄今为止,科学家们还并没有对开发量子计算机的最佳方法达成一致。面对场景多元化的人工智能,其他学科已经率先与之结合。

“人工智能刚刚开始,需要做的不只是把机器的计算能力再提升,还有许多科学问题亟待突破,要把心胸放大,深度学习需要和很多学科结合在一起,数学、计算机、神经科学等等。”姚期智说。

值得注意的是,学术界已经注意到交叉学科为人工智能发展带来的更多可能性,开始汇聚计算机、统计、心理学、人文社科等领域的力量与人工智能相结合。比如,通信和计算机的交叉学科云计算,把云计算的运作模式与人工智能深入融合,可以把庞大的人工智能运行成本转移到云平台,从而降低终端设备使用人工智能技术的门槛。另外,神经科学提供的神经网络模型,对人工智能的发展也颇有贡献,2018世界人工智能大会的学者不乏生物领域的专家,一些企业甚至已经喊出“神经科学是人工智能领域创新关键”的口号。

数据显示,2011年,人工智能识别图像的错误率是26%,2016年的错误率下降到3%,比人类的识别能力要高出2%,这样的数字源于神经网络和深度学习在人工智能领域的爆发。

类脑芯片让机脑超越人脑

人工智能正在改变各行各业,而芯片是实现人工智能的载体,但传统芯片却遇上冯·诺依曼结构瓶颈。

目前,计算机采用的是冯·诺依曼体系结构,而满足这个结构必须有一存储器、一个控制器、一个运算器、必须有输入设备和输出设备用于人机通信,另外,程序和数据统一存储并在程序控制下自动工作。有人将这称之为“内存墙”,意思是CPU再快,也要等内存。

如今,越来越多的人工智能应用需要专门的AI加速器或计算卡,从业认识开始关注专门用于处理人工智能应用中的大量计算任务的模块,与通用芯片不同,AI芯片主要用于处理专用任务,比如安防中高清视频的识别、自动驾驶时的数据计算等等。这类的处理器主要分为GPU、FPGA、ASIC等类型,其中专用定制的ASIC芯片被认为是人工智能芯片的主要方向,寒武纪的GPU,地平线的BPU都属于ASIC芯片。

值得关注的是,在ASIC芯片里还有一个特殊的群体——类脑计算,正如尤瓦尔·赫拉利的《未来简史》中传达出的观点,人类开始复制自身,几十年来,科学家一直“训练”电脑,使其能够像人脑一样思考,而类脑芯片就是模拟人类大脑处理信息的新奇的微芯片。

“为了应对各种认知任务,大脑要在短时间内保存和处理各种感兴趣的信息,完成这个过程的大脑系统就是‘工作记忆’。工作记忆是形成语言理解、学习与记忆、推理和计划等复杂认知能力的基础。此外,基于生物层面的神经突触信号传递作用机制、脑区间环路特征、脑信息表达与处理、脑结构和功能图谱、脑重大疾病发病的环路机制等成为研究热点,这些都为人工智能的突破性发展提供了新的方向。” 在9月18日至19日复旦大学举办的类脑人工智能主题论坛上,复旦大学校长许宁生说。

研究表明,人类大脑平均每秒可执行 1 亿亿次操作,所需能量只有 10〜25 瓦特,如果让一台超级计算机来完成同样的工作,需要消耗的能量超过人脑的 1000 万倍。科学家们试图通过模拟人脑运转机制,利用神经元进行传输数据,使计算机能低能耗高功效地进行计算。

类脑芯片的研发非常困难,许宁生表示,复旦大学已经布局了四年,期望通过脑科学的深入研究和神经机制的系统解析,“破译”大脑信息处理与神经编码的原理,再通过信息技术予以参照、模拟和逆向工程,形成新一代人工智能通用模型与算法、类脑芯片器件和类脑智能各类工程技术应用等新型研究领域。

异构计算

“后摩尔定律时代”的新选择

“摩尔定律”究竟还能走多远? 一旦摩尔定律正式成为历史,半导体产业该如何继续向前迈进?过去30年里,集成电路的工艺进步经历了多个现象级的飞跃提升,例如,工艺从毫米、微米、纳米级进步,到现在的3-5nm工艺,接近现有电子材料及光刻技术的极限,然而,芯片厂商们突然发现,按照“摩尔定律”继续提升芯片性能所付出的成本也变得越来越庞大,甚至已经成为当前集成电路行业面临的最大挑战:芯片设计和应用的编程开发越来越复杂,研发投入(IP、设计团队等)和工艺制造越来越昂贵,而市场却开始呈现碎片化的趋势。

然而,在AI领域,却呈现出另一种新的现象,不少企业纷纷宣布推出自己的AI芯片,在本次WAIC上,地平线、寒武纪、酷芯等公司都展出了自己的AI芯片,且研究方向各有不同。记者发现,酷芯的AR8000系列芯片组,采用自己研制开发的无线通信协议,可以在4G等移动蜂窝网络信号弱的时候传输高清图像,2014年起,全球出货的中高端民用无人机中,70%以上都是使用酷芯方案,而酷芯在WAIC上新发布的AR9201芯片组,是通信与边缘智能处理的融合SoC(系统集成芯片),采用自主研发的远距离无线基带和射频、高性能ISP (Image Signal Processing)、神经网络专用加速器、视频编解码等核心技术;地平线的自动驾驶软硬体一体化计算平台Matrix则在WAIC上入围了世界人工创新大赛,也是入围该榜单的唯一一个软硬结合嵌入式人工智能计算平台,其二代自动驾驶处理器也已经基本成型,预计于明年1月流片,其算力从一代的1T提升至4-5T。

成本与需求的同步增加,使半导体行业越来越需考虑一个问题:能否通过芯片架构的创新,实现大幅提升性能和降低功耗的同时,显著降低设计制造费用和芯片设计、应用编程开发的门槛,一个更小的设计团队能不能完成复杂芯片的设计、应用开发的复杂度能不能大幅度降低。

在目前所有的架构创新中,量子计算、类脑计算等离大规模商用还有相当长的距离,而最近十分火热的“异构计算”成为近年来架构创新的主赛道。

国内第一家从事下一代异构计算处理器芯片设计的集成电路企业华夏芯相关人士告诉记者,广义来说,不同指令架构的计算单元(如CPU与GPU)之间实现高效协同计算都可以称之为“异构计算”。全球异构系统架构(HSA)联盟主席John Glossner认为,面对大数据、人工智能对计算性能的爆发式需求,各种创新的神经网络算法及相应的计算实现架构层出不穷,传统芯片设计架构已经难以满足应用对计算能力的需求,因此以异构计算为代表的架构创新正在成为一个新的风口,并且正在成为新一代软硬件计算体系和高端复杂芯片的主流设计平台。

但由于产品设计难度大、生态系统需要重新构建等挑战,在过去很长一段时间里,异构计算一直处于不断演进中,John Glossner认为,必须要走建立相关标准和规范、众多厂商协同合作这一途径。

在中国,异构标准化行动也已开始,由HSA联盟成员中国电子技术标准化研究院和华夏芯(北京)通用处理器技术有限公司牵头,组建了HSA中国区委员会(CRC),目前成员单位已有40余家,涵盖中国本土知名的半导体企业、高校和科研院所,CRC主要针对中国异构计算的实际需求,对HSA标准进行扩展、适配和修订,这些工作成果将反馈回HSA联盟,成为全球标准的一部分。

关键字:未来

本文摘自:IT时报

电子周刊
回到顶部

关于我们联系我们版权声明隐私条款广告服务友情链接投稿中心招贤纳士

企业网版权所有 ©2010-2024 京ICP备09108050号-6 京公网安备 11010502049343号

^