当前位置:大数据业界动态 → 正文

因应大数据时代,电脑架构也要大改造

责任编辑:editor005 |来源:企业网D1Net  2015-06-02 14:05:50 本文摘自:中国大数据

大数据

 

几乎所有的人对沃森电脑的印象,都停留在「危险边缘」节目上看到的画面:冷冰冰、深紫色系的电脑萤幕,竖立在另外两位人类参赛者中间,会发出诡异的电脑语音。

完整的沃森电脑,当然不只是电视萤幕上看到的那样,如果有机会前往纽约参观IBM全球研发中心位於约克城高地的实验室,你就会看到原汁原味的沃森电脑,不但能够理解为什麽沃森电脑能在「危险边缘」中胜出,也会同意为什麽非得用颠覆传统的方式,才能设计出新世代的认知运算电脑了。

沃森电脑放置在约克城高地实验室二楼的数据中心,由九十二台伺服器组成,堆满整整两排冰箱大小的金属框架。这两排金属框架之间的走道尽头,有一道门,形同把沃森电脑所在的房间,再隔出一个小房间。走进这个小房间,你会听到室内空调的风扇跟伺服器本身的小风扇一起嗡嗡作响,震耳欲聋,可见沃森电脑微处理器散发的热量非常可观。这可不是一件好消息。

固然,在「危险边缘」比赛的时候,沃森电脑微处理器运作的速度,比世上第二快的一般电脑的运作速度,还要再快上以数据为中心的电脑一倍;但是代价就是,沃森电脑会散发庞大的热量、以及散热风扇会发出不小的噪音。这显示了耗能问题非常严重:沃森电脑全速运转时的耗电量,高达八万五千瓦,足以提供一座小镇的照明所需;相较之下,人脑只需要消耗二十瓦的能量而已。

除非我们可以用连跳好几个数量级的方式,来提升电脑的运作效率,否则未来认知运算电脑的成本,将高到很难成为我们广泛运用的好帮手。IBM全球研发中心的科学家认为,如果要在大数据时代设计出符合环境永续概念的电脑,我们一定要能设计出新型态的电脑──以数据为中心的电脑。

新电脑必须大幅减少传输数据的动作

传统电脑以处理器为核心,由微处理器扮演冯诺伊曼架构里中央处理器的角色,这自然也是电脑执行最多动作的地方。微处理器搭载作业系统後,会向电脑的其他组件发出指令,像是要求记忆体、硬碟传输数据等。而如果是大型网路中的一台电脑,则有可能需要用远端传输的方式,才有办法取得其他电脑储存的数据。

新世代的电脑一定要能大幅减少传输数据的动作,也就是以数据、而不是处理器做为运作核心。按照IBM先进系统设计部门主管达华里(Bijan Davari)的说法,新的设计架构将可以把许多任务毕其功於一役,不但可以增加电脑运作的速度,大幅提升省电效果,更重要的是促成充分利用大数据的可能性。

电脑的运算能力自从1970年代,工程师开始在单晶片里塞进愈来愈多的电晶体後,获得了迅速提升,专业术语叫做堆栈(scaling),意指在相同面积上堆放更多资源的能力,好比说是更紧密的电路布局、或是更多的记忆容量。而在单晶片完成更多堆栈的过程,就叫做微缩(scaling down)。

不论是企业界或是政府单位的电脑,经过多年使用之後,都需要更优秀的运算能力,因此电脑业者开始推出伺服器,专门处理大量、复杂的工作,主要的做法有两种,其中一种是在一台伺服器内,装上运算能力更强的零组件与其他资源,通称为升级(scaling up),IBM的大型主机即采取这种做法;另一种做法是扩充(scaling out),是把多台伺服器串连、视同一台大型伺服器般使用,这也是超级电脑跟Google数据中心伺服器大军的做法。

IBM的科学家相信,未来以数据为中心的电脑将具备一种基本特徵:电脑工程师会设法把记忆体跟逻辑线路,整合在一以数据为中心的电脑颗紧致的立体晶片中,采用敛合(scaling in)的新堆栈方法。

新玩意:混合记忆体模块

现今的记忆体只是把一层矽晶跟数不清的数据存取线路,整合成一颗电子元件,主要做为数据暂存区之用,并依照微处理器的需求传输数据。

记忆体在电脑内占有一定空间,数据传送也是个负担沉重的工作;如果把记忆体晶片像一层层烤饼堆叠在一起呢?那不但可以大幅缩减体积,同时也能减少数据传送的负担。这种新概念的产物,就是IBM与其他电脑大厂正在研发的混合记忆体模块(hybrid memory cube)。

混合记忆体模块是个奇特的小玩意儿,可以在一个立方体内把好几层记忆体堆叠在一起,在垂直贯穿模块的一个小通道内配置线路,用铜线把所有物件串连在一起,让最底层的逻辑线路可以直接连结到其他各层的记忆体,只把萃取过的减量数据传送给微处理器统合使用。这种新设计可以缩减现有记忆体百分之九十的体积,减少百分之七十的耗能。

未来,记忆体模块渴望再内建微处理器,逐步走向记忆体与处理器合而为一的境地,打破冯诺伊曼瓶颈的限制。

这项新科技会对未来的电脑带来重大影响,譬如用於原油探钻、汽车撞击测试的大型超级电脑,体积会变得更小、更省电,下一代使用混合记忆体模块的伺服器数据中心,也不再需要在庞大的室内空间耗掉可观的散热电力。这项技术继续发展的话,未来即便是智慧型手机、平板电脑、或是其他行动装置,也都可以将运算能力提升到一个难以想像的境界。

新概念:微处理器分散架构

以数据为中心的电脑具备的第二种基本特徵是:电脑内部的分散式配置方式。

今日的电脑,有微处理器担任神经中枢的角色,负责处理所有或大部分的运算工作,因此运算时派得上用场的数据,都要在原本存放的位置与微处理器之间不断往返传递,用跑马拉松来形容也不为过。未来以数据为中心的电脑,会把微处理器分散在系统的不同位置,大大降低数据搬动的必要性。

微处理器分散架构的概念,已经在某些专门用於分析庞大数据数据的特用电脑上进行测试。纽约州立大学水牛城分校神经科学教授拉曼纳森,即参与了其中某一项测试计画。

多发性硬化症会让人痛苦异常,患者的免疫系统会主动攻击自身的大脑与脊髓,导致病患失去行动能力,并造成认知失调问题。这种疾病多半会在年轻成年人的身上发病,目前病因成谜,也无法医治。拉曼纳森的研究主题,是找出基因和环境因素与多发性硬化症的相关性,进而找到医治的方法,或是起码找到能够预先防治的方法。拉曼纳森研究工作最大的挑战,在於人类基因可能导致多发性硬化症的组合方式实在太多了,如果再加上饮食作息、抽菸喝酒等环境因素的影响,则多发性硬化症潜在病因的可能组合,将呈现指数般的爆炸性成长。

换句话说,拉曼纳森的研究重点在於克服庞大数据带来的技术障碍,而传统超级电脑欠缺大量平行运算的能力,因此也没办法有效处理拉曼纳森所面对的问题──亦即所谓数据密集(data-intensive)的问题。拉曼纳森需要一台可以把研究主题切割成许多分段、送交好几千颗微处理器进行平行运算後,再从平行运算的结果推导出最後答案的电脑。如果要有效解决拉曼纳森面临的难题,势必要采用平行运算搭配以数据为中心的微处理器架构。

於是,拉曼纳森的研究团队设计一台专门用於数据密集分析的电脑,这台冰箱大小的专用电脑采用特制的微处理器「现场可程式闸阵列」(field programmable gate array, FPGA),在数据储存区先行过滤数据,之後再把有用的部分传给中央处理器,进行後续的数据分析。这套微处理器可以程式化设定需要搜寻的数据,因此可以有效过滤高达九成的数据量,让中央处理器仅针对筛选过的数据进行分析即可,不用照单全收;就形式上而言,如同传统电脑只在记忆体进行存取,省去读取硬碟的步骤。如此一来,这台专用电脑可以减少数据搬动,连带达到省电效果,并提升电脑中枢的运算速度与效率。

接下来,我们用拉曼纳森研究团队实际取得的绩效,说明这台新电脑的效率高到什麽程度。研究团队完成安装後不久,把十万种基因组合与包含各种环境因素在内的数据,统统输入电脑进行运算──相当於有五十亿种「双变数」的组合、或是一百兆种「三变数」的组合需要进行推算。

结果,新电脑只花了十一分钟,就把传统电脑需要花二十七小时计算的答案,给算出来了。坐在纽约州立大学办公桌前的拉曼纳森,收到一封运算结果摘要报告的电子邮件,他说:「这个结果让我感到兴奋莫名,有如在眼前开启了一扇机会之窗。我们,终於有机会解决以往难以处理的问题了。」

 

大数据

 

以光子技术传输数据

无论在电脑系统的哪个地方处理数据,用更快、更有效率的方式搬动数据,当然还是基本功。这就是以数据为中心的电脑,必须具备的第三种基本特徵。

一般公认,借助光子学(photonics)的原理,将可更迅速的搬动数据,也就是用光波来制造讯号、传送讯号、处理讯号。电话公司和宽频网路业者已经在光纤电缆内,用脉冲光束的方式加速数据传送的速度,以便和远端进行语音交谈或是分享电影、电视等多媒体内容;大楼内部和数据中心的电脑之间,也可以用光纤传输数据。未来,光子学技术可望运用在伺服器内部、甚至是电路板上的数据传送,最终也不排除在晶片内以光子技术传输数据的可能。

IBM全球研发中心有一群科学家,利用十年的研究计画取得奈米光子技术的重大进展。他们在单一矽晶片上,整合了传统电子元件与光学元件,称为CMOS整合奈米光子(CMOSintegrated nanophotonics)技术,这将有助於大幅度提升各种电脑的效能。目前,先进电脑仍旧用不同的晶片处理光学元件,就成本与效能而言都还有改善空间。这项CMOS整合奈米光子新技术,不但把光、电元件整合在单一晶片上,还可以让晶片制造业者沿用现有生产设备,尽快达成量产的目标。

搬动一个位元的成本是多少?

「电脑运作的时候,搬动一个位元的成本是多少?」显然这是一个不值得花时间回答的问题。因为在当前资讯科技的环境里,这个成本是微乎其微。

问题是,电脑科学家已经注意到进入大数据时代後,远距离搬动大数据的成本会有爆炸性成长,即便在短距离来回多次搬动数据,成本亦会暴增。

这就是IBM主管「百万兆级运算」(exascale computing)的副总裁特瑞克(David Turek),在2011年向共聚一堂的IBM电脑系统专家提出这个问题的源由。特瑞克说:「还好这些专家愿意正面看待我所提出的笨问题。进入大数据时代後,我的笨问题会开始变成大问题,所以必须找出能够真正量化数据移动成本的方法。」

特瑞克的简单问题,促使IBM启动一项从根本改变电脑架构的研究计画:代号DC2的「以数据为中心的深度运算计画」(Data Centric Deep Computing)。这是IBM自1960年代初发表360系列大型主机之後,最能彻底检讨、反思该如何设计电脑的一次颠覆性创举。这项研究计画促成新的创新文化,以及下定决心抛弃旧观点、一切重头来过的特性,都值得大书特书。

负责主导DC2研究计画(并且要能够回答特瑞克的成本问题)的科学家是名列IBM院士之一的卡尔(Jim Kahle)。卡尔在过去三十多年,曾带领数个研究团队完成不少最先进的晶片设计,包括索尼PlayStation游戏机上专用的Cell处理器、超级电脑「走鹃」(Roadrunner)、以及其他先进的数位电视晶片组等。其中比较可惜的是Cell处理器,并未如卡尔预期般的在所有运算设备中大放异彩,因此卡尔希望DC2计画能够带动电脑革命性的新设计,以前所未见的高效能,实现当初Cell处理器没有达成的目标。

卡尔很能跟各有所长的专业人士沟通,让各种新想法都有浮上台面参与讨论的机会,这些都是推动DC2研究计画不可或缺的重要经验。

DC2研究计画启动後的前几个月,卡尔广泛召集不同背景的专家,一起描绘十年以後的电脑会有哪些新用途、新功能,讨论研究团队应该提前做出哪些准备。这些专家的背景包括半导体工程、光子学技术、记忆体模组开发、系统架构、电脑软体以及数学家、统计分析师等,他们的观点让认知运算时代该有的电脑架构逐渐在卡尔脑海中成形,并开始拟定完成计画目标的执行步骤。

卡尔说:「我们必须先重新自我组织工作团队。打破本位主义可不是一件简单的事,但是我们必须改弦易辙,朝新方向前进。」

让中央处理器走出深宫内院

DC2计画截至目前为止还在进行中,距离最终成果发表的阶段还很遥远,不过研究团队已经确立许多有助於他们完成目标的基本原则:他们相信,研究成果必须奠定在把原本以处理器为核心的想法转型成以数据为中心的想法上。

卡尔记得,以数据为中心的想法是在2011年的年底,才突然成为研究计画的重心,当天他和十几位研究人员在约克城高地实验室的36-002会议室(这是DC2研究计画的战情数据室)里,每个人都觉得前途茫茫。尽管大家对於新科技的突破都有不错的想法,但是却一直欠缺一以贯之的大方向。

此时,其中一位迟到的成员内尔(Ravi Nair),推开会议室大门走进来,把手上那张草图传给其他同事浏览。草图左边是传统电脑在各层级储存系统移动数据的过程──从硬碟进入记忆体,最终再到处理器的过程;右边则是直接在每一层级处理数据、以及分散式架构的省电效果。这张图让卡尔灵光乍现:研究方向应该是让传统电脑的处理器走出深宫内院才对!未来电脑将不会再有唯一的中央处理系统,处理器会分散在电脑系统的不同位置,数据为主、处理器为辅。

这个石破天惊的见解,跟设计新的电脑架构有什麽关系?

这就要回到几星期前,特瑞克提出的那个最根本的问题了:搬动一个位元的成本到底是多少?下班回家後的卡尔,好好想了一个值得参考的比较基准。简单来讲,把该位元搬动到网路上的成本介於800到6,000兆分之一美元,视真正的移动距离而定;如果该位元只在一台电脑内部移动的话,成本只介於6到27兆分之一美元而已;换句话说,长距离移动数据再行处理的成本,比直接在数据旁边进行处理的成本,高上大约两百到一千倍。

未来愿景:桌上型超级电脑

在不同状况下,搬动数据的成本变化颇大。卡尔所率领的研究团队精确估算过每一种状况下的成本效益分析,因而得到一些非常实用的结论,例如让电脑系统里某些特制的处理器,专门解决特定的工作项目。

卡尔的研究团队也会采取分流处理的做法:有时候是让记忆体、硬碟旁边的处理器,或是把守数据汇流进入系统的处理器,就近发挥功效,以达到最佳化效果;有时候(依工作性质不同)则是让中央处理器,直接存取大多数的数据。

目前卡尔的研究团队兵分两路,一部分开始着手打造新电脑所需要的硬体零组件,另一部分则致力於开发运作新电脑所需要的软体架构。这两者缺一不可。打造以数据为中心的电脑可能要花上好几年时间,无论如何,研究团队希望未来的电脑可以辨别被指派的工作项目,自动安排系统内部不同的处理器分工合作,就好像交响乐作曲家,安排不同乐器演奏不同的音符、发出不同声响的效果一样。

针对大数据时代设计新型电脑,绝对是一份吃重的工作,但是新型电脑潜在的发挥空间,会让这一切的努力付出,值回票价。或许十年後,就可以看见当前运算速度最快的超级电脑居然可以精简成办公桌上的一个盒子了,更何况未来运算速度最快的电脑究竟能完成哪些工作,恐怕也已经不是现在的我们可以想像的了。

关键字:冯诺伊曼数据传送

本文摘自:中国大数据

x 因应大数据时代,电脑架构也要大改造 扫一扫
分享本文到朋友圈
当前位置:大数据业界动态 → 正文

因应大数据时代,电脑架构也要大改造

责任编辑:editor005 |来源:企业网D1Net  2015-06-02 14:05:50 本文摘自:中国大数据

大数据

 

几乎所有的人对沃森电脑的印象,都停留在「危险边缘」节目上看到的画面:冷冰冰、深紫色系的电脑萤幕,竖立在另外两位人类参赛者中间,会发出诡异的电脑语音。

完整的沃森电脑,当然不只是电视萤幕上看到的那样,如果有机会前往纽约参观IBM全球研发中心位於约克城高地的实验室,你就会看到原汁原味的沃森电脑,不但能够理解为什麽沃森电脑能在「危险边缘」中胜出,也会同意为什麽非得用颠覆传统的方式,才能设计出新世代的认知运算电脑了。

沃森电脑放置在约克城高地实验室二楼的数据中心,由九十二台伺服器组成,堆满整整两排冰箱大小的金属框架。这两排金属框架之间的走道尽头,有一道门,形同把沃森电脑所在的房间,再隔出一个小房间。走进这个小房间,你会听到室内空调的风扇跟伺服器本身的小风扇一起嗡嗡作响,震耳欲聋,可见沃森电脑微处理器散发的热量非常可观。这可不是一件好消息。

固然,在「危险边缘」比赛的时候,沃森电脑微处理器运作的速度,比世上第二快的一般电脑的运作速度,还要再快上以数据为中心的电脑一倍;但是代价就是,沃森电脑会散发庞大的热量、以及散热风扇会发出不小的噪音。这显示了耗能问题非常严重:沃森电脑全速运转时的耗电量,高达八万五千瓦,足以提供一座小镇的照明所需;相较之下,人脑只需要消耗二十瓦的能量而已。

除非我们可以用连跳好几个数量级的方式,来提升电脑的运作效率,否则未来认知运算电脑的成本,将高到很难成为我们广泛运用的好帮手。IBM全球研发中心的科学家认为,如果要在大数据时代设计出符合环境永续概念的电脑,我们一定要能设计出新型态的电脑──以数据为中心的电脑。

新电脑必须大幅减少传输数据的动作

传统电脑以处理器为核心,由微处理器扮演冯诺伊曼架构里中央处理器的角色,这自然也是电脑执行最多动作的地方。微处理器搭载作业系统後,会向电脑的其他组件发出指令,像是要求记忆体、硬碟传输数据等。而如果是大型网路中的一台电脑,则有可能需要用远端传输的方式,才有办法取得其他电脑储存的数据。

新世代的电脑一定要能大幅减少传输数据的动作,也就是以数据、而不是处理器做为运作核心。按照IBM先进系统设计部门主管达华里(Bijan Davari)的说法,新的设计架构将可以把许多任务毕其功於一役,不但可以增加电脑运作的速度,大幅提升省电效果,更重要的是促成充分利用大数据的可能性。

电脑的运算能力自从1970年代,工程师开始在单晶片里塞进愈来愈多的电晶体後,获得了迅速提升,专业术语叫做堆栈(scaling),意指在相同面积上堆放更多资源的能力,好比说是更紧密的电路布局、或是更多的记忆容量。而在单晶片完成更多堆栈的过程,就叫做微缩(scaling down)。

不论是企业界或是政府单位的电脑,经过多年使用之後,都需要更优秀的运算能力,因此电脑业者开始推出伺服器,专门处理大量、复杂的工作,主要的做法有两种,其中一种是在一台伺服器内,装上运算能力更强的零组件与其他资源,通称为升级(scaling up),IBM的大型主机即采取这种做法;另一种做法是扩充(scaling out),是把多台伺服器串连、视同一台大型伺服器般使用,这也是超级电脑跟Google数据中心伺服器大军的做法。

IBM的科学家相信,未来以数据为中心的电脑将具备一种基本特徵:电脑工程师会设法把记忆体跟逻辑线路,整合在一以数据为中心的电脑颗紧致的立体晶片中,采用敛合(scaling in)的新堆栈方法。

新玩意:混合记忆体模块

现今的记忆体只是把一层矽晶跟数不清的数据存取线路,整合成一颗电子元件,主要做为数据暂存区之用,并依照微处理器的需求传输数据。

记忆体在电脑内占有一定空间,数据传送也是个负担沉重的工作;如果把记忆体晶片像一层层烤饼堆叠在一起呢?那不但可以大幅缩减体积,同时也能减少数据传送的负担。这种新概念的产物,就是IBM与其他电脑大厂正在研发的混合记忆体模块(hybrid memory cube)。

混合记忆体模块是个奇特的小玩意儿,可以在一个立方体内把好几层记忆体堆叠在一起,在垂直贯穿模块的一个小通道内配置线路,用铜线把所有物件串连在一起,让最底层的逻辑线路可以直接连结到其他各层的记忆体,只把萃取过的减量数据传送给微处理器统合使用。这种新设计可以缩减现有记忆体百分之九十的体积,减少百分之七十的耗能。

未来,记忆体模块渴望再内建微处理器,逐步走向记忆体与处理器合而为一的境地,打破冯诺伊曼瓶颈的限制。

这项新科技会对未来的电脑带来重大影响,譬如用於原油探钻、汽车撞击测试的大型超级电脑,体积会变得更小、更省电,下一代使用混合记忆体模块的伺服器数据中心,也不再需要在庞大的室内空间耗掉可观的散热电力。这项技术继续发展的话,未来即便是智慧型手机、平板电脑、或是其他行动装置,也都可以将运算能力提升到一个难以想像的境界。

新概念:微处理器分散架构

以数据为中心的电脑具备的第二种基本特徵是:电脑内部的分散式配置方式。

今日的电脑,有微处理器担任神经中枢的角色,负责处理所有或大部分的运算工作,因此运算时派得上用场的数据,都要在原本存放的位置与微处理器之间不断往返传递,用跑马拉松来形容也不为过。未来以数据为中心的电脑,会把微处理器分散在系统的不同位置,大大降低数据搬动的必要性。

微处理器分散架构的概念,已经在某些专门用於分析庞大数据数据的特用电脑上进行测试。纽约州立大学水牛城分校神经科学教授拉曼纳森,即参与了其中某一项测试计画。

多发性硬化症会让人痛苦异常,患者的免疫系统会主动攻击自身的大脑与脊髓,导致病患失去行动能力,并造成认知失调问题。这种疾病多半会在年轻成年人的身上发病,目前病因成谜,也无法医治。拉曼纳森的研究主题,是找出基因和环境因素与多发性硬化症的相关性,进而找到医治的方法,或是起码找到能够预先防治的方法。拉曼纳森研究工作最大的挑战,在於人类基因可能导致多发性硬化症的组合方式实在太多了,如果再加上饮食作息、抽菸喝酒等环境因素的影响,则多发性硬化症潜在病因的可能组合,将呈现指数般的爆炸性成长。

换句话说,拉曼纳森的研究重点在於克服庞大数据带来的技术障碍,而传统超级电脑欠缺大量平行运算的能力,因此也没办法有效处理拉曼纳森所面对的问题──亦即所谓数据密集(data-intensive)的问题。拉曼纳森需要一台可以把研究主题切割成许多分段、送交好几千颗微处理器进行平行运算後,再从平行运算的结果推导出最後答案的电脑。如果要有效解决拉曼纳森面临的难题,势必要采用平行运算搭配以数据为中心的微处理器架构。

於是,拉曼纳森的研究团队设计一台专门用於数据密集分析的电脑,这台冰箱大小的专用电脑采用特制的微处理器「现场可程式闸阵列」(field programmable gate array, FPGA),在数据储存区先行过滤数据,之後再把有用的部分传给中央处理器,进行後续的数据分析。这套微处理器可以程式化设定需要搜寻的数据,因此可以有效过滤高达九成的数据量,让中央处理器仅针对筛选过的数据进行分析即可,不用照单全收;就形式上而言,如同传统电脑只在记忆体进行存取,省去读取硬碟的步骤。如此一来,这台专用电脑可以减少数据搬动,连带达到省电效果,并提升电脑中枢的运算速度与效率。

接下来,我们用拉曼纳森研究团队实际取得的绩效,说明这台新电脑的效率高到什麽程度。研究团队完成安装後不久,把十万种基因组合与包含各种环境因素在内的数据,统统输入电脑进行运算──相当於有五十亿种「双变数」的组合、或是一百兆种「三变数」的组合需要进行推算。

结果,新电脑只花了十一分钟,就把传统电脑需要花二十七小时计算的答案,给算出来了。坐在纽约州立大学办公桌前的拉曼纳森,收到一封运算结果摘要报告的电子邮件,他说:「这个结果让我感到兴奋莫名,有如在眼前开启了一扇机会之窗。我们,终於有机会解决以往难以处理的问题了。」

 

大数据

 

以光子技术传输数据

无论在电脑系统的哪个地方处理数据,用更快、更有效率的方式搬动数据,当然还是基本功。这就是以数据为中心的电脑,必须具备的第三种基本特徵。

一般公认,借助光子学(photonics)的原理,将可更迅速的搬动数据,也就是用光波来制造讯号、传送讯号、处理讯号。电话公司和宽频网路业者已经在光纤电缆内,用脉冲光束的方式加速数据传送的速度,以便和远端进行语音交谈或是分享电影、电视等多媒体内容;大楼内部和数据中心的电脑之间,也可以用光纤传输数据。未来,光子学技术可望运用在伺服器内部、甚至是电路板上的数据传送,最终也不排除在晶片内以光子技术传输数据的可能。

IBM全球研发中心有一群科学家,利用十年的研究计画取得奈米光子技术的重大进展。他们在单一矽晶片上,整合了传统电子元件与光学元件,称为CMOS整合奈米光子(CMOSintegrated nanophotonics)技术,这将有助於大幅度提升各种电脑的效能。目前,先进电脑仍旧用不同的晶片处理光学元件,就成本与效能而言都还有改善空间。这项CMOS整合奈米光子新技术,不但把光、电元件整合在单一晶片上,还可以让晶片制造业者沿用现有生产设备,尽快达成量产的目标。

搬动一个位元的成本是多少?

「电脑运作的时候,搬动一个位元的成本是多少?」显然这是一个不值得花时间回答的问题。因为在当前资讯科技的环境里,这个成本是微乎其微。

问题是,电脑科学家已经注意到进入大数据时代後,远距离搬动大数据的成本会有爆炸性成长,即便在短距离来回多次搬动数据,成本亦会暴增。

这就是IBM主管「百万兆级运算」(exascale computing)的副总裁特瑞克(David Turek),在2011年向共聚一堂的IBM电脑系统专家提出这个问题的源由。特瑞克说:「还好这些专家愿意正面看待我所提出的笨问题。进入大数据时代後,我的笨问题会开始变成大问题,所以必须找出能够真正量化数据移动成本的方法。」

特瑞克的简单问题,促使IBM启动一项从根本改变电脑架构的研究计画:代号DC2的「以数据为中心的深度运算计画」(Data Centric Deep Computing)。这是IBM自1960年代初发表360系列大型主机之後,最能彻底检讨、反思该如何设计电脑的一次颠覆性创举。这项研究计画促成新的创新文化,以及下定决心抛弃旧观点、一切重头来过的特性,都值得大书特书。

负责主导DC2研究计画(并且要能够回答特瑞克的成本问题)的科学家是名列IBM院士之一的卡尔(Jim Kahle)。卡尔在过去三十多年,曾带领数个研究团队完成不少最先进的晶片设计,包括索尼PlayStation游戏机上专用的Cell处理器、超级电脑「走鹃」(Roadrunner)、以及其他先进的数位电视晶片组等。其中比较可惜的是Cell处理器,并未如卡尔预期般的在所有运算设备中大放异彩,因此卡尔希望DC2计画能够带动电脑革命性的新设计,以前所未见的高效能,实现当初Cell处理器没有达成的目标。

卡尔很能跟各有所长的专业人士沟通,让各种新想法都有浮上台面参与讨论的机会,这些都是推动DC2研究计画不可或缺的重要经验。

DC2研究计画启动後的前几个月,卡尔广泛召集不同背景的专家,一起描绘十年以後的电脑会有哪些新用途、新功能,讨论研究团队应该提前做出哪些准备。这些专家的背景包括半导体工程、光子学技术、记忆体模组开发、系统架构、电脑软体以及数学家、统计分析师等,他们的观点让认知运算时代该有的电脑架构逐渐在卡尔脑海中成形,并开始拟定完成计画目标的执行步骤。

卡尔说:「我们必须先重新自我组织工作团队。打破本位主义可不是一件简单的事,但是我们必须改弦易辙,朝新方向前进。」

让中央处理器走出深宫内院

DC2计画截至目前为止还在进行中,距离最终成果发表的阶段还很遥远,不过研究团队已经确立许多有助於他们完成目标的基本原则:他们相信,研究成果必须奠定在把原本以处理器为核心的想法转型成以数据为中心的想法上。

卡尔记得,以数据为中心的想法是在2011年的年底,才突然成为研究计画的重心,当天他和十几位研究人员在约克城高地实验室的36-002会议室(这是DC2研究计画的战情数据室)里,每个人都觉得前途茫茫。尽管大家对於新科技的突破都有不错的想法,但是却一直欠缺一以贯之的大方向。

此时,其中一位迟到的成员内尔(Ravi Nair),推开会议室大门走进来,把手上那张草图传给其他同事浏览。草图左边是传统电脑在各层级储存系统移动数据的过程──从硬碟进入记忆体,最终再到处理器的过程;右边则是直接在每一层级处理数据、以及分散式架构的省电效果。这张图让卡尔灵光乍现:研究方向应该是让传统电脑的处理器走出深宫内院才对!未来电脑将不会再有唯一的中央处理系统,处理器会分散在电脑系统的不同位置,数据为主、处理器为辅。

这个石破天惊的见解,跟设计新的电脑架构有什麽关系?

这就要回到几星期前,特瑞克提出的那个最根本的问题了:搬动一个位元的成本到底是多少?下班回家後的卡尔,好好想了一个值得参考的比较基准。简单来讲,把该位元搬动到网路上的成本介於800到6,000兆分之一美元,视真正的移动距离而定;如果该位元只在一台电脑内部移动的话,成本只介於6到27兆分之一美元而已;换句话说,长距离移动数据再行处理的成本,比直接在数据旁边进行处理的成本,高上大约两百到一千倍。

未来愿景:桌上型超级电脑

在不同状况下,搬动数据的成本变化颇大。卡尔所率领的研究团队精确估算过每一种状况下的成本效益分析,因而得到一些非常实用的结论,例如让电脑系统里某些特制的处理器,专门解决特定的工作项目。

卡尔的研究团队也会采取分流处理的做法:有时候是让记忆体、硬碟旁边的处理器,或是把守数据汇流进入系统的处理器,就近发挥功效,以达到最佳化效果;有时候(依工作性质不同)则是让中央处理器,直接存取大多数的数据。

目前卡尔的研究团队兵分两路,一部分开始着手打造新电脑所需要的硬体零组件,另一部分则致力於开发运作新电脑所需要的软体架构。这两者缺一不可。打造以数据为中心的电脑可能要花上好几年时间,无论如何,研究团队希望未来的电脑可以辨别被指派的工作项目,自动安排系统内部不同的处理器分工合作,就好像交响乐作曲家,安排不同乐器演奏不同的音符、发出不同声响的效果一样。

针对大数据时代设计新型电脑,绝对是一份吃重的工作,但是新型电脑潜在的发挥空间,会让这一切的努力付出,值回票价。或许十年後,就可以看见当前运算速度最快的超级电脑居然可以精简成办公桌上的一个盒子了,更何况未来运算速度最快的电脑究竟能完成哪些工作,恐怕也已经不是现在的我们可以想像的了。

关键字:冯诺伊曼数据传送

本文摘自:中国大数据

电子周刊
回到顶部

关于我们联系我们版权声明隐私条款广告服务友情链接投稿中心招贤纳士

企业网版权所有 ©2010-2024 京ICP备09108050号-6 京公网安备 11010502049343号

^