当前位置:数据中心技术专区 → 正文

数据中心四大硬件计算技术比拼

责任编辑:cres 作者:harbor |来源:企业网D1Net  2017-02-16 09:55:36 原创文章 企业网D1Net

虽然数据中心的计算能力不能和超算中心(专门承担各种大规模科学计算和工程计算任务,同时拥有强大的数据处理和存储能力的数据中心)相比,但计算能力也是数据中心水平的一个重要体现。以前和现在也有很多数据中心在进行自我介绍的时候,都强调自己拥有多少台计算服务器,实际上想表露的就是自己的计算能力。当然,可以计算的不仅仅是服务器,其它很多设备也都在进行着各种各样数据的计算和处理。接下来我们就来说一说数据中心里都有哪些硬件计算技术,以便大家对此方面有所了解。
 
CPU
 
大家对CPU都不陌生,所有的设备都需要一个或者多个CPU芯片,由CPU来完成设备需要完成的各种功能,这其中涉及到大量的复杂数据的处理和计算。CPU由控制器和运算器构成。整个CPU工作起来就像一个工厂对产品的加工过程:进入工厂的原料(指令),经过物资分配部门(控制单元)的调度分配,被送往生产线(逻辑运算单元),生产出成品(处理后的数据)后,再存储在仓库(存储器)中,最后等着拿到市场上去卖(交由应用程序使用)。经过这么多年的技术发展,CPU的处理数据速度有了很大提升。除了通用的Intel和AMD的CPU之外,也出现了很多专业技术领域里的CPU,一台设备如果没有了CPU就等于一台死机器,不能开机,一切都不能执行。
 
GPU
 
很多人对GPU不了解。GPU(Graphics Processing Unit)是现代显卡中非常重要的一个部分,其地位与CPU在服务器上的地位一致,主要负责加速图形处理的速度。我们知道图形文件,包括视频文件都比较大,计算量很大,并对数据的实时性要求要高一些,所以GPU更适用于这种计算中。GPU是一个高度并行化的多线程、多核心处理器,它比CPU的计算能力要强多了。现在我们常说的CPU实际上两者都包含,有的指的是CPU有的指的是GPU,并没有对两者进行区别。GPU是以大量线程实现面向吞吐量的数据并行计算,适合处理计算密度高、逻辑分支简单的大规模数据并行负载,而CPU则有复杂的控制逻辑和大容量的缓存减少延迟,擅长复杂逻辑运算。GPU属于强计算弱控制,更多资源用于数据计算,而CPU属于强控制弱计算,更多资源用于缓存。GPU早期主要应用于显卡,以图形处理为主,现在发展成为图形和高性能计算并重,像AMD的FireStream和NVIDIA的Tesla都是通用计算的GPU。
 
FPGA
 
GPU 的核心数量一般是 CPU 的成百上千倍,计算能力要比 CPU 多出几个数量级,也更适合进行并行计算。但是如果计算里面有大量的分支,或者算法的数据前后存在依赖关系,使得算法无法并行运行,则 GPU 的性能优势会被大大减弱。这时出现了一种新的计算方式FPGA(Field Programable Gate Array),其基本原理是在 FPGA 芯片内集成大量的数字电路基本门电路以及存储器,通过烧写FPGA 配置文件来定义这些门电路以及存储器之间的连线。这种烧入不是一次性的,可以反复烧写,所以叫做可编程门阵列。FPGA 既能提供集成电路的性能优势,又具备CPU可重新配置的灵活性。相比GPU,FPGA的可操控粒度更小,具备更高的灵活度和算法适应性。FPGA能够简单地通过使用触发器来实现顺序逻辑,并通过使用查找表来实现组合逻辑。当算法需要并行计算能力时,可以将大部分的逻辑资源都用来做计算,达到更高的计算效率。打破了顺序执行的模式,在每个时钟周期内完成更多的处理任务,超越了数字信号处理器的运算能力。FPGA融合了ASIC和基于处理器系统的最大优势,能够提供硬件定时的速度和稳定性,且无需类似自定制ASIC设计巨额前期费用的大规模投入。
 
ASIC
 
FPGA 虽然成本比设计的专用芯片(ASIC)要便宜,当然性能也没有专用芯片强,在很多的技术场合还是需要采用ASIC芯片来完成计算,比如网络设备。ASIC(Application Specific Integrated Circuits)专用集成电路是指应特定用户要求或特定电子系统的需求而设计制造的集成电路。这类ASIC专业性极强,将所有的计算资源都应用到特定的应用中,所以处理某一类计算时效率特别高。比如网络转发ASIC芯片,其专门处理二三层网络流量转发,其它功能均没有,所以执行效率高。当然,就像是私人定制,既然是专有的东西,那一定是特别贵。是的,ASIC要比CPU、GPU还是FPGA都贵得多,实际上ASIC的内部实现并不如这三种复杂,但是里面涉及了很多专业领域很强的技术,其它三种计算硬件做不来。ASIC在吞吐量、延迟和功耗方面都无可指摘,但ASIC研发成本高、周期长,而且ASIC是一锤子买卖,设计出来要是发现哪里不对基本就没有机会改了,这也使得每款ASIC推出来的时间都要长,再加上不像通用CPU市场竞争那样激烈,ASIC的价格都比较贵,甚至具有一定的市场垄断性。还有ASIC的灵活性也是硬伤,ASIC不能做复杂的有状态处理,比如某种自定义的加密算法,我们也看到像网络交换芯片,基本都是处理二三层的转发,对于四到七层网络协议由于涉及到很多状态机的处理,就不能靠ASIC来完成。所以对于四到七层的网络流量依然要交由通用CPU处理,像很多支持四到七层网络转发的网络设备,实际内部还是靠CPU或者FPGA来实现网络转发功能的,这样转发效率没有二三层网络设备高。
 
通过以上的对比,可以看到每种硬件计算技术都有其各自的优先和缺点,应用于不同的计算环境中。在数据中心的技术大染缸里,每种计算技术都在发挥着作用,虽然每种技术都在不断发展与进步,但短时间之内,谁也无法替代谁,四种硬件计算技术仍要长时间在数据中心领域里共存。

关键字:数据中心

原创文章 企业网D1Net

x 数据中心四大硬件计算技术比拼 扫一扫
分享本文到朋友圈
当前位置:数据中心技术专区 → 正文

数据中心四大硬件计算技术比拼

责任编辑:cres 作者:harbor |来源:企业网D1Net  2017-02-16 09:55:36 原创文章 企业网D1Net

虽然数据中心的计算能力不能和超算中心(专门承担各种大规模科学计算和工程计算任务,同时拥有强大的数据处理和存储能力的数据中心)相比,但计算能力也是数据中心水平的一个重要体现。以前和现在也有很多数据中心在进行自我介绍的时候,都强调自己拥有多少台计算服务器,实际上想表露的就是自己的计算能力。当然,可以计算的不仅仅是服务器,其它很多设备也都在进行着各种各样数据的计算和处理。接下来我们就来说一说数据中心里都有哪些硬件计算技术,以便大家对此方面有所了解。
 
CPU
 
大家对CPU都不陌生,所有的设备都需要一个或者多个CPU芯片,由CPU来完成设备需要完成的各种功能,这其中涉及到大量的复杂数据的处理和计算。CPU由控制器和运算器构成。整个CPU工作起来就像一个工厂对产品的加工过程:进入工厂的原料(指令),经过物资分配部门(控制单元)的调度分配,被送往生产线(逻辑运算单元),生产出成品(处理后的数据)后,再存储在仓库(存储器)中,最后等着拿到市场上去卖(交由应用程序使用)。经过这么多年的技术发展,CPU的处理数据速度有了很大提升。除了通用的Intel和AMD的CPU之外,也出现了很多专业技术领域里的CPU,一台设备如果没有了CPU就等于一台死机器,不能开机,一切都不能执行。
 
GPU
 
很多人对GPU不了解。GPU(Graphics Processing Unit)是现代显卡中非常重要的一个部分,其地位与CPU在服务器上的地位一致,主要负责加速图形处理的速度。我们知道图形文件,包括视频文件都比较大,计算量很大,并对数据的实时性要求要高一些,所以GPU更适用于这种计算中。GPU是一个高度并行化的多线程、多核心处理器,它比CPU的计算能力要强多了。现在我们常说的CPU实际上两者都包含,有的指的是CPU有的指的是GPU,并没有对两者进行区别。GPU是以大量线程实现面向吞吐量的数据并行计算,适合处理计算密度高、逻辑分支简单的大规模数据并行负载,而CPU则有复杂的控制逻辑和大容量的缓存减少延迟,擅长复杂逻辑运算。GPU属于强计算弱控制,更多资源用于数据计算,而CPU属于强控制弱计算,更多资源用于缓存。GPU早期主要应用于显卡,以图形处理为主,现在发展成为图形和高性能计算并重,像AMD的FireStream和NVIDIA的Tesla都是通用计算的GPU。
 
FPGA
 
GPU 的核心数量一般是 CPU 的成百上千倍,计算能力要比 CPU 多出几个数量级,也更适合进行并行计算。但是如果计算里面有大量的分支,或者算法的数据前后存在依赖关系,使得算法无法并行运行,则 GPU 的性能优势会被大大减弱。这时出现了一种新的计算方式FPGA(Field Programable Gate Array),其基本原理是在 FPGA 芯片内集成大量的数字电路基本门电路以及存储器,通过烧写FPGA 配置文件来定义这些门电路以及存储器之间的连线。这种烧入不是一次性的,可以反复烧写,所以叫做可编程门阵列。FPGA 既能提供集成电路的性能优势,又具备CPU可重新配置的灵活性。相比GPU,FPGA的可操控粒度更小,具备更高的灵活度和算法适应性。FPGA能够简单地通过使用触发器来实现顺序逻辑,并通过使用查找表来实现组合逻辑。当算法需要并行计算能力时,可以将大部分的逻辑资源都用来做计算,达到更高的计算效率。打破了顺序执行的模式,在每个时钟周期内完成更多的处理任务,超越了数字信号处理器的运算能力。FPGA融合了ASIC和基于处理器系统的最大优势,能够提供硬件定时的速度和稳定性,且无需类似自定制ASIC设计巨额前期费用的大规模投入。
 
ASIC
 
FPGA 虽然成本比设计的专用芯片(ASIC)要便宜,当然性能也没有专用芯片强,在很多的技术场合还是需要采用ASIC芯片来完成计算,比如网络设备。ASIC(Application Specific Integrated Circuits)专用集成电路是指应特定用户要求或特定电子系统的需求而设计制造的集成电路。这类ASIC专业性极强,将所有的计算资源都应用到特定的应用中,所以处理某一类计算时效率特别高。比如网络转发ASIC芯片,其专门处理二三层网络流量转发,其它功能均没有,所以执行效率高。当然,就像是私人定制,既然是专有的东西,那一定是特别贵。是的,ASIC要比CPU、GPU还是FPGA都贵得多,实际上ASIC的内部实现并不如这三种复杂,但是里面涉及了很多专业领域很强的技术,其它三种计算硬件做不来。ASIC在吞吐量、延迟和功耗方面都无可指摘,但ASIC研发成本高、周期长,而且ASIC是一锤子买卖,设计出来要是发现哪里不对基本就没有机会改了,这也使得每款ASIC推出来的时间都要长,再加上不像通用CPU市场竞争那样激烈,ASIC的价格都比较贵,甚至具有一定的市场垄断性。还有ASIC的灵活性也是硬伤,ASIC不能做复杂的有状态处理,比如某种自定义的加密算法,我们也看到像网络交换芯片,基本都是处理二三层的转发,对于四到七层网络协议由于涉及到很多状态机的处理,就不能靠ASIC来完成。所以对于四到七层的网络流量依然要交由通用CPU处理,像很多支持四到七层网络转发的网络设备,实际内部还是靠CPU或者FPGA来实现网络转发功能的,这样转发效率没有二三层网络设备高。
 
通过以上的对比,可以看到每种硬件计算技术都有其各自的优先和缺点,应用于不同的计算环境中。在数据中心的技术大染缸里,每种计算技术都在发挥着作用,虽然每种技术都在不断发展与进步,但短时间之内,谁也无法替代谁,四种硬件计算技术仍要长时间在数据中心领域里共存。

关键字:数据中心

原创文章 企业网D1Net

电子周刊
回到顶部

关于我们联系我们版权声明隐私条款广告服务友情链接投稿中心招贤纳士

企业网版权所有 ©2010-2024 京ICP备09108050号-6 京公网安备 11010502049343号

^