当前位置:数据中心行业动态 → 正文

人工智能&大数据:加速GPU在数据中心领域的应用

责任编辑:editor005 作者:Paul Korzeniowski |来源:企业网D1Net  2017-12-14 14:07:12 本文摘自:TechTarget中国

随着数据需求工作负载渗透到数据中心并覆盖传统的CPU性能,GPU各供应商已经为数据中心补充了全新的设备和显示卡。 最近大数据、人工智能以及机器学习的潮流正在企业服务器之间形成连锁反应。因为传统的微处理器难以有效地处理这些来自要求苛刻的工作负载的信息,因此数据中心图形处理器转移至该领域填补相关的资源空白。

自70年代以来,图形处理单元最初被用于从中央处理器处理视频和图形处理任务。与典型的CPU相比,这些系统具有不同的底层设计,GPU是为在单一数据流上最大化高速流水线上吞吐量而构建的。

CPU也被设计为支持快速切换,并将信息从一个地方快速移动到另一个地方,如从主存储到某一存储系统。然而GPU具有不同的结构:它们可以并行处理并支持多个高速连接。这些微处理器有多组数据路径进行大量的数据处理,这与图形应用程序的需求非常吻合。

扩展数据中心GPU应用范围

GPU在完成少量任务方面做得很好,但随着任务要求逐渐扩大,相关相应也逐渐完成扩展。Nvidia倾向于把GPU与其他半导体供应商区分开来,并为GPU寻找更广泛的用途。

首先,这些产品开始进入高性能计算领域。然而最近,GPU供应商专门为数据中心服务器设计了设备和显示卡产品。专为服务器优化的GPU使用高带宽内存,并作为模块集成到专用服务器设计中,或作为外围组件互连快速(Peripheral Component Interconnect Express)附加卡的方式提供。但是,与游戏显卡不同,这些显示卡并未提供图形化界面。

服务器各供应商将GPU与CPU连接起来,以充分利用CPU的优势。当CPU性能无法满足处理数据密集型任务时,会提高CPU(与GPU的集成)性能(满足任务需要)。

大数据、机器学习和人工智能应用程序具有很高的处理要求,需要处理大量的信息和不同的数据类型。这些特点与GPU的设计初衷非常吻合。

AI和机器学习各供应商均使用GPU来支持处理训练神经网络所需的大量数据。Gartner公司的分析师Alan Priestley表示,在这一领域的市场之中,相比于将程序部署到具有GPU的高性能服务器之上,拥有GPU的PC设备可用性可帮助软件开发人员能够在台式电脑上开发他们的算法。

GPU在数据中心领域的应用

数据中心GPU的应用将来可能会不断深入。GPU是任务关键型工作负载的重要基础设施特性。Priestley说,IT组织可推行采购商品化的GPU,并且借助标准库的使用,他们可以很容易地将其纳入应用程序。

因此,服务器各供应商提供集成GPU模块的专用服务器或支持GPU附加卡的产品。据Gartner公司的调查,面向服务器优化的GPU显卡和使用性能最高的处理器的模块通常的成本在1,000美元到5,000美元之间。

已有相关产品的供应商开始将这些附加产品纳入其产品线。

戴尔同时支持AMD公司的FirePro系列GPU以及Nvidia公司的GPU,专为虚拟台式基础设施和计算应用而设计,并具有支持高达1792个GPU核心的处理能力。Hewlett Packard Enterprise(HPE)ProLiant系统可与Nvidia Tesla,Nvidia GRID和Nvidia Quadro GPU协同工作。HPE Insight集群管理实用程序(HPE Insight Cluster Management Utility)将安装并配置GPU驱动程序,可提供如温度等GPU运行状况的监控。

为了准备数据中心GPU深入使用,管理员需要掌握如何管理这些处理器的专业知识。他们应该找到熟悉这项技术的有关人员,当然这绝非易事,因为技术不同于传统的微处理器设计,而且尽管Nvidia提供了一些培训材料,相关的课程仍然比较少。

关键字:GPU 数据中心

本文摘自:TechTarget中国

人工智能&大数据:加速GPU在数据中心领域的应用 扫一扫
分享本文到朋友圈

关于我们联系我们版权声明友情链接广告服务会员服务投稿中心招贤纳士

企业网版权所有©2010-2018 京ICP备09108050号-6

^