当前位置:存储行业动态 → 正文

IDF15:Xeon D被阉割?SSD性能的“色子效应”

责任编辑:editor006 |来源:企业网D1Net  2015-04-10 15:03:19 本文摘自:doit网络

记得去年在美国举行2014秋季IDF期间,存储圈内一位英文好的首席专家曾表示:在中国办的IDF上讲的内容,基本就是半年前美国讲过的那些,没啥新东西。

我觉得也有些例外的情况,那就是Intel在这半年之中发布了新产品。比如当年第一代Xeon E5——毕竟IDF上讲的都是公开的东西,像PCIe(最早叫过3GIO,还有人记得这个名字吗?)之类的规范、标准可以预热宣传,但具体产品是不能在这个场合上提前泄露的。

所以,在本届IDF之前我查看技术课程目录时,就多长了个心眼——有哪些新鲜东西?我看到了不久前正式发布的Xeon Processor D相关的课程,这款BGA封装的SoC处理器已经不再需要PCH南桥,特别适合存储控制器这样的嵌入式平台设计。然而,当我在今天下班再次刷新IDF网页时,却看不到这一节课程了??

类似消失的情况,好像还有一节ServerSAN相关的。

从去年春季IDF开始,Intel就将主办地从持续了多年的北京搬到深圳,意图也很明显——Intel近几年的战略重点在移动端,无论平板还是手机处理器,这些产品的制造集中于广东。另一方面,企业级市场Intel绝对优势,而且服务器和存储在中国市场的所占全球的比例,显然不如个人消费产品(毕竟十几亿人摆在那里)。

我无意猜测Xeon D等技术课程由于什么原因被取消,只能对此表示遗憾!毕竟它应该是本届IDF数据中心特别是存储领域为数不多的新内容。

吐槽归吐槽,技术的东西还是要写。我就给大家分享下今天看pdf资料的心得,其中也加入了我尘封多年的测试结果,作为一个花絮吧。

数据中心SSD市场分析、Intel要退出?

这张slide列出了2014年第四季度调研报告中的3项数字:服务器内配置的SSD数量——到2018年之前预计增长幅度略有放缓;平均容量上升则比较快——增幅比硬盘快,这里得益于半导体制程的发展和3D NAND闪存等技术;但数据中心级SSD的价格不断走低——2014年已经开始降到每GB 1美元以下,我觉得这个应该针对DC S3500这类出货量最大的SATA型号——也是Intel目前占优的领域,PCIe Flash还没有这么便宜。

尽管在单季度11亿美金的市场中总共占据了40%,但这两天我还是听到Intel可能要退出SSD领域的传言。是三星发起价格战了?还是美光要自己玩?

掷色子理论:队列深度与IOPS不是完全线性

这张的slide提到了“色子理论”。我想了一种比较极端的情况,如果掷2枚硬币(因为只有2个面),那么它们不同面朝上的平均比例正好是50%。当闪存颗粒的数量为6时,并发的6个随机IO操作平均只能命中其中4个,而达不到理想中的完全并发效果。

上面这个图表只是一个理论的假设,NAND并发达到50时,IOPS就会达到单个NAND的50倍吗?

实测情况是,这条“加载曲线”在队列深度(也就是主机访问并发度)256时才达到单个NAND颗粒50倍左右的IOPS,而50队列深度实际产生的并发效果约等于32。

这里开始告诉大家“防忽悠”了,SSD厂商宣传的最高IOPS一般都是用各种极限测试方法压出来的,而更多典型应用发生在1-64队列深度这个区间。

那么以上2种SSD哪个更好呢,如果只看厂商给的spec数字应该是绿色曲线的高,而大部分实际应用中蓝色表现应该更好吧。

如上表,Hadoop、TPC-C、HPC以及ZFS文件系统写日志等产生的队列深度都不算高(10以内最多);只有TPC-H例外,甚至有相当一部分比例达到260以上。

平均延时与最大延时

队列深度增长,带来的一个副作用就是延时的上升。SSD在这方面不是明显优于硬盘吗?这并不代表在所有特定环境下SSD都能100%满足延时需求,反而由于写放大/垃圾回收带来的抖动引入了需要关注的新参数。

这里我列出一个几年前测试机械硬盘的情况,2.5寸的希捷Savvio 15K.2已经超出了人们一般的经验值——15000转硬盘180 IOPS,因为它的纯机械平均访问时间已经低于5ms(平均寻道+旋转等待)。我们可以通过队列深度(而不是短击)来将它的IOPS提高到500以上——尽管没有SSD颗粒并发度的效果好,但代价是延时以接近1倍的幅度不断翻番,实际环境中20ms以上许多应用已经无法接受了。

更多的NCQ优化硬盘寻道的原理在这里不详细讨论,留给大家思考吧,我们还是回过头来看SSD。

前面只列出了平均延时,而最大延时在许多情况下也会影响用户体验。闪存在这方面的一致性就没有硬盘好了,还记得Oracle的redo log吗?

举个例子,某SSD的IOPS稳定性很好,队列深度64时稳定在20万,但响应时间无法控制到这个水平——如右图,90%以上在1ms以内,大约99.99999%在10ms以内,但还是有极少的比例超过了10ms。

当队列深度增加到128,只有大约99.999%的I/O延时在10ms以内,这一点比64队列深度差了2个数量级。

现在回到前面那2款对比的SSD,我理解是在A表现更出色的区域,由于绿色曲线(SSD A)达到同样IOPS需要更高的队列深度,所以延时就相应更高;反之亦然。

读写混合效应:实测低于理论

真实应用下往往不是100%读或者写,而是混合访问。我们看到这款SSD在队列深度较低时写IOPS比读高,应该是写缓存的作用,一定程度上触发了NAND颗粒的并行操作。

以这个简单的公式计算混合IOPS可以吗?当然不行,因为70%的读操作要“等待”那30%的写操作按比例地完成。

这个公式应该是对的,然而实际情况就是这样吗?

答案是No,实测结果低于前面的2条曲线,大概是SSD的闪存读写操作之间有一些干扰吧。 

关键字:SSDXeonPCIE

本文摘自:doit网络

x IDF15:Xeon D被阉割?SSD性能的“色子效应” 扫一扫
分享本文到朋友圈
当前位置:存储行业动态 → 正文

IDF15:Xeon D被阉割?SSD性能的“色子效应”

责任编辑:editor006 |来源:企业网D1Net  2015-04-10 15:03:19 本文摘自:doit网络

记得去年在美国举行2014秋季IDF期间,存储圈内一位英文好的首席专家曾表示:在中国办的IDF上讲的内容,基本就是半年前美国讲过的那些,没啥新东西。

我觉得也有些例外的情况,那就是Intel在这半年之中发布了新产品。比如当年第一代Xeon E5——毕竟IDF上讲的都是公开的东西,像PCIe(最早叫过3GIO,还有人记得这个名字吗?)之类的规范、标准可以预热宣传,但具体产品是不能在这个场合上提前泄露的。

所以,在本届IDF之前我查看技术课程目录时,就多长了个心眼——有哪些新鲜东西?我看到了不久前正式发布的Xeon Processor D相关的课程,这款BGA封装的SoC处理器已经不再需要PCH南桥,特别适合存储控制器这样的嵌入式平台设计。然而,当我在今天下班再次刷新IDF网页时,却看不到这一节课程了??

类似消失的情况,好像还有一节ServerSAN相关的。

从去年春季IDF开始,Intel就将主办地从持续了多年的北京搬到深圳,意图也很明显——Intel近几年的战略重点在移动端,无论平板还是手机处理器,这些产品的制造集中于广东。另一方面,企业级市场Intel绝对优势,而且服务器和存储在中国市场的所占全球的比例,显然不如个人消费产品(毕竟十几亿人摆在那里)。

我无意猜测Xeon D等技术课程由于什么原因被取消,只能对此表示遗憾!毕竟它应该是本届IDF数据中心特别是存储领域为数不多的新内容。

吐槽归吐槽,技术的东西还是要写。我就给大家分享下今天看pdf资料的心得,其中也加入了我尘封多年的测试结果,作为一个花絮吧。

数据中心SSD市场分析、Intel要退出?

这张slide列出了2014年第四季度调研报告中的3项数字:服务器内配置的SSD数量——到2018年之前预计增长幅度略有放缓;平均容量上升则比较快——增幅比硬盘快,这里得益于半导体制程的发展和3D NAND闪存等技术;但数据中心级SSD的价格不断走低——2014年已经开始降到每GB 1美元以下,我觉得这个应该针对DC S3500这类出货量最大的SATA型号——也是Intel目前占优的领域,PCIe Flash还没有这么便宜。

尽管在单季度11亿美金的市场中总共占据了40%,但这两天我还是听到Intel可能要退出SSD领域的传言。是三星发起价格战了?还是美光要自己玩?

掷色子理论:队列深度与IOPS不是完全线性

这张的slide提到了“色子理论”。我想了一种比较极端的情况,如果掷2枚硬币(因为只有2个面),那么它们不同面朝上的平均比例正好是50%。当闪存颗粒的数量为6时,并发的6个随机IO操作平均只能命中其中4个,而达不到理想中的完全并发效果。

上面这个图表只是一个理论的假设,NAND并发达到50时,IOPS就会达到单个NAND的50倍吗?

实测情况是,这条“加载曲线”在队列深度(也就是主机访问并发度)256时才达到单个NAND颗粒50倍左右的IOPS,而50队列深度实际产生的并发效果约等于32。

这里开始告诉大家“防忽悠”了,SSD厂商宣传的最高IOPS一般都是用各种极限测试方法压出来的,而更多典型应用发生在1-64队列深度这个区间。

那么以上2种SSD哪个更好呢,如果只看厂商给的spec数字应该是绿色曲线的高,而大部分实际应用中蓝色表现应该更好吧。

如上表,Hadoop、TPC-C、HPC以及ZFS文件系统写日志等产生的队列深度都不算高(10以内最多);只有TPC-H例外,甚至有相当一部分比例达到260以上。

平均延时与最大延时

队列深度增长,带来的一个副作用就是延时的上升。SSD在这方面不是明显优于硬盘吗?这并不代表在所有特定环境下SSD都能100%满足延时需求,反而由于写放大/垃圾回收带来的抖动引入了需要关注的新参数。

这里我列出一个几年前测试机械硬盘的情况,2.5寸的希捷Savvio 15K.2已经超出了人们一般的经验值——15000转硬盘180 IOPS,因为它的纯机械平均访问时间已经低于5ms(平均寻道+旋转等待)。我们可以通过队列深度(而不是短击)来将它的IOPS提高到500以上——尽管没有SSD颗粒并发度的效果好,但代价是延时以接近1倍的幅度不断翻番,实际环境中20ms以上许多应用已经无法接受了。

更多的NCQ优化硬盘寻道的原理在这里不详细讨论,留给大家思考吧,我们还是回过头来看SSD。

前面只列出了平均延时,而最大延时在许多情况下也会影响用户体验。闪存在这方面的一致性就没有硬盘好了,还记得Oracle的redo log吗?

举个例子,某SSD的IOPS稳定性很好,队列深度64时稳定在20万,但响应时间无法控制到这个水平——如右图,90%以上在1ms以内,大约99.99999%在10ms以内,但还是有极少的比例超过了10ms。

当队列深度增加到128,只有大约99.999%的I/O延时在10ms以内,这一点比64队列深度差了2个数量级。

现在回到前面那2款对比的SSD,我理解是在A表现更出色的区域,由于绿色曲线(SSD A)达到同样IOPS需要更高的队列深度,所以延时就相应更高;反之亦然。

读写混合效应:实测低于理论

真实应用下往往不是100%读或者写,而是混合访问。我们看到这款SSD在队列深度较低时写IOPS比读高,应该是写缓存的作用,一定程度上触发了NAND颗粒的并行操作。

以这个简单的公式计算混合IOPS可以吗?当然不行,因为70%的读操作要“等待”那30%的写操作按比例地完成。

这个公式应该是对的,然而实际情况就是这样吗?

答案是No,实测结果低于前面的2条曲线,大概是SSD的闪存读写操作之间有一些干扰吧。 

关键字:SSDXeonPCIE

本文摘自:doit网络

电子周刊
回到顶部

关于我们联系我们版权声明隐私条款广告服务友情链接投稿中心招贤纳士

企业网版权所有 ©2010-2024 京ICP备09108050号-6 京公网安备 11010502049343号

^