工控网首页
>

新闻中心

>

人物专访

>

王雪松:大数据时代,我们需要什么样的服务器?

王雪松:大数据时代,我们需要什么样的服务器?

2016/9/27 14:56:24

主持人:谢谢许总,我本身是跟踪互联网产业的记者,但是经常有跟踪这些技术领域的记者老说我,说你跟的那些东西都太肤浅、太浮夸,我这个高大上。后来我觉得不服,所以今天我来了,来是学习了,但我觉得今天的会议的内容非常的棒,无论是早上的主题演讲还是下午分论坛大家的演讲。所有的东西真的可以看出来是演讲嘉宾精心准备,是跟行业整个趋势相结合。所以我希望在座的来听的听众们都给予演讲者一个很好的回馈,你们的一个眼神是对我们最大的支持。

    我们接下来有请中太数据通信有限公司董事长王雪松先生,他演讲的题目是大数据时代,我们需要什么样的服务器?

    
    王雪松:其实我这个题目改了一下,我们叫大数据时代的存储型服务器设计。主要是觉得原来那块说的太大,改小一点。
    刚才有嘉宾谈到大数据,什么是大数据,嘉宾谈到说需要大容量的存储,需要快速的访问能力,我们其实今天讲的就是这件事情。
    这个图其实用了很多,我不多说了,大数据时代就是数据变得特别多。十年前我们其实谈的很多东西,我们谈到我们用什么样的机器,什么CPU机器,多少CPU机器,当时我们谈到存储的时候,感觉存储就是一个双机共享一个存储很好的。随着数据量越来越大,存储变得越来越重要。我们过去谈到集成下面的时候说到机器很重要。现在的时代随着数据量越来越大的时候,存储越来越成为项目的中心。
    现在有一个问题,我们在传统的机构下集中式存储,我们真的能不断扩张吗,我们都知道数据越来越大,几十T,几百T,上千T,集中式存储真的可以吗,这是很严重的问题。我们谈的公安案例来说,他是什么状况?他现在开始把一些监控的视频引入了我们一些分析的数据系统,对所有人脸都会有一些比对。我们想象一下现在所有都要联网,纳入一个数据库里面,全国这么多省份、地市,他组成一个大的数据架构下面,用什么样的才可以做呢。真的可以做到吗?我们谈的数据不是说我增长几倍的数据,我们现在谈论是我到底增长几个数量级的数据,两个数量级,三个数量级,甚至更多。
    这种情况下我们提出一个疑问,集中式的存储真的可以支持大数据时代吗?我们都知道像有一些很多像以数据库为中心的数据确确实实这方面提的很好,但是大量非结构化的数据已经非常困难了。现在以X86为基础的系统已经以集中式的系统,我们需要什么样的性能的认定。我们提出我们的一个想法,大数据时代主流系统对存储型服务器,这里不谈所谓计算型服务器,我们只谈存储型服务器。我们认为他有三个主要的要求,第一个要求是大量直连存储的接入需求。可能太多的数据没办法存下去,唯一的方式就是把数据存储起来,如果仍然采用像FC这样的网络把存储放再一个集中的地方,这显然不现实。唯一就是把每一个存储服务器上连接。第二就是在服务器间有高互联带宽的需求。第三是高性能的压缩、Hash、加密能力。后面我们会以Hadoop、Ceph、Openstack。
    这个是Hodoop一些图,在图上我们可以看到Hadoop结构下有两个主要的组成部分,一个是Namenode。由于他的数据节点本身是分离的,因此天然需要直联存储跟这个连接。根据他自己相关的应用,我们都知道Hadoop会把每一份数据至少存三份正常情况下,也谈到了读写分离。在这种情况下,在数个节点之间要有高速复制的能力,这个是通过网络。我们看到了直联存储的需求,高性能的复制的需求。是另外一个图,我们都知道Hodoop可以通过压缩来解决我们对磁盘的压力。压缩的时候对CPU有影响,我们画个天平,在天平上不断秤来秤去,我用压缩搞定我的网络,还是说要解决我CPU的性能。
    这是Ceph,这是分布式能源系统,跟Hodoop很像,只不过他把数据节点改成OSD。他也有大量的数据需求,主要的OSD向第三个OSD复制需求。他也有直连存储的需求,他现在压缩和去除能力并不是现在标准的能力。OpenStack,一样的,直连存储的需求。这个Swift,直连存储需求。我们认为大数据时代基本都是用这么几个需求,一个是直连存储需求,第二是网络间高度复制需求,第三是需要压缩的需求。压缩是用来节省IO的。
    刚刚我们已经谈了一下在这个时代里我们谈到对存储型服务器提出有重要的需求,到底这个需求有多高?我们认为因为现在整个系统里面我们大家都知道有一个理论,系统你做的太快,太慢都没有用。因为系统的整体速度是由他最差的那个组件来完成的。我们可以看一个结构,这是英特尔一个测试,他在利用他多核心库的品牌支持下,在一路八核的可以形成80Mpps的转发。我们一般使用数据是两路,他这个是一路的数据,正常我们认为40G是他标准的一个能力。
    在现在的CPU性能突飞猛进的时代,我们认为对存储的单台服务器提出一个能力需求,至少有20G,最好40G对直连存储访问的能力。至少20G,最好40G的压缩、Hash、加密能力。这里有一个大的问题,CPU完成这个部分,实际上两路系统足够了。最好是有40G服务器之间的互相的网络通讯能力,主要是用来做复制用的。我们认为复制的情况下,我们需要很高的系统,对外时候我们需要不需要很高的系统不好说。大数据时代一台单独的存储服务器达到的要求,用什么样的硬件可以达到这样的能力。
    这是我们谈到的硬件,CPU不是很高的,两个8核或者是10核。第二个是关键,2个Socket,或者是2个英特尔82599。第三是英特尔的一个Coleto的芯片。这个我认为对外提供40G或者是万兆的接口。也就是说这是我们推荐的认为可以满足服务器的配置。
    在这里有几个关键点,第一个问题我们需要支持DPDK,现在X86架构下并没有规定只有DPDK达到最好的速度,但是DPDK是最优秀的,他已经开源。我们使用英特尔的CPU就是DPDK,但是DPDK有环境设备和网络的抽象层。我们现在选用网卡全部都是支持英特尔DPDK的网卡,可以提高自己的能力。我们有很多刀片服务器,他背后的网卡采用方式未必是可以在DPDK工作的。第二我们提供40G的刀片间互联,可以提供10G的对外服务能力。这个是我们介绍一下芯片,这个芯片最早开始是用在路由器、防火墙这些网络设备上的。后来存储设备公司觉得这个挺好,他们也用了。
    看一下他的结构,这个芯片结构很简单。他的结构里面有一个加密的协处理器,里面有一个压缩的协处理器。关键问题在这,他们在这个芯片下可以提供20G的能力。他对于我们减轻负载非常有帮助。这是最高级的,它的压缩是24G,解压缩能够是28G。这样对我们在大型存储服务器里面启动压缩毫无压力。在这个芯片上提供了两个部分,一个是软件包解决大家访问这个芯片的一些接口问题。他一共两种,一种是内核级接口,一种是用户接口。桥片对压缩模式的支持,文件格式有ASCII、HTML等等。
    我公司设备可以在每刀片提供2个或4个MINISAS接口用于连接SAS  Switch。目前建议最高性能配置为每刀片4个miniSAS接口,每交换机连接2个刀片,另提供4个4U45盘位置之的硬盘箱连接,这样每刀片可以访问90个直连硬盘,访问直连存储的带宽为96G。
    中端的配置建议为每刀片配置2个minisas用于连接SAS  Switch每交换机配置6台刀片,两台4U90盘位硬盘箱,这样每刀片连接30个硬盘,提供峰值48G,平均16G的访问存储能力。
    为什么会采用刀片式服务器,我们不采用刀片式服务器,我们采用机架式服务器的话,如果我采用10G作为互联接口。我们都知道40G光模块可能也需要几千美金,如果采用传统的机架式服务器,配这么高的互联带宽是很困难的。采用刀片服务器,他的成本在主板上。第二是计算和存储分离,使得直连存储走出机箱,确保系统横向扩展能力。第三利用英特尔的加密的条件,还有就是DPDK的Ready  NIC。因为存储系统很多数据的需求在网络,他必须通过外部网络才可以。我们很难想象说现在硬盘都是连在一起,换句话说这里头我们不需要说硬盘支持EPK。
    下面是我们一个建议配置,我们到底有多快,到底配多少服务器,这是比较小的配置,第一个机架配置一台刀片服务器,12个刀片。两台SAS  Switch,4个4U90盘位硬盘箱,两个支持40G的交换板。
    第二个机架配置一台刀片服务器,配置6个刀片,1台SAS  Switch,两个4U90潘玮硬盘箱,两个支持40G的交换板。每刀片配置2路10核心CPU,总共提供40个线程,主办配置ColetoCreek,内存128G。其中由于每刀片连接30个硬盘,使用30个线程为30个OSD  Daemon服务,每个硬盘使用4G内存进行缓存。两台机架间的服务器通过2×40G+8×10G以太网捆绑链路以互联,用于节点间内部复制,总共160G带宽。第一台机架上的服务分为两组,每组6个刀片,连接180个硬盘。
    这样的配置下,按3倍复制能力,对外可以提供720T存储。我们对存储的访问总带宽为288G,对每一份数据写入的总带宽为96G。总共提供320G对外带宽提供读写服务。节点复制总带宽达到480G+160G。在这种切断下我们都知道这么一个系统他能提供什么样的服务,写入的速度是96G,度曲的速度相当于36G,总共720T的存储容量。如果采用压缩对性能毫无影响。这么一个小型系统,总共只有18台刀片,就可以提供3倍的复制以及非常高的读写速度。
    总结一下,基本上我们说用刀片服务器提供更高的40G以太网内置网络连接,大量的miniSAS接口提供对直连存储的高性能连接,英特尔加密压缩桥片提供无组塞的压缩和支持,最后全套的DPDK提供支持。
    我提出一个新的观点,跟各位交流的时候,我们认为在新的大数据的存储时代,机房在数据节点之间的复制要求上40G已经成为主流需求。这是我们的观点,大家有没有对这个发表看法?
    
    嘉宾:英特尔的CPU速度主流就是40G的带宽。
    
    主持人:待会我会再提这个问题,我们思考一下。

投诉建议

提交

查看更多评论
其他资讯

查看更多

未来十年, 化工企业应如何提高资源效率及减少运营中的碳足迹?

2023年制造业“开门红”,抢滩大湾区市场锁定DMP工博会

2023钢铁展洽会4月全新起航 将在日照触发更多商机

物联之星五大榜单揭榜!中国物联网Top100企业名单都有谁-IOTE 物联网展

新讯与肇庆移动圆满举办“党建和创”共建活动暨战略合作签约仪式