开放服务器架构 Fackbook“误伤”品牌服务器厂商

  云计算的普及与大数据的兴起,给数据中心和服务器市场带来强劲的需求。然而,品牌服务器厂商却未必能兴奋起来。市场调查公司Gartner 最新调查结果显示,全球服务器市场品牌离散化的趋势日趋显著,而Facebook主导的开放计算项目(Open Compute Project,OCP),或许会强化这一现象。

  硬件开源:缘起被逼无奈

  为了适应业务的高速发展,互联网企业对超强扩展性的集群架构(Cluster)情有独钟:无论是性能扩展还是故障维护,只需在线添加或更换服务器便可实现。

  谷歌出道时就选择了自己设计服务器和存储系统,然后代工生产的方式。直到2009年,阿米尔·迈克尔进入Facebook时,Facebook还是专注社交业务,服务器由惠普和戴尔提供。

  很快,迈克尔就难以忍受标准服务器冗余部件对体积和功耗的消耗,当时Facebook已有3万多台服务器,所有服务器体积和功耗的浪费累计起来就是一个相当可观的数字了。

  Facebook选择了按着业务需求优化服务器,而不是简单地增加服务器的数量。揣着这一理念的迈克尔在服务器厂商那里碰了一鼻子灰,以标准化进行规模生产的服务器厂商不大可能为用户定制服务器产品。

  迫不得已,迈克尔及其硬件团队从2010年1月开始,按照Facebook的业务需要自行设计服务器。

  他们所做的不是仅仅去掉标准服务器上冗余的部件,而是重新定义了服务器。通过改变主板尺寸和板上元器件布局,缩小了尺寸并改进了通风散热;通过将交流电直接引入机架,使得从市电到主板只经过一次交流到直流的变换,从而大大降低了电能损耗;通过重新进行机箱和主板的机械设计,徒手就能快速完成服务器的更换和维护等。

  迈克尔找到同在硅谷由华人黄德慈创办的商务流程服务公司SYNNEX。透过SYNNEX,迈克尔最终与主板厂商广达、电源厂商台达等达成合作。“我们选择的伙伴非常开放,沟通很顺利,并给我们分享了很多经验,帮助我们更好地优化。”迈克尔说。

  2010年12月,新的服务器一次上线成功。2011年4月,从这次开放合作设计服务器中受益匪浅的Facebook发起了开放计算项目。

  开源项目不仅让更多的企业能够开放和分享服务器的设计,而且将硬件领域由服务器扩展到存储、网络和数据中心。

  众人拾柴火焰高。从本质上看,开放计算项目与Facebook的主业社交网络两者的理念是相同的。

  在对待硬件开源上,亚马逊和谷歌因视其为核心竞争力而深藏不露,而迈克尔则认为硬件开放并不会对Facebook的商业模式带来影响。

  Facebook:北极圈边做示范

  由于国际互联网企业基本上运营在x86架构上,对于x86处理器供应商来说,卖谁都是卖,所以AMD和英特尔, -0.29%)顺理成章地成为开放计算项目成员。

  而ARM的加入则更令人兴奋,一是由于ARM开放内核的商业模式更利于开放硬件项目成员从处理器到服务器进行全面的优化,二是ARM低功耗的特点,三是ARM已经发布了64位处理器内核,从而满足企业级计算的需求。

  开放计算项目也受到中国三大互联网企业百度、腾讯和阿里巴巴的青睐。在2011年,英特尔就联合这三家开展了天蝎计划。到了去年12月,中国电信也加入这一计划。

  在开放计算项目设立半年后,Facebook宣布将在瑞典据北极圈不足100公里的吕勒奥镇建设其海外第一个数据中心。2013年6月该数据中心开始运营。

  Facebook用这个新的数据中心现身说法,证明开放计算项目的优势。新数据中心完全采用Facebook设计的服务器、机柜和供电系统。数据中心所需的120兆瓦电能100%使用再生能源——水力发电,由于当地水电供给稳定可靠,Facebook较常规减少了70%的备份发电机组。并且利用毗邻北极圈的极地寒冷气候来与数据中心进行热交换。

  新数据中心的PUE仅为1.04。PUE(电源使用效率)是评价数据中心能效的重要指标,它是数据中心消耗的所有能源与IT负载使用的能源之比。PUE=1意味着除了IT负载外包括空调等所有其他能耗均为0的理想情况,因此,越接近1,说明数据中心绿色化程度越高。

  品牌服务器:误伤还是自残

  PC从当初的遍地诸侯,到现在前五大厂商占据了78.5%(Gartner 2013年第二季度报告),PC在走向成熟的过程中,也完成了品牌集中化。

  然而,与PC市场相悖,服务器市场却出现了品牌发散化。Gartner调查结果显示,全球前5大服务器厂商之外的供应商发货量所占份额从2009年第二季度的25.1%上升到38.4%,营收所占份额则翻番,从11.2%上升到22.5%。

  英特尔数据中心集团负责人黛安·布赖恩特(Diane Bryant)曾透露,2008年,惠普、戴尔和IBM等3家企业贡献了英特尔服务器业务3/4的收入,而到了2012年,英特尔服务器业务3/4的收入则需要8家服务器厂商来实现。

  究其原因,很大程度上是因为虚拟化和云计算对品牌服务器市场的冲击。

  在没有虚拟化之前,PC服务器通常只跑一种应用,如打印服务器、邮件服务器等,服务器的利用率大致只有20%左右。虚拟化后,服务器的利用率提升到80%,这意味着,原来4台服务器做的事,现在1台服务器就能完成。这意味着服务器购买需求的下降。

  通常,人们为了让系统可靠,就要千方百计确保系统内所有设备的可靠,这时,代表着高可靠性和高可用性的品牌服务器就变得炙手可热了。而在互联网数据中心,数以万计的服务器工作全部正常是不正常的,整个系统始终存在故障点则是常态。作为互联网企业主流架构的Hadoop,其设计初衷采用逆向思维。Hadoop的设计理念就是在存有故障节点的系统中依旧正常运行。处理故障的方式也很简单,只要撤下故障服务器,换上新的就行了。在这个过程中品牌已经彻底被弱化。

  而开放计算项目的出现,无异于在Hadoop对品牌服务器市场下了一场冬雪后再加了一回霜,开放计算项目在服务器硬件上的优化,让用户从成本、功耗、体积甚至可靠性上获益。Facebook瑞典数据中心的服务器机箱既不喷漆也没有品牌标志。

  当下,云计算迅速普及的过程,也是后台服务器向数据中心大集中的过程。品牌服务器厂商心中的痛也许刚刚开始。

  很难说是Facebook开放计算项目“误伤”了品牌服务器厂商,如果当初品牌服务器厂商能够放下身段为Facebook定制服务器,也不至于把Facebook“逼”到亲自“操刀”设计服务器。倘若如此,开放计算项目至少不会如此之快地诞生。因此,品牌服务器厂商今天的市场之痛,很大程度上来自“自残”。

  本报记者 马文方

关注读览天下微信, 100万篇深度好文, 等你来看……