云计算来了 QoS变了

  • 来源:计算机世界
  • 关键字:QoS,云计算
  • 发布时间:2013-02-20 14:44

  企业内部长期的网络拥塞已迫使许多企业部署起流量整形和服务质量(QoS)设备。这些设备一般会被部署在广域网路由器的前面,以控制出站流量。而在如今的复杂环境下,许多企业在重新考虑如何管理通过网络不断进入的大量数据,拥塞控制方面的重心也正在从出站管理转向管理从许多数据来源进入的流量。

  入站控制有何优势?

  虽然出站服务质量机制在过去足以控制企业网络流量,但两个重大趋势促使企业需要转向入站服务质量机制。

  任意网络和应用 网状网络拓扑结构的采用使得企业的应用流量能够直接从一个分支机构传送到另一个分支机构。在这些路径上传送的应用类型通常包括IP语音(VoIP)、桌面视频会议以及微软Lync等统一通信工具。当一个分支机构的用户呼叫另一个分支机构的用户时,VoIP呼叫以点对点的形式路由传送,而不需要流量回程传送到企业数据中心。因而,这种流量与来自其他站点的应用数据以及来自数据中心的应用数据争夺带宽资源。这种情况下,任何一个特定位置的出站流量基本上不会因此产生什么变化,而可以有效控制所有入站流量来源的唯一地方就是接收位置本身。

  软件即服务(SaaS):许多企业已采用了SaaS应用程序和公共云服务,而且采用成本较低的互联网直接连接,以便分支机构访问SaaS资源。通过互联网访问应用程序的流量正在与其他企业办公流量争夺带宽,这在以前是从未有过的。新的应用模式代表着,新的SaaS服务和原有的企业应用都要争夺自身所需的资源。通过专用广域网(private WAN)从企业数据中心进入的入站数据更是加剧了这个问题。

  为了确保关键的应用程序运行起来稳定可靠,又有很高的性能,企业必须要将不大重要的流量控制起来,并且在网络上腾出带宽,以便重要数据可以顺利传送。依靠第三方服务商处部署的设备来保证出站服务质量并不是太好的选择,因而流量进入企业网络的节点成为唯一可以有效控制带宽使用的部分。

  如何控制入站流量?

  乍一看,无论是部署在出站方向还是入站方向,服务质量机制的运作原理应该都一样。不过,借助入站服务质量机制控制应用流量时,同出站服务质量相比有两个微妙而重要的区别:

  入站服务质量机制要发挥功效,入站流量控制解决方案必须部署在对流量进行队列的那个点——实际上这就是瓶颈处。被上游路由器进行速率限制后进入到站点现场的流量让部署在接收位置的服务质量解决方案毫无效果。上游瓶颈通常是无人管理的先进先出(FIFO)队列,而并不考虑接收流量企业的明确业务需求;尤其是对于像VoIP这种对延迟敏感的应用来说,会对性能带来负面影响。

  入站服务质量解决方案想成为进入站点的流量的权威控制点,它必须采用独特的技术和方法,确保自己能够完全扮演流量整形器的角色。几种关键的机制有助于确保入站应用程序得到了正确控制,并获得了符合企业需求的带宽和优先级。

  TCP控制:消除TCP微突发流(TCP microburst)。借助自身的TCP拥塞控制措施,数据流始于缓慢启动模式,然后逐渐增加传送速率,直至达到整个窗口大小,即检测到链路拥塞情况。检测到拥塞情况后,TCP发送端切换至拥塞避免模式,从而降低数据发送速率。这种情形是平常的TCP行为,但会导致流量队列在上游服务提供方处不断聚集,使得下游服务质量解决方案无法有效地控制流量。为了确保流量队列在入站服务质量执行解决方案处而不是上游路由器处堆积,入站服务质量机制按精心选择的时间在队列调度方面作细小调整,那样缓慢启动的TCP数据流将会始终保持低于瓶颈速率。

  2、流量填充(Flow padding):为新的数据流腾出带宽空间。流量填充是一种短期的带宽预留措施,针对每路数据流执行,充分利用了标准TCP拥塞控制的行为,旨在有助于流量整形。出现新的数据流量时,入站服务质量引擎及时地腾出带宽,为已识别的流量腾出空间,以便通过网络顺利传送,不会引起上游瓶颈处出现拥塞。其他进入的TCP流量将根据分配给整形流量的带宽,按比例降低传送速率——这是标准的TCP行为。流量填充每次以非常短的持续时间来执行,大概数十到数百毫秒,但这个时间又长得足以执行已配置的策略,同时牢牢控制瓶颈,并保证数据流迅速汇集,形成合适的传送速率。

  链路填充(Link padding):这一机制发挥了限流的作用。链路填充预留了固定数量的一小部分可用带宽(少至2.5%),旨在确保入服务质量解决方案能够为实行调度留出空间。比如说,如果入站服务质量针对10Mbps的广域网连接进行了配置,从链路移除250Kbps就带来了流量整形机会,因为它看到流量以不超过线路速率的速度进入。

  入站控制需要认真协调各应用数据流之间优先级和行为,以防止他们互相挤占资源。采用入站控制技术的解决方案能够确保每个应用都在网络上获得了合适的服务级别。

  这种功能,结合智能流量识别和调度(不仅考虑到了带宽分配,还考虑到了某个应用对延迟的敏感程度),让企业应用可以在企业广域网上和公共互联网上传送时都能够有稳定可靠的表现。

  名词解释

  什么是QoS?

  在分组交换网络和计算机网络领域中,服务质量(英语:Quality of Service,QoS)指的是,网络满足给定业务合同的概率,或在许多情况下,非正式地用来指分组在网络中两点间通过的概率。其是一种流量工程术语。QoS是一种控制机制,它提供了针对不同用户或者不同数据流采用相应不同的优先级,或者是根据应用程序的要求,保证数据流的性能达到一定的水准。QoS的保证对于容量有限的网络来说是十分重要的,特别是对于流多媒体应用,例如VoIP和IPTV等,因为这些应用常常需要固定的传输率,对延时也比较敏感。

  一般情况下,服务质量是基于流量约定(SLA, Service Level Agreement服务等级协议)来实现的。流量约定给数据流设定了优先级,以此在网络/协议层面上,根据相互商定的尺度,设定有保障的性能、通过量、延迟等界限。一些特定形式的网络数据流需要定义服务质量,例如,多媒体流要求有保障的通过量;IP电话需要严格的抖动和延迟限制;安全关键系统的应用系统,例如远程外科手术要求有可靠保证的可用性(也称作硬性QoS)。

  这些类型的服务被称为非弹性,意思是它们需要固定的带宽才能运作。换言之,如果得到多余的带宽,他们也无法使用;如果得到较少的带宽,则根本无法工作。相形之下,弹性应用可以从多余的带宽中受益。

  沈建苗编译

……
关注读览天下微信, 100万篇深度好文, 等你来看……
阅读完整内容请先登录:
帐户:
密码: