摘 要 本文讨论了基于动态波长路由技术的光突发交换网络(DWR-OBS)中业务服务质量的关键技术,从传输时延和数据包的丢失率两个方面对DWR-OBS网的QoS进行分析,给出了数据传输时延和边缘节点的缓存容量之间定量的数学关系,详细分析了一种新的动态首选波长集(D-PWS)资源预留算法,给出了基于D-PWS预留算法的完全候选路径集(E-CPS)业务信道分配方案,用以控制DWR-OBS网络中各优先级业务的丢失率。使用OPNET Modeler对DWR-OBS 网络进行仿真,并且讨论仿真结果。
关键词 动态波长路由 光突发交换 服务质量 时延 丢失率
1 引言
光突发交换(OBS)技术作为下一代全光网络的主要的候选解决方案,在最近几年得到了越来越多的关注,OBS技术在资源预留策略、突发数据包的汇聚、网络服务质量和阻塞处理策略等方面都有了很大的发展。OBS技术对网络服务质量和业务阻塞处理是现阶段的研究重点和难点,已有的解决方法是基于额外偏移时间业务服务质量支持策略,该策略对高优先级业务的阻塞率有很好的保证,但对于业务时延以及网络资源的利用率相对较差。本文将重点讨论一种双向的资源预留方式,即基于动态波长路由的光突发交换技术(DWR-OBS)。
2 服务质量(QoS)的关键指标
QoS的关键指标主要包括:可用性、吞吐量、时延、时延变化(包括抖动和漂移)和丢失。
可用性是当用户需要时网络即能工作的时间百分比。可用性主要是设备可靠性和网络存活性相结合的结果。对它起作用的还有一些其他因素,包括软件稳定性以及网络演进或升级时不中断服务的能力。
吞吐量是在一定时间段内对网上流量(或带宽)的度量。对IP网而言可以从帧中继网借用一些概念。根据应用和服务类型,服务水平协议(SLA)可以规定承诺信息速率(CIR)、突发信息速率(BIR)和最大突发信号长度。承诺信息速率是应该予以严格保证的,对突发信息速率可以有所限定,以在容纳预定长度突发信号的同时容纳从话音到视像以及一般数据的各种服务。一般讲,吞吐量越大越好。
时延是指一项服务从网络入口到出口的平均经过时间。许多服务,特别是话音和视像等实时服务都是高度不能容忍时延的。当时延超过200~250ms时,交互式会话是非常麻烦的。为了提供高质量话音和会议电视,网络设备必须能保证低的时延。产生时延的因素很多,包括分组时延、排队时延、交换时延和传播时延。传播时延是信息通过铜线、光纤或无线链路所需的时间,它是光速的函数。在任何系统中,包括同步数字系列(SDH)、异步传输模式(ATM)和弹性分组环路(RPR),传播时延总是存在的。
时延变化是指同一业务流中不同分组所呈现的时延不同。高频率的时延变化称作抖动,而低频率的时延变化称作漂移。抖动主要是由于业务流中相继分组的排队等候时间不同引起的,是对服务质量影响最大的一个问题。某些业务类型,特别是话音和视像等实时业务是极不容忍抖动的。分组到达时间的差异将在话音或视像中造成断续。所有传输系统都有抖动,只要抖动落在规定容差之内就不会影响服务质量。利用缓存可以克服过量的抖动,但这将增加时延,造成其他问题。漂移是任何同步传输系统都有的一个问题。在SDH系统中是通过严格的全网分级定时来克服漂移的。在异步系统中,漂移一般不是问题。漂移会造成基群失帧,使服务质量的要求不能满足。
丢包,不管是比特丢失还是分组丢失,对分组数据业务的影响比对实时业务的影响都大。在通话期间,丢失一个比特或一个分组的信息往往用户注意不到。在视像广播期间,这在屏幕上可能造成瞬间的波形干扰,然后视像很快恢复如初。即便是用传输控制协议(TCP)传送数据也能处理丢失,因为传输控制协议允许丢失的信息重发。事实上,一种叫做随机早丢(RED)的拥塞控制机制在故意丢失分组,其目的是在流量达到设定门限时抑制TCP传输速率,减少拥塞,同时还使TCP流失去同步,以防止因速率窗口的闭合引起吞吐量摆动。但分组丢失多了,会影响传输质量。所以,要保持统计数字,当超过预定门限时就向网络管理人员告警。
本文考虑两方面QoS的要求:数据包传输时延和丢失率。定义m为业务优先级数,对应于不同的 QoS 级别;用下标i来区分不同的优先级,且i越大,相应的优先级就越高。
3 仿真及结果分析
1. D-PWS 算法波长配置
网络中有3个优先级,波长总数为16即(W=16),同时设定待定常数a∶b=1∶1,波长资源固定预留占有率ψ=0.5,不同优先级的业务流量之比为ρ■∶ρ■∶ρ■=3∶3∶2。最终得到各种优先级的业务的波长分配策略为:
2≤W■≤4,3≤W■≤7,4≤W■≤11
2. 网络数据包丢失率的分析
为了分析D-PWS算法在对网络数据包丢失率方面的特点,对类CERNET网络结构分别使用D-PWS算法进行仿真计算。图1给出仿真结果。由图1(a)可知,在相同业务流量的情况下,优先级越高,数据包丢失率就越低,优先级越低,数据包的丢失率就越高。在相同的优先级的情况下,业务流量的值越高,数据包丢失率就越高。由图1(b)、(c)也可以得出:在相同业务流量的情况下,优先级越高,数据包丢失率就越低;在相同的优先级的情况下,业务流量的值越高,数据包丢失率就越高。D-PWS 算法为低优先级的业务设定了波长预留下限,这样就使得低优先级的业务丢失率不至于过大。把不同流量下的平均丢失率再作平均,使用D-PWS算法的数据包平均丢失率降低。
3. 网络波长信道利用率的分析
图2给出了网络以D-PWS算法作为波长资源预留算法的时候网络波长信道资源利用率的情况。在网络的业务流量很小的时候,业务本身需要的网络资源很少,此时D-PWS 算法的资源利用率很低;随着业务流量的增加,D-PWS 算法的资源整体预留的优势就体现出来,D-PWS 算法有很高的资源利用率。把不同流量下网络资源利用率作平均,D-PWS 算法的网络资源利用率比以前的有所提高。
4. 波长变换范围对网络性能的影响
研究表明,在光交叉连接节点,只要具有有限范围波长变换能力就可以达到全波长变换时的网络堵塞率水平。
对不同的波长变换范围进行的仿真结果如图3所示,可见:(1)当波长变换范围由0变化到1的时候,优先级比较高的(pri=3,pri=2)业务的丢失率都是下降,而低优先级(pri=1)的业务的丢失率反而是稍有上升的,这可以理解为在网络由无波长变换能力到有波长变换能力的转变的过程中,由于低优先级的业务本身由D-PWS算法预留的波长资源比较少,因此波长转换对它的影响相对较少,而其他两个高优先级的业务为此丢失率大幅下降,网络资源的占用率也大幅提高,因而低优先级的业务的丢失率在这种情况下丢失率会上升。(2)随着信道波长变换范围的增加,它对丢失率的影响相应减小,波长变换范围由0增加到1的时候对丢失率影响最大,而Crange=2和Crange=3时丢失率大致相同,这说明此时波长变换范围已经不再是是业务产生丢失的主要原因了。
5. 边缘节点缓存的大小对业务时延影响
图4给出边缘节点缓存的大小对业务时延的影响。在讨论时延的时候,只考虑那些能够成功到达目的边缘节点的数据包,而各个优先级的数据包一旦能进入OBS网络由核心节点进行交换,它们的行为都是一样的,所以在作图4的时候,没有对不同的优先级进行讨论。从图4中看到在业务为Possion流的情况下,数据包的传送时延随着边缘节点的缓存容量近似的线性增加,这正和上文得到的结论相符。
由于本网页不支持图片与公式效果,如有需要请参阅杂志。