基于模型的网络拥塞控制研究

基于模型的网络拥塞控制研究

ID:34151477

大小:1.52 MB

页数:39页

时间:2019-03-03

基于模型的网络拥塞控制研究_第1页
基于模型的网络拥塞控制研究_第2页
基于模型的网络拥塞控制研究_第3页
基于模型的网络拥塞控制研究_第4页
基于模型的网络拥塞控制研究_第5页
资源描述:

《基于模型的网络拥塞控制研究》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库

1、硕士论文基于模型的网络拥塞控制研究AIMD机制,每一个分组都必须被接收者应答(acknowledged)。ACK分组被用来探测拥塞和推算RTT,当探测到拥塞,发送方将当前的拥塞窗口减半。在没有分组丢失——亦即没有出现拥塞的时候,协议在每个Im后将拥塞窗口总加1。协议在每个R1盯之后决定速率的变化——增加或减少,取决于当前的网络状况。RAP在发送行为上与AIMD机制非常相似,但它没有考虑超时的情况。因此当网络拥塞主要导致超时发生时,RAP将表现得更具侵略性。基于丢失一延迟的适应算法(LDA+:Loss.DelayBasedAdaptionAlgorithm)【21J与

2、其它的机制不同,它没有设计自身的反馈机制来控制发送速率,而是仅仅依靠实时传输协议(砌℃P:Real.TimeTransportControlProtoc01)提供的反馈信息进行调节。LDA+同样是以AIMD为基础的,但是它增加了一些影响因素。AIMD的增加和减少因子是随着网络状况而调节的。它通过分组对来判断瓶颈链路的带宽,从而来决定当前网络是否拥塞,进而决定采取的行动。速率的增加是如下三个相互独立因子的最小者:◆带宽低的数据流的增加速率可以比带宽高的数据流快◆数据流不能超过估计的瓶颈带宽◆数据流增加带宽的速率不能比TCP连接快当接收方报告分组丢失的时候,发送速率就以

3、(1一√(J『))为因子积式减少,其中z是分组丢失率。模拟显示LDA+与TCP在给定的环境中公平竞争。TCP友好速率控制协议(TFRC:TCP-FriendlyRateControlProtoc01)[221是专门设计用来进行单播传输的,它通过对公式(1.1)[23】的计算来调节发送速率。公式(1.1)是一个TCP的吞吐量公式,R代表回路时间R]盯,,Rm代表重传超时值,B是发送分组的大小,用字节表示,P是丢包率,既是拥塞窗口的最大值,b代表每次ACK确认的分组个数。TFRC使用了复杂的方法来收集需要的参数,其中包括使用衰减加权方法来计算平均丢包间隔,从而降低久的丢

4、包事件对平均丢包率的影响。通过反馈到发送方的时间戳来计算Im。TFRC使用与TCP相似的方式进行慢启动,当出现丢包时,慢启动结束。在每个RTT中,一旦TFRC接收方更新了参数并发送一个报告给发送方时,发送方就会利用这些参数计算一个新的公平速率并以此为依据调整发送速率。TFRC的一个主要的优点就是有一个相对稳定的发送速率,并且仍然提供对竞争的充分的响应。弭⋯驴砒p,荐一卜,接收端TCP模拟TEAR(TCPEmulationatReceiver)(241是一个基于窗口和基于速率混合的拥塞控制机制。TEAR接收端计算一个直接的接收速率并将它发送到发送方,发送l绪论硕士论文

5、方然后据此调整它的发送速率。在TEAR中,接收方维护着一个类似于TCP拥塞窗口的修改了的拥塞窗口。由于TCP的拥塞窗口是位于TCP发送方的,因此TEAR接收方必须通过接收到的分组来决定是增大还是减小当前的拥塞窗口尺寸。重复ACK是容易模拟的,但是,超时事件只有依靠粗略的估计。与TCP相比,TEAR协议不直接使用拥塞窗口来决定发送分组的数量,而是计算相应的TCP发送速率。为了避免锯齿状的发送速率,TEAR使用了加权平均的方法来决定一个时期内的平均发送速率。由于接近TCP短期行为的模型,TEAR在避免TCP的频繁改变速率的同时,表现了很好的TCP友好行为。1.3.2链路

6、算法链路算法在网络设备(如路由器和交换机)上执行,作用是检测网络拥塞的发生,采取一定的措施缓减拥塞状况,产生拥塞反馈信息以使发送端采取适当的措施避免拥塞恶化。该算法主要分为两类:调度机制和队列/缓存管理f2熨。事实上,调度机制和队列管理都是一种缓存管理机制,而队列管理又是调度机制和缓存管理的补充,同时也是二者的交叉结合。调度机制又称为排队和调度机制、队列调度机制,其作用是控制分组选择发送的输出链路。输入流量被置于一个排队系统中,一般情况下,这个排队系统由一个或多个队列和一个调度器组成。一个有效的队列调度机制应能够保证公平性、时延特性、对恶意业务流的隔离能力以及好的链

7、路带宽利用率等。缓存管理的任务【24-271是决定如何在经过网关(特定情况下,共用一个输出接口)的不同数据流之间分配缓存空间。缓存分配的策略有很多,包括各种动态或静态策略,这些策略基于不同标准、基于数据流数量、基于当前或过去的带宽分配以及基于缓存占有量等。而最广为人知的两种缓存管理机制就是共享缓存池(sharedbufferp001)和单一流分配机制(per-flowallocation)。共享缓存池机制是以先到先服务为基础的,~个数据流通过尽可能快的发送速率可以占有整个缓存空间从而导致其他数据流处于“饥饿"状态,因此这种机制缺乏数据流之间的保护,但是,由于简单

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。