TCP 接收窗口自动调节
https://technet.microsoft.com/zh-cn/magazine/2007.01.cableguy.aspx
.gif)
.gif)
Capacity in bits = path bandwidth in bits per second * round-trip time (RTT) in seconds
Throughput = TCP maximum receive windowsize / RTT
一、RFC关于增大TCP初始窗口的讨论
http://tools.ietf.org/html/rfc2414
详尽的讨论参见原文,这里做一部分摘录,加上自己的理解
增大起始窗口,和MTU探测等方面有关系【注1】。
1.1 增大初始窗口的好处
1.1.1 可以及时回复ack
这里牵涉到TCP的delay ack机制,普通情况下是每两个段一个ack。
如果起始窗口只有一个段大小,就需要等待delay ack机制的定时器超时,大约为40ms。【注2】
关于delay ack详细内容,参见另一篇博文《TCP delay ack机制和实现》(整理中)。
如果起始窗口大于等于两个数据段,发送端就有足够的数据段来触发ack,防止了RTO。
1.1.2 节省小文件传输时间
如果连接传输少量数据,较大的初始窗口可以节省时间。
例如邮件、网页等较小的文件,传输时间甚至可以节省到一个RTT。
在丢包率较高的情况下,也可以用大初始窗口来传输小文件节省时间。【注3】
1.1.3 节省大BDP网络传输时间
对于能使用大拥塞窗口的链路,这种改进可以在慢启动阶段节省多个RTT,并避免delay ack超时。
这对于带宽时延积(BDP)较大的链路,比如卫星链路,有特别的好处。
1.2 增大初始窗口的坏处
1.2.1 对于用户的坏处
在高拥塞环境,特别对于路由器厌弃突发流的情况。【注4】
TCP初始窗口为1,有时会比较好。
例如,某些场景下,初始窗口为1的TCP包没有被丢弃,窗口为4的遭遇了丢包。
这是因为路由器能力有限,无法应对数据流的小突发。【注5】
同时可能导致不必要的RTO,对于没有对TCP流造成超时的情况,也会导致连接
过早地从慢启动转移到拥塞避免阶段。【注6】
这种丢包和过早转移在较低的拥塞环境,路由器buffer足够的情况下不易发生。
在平和拥塞环境下,如果路由器采用主动队列管理【注7】,也不会发生。
有时,即便有丢包和过早转移,用户依然能从较大的初始窗口中获益
1> 如果TCP连接没有RTO,及时恢复
2> TCP窗口被网络拥塞或接收方通告窗口限制在一个较小范围内。 【注8】
1.2.2 对于网络的坏处
就网络拥塞崩溃方面的因素而言,可以考虑两个潜在的危险场景。
第一个场景是对端已经收到包,但链路极度拥塞,发送端不断发送重复包,不断超时。
第二个场景是拥塞链路中的大量包在它们到达链路之前就会丢掉。
增大拥塞窗口的潜在威胁是,加重了网络总体的丢包率。三个问题讨论:
1> 重复段。较大的初始窗口可能引起丢包,但实验表明,即便在这种情况下,也没有大量重传。
2> 必然会被丢弃的段。在只有一段拥塞链路的网络中,这些由较大初始窗口发送的多余段不会
浪费带宽,也不会带来拥塞崩溃。在有多条拥塞链路时,才可能浪费带宽。但是,这种浪费
带宽的行为对于初始窗口为1或4来说,都是相同的。【注9】
3> 丢包率增长。较大的初始窗口在路由器执行队尾丢包的情况下,会导致丢包率的进一步增加。
但并不会导致过大的丢包率增长。
实验结果参见原文。
按个人理解来讲,过大的初始窗口坏处在于:不公平,且在丢包恢复方面有负担。
在web浏览中,发起多个具有大窗口的连接是十分违反规则的。
二、Google建议将TCP初始窗口改为10
《An Argument for Increasing TCP ’s Initial Congestion window》
常见TCP初始窗口设置为3或4,大约4KB。
在长流服务中,这种较小的初始窗口设定没有什么问题。
但是,如今常见的许多web服务数据流较短,比如一个页面,可能只有4K-6K。
在慢启动阶段,整个数据流的传输可能就会结束。
此时,初始窗口的大小对于传输时间的长短起决定性作用。
现有的chrome firefox等浏览器并发连接数为6,可以减少网页的下载时间。
http://www.iefans.net/bingfa-lianjieshu-sudu-ceshi/
如果使用较大的初始窗口,速度改进将更加显著。
2.1 提高初始窗口的好处
2.1.1 减少发送延迟

不必在意公式细节,从直观上理解,初始窗口越大,需要的总传输次数越少。
比如初始窗口为10,当然要比初始窗口为1节省时间。
2.1.2 跟上页面的增长
2.1.3 与长流竞争时,短流可以更加公平
长流一般拥塞窗口已经很大,提高初始窗口可以让短流更加公平。
在TCP性能评估中,公平性是一个重要指标。
2.1.4 提升丢包恢复速度
2.2 为什么是10
根据Google的研究,90%的HTTP请求数据都在16KB以内,约为10个TCP段。
对于较大数据量传输,初始窗口设定为10也能提升reponses的反应速度。
将初始窗口设置为3、6、10、16、26、42,实验结果表明,init_cwnd=16可以最大限度减少延迟。
论文版权原因,不贴图了,感兴趣的请自己搜索下实验图表。
如果窗口进一步提升,延迟会再增加,可能是因为丢包方面的负担。
详细参见https://datatracker.ietf.org/doc/draft-ietf-tcpm-initcwnd/?include_text=1
关于初始窗口为什么不取16,原文作者说道,他们发现在全球网络环境实验中,
将初始窗口设置为16,在某些地区可能引起较差的反应。例如在东南亚,
初始窗口取为16引起了明显的丢包,这可能是过于拥塞的网络环境和浏览器发起同步连接引起的。
而初始窗口为10和16,性能差距不大,因此取10作为一个安全的值。 【注 10】
三、增大初始窗口代码注意
因为某些原因,不便详述代码方面的细节。
可以提示一下:初始拥塞窗口过大时,会收到初始接收窗口的限制。
转载请注明出处。
http://blog.chinaunix.net/uid-28387257-id-3595033.html
注:
【1】没看太仔细,有兴趣的同学可以看一下,欢迎讨论
【2】原文写的是RTO等待,这里有一个问题。
接收端发送ack的过程是与delay ack超时相关的。
RTO超时是指发送端等不到ack,重复发送数据段的过程。
【3】原文是:a larger initial window reduces the transmission time
(assuming at most moderate segment drop rates).
在稳健的高丢包情况下。存疑。
这一点难以理解:丢包率固定的情况下,
丢包数和总包数比例是一定的,并不会因为初始窗口的原因减少。
【4】对于高拥塞网络,如果有突发流,路由器很可能丢弃。
因为队列满了,路由器是drop tail原则。
【5】原文为due to the inability of the router to handle small bursts.
称“small”,是因为突然的流不大,与之相对,也有大突发。
【6】这两个阶段,发送窗口的增长速率是很不同的,慢启动阶段窗口
指数增长,如果过早的转移到拥塞避免阶段,此时窗口不够大,
又是线性增长,会在很长一段时间内拖慢吞吐率。
【7】例如,http://tools.ietf.org/html/rfc2309 的主动队列管理算法。
【8】这种情况下,起始窗口较大,而增长被限制,初始发送不会丢包,
也提高了速率。存疑。
【9】“浪费”带宽的说法没有完全理解,既然是丢弃,无论有多少段拥塞链路,
都是一样的吧。
【10】来自于作者的邮件交流。
引言
TCP中有拥塞控制,也有流控制,它们各自有什么作用呢?
拥塞控制(Congestion Control) — A mechanism to prevent a TCP sender from overwhelming the network.
流控制(Flow Control) — A mechanism to prevent a TCP sender from overwhelming a TCP receiver.
下面是一段关于流控制原理的简要描述。
“The basic flow control algorithm works as follows: The receiver communicates to the sender the maximum
amount of data it can accept using the rwnd protocol field. This is called the receive window. The TCP sender
then sends no more than this amount of data across the network. The TCP sender then stops and waits for
acknowledgements back from the receiver. When acknowledgement of the previously sent data is returned to
the sender, the sender then resumes sending new data. It's essentially the old maxim hurry up and wait. ”
由于发送速度可能大于接收速度、接收端的应用程序未能及时从接收缓冲区读取数据、接收缓冲区不够大不能
缓存所有接收到的报文等原因,TCP接收端的接收缓冲区很快就会被塞满,从而导致不能接收后续的数据,发送端
此后发送数据是无效的,因此需要流控制。TCP流控制主要用于匹配发送端和接收端的速度,即根据接收端当前的
接收能力来调整发送端的发送速度。
TCP流控制中一个很重要的地方就是,TCP接收缓存大小是如何动态调整的,即TCP确认窗口上限是如何动态调整的?
本文主要分析TCP接收缓存大小动态调整的原理和实现。
原理
早期的TCP实现中,TCP接收缓存的大小是固定的。随着网络的发展,固定的TCP接收缓存值就不适应了,
成为TCP性能的瓶颈之一。这时候就需要手动去调整,因为不同的网络需要不同大小的TCP接收缓存,手动调整不仅
费时费力,还会引起一些问题。TCP接收缓存设置小了,就不能充分利用网络。而TCP缓存设置大了,又浪费了内存。
如果把TCP接收缓存设置为无穷大,那就更糟糕了,因为某些应用可能会耗尽内存,使其它应用的连接陷入饥饿。
所以TCP接收缓存的大小需要动态调整,才能达到最佳的效果。
动态调整TCP接收缓存大小,就是使TCP接收缓存按需分配,同时要确保TCP接收缓存大小不会成为传输的限制。
linux采用Dynamic Right-Sizing方法来动态调整TCP的接收缓存大小,其基本思想就是:通过估算发送方的拥塞窗口
的大小,来动态设置TCP接收缓存的大小。
It has been demomstrated that this method can successfully grow the receiver's advertised window at a pace
sufficient to avoid constraining the sender's throughput. As a result, systems can avoid the network performance
problems that result from either the under-utilization or over-utilization of buffer space.
实现
下文代码基于3.2.12内核,主要源文件为:net/ipv4/tcp_input.c。
- struct tcp_sock {
- ...
- u32 rcv_nxt; /* What we want to receive next,希望接收的下一个序列号 */
- u32 rcv_wnd; /* Current receiver window,当前接收窗口的大小*/
- u32 copied_seq; /* Head of yet unread data,应用程序下次从这里复制数据 */
- u16 advmss; /* Advertised MSS,接收端通告的MSS */
- u32 window_clamp; /* Maximal window to advertise,通告窗口的上限*/
- /* Receiver side RTT estimation */
- struct {
- u32 rtt;
- u32 seq;
- u32 time;
- } rcv_rtt_est; /* 用于接收端的RTT测量*/
- /* Receiver queue space */
- struct {
- int space;
- u32 seq;
- u32 time;
- } rcvq_space; /* 用于调整接收缓冲区和接收窗口*/
- /* Options received (usually on last packet, some only on SYN packets). */
- struct tcp_options_received rx_opt; /* TCP选项*/
- ...
- };
- struct sock {
- ...
- int sk_rcvbuf; /* TCP接收缓冲区的大小*/
- int sk_sndbuf; /* TCP发送缓冲区大小*/
- unsigned int ...
- sk_userlocks : 4, /*TCP接收缓冲区的锁标志*/
- ...
- };
RTT测量
在发送端有两种RTT的测量方法(具体可见前面blog),但是因为TCP流控制是在接收端进行的,所以接收端也需要
有测量RTT的方法。
(1)没有时间戳时的测量方法
- static inline void tcp_rcv_rtt_measure(struct tcp_sock *tp)
- {
- /* 第一次接收到数据时,需要对相关变量初始化*/
- if (tp->rcv_rtt_est.time == 0)
- goto new_measure;
- /* 收到指定的序列号后,才能获取一个RTT测量样本*/
- if (before(tp->rcv_nxt, tp->rcv_rtt_est.seq))
- return;
- /* RTT的样本:jiffies - tp->rcv_rtt_est.time */
- tcp_rcv_rtt_update(tp, jiffies - tp->rcv_rtt_est.time, 1);
- new_measure:
- tp->rcv_rtt_est.seq = tp->rcv_nxt + tp->rcv_wnd; /* 收到此序列号的ack时,一个RTT样本的计时结束*/
- tp->rcv_rtt_est.time = tcp_time_stamp; /* 一个RTT样本开始计时*/
- }
此函数在接收到带有负载的数据段时被调用。
此函数的原理:我们知道发送端不可能在一个RTT期间发送大于一个通告窗口的数据量。那么接收端可以把接收一个
确认窗口的数据量(rcv_wnd)所用的时间作为RTT。接收端收到一个数据段,然后发送确认(确认号为rcv_nxt,通告
窗口为rcv_wnd),开始计时,RTT就是收到序号为rcv_nxt + rcv_wnd的数据段所用的时间。
很显然,这种假设并不准确,测量所得的RTT会偏大一些。所以这种方法只有当没有采用时间戳选项时才使用,而内核
默认是采用时间戳选项的(tcp_timestamps为1)。
下面是一段对此方法的评价:
If the sender is being throttled by the network, this estimate will be valid. However, if the sending application did not
have any data to send, the measured time could be much larger than the actual round-trip time. Thus this measurement
acts only as an upper-bound on the round-trip time.
(2)采用时间戳选项时的测量方法
- static inline void tcp_rcv_rtt_measure_ts(struct sock *sk, const struct sk_buff *skb)
- {
- struct tcp_sock *tp = tcp_sk(sk);
- /* 启用了Timestamps选项,并且流量稳定*/
- if (tp->rx_opt.rcv_tsecr && (TCP_SKB_CB(skb)->end_seq - TCP_SKB_CB(skb)->seq >=
- inet_csk(sk)->icsk_ack.rcv_mss))
- /* RTT = 当前时间 - 回显时间*/
- tcp_rcv_rtt_update(tp, tcp_time_stamp - tp->rx_opt.rcv_tsecr, 0);
- }
虽然此种方法是默认方法,但是在流量小的时候,通过时间戳采样得到的RTT的值会偏大,此时就会采用
没有时间戳时的RTT测量方法。
(3)采样处理
不管是没有使用时间戳选项的RTT采样,还是使用时间戳选项的RTT采样,都是获得一个RTT样本。
之后还需要对获得的RTT样本进行处理,以得到最终的RTT。
- /* win_dep表示是否对RTT采样进行微调,1为不进行微调,0为进行微调。*/
- static void tcp_rcv_rtt_update(struct tcp_sock *tp, u32 sample, int win_dep)
- {
- u32 new_sample = tp->rcv_rtt_est.rtt;
- long m = sample;
- if (m == 0)
- m = 1; /* 时延最小为1ms*/
- if (new_sample != 0) { /* 不是第一次获得样本*/
- /* If we sample in larger samples in the non-timestamp case, we could grossly
- * overestimate the RTT especially with chatty applications or bulk transfer apps
- * which are stalled on filesystem I/O.
- *
- * Also, since we are only going for a minimum in the non-timestamp case, we do
- * not smooth things out else with timestamps disabled convergence takes too long.
- */
- /* 对RTT采样进行微调,新的RTT样本只占最终RTT的1/8 */
- if (! win_dep) {
- m -= (new_sample >> 3);
- new_sample += m;
- } else if (m < new_sample)
- /* 不对RTT采样进行微调,直接取最小值,原因可见上面那段注释*/
- new_sample = m << 3;
- } else {
- /* No previous measure. 第一次获得样本*/
- new_sample = m << 3;
- }
- if (tp->rcv_rtt_est.rtt != new_sample)
- tp->rcv_rtt_est.rtt = new_sample; /* 更新RTT*/
- }
对于没有使用时间戳选项的RTT测量方法,不进行微调。因为用此种方法获得的RTT采样值已经偏高而且收敛
很慢。直接选择最小RTT样本作为最终的RTT测量值。
对于使用时间戳选项的RTT测量方法,进行微调,新样本占最终RTT的1/8,即rtt = 7/8 old + 1/8 new。
调整接收缓存
当数据从TCP接收缓存复制到用户空间之后,会调用tcp_rcv_space_adjust()来调整TCP接收缓存和接收窗口上限的大小。
- /*
- * This function should be called every time data is copied to user space.
- * It calculates the appropriate TCP receive buffer space.
- */
- void tcp_rcv_space_adjust(struct sock *sk)
- {
- struct tcp_sock *tp = tcp_sk(sk);
- int time;
- int space;
- /* 第一次调整*/
- if (tp->rcvq_space.time == 0)
- goto new_measure;
- time = tcp_time_stamp - tp->rcvq_space.time; /*计算上次调整到现在的时间*/
- /* 调整至少每隔一个RTT才进行一次,RTT的作用在这里!*/
- if (time < (tp->rcv_rtt_est.rtt >> 3) || tp->rcv_rtt_est.rtt == 0)
- return;
- /* 一个RTT内接收方应用程序接收并复制到用户空间的数据量的2倍*/
- space = 2 * (tp->copied_seq - tp->rcvq_space.seq);
- space = max(tp->rcvq_space.space, space);
- /* 如果这次的space比上次的大*/
- if (tp->rcvq_space.space != space) {
- int rcvmem;
- tp->rcvq_space.space = space; /*更新rcvq_space.space*/
- /* 启用自动调节接收缓冲区大小,并且接收缓冲区没有上锁*/
- if (sysctl_tcp_moderate_rcvbuf && ! (sk->sk_userlocks & SOCK_RCVBUF_LOCK)) {
- int new_clamp = space;
- /* Receive space grows, normalize in order to take into account packet headers and
- * sk_buff structure overhead.
- */
- space /= tp->advmss; /* 接收缓冲区可以缓存数据包的个数*/
- if (!space)
- space = 1;
- /* 一个数据包耗费的总内存包括:
- * 应用层数据:tp->advmss,
- * 协议头:MAX_TCP_HEADER,
- * sk_buff结构,
- * skb_shared_info结构。
- */
- rcvmem = SKB_TRUESIZE(tp->advmss + MAX_TCP_HEADER);
- /* 对rcvmem进行微调*/
- while(tcp_win_from_space(rcvmem) < tp->advmss)
- rcvmem += 128;
- space *= rcvmem;
- space = min(space, sysctl_tcp_rmem[2]); /*不能超过允许的最大接收缓冲区大小*/
- if (space > sk->sk_rcvbuf) {
- sk->sk_rcvbuf = space; /* 调整接收缓冲区的大小*/
- /* Make the window clamp follow along. */
- tp->window_clamp = new_clamp; /*调整接收窗口的上限*/
- }
- }
- }
- new_measure:
- /*此序号之前的数据已复制到用户空间,下次复制将从这里开始*/
- tp->rcvq_space.seq = tp->copied_seq;
- tp->rcvq_space.time = tcp_time_stamp; /*记录这次调整的时间*/
- }
- /* return minimum truesize of the skb containing X bytes of data */
- #define SKB_TRUESIZE(X) ((X) + \
- SKB_DATA_ALIGN(sizeof(struct sk_buff)) + \
- SKB_DATA_ALIGN(sizeof(struct skb_shared_info)))
- static inline int tcp_win_from_space(int space)
- {
- return sysctl_tcp_adv_win_scale <= 0 ?
- (space >> (-sysctl_tcp_adv_win_scale)) :
- space - (space >> sysctl_tcp_adv_win_scale);
- }
tp->rcvq_space.space表示当前接收缓存的大小(只包括应用层数据,单位为字节)。
sk->sk_rcvbuf表示当前接收缓存的大小(包括应用层数据、TCP协议头、sk_buff和skb_shared_info结构,
tcp_adv_win_scale微调,单位为字节)。
系统参数
(1) tcp_moderate_rcvbuf
是否自动调节TCP接收缓冲区的大小,默认值为1。
(2) tcp_adv_win_scale
在tcp_moderate_rcvbuf启用的情况下,用来对计算接收缓冲区和接收窗口的参数进行微调,默认值为2。
This means that the application buffer is 1/4th of the total buffer space specified in the tcp_rmem variable.
(3) tcp_rmem
包括三个参数:min default max。
tcp_rmem[1] — default :接收缓冲区长度的初始值,用来初始化sock的sk_rcvbuf,默认为87380字节。
tcp_rmem[2] — max:接收缓冲区长度的最大值,用来调整sock的sk_rcvbuf,默认为4194304,一般是2000多个数据包。
小结:接收端的接收窗口上限和接收缓冲区大小,是接收方应用程序在上个RTT内接收并复制到用户空间的数据量的2倍,
并且接收窗口上限和接收缓冲区大小是递增的。
(1)为什么是2倍呢?
In order to keep pace with the growth of the sender's congestion window during slow-start, the receiver should
use the same doubling factor. Thus the receiver should advertise a window that is twice the size of the last
measured window size.
这样就能保证接收窗口上限的增长速度不小于拥塞窗口的增长速度,避免接收窗口成为传输瓶颈。
(2)收到乱序包时有什么影响?
Packets that are received out of order may have lowered the goodput during this measurement, but will increase
the goodput of the following measurement which, if larger, will supercede this measurement.
乱序包会使本次的吞吐量测量值偏小,使下次的吞吐量测量值偏大。
Author
zhangskd @ csdn
Reference
[1] Mike Fisk, Wu-chun Feng, "Dynamic Right-Sizing in TCP".
上传压死下载
下载文件的速度非常低。
抓取数据包分析,发现:
服务器 —> 客户端 的包,经历时间 < 1ms后,对方做出反应。
客户端 —> 服务器 的包,经历几十至几百ms后,对方才有反应。一个文件中的第一个SYN请求还超时,3s后重传。
服务器 —> 客户端 的包,至少都重传了一遍,不论是在建立连接时,还是在传送数据时。
可能的原因:客户端 —> 服务器的链路拥塞,丢包率高,客户端的ACK丢失了,服务器就会超时重传。
标准TCP的实现借助反馈机制(ACK数据包)来控制流量。当链路上行方向带宽用满后,下行方向数据的ACK数据包
将与上行方向的大数据流竞争上行带宽,丢包的概率增大。ACK数据包的丢失将严重影响TCP的流控机制,从而降低
下行方向的数据吞吐率,造成下行带宽的严重浪费,即所谓的上传压死下载。
根本上的解决方法:杜绝上行拥塞,并给予ACK数据包高优先级。
更具体的猜测:
P2P软件在下载的同时,也在为其他用户提供上传。BT、迅雷等软件在下载的同时又作为种子为其他人提供下载服务,
由于ADSL上行带宽最大只有512Kbps,所以使用P2P软件后更容易造成局域网出口上行带宽的拥塞,但是任何上网操作
均需要上行/下行两个方向的流量,如果上行带宽被占满,就会影响到下行带宽的使用。
常见TCP SYN包选项构成
02 04 05 b4
04 02 08 0a
00 00 ed d1
00 00 00 00
0103 03 06
Maximum Segment Size
0x 02 04 05 b4
Kind = 2
Length = 4
Maximum Segment Size = 0x05b4 = 1460
SACK permitted
0x 04 02
Kind = 4
Length = 2
Timestamp
0x 08 0a 00 00 ed d1 00 00 00 00
Kind = 8
Length = 10
Timestamp Value = 0x0000edd1 = 60881
Timestamp Echo Reply = 0x00000000 = 0
NOP
0x 01
Kind = 1
Window Scale
0x 03 03 06
Kind = 3
Length = 3
Shift count = 6
TCP头中Window size value为14600,表示tcp_rmem为14600字节。接下来的数据包中,这个值就要扩大64倍。
TCP 接收窗口自动调节的更多相关文章
- TCP接收窗口为什么变大了?
今天用wireshark抓取TCP连接时的报文发现客户端的Win变大了,这里是使用了Window Scale来扩张TCP接收窗口,使得接收窗口可以大于65535字节. 首先1号包是TCP第一次握手连接 ...
- TCP 滑动窗口和 拥塞窗口
转http://coolshell.cn/articles/11609.html 滑动窗口 -- 表征发送端和接收端的接收能力 拥塞窗口-- 表征中间设备的传输能力 TCP滑动窗口 需要说明一下,如果 ...
- TCP 滑动窗口的简介
TCP 滑动窗口的简介 POSTED BY ADMIN ON AUG 1, 2012 IN FLOWS34ARTICLES | 0 COMMENTS TCP的滑动窗口主要有两个作用,一是提供TCP的可 ...
- TCP滑动窗口控制流量的原理
TCP的滑动窗口机制 TCP这个协议是网络中使用的比较广泛,他是一个面向连接的可靠的传输协议.既然是一个可靠的传输协议就需要对数据进行确认.TCP协议里窗口机制有2种:一种是固定的窗口大小 ...
- UNIX网络编程——TCP 滑动窗口协议
什么是滑动窗口协议? 一图胜千言,看下面的图.简单解释下,发送和接受方都会维护一个数据帧的序列,这个序列被称作窗口.发送方的窗口大小由接受方确定,目的在于控制发送速度,以免接受方的缓存不够大, ...
- 斐讯面试记录—TCP滑动窗口及拥塞控制
TCP协议作为一个可靠的面向流的传输协议,其可靠性是由流量控制和滑动窗口协议保证,而拥塞控制则由控制窗口结合一系列的控制算法实现. 一.滑动窗口协议 1. “窗口”对应的是一段可以被发送者发送的字节序 ...
- tcp滑动窗口详解(2)
http://blog.csdn.net/yujun00/article/details/636495 ARQ与滑动窗口概念 滑动窗口协议,是TCP使用的一种流量控制方法.该协议允许发送方在停止并等 ...
- TCP接收缓存大小的手动调整
给出了几个可调节的参数,它们可以帮助您提高 Linux TCP/IP 栈的性能. 表 1. TCP/IP 栈性能使用的可调节内核参数 可调节的参数 默认值 选项说明 /proc/sys/net/cor ...
- [转]TCP滑动窗口详解
TCP滑动窗口详解 http://lyjdamzwf.blog.163.com/blog/static/75206837201193373226/ TCP滑动窗口(Sliding Window) ...
随机推荐
- Asp.Net Core链接Mysql数据库
一.新建一个Asp.Net Core WebMVC程序 添加nuget包 Mysql.Data 二.新建一个UserContext类 下面代码中的UserInfo是我自己建的一个实体,里面有俩字段: ...
- ffmreg thinkphp 控制器 获取音频视频详细信息(获取时长)
FFmpeg下载:http://ffmpeg.zeranoe.com/builds/ 下载并解压FFmpeg文件夹: 打开你想安装的任意磁盘,例如:d盘.新建一个名为“ffmpeg”的文件夹,将第二步 ...
- 542. 01 Matrix
class Solution { public: vector<vector<int>> res; int m, n; vector<vector<int>& ...
- Java8 Lambda表达式实战之方法引用(一)
方法的引用 方法引用是用来直接访问类或者实例的已经存在的方法或者构造方法,方法引用提供了一种引用而不执行方法的方式,如果抽象方法的实现恰好可以使用调用另外一个方法来实现,就有可能可以使用方法引用 方法 ...
- 12-oauth密码模式identity server4实现
1-服务端代码, 配置类,可加 RequireClientSecret=false, 这样调用端就不需要传入client_secret参数 using System.Collections; usin ...
- 北京Uber优步司机奖励政策(1月24日)
滴快车单单2.5倍,注册地址:http://www.udache.com/ 如何注册Uber司机(全国版最新最详细注册流程)/月入2万/不用抢单:http://www.cnblogs.com/mfry ...
- MFC 中的设计模式分析
MFC 中的设计模式分析 最近在学习设计模式,突然想到MFC里面其实也包含有设计模式的原理,于是分析了一下,做一个笔记,网上也找了一些资料,在此一并感谢. 创建型模式 单例模式(Singleton P ...
- 1 多任务fork Unix/Linux/Mac
# 注意,fork函数,只在Unix/Linux/Mac上运行,windows不可以 1.如下程序,来模拟“唱歌跳舞”这件事情 #-*- coding:utf-8 -*- import time de ...
- 【text】 文本组件说明
text文本组件:在小程序里除了文本节点以外的其他节点都无法长按选中. 原型: <text selectable="[Boolean]" space="[ensp ...
- 爬虫1.6-selenium+HeadlessChrome
目录 爬虫-selenium+HeadlessChrome 1. 浏览器处理步骤 2. headless-chrome初体验 3. 实战爬取淘宝镇.街道信息 爬虫-selenium+HeadlessC ...