动机

写这篇文章本质上的动机是因为前天发了一个朋友圈,见最后的写在最后,但实际上,我早就想总结总结TCP拥塞控制算法点点滴滴了,上周总结了一张图,这周接着那些,写点文字。

前些天,Linux中国微信公众号推了一篇文章,上班路上仔细阅读了一下,感受颇深,一方面由于此文说出了很多我想表达却苦于组织语言的观点,另一方面,此文表达了一些我没能认识到的事实,整个一天的时间,我都在思考此文的字词句,我想写一篇读后感是最合适不过的了。


附上那篇文章的链接: 
《netdev 第二天:从网络代码中移除“尽可能快”这个目标》
由于此文是译文,所以我把原文也附上: 
《netdev day 2: moving away from “as fast as possible” in networking code》:https://jvns.ca/blog/2018/07/12/netdev-day-2–moving-away-from–as-fast-as-possible/ 
以下当我说《第二天》的时候,说的就是这篇文章。


OK,且听我继续唠叨。


要聊TCP拥塞控制,如果你没有读过Van Jacobson(即大名鼎鼎的范.雅各布森)的那篇讲TCP拥塞控制的经典论文,那就根本不好思议说自己是混这个行当的,这篇论文的链接我也附上: 
《Congestion Avoidance and Control》:http://ee.lbl.gov/papers/congavoid.pdf 
当然了,你可以以任何其它途径搜索到这篇论文。

本文并非针对这篇论文的评谈,之所以在文章的开头我就提到这篇论文,是因为《第二天》在开头也引用了这篇论文,这篇论文非常重要,因为它道出了拥塞控制的本质问题和根本的解法,在我评谈完《第二天》后,我会以大量的篇幅去解释这篇论文。

首先,我先从《第二天》开始。


关于《netdev 第二天:从网络代码中移除“尽可能快”这个目标》

《第二天》讲述了一个事实,即互联网从1988年到2018年这30年间发生了变化,该变化要求我们的TCP拥塞控制算法必须做出改变,否则,互联网将崩塌

这不是危言耸听,这是真的。让我们来回顾一段历史。

还记得1988年Van Jacobson那篇经典论文的写作背景吗?嗯,是的,1986年那时互联网经历了一次崩塌!嗯,1988年是一个分水岭:

  • 1988年之前:TCP毫无拥塞控制 
    简单的端到端滑动窗口流控机制,一切都都工作的很好!直到1988年前夕的1986年网络崩溃。
  • 1988年之后:引入了TCP拥塞控制 
    引入慢启动,拥塞避免这两个概念,此后TCP拥塞控制将在这两个基本概念的基础之上展开进化,直到…下一个分水岭,嗯,2016年Google放出BBR(事实上Google早就在内部预研并实施BBR了)。

很多人可能并不知道这个事实,但事实真的是,1988年以前,TCP是没有什么拥塞控制算法的,能发多少数据包全凭对端通告过来的那个TCP协议头里的窗口来决定,自从1974年TCP协议诞生,经历1983年的标准化一直到1988年前夕,这种机制一直工作的非常好,那么到底是什么原因导致了1988年前夕的网络崩溃进而导致拥塞控制被引入TCP呢?

这一切的答案藏匿于时间!

我们用发展的眼光来看待这段历史。非常显然,1988年接入网络的TCP终端数量要远远大于1974年或者1983年,这背后的推动力来自于网络本身规模的指数级增长。我们看一下网络节点的变化情况,由于本文不是专门讲网络本身的,所以为了一种延续性,我将早期的网络统称为ARPA网,虽然它的名字一直在变…

  • 1969年: ARPAnet初创,一共4个节点
  • 1970年:13个节点构成ARPA的全部
  • 1972年:法国CYCLADES网络!!!(非常关键)
  • 1973年:发展到约40个节点
  • 1974年5月:《分组网络信息交换协议》发布,TCP协议诞生
  • 1974年12月:RFC675发布,互联网标准诞生
  • 1976年:持续增加节点到57个
  • 1982年:网络节点增长到100个左右
  • 1983年1月1日:TCP/IP取代旧协议族成为ARPA网控制协议
  • 1984年:美国国防部将TCP/IP作为计算机网络的标准
  • 1984年:节点数量达到1000+,已经初具规模,互联网雏形形成
  • 1986年:网络拥塞导致崩溃
  • 1988年:拥塞控制被引入TCP

这期间,随着TCP协议被标准化,TCP几乎成了默认的接入协议…

这就像中国的汽车产业一样,80年代我们中国也许只有机关单位拥有少量的汽车,随着时间的推移,汽车变得越来越多,还记得小学的课文《北京立交桥》吗?在20世纪90年代,立体交通被首先引入北京,上海,广州等城市,这个和互联网的发展如出一辙,所谓日光之下,并无新事!

非常简单的道理,节点多了,必然会拥塞。然而这是导致拥塞的唯一原因吗?

我们上大学第一节计算机网络课的时候,老师一般会介绍网络可以分为通信子网和资源子网。上述的ARPAnet发展脉络说的更多的是通信子网,到底何谓通信子网?

请注意上面发展脉络注解中的1972年法国CYCLADES网络,它首次提出了端到端原则,即:

The CYCLADES network was the first to make the hosts responsible for the reliable delivery of data, rather than this being a centralized service of the network itself. Datagrams were exchanged on the network using transport protocols that do not guarantee reliable delivery, but only attempt best-effort. To empower the network leaves, the hosts, to perform error-correction, the network ensured end-to-end protocol transparency, a concept later to be known as the end-to-end principle .

上述引用来自CYCLADES的Wiki页面:https://en.wikipedia.org/wiki/CYCLADES 
这个端到端原则非常重要!后来在1974年出炉的TCP协议就是一个非常成功的端到端协议,它保证了网络对资源的透明性,我们现在知道,TCP几乎不了解网络的任何细节,这一切思想全部来源于那场端到端原则引发的头脑风暴!

比较悲哀,先行者往往超越了时代,最终CYCLADES消亡了,一方面它太超前,另一方面可能是欧洲实在没有类似美国的这种互联网基因,它最终退出了历史,关于CYCLADES,下面这个链接不错: 
https://www.techopedia.com/definition/27855/cyclades


花开两朵,各表一枝。我们再看看同时期的另外一条线,即资源子网的发展脉络。所谓的资源子网,其实更多的指的就是计算机终端。

  • 1972年:Intel 8008处理器发布
  • 1974年:Intel 8080处理器发布
  • 1976年:《以太网:区域计算机网络的分布式数据包交换技术》发布,以太网诞生
  • 1978年:Intel 8086处理器发布
  • 1980年:微软dos操作系统
  • 1985年:Intel 80386处理器发布

时间告诉我们一个事实,处理器越来越强大,计算机终端在进步!这背后是一个摩尔定律在悄悄发挥着作用!

这意味着什么?这意味着承载TCP的计算机终端,将会以越来越快的速度发送数据包!

节点越来越多,发包越来越快,这便是1988年前夕网络拥塞的根源!

于是,1988年后,拥塞控制被引入了TCP协议,这便是我们再熟悉不过的现代TCP协议了,如果你手头有Linux内核源码,看看net/ipv4/tcp_cong.c这个文件,tcp_reno_cong_avoid函数,就是描述的Van Jacobson论文里的思想:

/*
 * TCP Reno congestion control
 * This is special case used for fallback as well.
 */
/* This is Jacobson's slow start and congestion avoidance.
 * SIGCOMM '88, p. 328.
 */
void tcp_reno_cong_avoid(struct sock *sk, u32 ack, u32 acked)
{
    struct tcp_sock *tp = tcp_sk(sk);

    if (!tcp_is_cwnd_limited(sk))
        return;

    /* In "safe" area, increase. */
    if (tcp_in_slow_start(tp)) {
        acked = tcp_slow_start(tp, acked);
        if (!acked)
            return;
    }
    /* In dangerous area, increase slowly. */
    tcp_cong_avoid_ai(tp, tp->snd_cwnd, acked);
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23

那么然后呢?

有了这个拥塞控制算法,是不是就万事大吉了呢?从某种程度上说,是的!Why??


我们知道,发包的终端是计算机,而早期计算机的处理器决定了发包的速率,这个时候,我们看一下网络骨干上的那些处理数据包转发的设备。

像思科这种厂商,他们的路由器,交换机的处理能力是发包的终端计算机难以企及的,专业的路由交换设备拥有更加高频的处理器,甚至有自己的线卡,这些高端设备完全可以Cover住任何计算机发送的数据包的转发,毫无压力。一切都在存储转发式的网络中有条不紊的进行着。

中间节点的高端设备只需要不多且固定数量的缓存,就可以暂时存储还没有来得及处理的数据包,需要多少缓存只需要通过排队理论的公式就能计算出来。

如果将路由器交换机看作是服务台,那么终端计算机发送的数据包按照泊松到达的原则到达并排队,然后被背靠背地服务并转发出去,这看起来非常美好!如果接入网络的终端计算机更多更强了,只需要换更高端的转发设备即可,这难道有什么问题吗?

我记得2004年我第一次接触H3C的讲座的时候,从最低端的几千元的设备一直到上百万的设备,都给我们看过并且摸过,当时特别惊讶,我在想,一台上百万的设备接在骨干网的通信机房,开机时,那将是多么壮美的场景,所以我一直都想去通信领域的企业工作,只可惜未能成行…

这场计算机网络终端和中间转发设备之间军备竞赛好像会促使他们中的任何一方持续进化成巨无霸,然而,它们忽略了一个事实!

那就是,摩尔定律遇到了热密度的上限!

这是一件非常令人遗憾的事情,面对这个无法突破的上限,中间转发设备被逼停在了山巅,眼睁睁看着计算机终端的处理器,网卡性能和自己的距离越来越近,却无法再前进一步!

把时间拉到眼前,我们现在可以在普通的服务器甚至个人计算机上轻松安装最新的Intel万兆网卡,甚至40G的网卡,中间转发设备却再也无法甩开这些几个数量级了,毕竟有摩尔定律的大限在那!

《第二天》引文一段:

在演讲中,Van Jacobson 说互联网的这些已经发生了改变:在以前的互联网上,交换机可能总是拥有比服务器更快的网卡,所以这些位于互联网中间层的服务器也可能比客户端更快,并且并不能对客户端发送信息包的速率有多大影响。 

很显然今天已经不是这样的了!众所周知,今天的计算机相比于 5 年前的计算机在速度上并没有多大的提升(我们遇到了某些有关光速的问题)。所以我想路由器上的大型交换机并不会在速度上大幅领先于数据中心里服务器上的网卡。

抛开价格不谈,看看我们手里的手机,再看看2004年那些大型网络设备,看看它们之间的差距,是不是在缩小!


我们可以预见的是,随着计算机终端越来越追平中间转发设备的性能,即使是1988年提出的拥塞控制算法,对于真实的网络拥塞情况也将会越来越力不从心,网络变成了下面的样子:

1986年的拥塞崩溃还会重演,而且可能就在眼前!或者至少是不远的将来!

我在高中的时候,订阅过一本叫做《科学美国人》的杂志,大概是2001年一期,引出一个《互联网崩溃》的论题,当时正值第一次互联网爆发或者说泡沫时期,作者基于1988年Van Jacobson的论文里的拥塞控制算法,提出了一种担忧,作者担忧互联网将在10年内崩溃,即1988年的拥塞控制算法将在10年内失效!后来的事实表明,崩溃来得确实迟到了。


除了学术界,其实,从进入21世纪第一次互联网领域的寒武纪大爆发开始以来,上面的这个互联网总有一天会拥塞崩溃的问题也已经被网络设备厂商注意到了,虽然意识到自己面临了摩尔定律的极限,处理性能无法做进一步的提高,但是,横向的扩展还是可以继续的,无法更快,但能更多,无疑,增加处理器和线卡的数量性价比远不如将来不及处理的数据暂时存起来,这带来了一种解决方案:增加缓存大小

排队理论和泊松到达原则预示着,缓存总是会被清空,这使得超大缓存队列的中间网络设备成了一种趋势。


这并没有解决问题,而是引入了问题,网络不再是一个用完即走的设施,而成了一个巨大的缓存设施,类似北京四环快速路那样,成了巨大的停车场!

对!这就是Bufferbloat!!

Bufferbloat将对数据包带来严重的延迟,降低用户体验!不过,好歹Bufferbloat也是有些可以借鉴的地方的,比如我觉得Kafka这玩意儿说白了就是一个Bufferbloat模型下的组件,你说Kafka这种设计好吗?反正我觉得挺不错的!这里给出一个Kafka的博客链接,作为备注: 
《Kafka设计思想的脉络整理》:https://blog.csdn.net/dog250/article/details/79588437


那么,解决方案是什么?

《第二天》里说的很明确:以更慢的速率发送更多的信息包以达到更好的性能

反正发快了也是排队,排队造成的延迟对于接收端而言和发得慢没有任何区别,不如用Pacing来平滑泊松到达的峰谷,还能减少甚至避免缓存爆满而造成的丢包。这就是Pacing慢发背后的逻辑。

核心骨干网络的高带宽等待用户计算机发送效率提升的时代已经结束了,目前大多数计算机发送数据包的速率已经超过了具有光速极限的传播速率,是时候要以带宽作为发送速率的基准了,以前是能发多快就发多快,核心交换设备应付低速的计算机终端不是个事儿,如今高速计算机终端则必须发送速率适应网络的处理能力,即适应网络的瓶颈带宽

然后《第二天》又给出了一个具体的方案,那就是“使用BBR”

在上面我说过:“假设你可以辨别出位于你的终端和服务器之间慢连接的速率……”,那么如何做到呢?来自 Google(Jacobson 工作的地方)的某些专家已经提出了一个算法来估计瓶颈的速率!它叫做 BBR,由于本次的分享已经很长了,所以这里不做具体介绍,但你可以参考 BBR:基于拥塞的拥塞控制 和 来自晨读论文的总结 这两处链接。

来自the morning paper的一篇blog值得推荐: 
《BBR: Congestion-based congestion control》:https://blog.acolyer.org/2017/03/31/bbr-congestion-based-congestion-control/ 
当然了,你也可以看BBR的原始Paper或者,我写的一些博客,这里就不给出链接了。


我能说什么呢?如果我把2016年BBR发布的那一年作为TCP的第二个分水岭,你觉得合适吗?我觉得是合适的!

  • 1974年-1988年:第0代TCP,没有拥塞控制
  • 1988年-2016年:第1代TCP,引入Van Jacobson论文里AIMD模型的拥塞控制 
    计算机终端不如核心交换设备,处理性能差距巨大,Burst发送。
  • 2016年-至今/未来的某一年:第2代TCP,引入Google的BBR拥塞控制并持续进化 
    计算机终端处理性能追平核心交换设备,Burst发送会造成Bufferbloat,采用Pacing发送。

说来也巧了,上周日,正好总结了一幅图,展现拥塞控制算法的发展脉络: 
《总结一幅TCP/QUIC拥塞控制(CC)算法的图示》:https://blog.csdn.net/dog250/article/details/81834855 
《第二天》这篇文章是周一才推给我的,和我前一天写的这个基本在说同一个话题,这接力秒啊!


好了,现在我们从代码实现的角度看看代码是如何顺应历史的吧。

从第一行代码运行在第一台计算机上的时候,正如《第二天》所说:网络代码被设计为运行得“尽可能快”!,任何控制子系统都是这般,是否更快几乎是衡量一个算法优劣的首要标准!网络软件也不例外,如《第二天》文中所述:

所以,假设我们相信我们想以一个更慢的速率(例如以我们连接中的瓶颈速率)来传输数据。这很好,但网络软件并不是被设计为以一个可控速率来传输数据的!下面是我所理解的大多数网络软件怎么做的: 

1. 现在有一个队列的信息包来临; 
2. 然后软件读取队列并尽可能快地发送信息包; 
3. 就这样,没有了。

在计算机终端和网络核心交换设备处理性能差异巨大的年代,所有的计算机终端均采用“尽可能快”的方式发包时,这显然是提高效率的最佳做法。

对于计算机发送数据包而言,依照这个原则就是让数据包以最快的速度离开计算机,能多快就多快,事实上,当前的很多网卡(比如Intel x350…)的发送带宽已经超过了大多数的链路带宽。

当核心网络交换设备遇到摩尔定律瓶颈,其性能提升不足以扛得住大量高速计算机终端快速发包带来的处理压力时,队列增长就是必然的,而我们知道,数据包排队现象是一种毫无价值的临时避免丢包的措施,而且平添了延时和存储成本,因而,降低计算机终端发包的速率变成了最有效最经济的措施。

《第二天》给出了解决方案:一个更好的方式:给每个信息包一个“最早的出发时间”

好吧,具体到实现上,那就是所谓的用时间轮盘替换队列!!!。你不知道什么是时间轮盘?也许吧,但是你应该知道Linux内核网络数据包schedule模块FQ吧。是的,这个实现就是一个时间轮盘!

这个所谓的时间轮盘机制其实在Linux内核的TCP实现中已经有所使用了,比如针对TCP连接的超时重传Timer就是用时间轮盘实现的,不然的话,每一个包都启用一个Timer,开销甚大。说白了,时间轮盘就是把待定的Event进行排序,然后采用一个一维的时间序列顺序处理,思路非常简单!

抽象地讲,时间轮盘是下面的样子:

如此,数据包只需要在时间轮盘里找到一个位置,就可以实现Pacing发送了。

我贴出两篇之前写的博客的链接,里面有详细说FQ的一种时间轮盘实现的细节: 
《Linux FQ 队列实现原理浅析》:**:https://blog.csdn.net/dog250/ www.chaoyueyule.com article/details/80025939 
《合并N个有序链表与FQ公平调度》:**:https://blog.csdn.net/dog250/article/details/80234049

在传统的第0代,第1代TCP时代,所谓的“尽可能快地发送”,注定数据包的发送方式是突发的,即Burst方式,而当时间来到我们已经意识到核心转发设备的极限从而对Burst发送方式有所收敛的第2代TCP时代,我们必然要采用基于时间轮盘的Pacing发送方式以适应链路的瓶颈带宽!


在《第二天》这篇文章的最后,作者抒发了一种展望:

所以重点是假如你想大幅改善互联网上的拥塞状况,只需要改变 Linux 网络栈就会大所不同(或许 iOS 网络栈也是类似的)。这也就是为什么在本次的 Linux 网络会议上有这样的一个演讲!

或者说,这也许是我们大家的展望!


插叙一段。这里不得不说的是,Linux赢了。还记得当初有人比较Windows和Linux吗?然而过去了很多年后,请问你有多久没有开启家里的Windows机器了?是的,我们基本都是一部手机足矣,而我们的手机中有超过60%的,其底层,正是Linux内核。

微软无疑是PC时代的王者中的王者,曾经记得微软以Windows打Linux,微软以dot NET对抗Java,多线作战也未见颓势。然而在移动互联网时代,事情起了变化,你会发现Linux和Java似乎堆在一起了,这不就是Android吗?有点意思,微软从一打二变成了一打一,然而却更被动了,事实上,微软在一打一的时候,已经输了…


互联网依然在持续发展进化,作者在抒发了对这个变化的事实之一番感慨后,结束了《第二天》:

通常我以为 TCP/IP 仍然是上世纪 80 年代的东西,所以当从这些专家口中听说这些我们正在设计的网路协议仍然有许多严重的问题时,真的是非常有趣,并且听说现在有不同的方式来设计它们……等等,一直都在随着时间发生着改变,所以正因为这样,我们需要为 2018 年的互联网而不是为 1988 年的互联网设计我们不同的算法。

是啊,30年前TCP/IP的架构在现如今却依然可以拥抱变化,这也让我不禁感叹TCP/IP基因的优良,同时,还有一些同样拥抱变化的别忘了,那就是UNIX,以及我们人类文明自身!

关于《第二天》的读后感,我想就到此为止了,但正如本文一开始所说的,接下来还将有一个部分的内容,那就是关于Van Jacobson那篇经典论文的点点滴滴,如是解释一番后,方可不留遗憾地结束本文!


关于《Congestion Avoidance and Control》

再次给出链接: 
《Congestion Avoidance and Control》:http://ee.lbl.gov/papers/congavoid.pdf

我说,没有读过这篇论文的,就别说自己是TCP拥塞控制圈里人了,这不是开玩笑。因为只有你读了这篇论文,才知道拥塞控制的基本原则是什么不是什么。

我再次重申,拥塞控制算法不是用来加速TCP的,相反,它是用来减速TCP的。想加速TCP,你必须修改控制状态机!

论文里提到

The flow on a TCP connection (or ISO TP-4 or www.yongshiyule178.com Xerox NS SPP connection) should obey a ‘conservation of packets’ principle. And, if this principle were obeyed, congestion collapse would become the exception rather than the rule. Thus congestion control involves finding places that violate conservation and fixing them. 
… 
A new packet isn’t put into the network until an old packet leaves

嗯,就是这个原则,出去一个,进来一个。

在这个基础上,AIMD算法被提出来。AIMD其实也是见招拆招的产物,它本身就是为了Fix下面的违规:

There are only three ways for packet conservation to fail: 
1. The connection doesn’t get www.thq666.com/ to equilibrium, or 
2. A sender injects a new packet before an old packet www.yigou521.com/ has exited, or 
3. The equilibrium can’t be reached www.trgj888.com because of resource limits along the path.

数据包守恒是拥塞控制的最最最最最最最最最基本的原则,这个原则基于单流单链路固定带宽提出,非常直接且简单,很容易理解。

在现实实施中,我们知道,TCP是一个遵循端到端原则的协议,即它对网络是无感知的,所以它必须靠某种算法去动态适应不固定的带宽,比如任何时候都可能会有任何地方发出的新的TCP流,同样,任何时候都有可能有旧TCP流退出从而腾出新的带宽空间,如何去动态适应这些,是最终的算法必须要考虑的事情。

现代互联网的TCP拥塞控制(CC)算法评谈的更多相关文章

  1. [置顶] NS2中TCP拥塞控制仿真过程中盲点解析

    最近利用NS2做TCP拥塞控制协议的仿真,发现很多变量的方法含义都是解释的不清楚,给核心模块修改带来很多麻烦,所以决定用最准确的语言解释成员变量.方法,术语等的含义.限于个人水平,若有错误请留言指正! ...

  2. s6-8 TCP 拥塞控制

    TCP 拥塞控制  虽然网络层也试图管理拥塞,但是,大多数繁重的任务是由TCP来完成的,因为针对拥塞的真正解决方案是减慢数据率  分组守恒:当有一个老的分组离开之后才允许新的分组注入网络  TC ...

  3. TCP拥塞控制机制

     研究TCP的拥塞机制,不仅仅是想了解TCP如何的精巧,更多的是领悟其设计思想,即在一般情况下,我们该怎样处理问题.   一.拥塞的发生与其不可避免    拥塞发生的主要原因:在于网络能够提供的资源不 ...

  4. 牛客网Java刷题知识点之拥塞发生的主要原因、TCP拥塞控制、TCP流量控制、TCP拥塞控制的四大过程(慢启动、拥塞避免、快速重传、快速恢复)

    不多说,直接上干货! 福利 => 每天都推送 欢迎大家,关注微信扫码并加入我的4个微信公众号:   大数据躺过的坑      Java从入门到架构师      人工智能躺过的坑          ...

  5. TCP的.cc文件代码解释(中文)

    #ifndef lint static const char rcsid[] =     "@(#) $Header: /nfs/jade/vint/CVSROOT/ns-2/tcp/tcp ...

  6. TCP拥塞控制

    TCP必须使用端到端拥塞控制而不是使网络辅助的拥塞控制,因为IP层不向端系统提供显式的网络拥塞反馈.TCP采用的方法是让每一个发送方根据所感知到的网络拥塞程度来限制其能向连接发送流量的速率. 几个相关 ...

  7. TCP/IP 笔记 - TCP拥塞控制

    拥塞控制是TCP通信的每一方需要执行的一系列行为,这些行为有特定算法规定,用于防止网络因为大规模的通信负载而瘫痪.其基本方法是当有理由认为网络即将进入拥塞状态(或已由于拥塞而出现路由丢包情况)时减缓T ...

  8. 3.7 TCP拥塞控制

    3.7 TCP拥塞控制 在3.5.5流量控制中有,接收方通过维护一个rwnd来控制流量,本节中考虑三个问题: 第一,  一个TCP发送方如何限制它向其他连接发送流量的速率. 第二,  一个TCP发送方 ...

  9. TCP拥塞控制及连接管理

    在阅读此篇之前,博主强烈建议先看看TCP可靠传输及流量控制. 一.TCP拥塞控制 在某段时间,若对网络中某资源的需求超过了该资源所能提供的可用部分,网络的性能就要变坏——产生拥塞(congestion ...

随机推荐

  1. 在TreeView控件节点中显示图片

    实现效果: 知识运用: TreeView控件中Nodes集合的Add方法 //创建节点并将节点放入集合中 public virtual TreeNode Add (string key,string ...

  2. SpringMVC+Hibernate框架快速搭建

    1.  新建Maven项目springmvc 2.   pom.xml <project xmlns="http://maven.apache.org/POM/4.0.0" ...

  3. spring-boot自定义启动端口

    有时候我们可能需要启动不止一个SpringBoot,而SpringBoot默认的端口号是8080,所以这时候我们就需要修改SpringBoot的默认端口了.修改SpringBoot的默认端口有两种方式 ...

  4. 关于Runtime Issues

    前言:在使用某移动直播的SDK的时候发现,在Run应用的时候会有紫色的警告(Xcode9 + iOS11) 当时还专门提交了工单,当时对方的回复是,大概意思是不影响使用,后期修复. 今天看视频发现这是 ...

  5. Oracle 字符串处理函数

    字符串处理函数 ① substr(string,a,b)/substr(string,a) string 为字符串,string 表示需要截取的字符串. a.b 均为整型数字,a 表示开始截取的位置, ...

  6. 【算法】Fibonacci(斐波那契数列)相关问题

    一.列出Fibonacci数列的前N个数 using System; using System.Collections.Generic; using System.Linq; using System ...

  7. [Wolfgang Mauerer] 深入linux 内核架构 第十三章 系统调用

    作为Linux开发爱好者,从事linux 开发有三年多时间.做过bsp移植,熟悉u-boot代码执行流程:看过几遍<linux 设备驱动程序开发>,分析过kernel启动流程,写过驱动,分 ...

  8. linux shell 单双引号区别

    简要总结: 单引号: 可以说是所见即所得:即将单引号内的内容原样输出,或者描述为单引号里面看见的是什么就会输出什么. 双引号: 把双引号内的内容输出出来:如果内容中有命令,变量等,会先把变量,命令解析 ...

  9. UVA - 10213 How Many Pieces of Land?(欧拉公式 + 高精度)

    圆上有n个点,位置不确定.问这些点两两连接成的线段,最多可以把圆划分成多少块平面? 欧拉公式:V-E+F = 2,V是点数,E是边数,F是面数. 答案是F=C(n,4)+C(n,2)+1,看的别人推的 ...

  10. Diycode开源项目 BaseApplication分析+LeakCanary第三方+CrashHandler自定义异常处理

    1.BaseApplication整个应用的开始 1.1.看一下代码 /* * Copyright 2017 GcsSloop * * Licensed under the Apache Licens ...