1、概述

上篇文章《架构设计:负载均衡层设计方案(4)——LVS原理》(http://blog.csdn.net/yinwenjie/article/details/46845997),我们介绍了LVS的工作模式,和每一种模式的具体工作过程。这篇文章中,我们将介绍单一LVS节点的安装方式。比起上一篇文章,这一片要提到的安装和配置就是非常简单的了,只要您了解原理,实践就是从容的事情。

您可以在您的电脑上使用VMware虚拟机,按照下面介绍的过程一步一步实践。我们将采用两台虚拟机,一台作为LVS节点,另外一台安装了Nginx的服务器作为Real Server节点。

2、LVS-NAT 模式安装

2.1、准备工作——LVS Server:

LVS Server:LSV Server有两张网卡。

  • eth0:192.168.100.10:这张网卡对应一个封闭的内网,不能访问外网资源,外网也不能直接通过这个IP访问这台主机
  • eth1:192.168.220.100:这张网卡设置的IP可以访问外网,也可以被外网访问。eth1的网关:192.168.220.1。

    1. 以下是设置的eth0 ip信息,
    2. [root@lvs1 ~]# cat /etc/sysconfig/network-scripts/ifcfg-eth0
    3. DEVICE="eth0"
    4. BOOTPROTO="static"
    5. HWADDR="00:0C:29:3E:4A:4F"
    6. ONBOOT="yes"
    7. TYPE="Ethernet"
    8. IPADDR="192.168.100.10"
    9. NETMASK="255.255.255.0"
    10. ====================================
    11. 以下是设置的eth1 ip信息
    12. [root@lvs1 ~]# cat /etc/sysconfig/network-scripts/ifcfg-eth1
    13. DEVICE="eth1"
    14. BOOTPROTO="static"
    15. HWADDR="00:0C:29:3E:4A:59"
    16. ONBOOT="yes"
    17. TYPE="Ethernet"
    18. IPADDR="192.168.220.100"
    19. NETMASK="255.255.255.0"
    20. GATEWAY="192.168.220.1"

记得设置完成后,要重启network服务:

  1. [root@lvs1 ~]# service network restart

ping ping更健康(说明到外网的网管工作是正常的):

  1. [root@lvs1 ~]# ping 192.168.220.1
  2. PING 192.168.220.1 (192.168.220.1) 56(84) bytes of data.
  3. 64 bytes from 192.168.220.1: icmp_seq=1 ttl=128 time=0.447 ms
  4. 64 bytes from 192.168.220.1: icmp_seq=2 ttl=128 time=0.154 ms

另外还可以通过route命令检查:

  1. [root@lvs1 ~]# route
  2. Kernel IP routing table
  3. Destination Gateway Genmask Flags Metric Ref Use Iface
  4. 192.168.100.0 * 255.255.255.0 U 1 0 0 eth0
  5. 192.168.220.0 * 255.255.255.0 U 1 0 0 eth1
  6. default 192.168.220.1 0.0.0.0 UG 0 0 0 eth1

注意,route表中有一项eth1的default的信息,指向192.168.220.1。说明路由配置是正确的。

2.2、准备工作——Real Server:

Real Server:Real Server有一张网卡,在一个封闭的内网环境中。

  • eth0:192.168.100.11:这样LVS Server和Real Server就组成了一个相对封闭的局域网络。注意按照我们介绍的NAT原理,Real Server的eth0的默认网关要设置成Lvs Server:192.168.100.10.

  • 在Real Server上运行了一个Nginx程序,在80端口上。这样以便在后续的过程中,测试LVS-NAT的工作是否正常。

以下是设置的Real Server eth0 的IP信息:

  1. [root@vm1 ~]# cat /etc/sysconfig/network-scripts/ifcfg-eth0
  2. DEVICE="eth0"
  3. BOOTPROTO="static"
  4. HWADDR="00:0C:29:45:04:32"
  5. ONBOOT="yes"
  6. TYPE="Ethernet"
  7. IPADDR=192.168.100.11
  8. NETMASK=255.255.255.0
  9. GATEWAY="192.168.100.10"

一定注意Real Server的网管要设置到LVS的IP:192.168.100.10。接着,看看Nginx是不是工作正常的:

当然,同样的ping ping更健康:

  1. [root@vm1 ~]# ping 192.168.100.10
  2. PING 192.168.100.10 (192.168.100.10) 56(84) bytes of data.
  3. 64 bytes from 192.168.100.10: icmp_seq=1 ttl=64 time=0.259 ms
  4. 64 bytes from 192.168.100.10: icmp_seq=2 ttl=64 time=0.215 ms
  5. 64 bytes from 192.168.100.10: icmp_seq=3 ttl=64 time=0.227 ms

另外一个检查方式,也可以通过route命令:

  1. [root@vm1 ~]# route
  2. Kernel IP routing table
  3. Destination Gateway Genmask Flags Metric Ref Use Iface
  4. 192.168.100.0 * 255.255.255.0 U 1 0 0 eth0
  5. default 192.168.100.10 0.0.0.0 UG 0 0 0 eth0

注意,默认的路由指向192.168.100.10。 
完成准备工作后,我们可以开始安装和配置LVS了。

2.3、开始安装和配置LVS-NAT模式:

ipvsadm是一个LVS的管理程序。我们队LVS的配置都是通过这个管理程序进行实现的。首先我们要安装ipvsadm:

  1. yum -y install ipvsadm

然后开始配置。首先我们要设置LVS机器支持IP转发功能。注意默认IP转发功能是关闭的,重启机器后,又会关闭:

  1. [root@lvs1 ~]# echo 1 >> /proc/sys/net/ipv4/ip_forward

然后我们查看一下,是否改写成功:

  1. [root@lvs1 ~]# cat /proc/sys/net/ipv4/ip_forward
  2. 1

注意,如果您使用vim或者vi命令,改写文件,是不会成功的。因为这个文件存在于内存。不在硬盘上。所以只能通过echo这样的命令改写。

接下来执行如下的命令:

  1. [root@lvs1 ~]# ipvsadm -At 192.168.220.100:80 -s rr
  2. [root@lvs1 ~]# ipvsadm -at 192.168.220.100:80 -r 192.168.100.11 -m

我们来解释一下其中的参数:

  1. -A --add-service 在内核的虚拟服务器表中添加一条新的虚拟服务器记录。也就是增加一台新的虚拟服务器。
  2. -t --tcp-service service-address 说明虚拟服务器提供的是tcp 的服务。
  3. -s --scheduler scheduler 使用的调度算法,可选项包括:rr|wrr|lc|wlc|lblc|lblcr|dh|sh|sed|nq(关于调度算法我们在上篇文章中已经详细介绍了)
  4. -r --real-server server-address 真实的服务器[Real-Server:port]。
  5. -m --masquerading 指定LVS 的工作模式为NAT 模式。

当然ipvsadm还包括很多参数,后面慢慢讲,然后再本文章的最后部分,会给出一个比较完整的参数汇总。最后我们测试一下:

我们在相对于Real Server的外网,通过192.168.220.100的LVS Server IP访问到了Real Server上的Nginx服务。安装和配置成功。

2.4、关于iptables和重启服务的说明

在配置LVA-NAT过程中,建议关闭LVS和Real Server的防火墙服务。这样可以避免不必要的错误发生,增加一次配置成功的几率。但是正常生产环境中,LVS的防火墙根据实际情况最好还是要打开。

请注意,刚才使用ipvsadm配置的信息,在LVS服务器重启后,就会失效。包括ip_forward的配置。所以,最好制作一个脚本文件,并加入到/etc/profile中:

  1. vim /usr/lvsshell.sh
  2. #!/bin/bash
  3. echo 1 > /proc/sys/net/ipv4/ip_forward
  4. ipvsadm -C
  5. ipvsadm -At 192.168.220.100:80 -s rr
  6. ipvsadm -at 192.168.220.100:80 -r 192.168.100.11 -m

3、LVS-DR 模式安装

3.1、准备工作——LVS Server

为了让您了解LVS的另外设置方式,本次我们使用VIP的方式,而不是两张网卡的方式(当然您也可以用两张网卡的方式)。VIP的方式是后面我们将讲到的LVS + Keepalived组合工作模式的常用方式。所谓VIP就死虚拟IP,是指这个IP不会固定捆绑到某一个网卡设备,而是通过ifconfig命令绑定,并在“适当时候”这种绑定关系会随之变化:

DIP:192.168.220.137 
VIP:192.168.220.100

首先我们看看在没有设置VIP之前,LVS主机上的IP信息:

  1. [root@lvs1 ~]# ifconfig
  2. eth1 Link encap:Ethernet HWaddr 00:0C:29:3E:4A:59
  3. inet addr:192.168.220.137 Bcast:192.168.220.255 Mask:255.255.255.0
  4. inet6 addr: fe80::20c:29ff:fe3e:4a59/64 Scope:Link
  5. UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
  6. RX packets:2612 errors:0 dropped:0 overruns:0 frame:0
  7. TX packets:117 errors:0 dropped:0 overruns:0 carrier:0
  8. collisions:0 txqueuelen:1000
  9. RX bytes:159165 (155.4 KiB) TX bytes:8761 (8.5 KiB)
  10. lo Link encap:Local Loopback
  11. inet addr:127.0.0.1 Mask:255.0.0.0
  12. inet6 addr: ::1/128 Scope:Host
  13. UP LOOPBACK RUNNING MTU:16436 Metric:1
  14. RX packets:210 errors:0 dropped:0 overruns:0 frame:0
  15. TX packets:210 errors:0 dropped:0 overruns:0 carrier:0
  16. collisions:0 txqueuelen:0
  17. RX bytes:16944 (16.5 KiB) TX bytes:16944 (16.5 KiB)

然后我们来设置VIP信息:

  1. [root@lvs1 ~]# ifconfig eth1:0 192.168.220.100 broadcast 192.168.220.100 netmask 255.255.255.255 up
  2. [root@lvs1 ~]# route add -host 192.168.220.100 dev eth1:0

路由表会有新的路由信息:

  1. [root@lvs1 ~]# route
  2. Kernel IP routing table
  3. Destination Gateway Genmask Flags Metric Ref Use Iface
  4. 192.168.220.100 * 255.255.255.255 UH 0 0 0 eth1
  5. 192.168.100.0 * 255.255.255.0 U 1 0 0 eth0
  6. 192.168.220.0 * 255.255.255.0 U 1 0 0 eth1
  7. default 192.168.220.1 0.0.0.0 UG 0 0 0 eth1

这时,通过一个外网IP,可以ping通这个VIP(下面这个DOS系统是VM的母机):

  1. C:\Users\yinwenjie> ping 192.168.220.100
  2. 正在 Ping 192.168.220.100 具有 32 字节的数据:
  3. 来自 192.168.220.100 的回复: 字节=32 时间<1ms TTL=64
  4. 来自 192.168.220.100 的回复: 字节=32 时间<1ms TTL=64

以上,我们完成了LVS主机设置LVS-DR工作模式的准备工作。注意:

  • 在您设置过程中,防火前最好关闭,但在正式生产环境中,LVS的防火强最好打开。
  • VIP信息在LVS主机重启后,会消失。所以您最好将设置VIP的命令做成一个脚本。

3.2、准备工作——Real Server

RIP:192.168.220.132

真实服务器的准备工作,需要保证真实服务器能够访问外网网关,并且保证由LVS改写的报文能够被Real Server处理(请参见我的上一篇介绍LVS原理的博文),这就需要做一个回环IP。首先我们看看没有开始设置之前的IP信息:

  1. [root@localhost ~]# ifconfig
  2. eth0 Link encap:Ethernet HWaddr 00:0C:29:FC:91:FC
  3. inet addr:192.168.220.132 Bcast:192.168.220.255 Mask:255.255.255.0
  4. inet6 addr: fe80::20c:29ff:fefc:91fc/64 Scope:Link
  5. UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
  6. RX packets:2384 errors:0 dropped:0 overruns:0 frame:0
  7. TX packets:1564 errors:0 dropped:0 overruns:0 carrier:0
  8. collisions:0 txqueuelen:1000
  9. RX bytes:1551652 (1.4 MiB) TX bytes:144642 (141.2 KiB)
  10. lo Link encap:Local Loopback
  11. inet addr:127.0.0.1 Mask:255.0.0.0
  12. inet6 addr: ::1/128 Scope:Host
  13. UP LOOPBACK RUNNING MTU:65536 Metric:1
  14. RX packets:44 errors:0 dropped:0 overruns:0 frame:0
  15. TX packets:44 errors:0 dropped:0 overruns:0 carrier:0
  16. collisions:0 txqueuelen:0
  17. RX bytes:3361 (3.2 KiB) TX bytes:3361 (3.2 KiB)

使用route命令,查看原始route信息:

  1. [root@localhost ~]# route
  2. Kernel IP routing table
  3. Destination Gateway Genmask Flags Metric Ref Use Iface
  4. 192.168.220.0 * 255.255.255.0 U 1 0 0 eth0
  5. default 192.168.220.1 0.0.0.0 UG 0 0 0 eth0

另外,这台Real Server上有一个Nginx,以保证我们观测LVS-DR的运行情况。我们在外网使用192.168.220.132这个IP,能够访问到Nginx的页面:

接下来,我们开始设置Real Server上的回环IP,首先关闭这台机器进行ARP查询的功能,否则,Real Server会在路由器或者交换机上去查询192.168.220.100这个IP对应的MAC地址(注意,以下的信息都会被还原):

  1. echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore
  2. echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce
  3. echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore
  4. echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce

然后可以设置回环IP了:

  1. [root@vm3 ~]# ifconfig lo:0 192.168.220.100 broadcast 192.168.220.100 netmask 255.255.255.255 up
  2. [root@vm3 ~]# route add -host 192.168.220.100 dev lo:0

检查新的路由信息:

  1. [root@vm3 ~]# route
  2. Kernel IP routing table
  3. Destination Gateway Genmask Flags Metric Ref Use Iface
  4. 192.168.220.100 * 255.255.255.255 UH 0 0 0 lo
  5. 192.168.220.0 * 255.255.255.0 U 1 0 0 eth0
  6. default 192.168.220.1 0.0.0.0 UG 0 0 0 eth0

以上设置完成。完成后,您需要通过ping命令,检查一下网关是否可用(最好可以瓶ping一下外网的某个地址,例如163.com)。LVS-DR模式下,Real Server是直接向请求方返回结果,所以一定要保证网关时可用的。

3.3、开始安装和配置LVS-DR模式

在验证了LVS Server和Real Server都准备好以后,就可以进行LVS-DR模式的设置了。LVS管理软件ipvsadm的安装我们就不敷述了,在LVS-NAT的小结中有关于LVS管理软件安装的介绍。

  1. [root@lvs1 ~]# echo 1 > /proc/sys/net/ipv4/ip_forward
  2. [root@lvs1 ~]# cat /proc/sys/net/ipv4/ip_forward
  3. 1
  4. [root@lvs1 ~]# ipvsadm -C
  5. [root@lvs1 ~]# ipvsadm -At 192.168.220.100:81 -s rr
  6. [root@lvs1 ~]# ipvsadm -at 192.168.220.100:81 -r 192.168.220.132 -g

介绍一下新出现的参数:

  • -g –gatewaying 指定LVS 的工作模式为直接路由模式DR模式(也是LVS默认的模式)

配置完成,是不是很简单。接下来,我们就可以在外网,通过192.168.220.100这个IP访问132这台Real Server上的Nginx服务了:

4、LVS-TUN 模式安装

LVS-TUN模式的安装我不打算再花很大的篇幅讲了,在您通过上一篇文章了解了DR和TUN的不同以后,其配置的过程都是差不多的,只不过一个可以跨越子网,一个不能。所以LVS-TUN模式的安装和配置请首先参考LVS-DR模式。

5、IPVSADM参数汇总

-A –add-service 在内核的虚拟服务器表中添加一条新的虚拟服务器记录。也就是增加一台新的虚拟服务器。

-E –edit-service 编辑内核虚拟服务器表中的一条虚拟服务器记录。

-D –delete-service 删除内核虚拟服务器表中的一条虚拟服务器记录。

-C –clear 清除内核虚拟服务器表中的所有记录。

-R –restore 恢复虚拟服务器规则

-S –save 保存虚拟服务器规则,输出为-R 选项可读的格式

-a –add-server 在内核虚拟服务器表的一条记录里添加一条新的真实服务器记录。也就是在一个虚拟服务器中增加一台新的真实服务器

-e –edit-server 编辑一条虚拟服务器记录中的某条真实服务器记录

-d –delete-server 删除一条虚拟服务器记录中的某条真实服务器记录

-L –list 显示内核虚拟服务器表

-Z –zero 虚拟服务表计数器清零(清空当前的连接数量等)

–set tcp tcpfin udp 设置连接超时值

–start-daemon 启动同步守护进程。他后面可以是master 或backup,用来说明LVS Router 是master 或是backup。在这个功能上也可以采用keepalived 的VRRP 功能。

–stop-daemon 停止同步守护进程

-t –tcp-service service-address 说明虚拟服务器提供的是tcp 的服务[vip:port] or [real-server-ip:port]

-u –udp-service service-address 说明虚拟服务器提供的是udp 的服务[vip:port] or [real-server-ip:port]

-f –fwmark-service fwmark 说明是经过iptables 标记过的服务类型。

-s –scheduler scheduler 使用的调度算法,选项:rr|wrr|lc|wlc|lblc|lblcr|dh|sh|sed|nq, 默认的调度算法是: wlc.

-p –persistent [timeout] 持久稳固的服务。这个选项的意思是来自同一个客户的多次请求,将被同一台真实的服务器处理。timeout 的默认值为300 秒。

-M –netmask netmask persistent granularity mask

-r –real-server server-address 真实的服务器[Real-Server:port]

-g –gatewaying 指定LVS 的工作模式为直接路由模式DR模式(也是LVS默认的模式)

-i –ipip 指定LVS 的工作模式为隧道模式

-m –masquerading 指定LVS 的工作模式为NAT 模式

-w –weight weight 真实服务器的权值

–mcast-interface interface 指定组播的同步接口

-c

–connection 显示LVS 目前的连接 如:ipvsadm -L -c

–timeout 显示tcp tcpfin udp 的timeout 值 如:ipvsadm -L –timeout

–daemon 显示同步守护进程状态

–stats 显示统计信息

–rate 显示速率信息

–sort 对虚拟服务器和真实服务器排序输出

–numeric -n 输出IP 地址和端口的数字形式

好吧,这个就是我网上抄的。

6、后文介绍

LVS的设置实际上没有什么难度,充其量是一个高级玩意儿,是解决特定问题的特定方法。您需要的基础知识涉及到IP协议、子网分割、IP映射、Linux脚本等基本知识。打通任督二脉才是您的根本。

LVS的设置过程中肯定会遇到实际问题,特别是您头几次配置。别慌,别怕,透过现象猜测本质,一个一个的解决问题。就我的经验总结,无非几种问题分类:

  • 网关不通
  • 回环IP设置问题
  • 防火墙问题
  • VIP设置问题
  • 网段或者子网问题

通过包括这篇博客在内的这几篇文章,您已经分别了解了Nginx、LVS的功能、原理、特 点和工作模式。后面一篇文章,我们将把这些负载层的技术混合在一起,介绍Nginx + Keepalived、LVS + Keepalived、LVS + Keepalived + Nginx的安装和配置方式。

(本人这个月“持之以恒”奖已经拿到了,笑一个:哈哈哈)

补充一下:由于工作的原因,期间可能还会推出一篇关于Apache Camel的文章,就算提前进入业务通信层的讨论吧。不过这个看当时的时间安排。目前情况下还是以负载均衡层的讨论为主线。

http://blog.csdn.net/yinwenjie/article/details/47010569

架构设计:负载均衡层设计方案(5)——LVS单节点安装的更多相关文章

  1. 架构设计:负载均衡层设计方案(2)——Nginx安装

    来源:http://blog.csdn.net/yinwenjie(未经允许严禁用于商业用途!) 目录(?)[-] Nginx重要算法介绍 1一致性Hash算法 2轮询与加权轮询 Nginx的安装 1 ...

  2. 架构设计:负载均衡层设计方案(7)——LVS + Keepalived + Nginx安装及配置

    1.概述 上篇文章<架构设计:负载均衡层设计方案(6)——Nginx + Keepalived构建高可用的负载层>(http://blog.csdn.net/yinwenjie/artic ...

  3. 架构设计:负载均衡层设计方案(4)——LVS原理

    之前我们花了两篇文章的篇幅,详细讲解了Nginx的原理.安装和特性组件.请参看<负载均衡层设计方案(2)——Nginx安装>(http://blog.csdn.net/yinwenjie/ ...

  4. 架构设计:负载均衡层设计方案(3)——Nginx进阶

    版权声明:欢迎转载,但是看在我辛勤劳动的份上,请注明来源:http://blog.csdn.net/yinwenjie(未经允许严禁用于商业用途!) 目录(?)[-] Nginx继续进阶 1gzip ...

  5. 架构设计:负载均衡层设计方案(6)——Nginx + Keepalived构建高可用的负载层

    1.概述 前两遍文章中,我们一直在说后文要介绍Nginx + Keepalived的搭建方式.这篇文章开始,我们就来兑现前文的承诺,后续的两篇文章我们将介绍Nginx + Keepalived和 LV ...

  6. 系统架构之负载均衡【F5\nginx\LVS\DNS轮询\】

    在做系统架构规划的时候,负载均衡,HA(高可用性集群,是保证业务连续性的有效解决方案,一般有两个或两个以上的节点,且分为活动节点及备用节点,当活动节点出现故障的时候,由备用节点接管)都是经常需要考虑的 ...

  7. LB(Load balance)负载均衡集群--{LVS-[NAT+DR]单实例实验+LVS+keeplived实验} 菜鸟入门级

    LB(Load balance)负载均衡集群 LVS-[NAT+DR]单实例实验 LVS+keeplived实验 LVS是Linux Virtual Server的简写,意即Linux虚拟服务器,是一 ...

  8. Windows平台分布式架构实践负载均衡

    Windows平台分布式架构实践 - 负载均衡 概述 最近.NET的世界开始闹腾了,微软官方终于加入到了对.NET跨平台的支持,并且在不久的将来,我们在VS里面写的代码可能就可以通过Mono直接在Li ...

  9. Windows平台分布式架构实践 - 负载均衡(转载)

    Windows平台分布式架构实践 - 负载均衡 概述 最近.NET的世界开始闹腾了,微软官方终于加入到了对.NET跨平台的支持,并且在不久的将来,我们在VS里面写的代码可能就可以通过Mono直接在Li ...

随机推荐

  1. 各种边框样式。。本以为border不是这么用的。

    关于文本框样式□ 文本框样式 □ 显示虚线边框的文本框(IE5.5才可看到效果)  <INPUT style="border-width: 1px,1px,1px,1px;border ...

  2. DataGrid loadData loadFilter

    <!DOCTYPE html><html><head> <meta charset="UTF-8"> <title>Cl ...

  3. RingBuffer源代码分析

    看到一篇写的非常详细的帖子,为防止楼主删帖后找不到,果断转载过来 RingBuffer源代码分析 出处:http://bbs.ickey.cn/community/forum.php?mod=view ...

  4. DSp寄存器“是怎么和板子上的”具体地址“一一对应起来的

    转自:http://hzcjustfly.blog.163.com/blog/static/18319712920117191123928/ 最近在学习DSP,今天在开发板TMS320F2808学习例 ...

  5. codeforces 644A Parliament of Berland

    A. Parliament of Berland time limit per test 1 second memory limit per test 256 megabytes input stan ...

  6. 使用MSSQL,连接oracle,对oracle数据进行操作

    EXEC sp_addlinkedserver--创建链接服务器.链接服务器让用户可以对 OLE DB 数据源进行分布式异类查询. @server = 'Mktg',--要创建的链接服务器的名称.s ...

  7. maven 配置文件详解

    <projectxmlns="http://maven.apache.org/POM/4.0.0 " xmlns:xsi="http://www.w3.org/20 ...

  8. Android 模仿电视机关闭界面

    Tween动画 1.在关闭电视机的时候,电视机中间都有一根白条瞬间关闭. 要实现这个效果其实就是利用Tween动画进行实现的. 动画的xml 文件是: android:startOffset=&quo ...

  9. git/github 使用

    原文:http://www.cnblogs.com/fnng/archive/2011/08/25/2153807.html git/github学习笔记 Posted on 2011-08-25 2 ...

  10. javascript js 内存泄露

    JavaScript 内存泄露 1.什么是闭包.以及闭包所涉及的作用域链这里就不说了. 2.JavaScript垃圾回收机制 JavaScript不需要手动地释放内存,它使用一种自动垃圾回收机制(ga ...