1、hadoop HA分布式集群搭建
概述
hadoop2中NameNode可以有多个(目前只支持2个)。每一个都有相同的职能。一个是active状态的,一个是standby状态的。当集群运行时,只有active状态的NameNode是正常工作的,standby状态的NameNode是处于待命状态的,时刻同步active状态NameNode的数据。一旦active状态的NameNode不能工作,standby状态的NameNode就可以转变为active状态的,就可以继续工作了。
2个NameNode的数据其实是实时共享的。新HDFS采用了一种共享机制,Quorum Journal Node(JournalNode)集群或者Nnetwork File System(NFS)进行共享。NFS是操作系统层面的,JournalNode是hadoop层面的,我们这里使用JournalNode集群进行数据共享(这也是主流的做法)。JournalNode的架构图如下:
两个NameNode为了数据同步,会通过一组称作JournalNodes的独立进程进行相互通信。当active状态的NameNode的命名空间有任何修改时,会告知大部分的JournalNodes进程。standby状态的NameNode有能力读取JNs中的变更信息,并且一直监控edit log的变化,把变化应用于自己的命名空间。standby可以确保在集群出错时,命名空间状态已经完全同步了。
对于HA集群而言,确保同一时刻只有一个NameNode处于active状态是至关重要的。否则,两个NameNode的数据状态就会产生分歧,可能丢失数据,或者产生错误的结果。为了保证这点,这就需要利用使用ZooKeeper了。首先HDFS集群中的两个NameNode都在ZooKeeper中注册,当active状态的NameNode出故障时,ZooKeeper能检测到这种情况,它就会自动把standby状态的NameNode切换为active状态。
hadoop-ha包含HDFS的HA和YARN的HA,下面就2个部件的HA进行搭建。
环境介绍:
os:centos7.0
hadoop:2.8.0
zookeeper:3.4.10
5台虚拟机,各服务部署情况如下:
主机名 |
IP |
安装软件 |
运行进程 |
c7001 |
192.168.70.101 |
Hadoop(HA) |
NameNode、ResourceManager、DFSZKFailoverController |
c7002 |
192.168.70.102 |
Hadoop(HA) |
NameNode、ResourceManager、DFSZKFailoverController |
c7003 |
192.168.70.103 |
Hadoop,Zookeeper |
DataNode、NodeManager、QuorumPeerMain、JournalNode |
c7004 |
192.168.70.104 |
Hadoop,Zookeeper |
DataNode、NodeManager、QuorumPeerMain、JournalNode |
c7005 |
192.168.70.105 |
Hadoop,Zookeeper |
DataNode、NodeManager、QuorumPeerMain、JournalNode |
说明:出于操作的便利性,本篇使用vagrant+virtualbox来搭建虚拟环境。
1、工具安装
1)、下载并安装VirtualBox,下载地址 https://www.virtualbox.org/wiki/Downloads 版本为5.1.18
2)、下载并安装Vagrant,下载地址 https://www.vagrantup.com/downloads.html 版本为1.9.3
3)、从GitHub上Clone ambari的ambari-vagrant到/opt/目录下,在终端执行:
git clone https:
//github.com/u39kun/ambari-vagrant.git
4)、增加虚拟机的hosts配置到宿主机的/etc/hosts中
sudo -s
'cat ambari-vagrant/append-to-etc-hosts.txt >> /etc/hosts'
5)、使用vagrant命令创建一个私钥
vagrant
此命令会在宿主机的~/.vagrant.d/目录下创建insecure_private_key文件,并显示出vagrant的用法。
2、安装虚拟机
1)、在/opt目录下执行
cd ambari-vagrant
cd centos7.0
cp ~/.vagrant.d/insecure_private_key . #此操作为宿主机到虚拟机的无密码登录
2)、由于我们是纯Hadoop安装,所以不需要每个虚拟机默认3.7G内存,(如果你宿主机内存多的话,可以不做修改),故修改centos7.0目录下的Vagrantfile。
vb.customize [
"modifyvm"
, :id,
"--memory"
, 2048
] # RAM allocated to each VM
3)、通过目录下./up.sh命令来启动1或多个虚拟机。每个虚拟机将运行一个hadoop节点。
./up.sh <# of VMs to launch>
比如要启动5个虚拟机,则命令为:./up.sh 5
至此我们的工具和虚拟机都已经安装完成,并且宿主机ssh到各个虚拟机都是无密码连接。
说明:此种安装工具和虚拟机的过程需要vpn.
3、无密码登录
1)在宿主机终端/opt/ambari-vagrant/centos7.0目录执行
vagrant ssh c7001
登录到c7001,然后执行
ssh-keygen -t rsa
在~/.ssh/目录中生成两个文件id_rsa和id_rsa.pub
如果想从c7001免密码登录到c7002、c7003、c7004、c7005中要在c7001中执行
ssh-copy-id -i ~/.ssh/id_rsa.pub vagrant@c7001
ssh-copy-id -i ~/.ssh/id_rsa.pub vagrant@c7002
ssh-copy-id -i ~/.ssh/id_rsa.pub vagrant@c7003
ssh-copy-id -i ~/.ssh/id_rsa.pub vagrant@c7004
ssh-copy-id -i ~/.ssh/id_rsa.pub vagrant@c7005
实现c7001、c7002、c7003、c7004、c7005任意之间的无密码登录,重复上述步骤。
4、安装ZooKeeper集群
此处不再赘述,请参看http://www.cnblogs.com/netbloomy/p/6658041.html
5、在c7001、c7002、c7003、c7004、c7005机器的/opt目录下安装jdk,并设置环境变量
wget http://download.oracle.com/otn-pub/java/jdk/8u121-b13/e9e7ea248e2c4826b92b3f075a80e441/jdk-8u121-linux-x64.tar.gz?AuthParam=1491205869_4d911aca9d38a4b869d2a6ecaa9bbf47
tar zxvf jdk-8u121-linux-x64.tar.gz
vi ~/.bash_profile
export JAVA_HOME=/opt/jdk1.8.0_121
export PATH=$PATH:$JAVA_HOME/bin
6、安装Hadoop集群
1)、下载并解压hadoop
在c7001、c7002、c7003、c7004、c7005的终端目录/opt下执行如下命令:
wget http://219.238.4.196/files/705200000559DFDC/apache.communilink.net/hadoop/common/hadoop-2.8.0/hadoop-2.8.0.tar.gz
然后再把各个机器上的hadoop解压
tar zxvf hadoop-2.8.0.tar.gz
2)、在c7001终端修改hadoop配置文件,这里需要修改的有core-site.xml、hdfs-site.xml、mapreduce-site.xml、yarn-site.xml、hadoop-env.sh、mapred-env.sh、yarn-env.sh这7个文件
core-site.xml
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://bdcluster</value>
</property>
<!-- 指定hadoop临时目录 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/hadoop-2.8.0/tmp</value>
</property>
<!-- 指定zookeeper地址 -->
<property>
<name>ha.zookeeper.quorum</name>
<value>c7003:2181,c7004:2181,c7005:2181</value>
</property>
<property>
<name>ha.zookeeper.session-timeout.ms</name>
<value>3000</value>
</property>
</configuration>
hdfs-site.xml
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<!--指定hdfs的nameservice为bdcluster,需要和core-site.xml中的保持一致 -->
<property>
<name>dfs.nameservices</name>
<value>bdcluster</value>
</property>
<!-- bdcluster下面有两个NameNode,分别是nn1,nn2 -->
<property>
<name>dfs.ha.namenodes.bdcluster</name>
<value>nn1,nn2</value>
</property>
<!-- nn1的RPC通信地址 -->
<property>
<name>dfs.namenode.rpc-address.bdcluster.nn1</name>
<value>c7001:9000</value>
</property>
<!-- nn2的RPC通信地址 -->
<property>
<name>dfs.namenode.rpc-address.bdcluster.nn2</name>
<value>c7002:9000</value>
</property>
<!-- nn1的http通信地址 -->
<property>
<name>dfs.namenode.http-address.bdcluster.nn1</name>
<value>c7001:50070</value>
</property>
<!-- nn2的http通信地址 -->
<property>
<name>dfs.namenode.http-address.bdcluster.nn2</name>
<value>c7002:50070</value>
</property>
<!-- 指定NameNode的元数据在JournalNode上的存放位置 -->
<property>
<name>dfs.namenode.shared.edits.dir</name>
<value>qjournal://c7003:8485;c7004:8485;c7005:8485/bdcluster</value>
</property>
<!-- 指定JournalNode在本地磁盘存放数据的位置 -->
<property>
<name>dfs.journalnode.edits.dir</name>
<value>/opt/hadoop-2.8.0/tmp/journal</value>
</property>
<property>
<name>dfs.ha.automatic-failover.enabled</name>
<value>true</value>
</property>
<!-- 配置失败自动切换实现方式 -->
<property>
<name>dfs.client.failover.proxy.provider.bdcluster</name>
<value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider
</value>
</property>
<!-- 配置隔离机制,多个机制用换行分割,即每个机制暂用一行 -->
<property>
<name>dfs.ha.fencing.methods</name>
<value>
sshfence
shell(/bin/true)
</value>
</property>
<!-- 使用sshfence隔离机制时需要ssh免密码登陆 -->
<property>
<name>dfs.ha.fencing.ssh.private-key-files</name>
<value>/home/vagrant/.ssh/id_rsa</value>
</property>
<!-- 配置sshfence隔离机制超时时间 -->
<property>
<name>dfs.ha.fencing.ssh.connect-timeout</name>
<value>30000</value>
</property>
<!--指定namenode名称空间的存储地址 -->
<property>
<name>dfs.namenode.name.dir</name>
<value>file:///opt/hadoop-2.8.0/hdfs/name</value>
</property>
<!--指定datanode数据存储地址 -->
<property>
<name>dfs.datanode.data.dir</name>
<value>file:///opt/hadoop-2.8.0/hdfs/data</value>
</property>
<!--指定数据冗余份数 -->
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
</configuration>
mapred-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<!-- 配置 MapReduce JobHistory Server 地址 ,默认端口10020 -->
<property>
<name>mapreduce.jobhistory.address</name>
<value>0.0.0.0:10020</value>
</property>
<!-- 配置 MapReduce JobHistory Server web ui 地址, 默认端口19888 -->
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>0.0.0.0:19888</value>
</property>
</configuration>
yarn-site.xml
<?xml version="1.0"?>
<configuration>
<!--开启resourcemanagerHA,默认为false -->
<property>
<name>yarn.resourcemanager.ha.enabled</name>
<value>true</value>
</property>
<!--开启自动恢复功能 -->
<property>
<name>yarn.resourcemanager.recovery.enabled</name>
<value>true</value>
</property>
<!-- 指定RM的cluster id -->
<property>
<name>yarn.resourcemanager.cluster-id</name>
<value>yrc</value>
</property>
<!--配置resourcemanager -->
<property>
<name>yarn.resourcemanager.ha.rm-ids</name>
<value>rm1,rm2</value>
</property>
<!-- 分别指定RM的地址 -->
<property>
<name>yarn.resourcemanager.hostname.rm1</name>
<value>c7001</value>
</property>
<property>
<name>yarn.resourcemanager.hostname.rm2</name>
<value>c7002</value>
</property>
<!-- <property> <name>yarn.resourcemanager.ha.id</name> <value>rm1</value>
<description>If we want to launch more than one RM in single node,we need
this configuration</description> </property> -->
<!-- 指定zk集群地址 -->
<property>
<name>ha.zookeeper.quorum</name>
<value>c7003:2181,c7004:2181,c7005:2181</value>
</property>
!--配置与zookeeper的连接地址-->
<property>
<name>yarn.resourcemanager.zk-state-store.address</name>
<value>c7003:2181,c7004:2181,c7005:2181</value>
</property>
<property>
<name>yarn.resourcemanager.store.class</name>
<value>org.apache.hadoop.yarn.server.resourcemanager.recovery.ZKRMStateStore
</value>
</property>
<property>
<name>yarn.resourcemanager.zk-address</name>
<value>c7003:2181,c7004:2181,c7005:2181</value>
</property>
<property>
<name>yarn.resourcemanager.ha.automatic-failover.zk-base-path</name>
<value>/yarn-leader-election</value>
<description>Optionalsetting.Thedefaultvalueis/yarn-leader-election
</description>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
hadoop-env.sh & mapred-env.sh & yarn-env.sh
export JAVA_HOME=/opt/jdk1.8.0_121
export CLASS_PATH=$JAVA_HOME/lib:$JAVA_HOME/jre/lib
export HADOOP_HOME=/opt/hadoop-2.8.0
export HADOOP_PID_DIR=/opt/hadoop-2.8.0/pids
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="$HADOOP_OPTS-Djava.library.path=$HADOOP_HOME/lib/native"
export HADOOP_PREFIX=$HADOOP_HOME
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export HDFS_CONF_DIR=$HADOOP_HOME/etc/hadoop
export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop
export JAVA_LIBRARY_PATH=$HADOOP_HOME/lib/native
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
slaves
c7001
c7002
c7003
c7004
c7005
然后通过执行如下命令将c7001修改好的配置文件同步到c7002、c7003、c7004、c7005:
scp -r /opt/hadoop-2.8.0/etc/hadoop vagrant@c7002:/opt/hadoop-2.8.0/etc/
scp -r /opt/hadoop-2.8.0/etc/hadoop vagrant@c7003:/opt/hadoop-2.8.0/etc/
scp -r /opt/hadoop-2.8.0/etc/hadoop vagrant@c7004:/opt/hadoop-2.8.0/etc/
scp -r /opt/hadoop-2.8.0/etc/hadoop vagrant@c7005:/opt/hadoop-2.8.0/etc/
至此,hadoop的配置文件已经全部配置完毕
7、启动Hadoop集群
1)、启动zookeeper集群
分别在c7003、c7004、c7005上执行如下命令启动zookeeper集群;
[vagrant@c7003 bin]$ sh zkServer.sh start
验证集群zookeeper集群是否启动,分别在c7003、c7004、c7005上执行如下命令验证zookeeper集群是否启动,集群启动成功,有两个follower节点跟一个leader节点;
[vagrant@c7003 bin]$ sh zkServer.sh status
JMX enabled by default
Using config: /opt/zookeeper-3.4.10/bin/../conf/zoo.cfg
Mode: follower
2)、 启动journalnode集群
在c7001上执行如下命令完成JournalNode集群的启动
[vagrant@c7001 hadoop-2.8.0]$ sbin/hadoop-daemons.sh start journalnode
执行jps命令,可以查看到JournalNode的java进程pid
3)、格式化zkfc,让在zookeeper中生成ha节点
在c7001上执行如下命令,完成格式化
hdfs zkfc -formatZK
格式成功后,查看zookeeper中可以看到
[zk: localhost:2181(CONNECTED) 1] ls /hadoop-ha
[bdcluster]
4)、 格式化hdfs
hadoop namenode -format
5)、 启动NameNode
首先在c7001上启动active节点,在c7001上执行如下命令
[vagrant@c7001 hadoop-2.8.0]$ sbin/hadoop-daemon.sh start namenode
在c7002上同步namenode的数据,同时启动standby的namenod,命令如下
#把NameNode的数据同步到c7002上
[vagrant@c7002 hadoop-2.8.0]$ bin/hdfs namenode -bootstrapStandby
#启动c7002上的namenode作为standby
[vagrant@c7002 hadoop-2.8.0]$ sbin/hadoop-daemon.sh start namenode
6)、 启动启动datanode
在c7001上执行如下命令
[vagrant@c7001 hadoop-2.8.0]$ sbin/hadoop-daemons.sh start datanode
7)、 启动yarn
在作为资源管理器上的机器上启动,我这里是c7001,执行如下命令完成year的启动
[vagrant@c7001 hadoop-2.8.0]$ sbin/start-yarn.sh
8)、 启动ZKFC
在c7001上执行如下命令,完成ZKFC的启动
[vagrant@c7001 hadoop-2.8.0]$ sbin/hadoop-daemons.sh start zkfc
全部启动完后分别在c7001、c7002、c7003、c7004、c7005上执行jps是可以看到下面这些进程的
#c7001上的java PID进程
[vagrant@c7001 hadoop-2.8.0]$ jps
7857 DataNode
7270 JournalNode
8118 NodeManager
8550 DFSZKFailoverController
8007 ResourceManager
8968 NameNode
9065 Jps
#c7002上的java PID进程
[vagrant@c7002 hadoop-2.8.0]$ jps
6929 DFSZKFailoverController
6738 NodeManager
6441 NameNode
6603 DataNode
6221 JournalNode
7615 Jps
#c7003上的java PID进程
[vagrant@c7003 hadoop-2.8.0]$ jps
6040 DataNode
6473 Jps
4764 QuorumPeerMain
5870 JournalNode
6175 NodeManager
#c7004上的java PID进程
[vagrant@c7004 hadoop-2.8.0]$ jps
4739 QuorumPeerMain
5875 JournalNode
6180 NodeManager
6475 Jps
6046 DataNode
#c7005上的java PID进程
6227 NodeManager
6518 Jps
6091 DataNode
5916 JournalNode
4813 QuorumPeerMain
8、测试NameNode HA的高可用性
启动后c7001的namenode和c7002的namenode如下所示:
此时在c7001上执行如下命令关闭c7001上的namenode
[vagrant@c7001 hadoop-2.8.0]$ sbin/hadoop-daemon.sh stop namenode
再次查看c7002上的namenode,发现自动切换为active了!证据如下:
上述验证也可以使用命令hdfs haadmin进行查看NameNode的状态
查看namenode工作状态
hdfs haadmin -getServiceState nn1
将standby状态namenode切换到active
hdfs haadmin –transitionToActive nn1
将active状态namenode切换到standby
hdfs haadmin –transitionToStandby nn2
9、ResourceManager HA
NameNode HA操作完之后我们可以发现只有一个节点(这里是c7001)启动,需要手动启动另外一个节点(c7002)的resourcemanager。
sbin/yarn-daemon.sh start resourcemanager
然后用以下指令查看resourcemanager状态
yarn rmadmin -getServiceState rm1
结果显示Active
yarn rmadmin -getServiceState rm2
而rm2是standby。
验证HA和NameNode HA同理,kill掉Active resourcemanager,则standby的resourcemanager则会转换为Active。
还有一条指令可以强制转换
yarn rmadmin –transitionToStandby rm1
注意:yarn-site.xml的
<property>
<name>yarn.resourcemanager.ha.id</name>
<value>rm1</value>
<description>If we want to launch more than one RM in single node,we need this configuration</description>
</property>
在c7001上配置是rm1,而在c7002上一定要配置rm2,如果不修改,c7002的resourcemanager启动不了。
1、hadoop HA分布式集群搭建的更多相关文章
- hadoop HA分布式集群搭建
概述 hadoop2中NameNode可以有多个(目前只支持2个).每一个都有相同的职能.一个是active状态的,一个是standby状态的.当集群运行时,只有active状态的NameNode是正 ...
- HBase HA分布式集群搭建
HBase HA分布式集群搭建部署———集群架构 搭建之前建议先学习好HBase基本构架原理:https://www.cnblogs.com/lyywj170403/p/9203012.html 集群 ...
- Hadoop(HA)分布式集群部署
Hadoop(HA)分布式集群部署和单节点namenode部署其实一样,只是配置文件的不同罢了. 这篇就讲解hadoop双namenode的部署,实现高可用. 系统环境: OS: CentOS 6.8 ...
- hadoop伪分布式集群搭建与安装(ubuntu系统)
1:Vmware虚拟软件里面安装好Ubuntu操作系统之后使用ifconfig命令查看一下ip; 2:使用Xsheel软件远程链接自己的虚拟机,方便操作.输入自己ubuntu操作系统的账号密码之后就链 ...
- Hadoop完全分布式集群搭建
Hadoop的运行模式 Hadoop一般有三种运行模式,分别是: 单机模式(Standalone Mode),默认情况下,Hadoop即处于该模式,使用本地文件系统,而不是分布式文件系统.,用于开发和 ...
- 大数据之Hadoop完全分布式集群搭建
1.准备阶段 1.1.新建三台虚拟机 Hadoop完全分市式集群是典型的主从架构(master-slave),一般需要使用多台服务器来组建.我们准备3台服务器(关闭防火墙.静态IP.主机名称).如果没 ...
- 基于Hadoop伪分布式集群搭建Spark
一.前置安装 1)JDK 2)Hadoop伪分布式集群 二.Scala安装 1)解压Scala安装包 2)环境变量 SCALA_HOME = C:\ProgramData\scala-2.10.6 P ...
- hadoop2.2.0的ha分布式集群搭建
hadoop2.2.0 ha集群搭建 使用的文件如下: jdk-6u45-linux-x64.bin hadoop-2.2.0.x86_64.tar zookeeper-3.4.5. ...
- Hadoop学习笔记(一):ubuntu虚拟机下的hadoop伪分布式集群搭建
hadoop百度百科:https://baike.baidu.com/item/Hadoop/3526507?fr=aladdin hadoop官网:http://hadoop.apache.org/ ...
随机推荐
- 简单方法实现无刷新提交Form表单
前几天遇到一个前端的问题.我希望提交表单后页面不跳转且不刷新当前页面,然而查了很多方法都没有解决. 由于Form 是提交后一定刷新页面的,所以我们可以用一个折中的办法.我们给Form 指定一个ifra ...
- ImportError: libcublas.so.9.0: cannot open shared object file: No such file or directory 【学习笔记】【原创】
作者:庄泽彬(欢迎转载,请注明作者) 说明:千辛万苦终于在ubuntu18.04上安装好cuda9.1与cudnn7.0.5,但是导入import tensorflow as tf却报了这个错误. 上 ...
- BZOJ3944: Sum(杜教筛模板)
BZOJ3944: Sum(杜教筛模板) 题面描述 传送门 题目分析 求\(\sum_{i=1}^{n}\mu(i)\)和\(\sum_{i=1}^{n}\varphi(i)\) 数据范围线性不可做. ...
- linux 系统忘记登录密码
linux6/6.5再启动时,按e ->在输入行最后面 输入空格 再输入single ->启动设置密码即可 单用户模式 在centos7需要 按e -> 然后滚动列表,找到ro(ro ...
- appium装上开始干嘛
先写appium的启动参数啊 比如调试序列号,设备的系统版本. 什么系统. app的包名,这些代码百度上都有的,针对修改下就行.
- install ros-indigo-tf2
sudo apt-get install ros-indigo-tf2
- 实时更新数据,无需刷新:a,如何使用Turbolinks clearCache(), b Action Cable
视频: https://gorails.com/episodes/how-to-use-turbolinks-clearCache?autoplay=1 用途: 更方便的实时从服务器更新局部网页,在这 ...
- Java开源-astar:A 星算法
astar A星算法Java实现 一.适用场景 在一张地图中,绘制从起点移动到终点的最优路径,地图中会有障碍物,必须绕开障碍物. 二.算法思路 1. 回溯法得到路径 (如果有路径)采用“结点与结点的父 ...
- poj-2096-期望/dp
http://poj.org/problem?id=2096 有n种病毒,s个服务器,每天等概率的在某个服务器上发现某一种病毒,问发现所有种类病毒且覆盖所有的服务器的期望天数. 利用全期望公式可以将期 ...
- 007——php字符串中的处理函数(六)
<?php /** * 一.addslashes() 在预定义字符串前添加反斜杠 * * stripslashes() 把转义字符串前的反斜杠删除 * get_magic_quotes_gpc ...