1. 1.准备Linux环境
  2. 1.0先将虚拟机的网络模式选为NAT
  3.  
  4. 1.1修改主机名
  5. vi /etc/sysconfig/network
  6.  
  7. NETWORKING=yes
  8. HOSTNAME=itcast ###
  9.  
  10. 1.2修改IP
  11. 两种方式:
  12. 第一种:通过Linux图形界面进行修改(强烈推荐)
  13. 进入Linux图形界面 -> 右键点击右上方的两个小电脑 -> 点击Edit connections -> 选中当前网络System eth0 -> 点击edit按钮 -> 选择IPv4 -> method选择为manual -> 点击add按钮 -> 添加IP192.168.1.101 子网掩码:255.255.255.0 网关:192.168.1.1 -> apply
  14.  
  15. 第二种:修改配置文件方式(屌丝程序猿专用)
  16. vim /etc/sysconfig/network-scripts/ifcfg-eth0
  17.  
  18. DEVICE="eth0"
  19. BOOTPROTO="static" ###
  20. HWADDR="00:0C:29:3C:BF:E7"
  21. IPV6INIT="yes"
  22. NM_CONTROLLED="yes"
  23. ONBOOT="yes"
  24. TYPE="Ethernet"
  25. UUID="ce22eeca-ecde-4536-8cc2-ef0dc36d4a8c"
  26. IPADDR="192.168.1.101" ###
  27. NETMASK="255.255.255.0" ###
  28. GATEWAY="192.168.1.1" ###
  29.  
  30. 1.3修改主机名和IP的映射关系
  31. vim /etc/hosts
  32.  
  33. 192.168.1.101 itcast
  34.  
  35. 1.4关闭防火墙
  36. #查看防火墙状态
  37. service iptables status
  38. #关闭防火墙
  39. service iptables stop
  40. #查看防火墙开机启动状态
  41. chkconfig iptables --list
  42. #关闭防火墙开机启动
  43. chkconfig iptables off
  44. 1.5 修改sudo
  45. su root
  46. vim /etc/sudoers
  47. hadoop用户添加执行的权限
  48.  
  49. 关闭linux服务器的图形界面:
  50. vi /etc/inittab
  51.  
  52. init 5 改成 init 3linux在开机的时候就进入文本界面)
  53.  
  54. 1.5重启Linux
  55. reboot
  56.  
  57. 2.安装JDK
  58. 2.1上传alt+p 后出现sftp窗口,然后put d:\xxx\yy\ll\jdk-7u_65-i585.tar.gz
  59.  
  60. 2.2解压jdk
  61. #创建文件夹
  62. mkdir /home/hadoop/app
  63. #解压
  64. tar -zxvf jdk-7u55-linux-i586.tar.gz -C /home/hadoop/app
  65.  
  66. 2.3java添加到环境变量中
  67. vim /etc/profile
  68. #在文件最后添加
  69. export JAVA_HOME=/home/hadoop/app/jdk-7u_65-i585
  70. export PATH=$PATH:$JAVA_HOME/bin
  71.  
  72. #刷新配置
  73. source /etc/profile
  74.  
  75. 3.安装hadoop2.4.1
  76. 先上传hadoop的安装包到服务器上去/home/hadoop/
  77. 注意:hadoop2.x的配置文件$HADOOP_HOME/etc/hadoop
  78. 伪分布式需要修改5个配置文件
  79. 3.1配置hadoop
  80. 第一个:hadoop-env.sh
  81. vim hadoop-env.sh
  82. #第27行
  83. export JAVA_HOME=/usr/java/jdk1.7.0_65
  84.  
  85. 第二个:core-site.xml
  86.  
  87. <!-- 指定HADOOP所使用的文件系统schemaURI),HDFS的老大(NameNode)的地址 -->
  88. <property>
  89. <name>fs.defaultFS</name>
  90. <value>hdfs://weekend-1206-01:9000</value>
  91. </property>
  92. <!-- 指定hadoop运行时产生文件的存储目录 -->
  93. <property>
  94. <name>hadoop.tmp.dir</name>
  95. <value>/home/hadoop/hadoop-2.4.1/tmp</value>
  96. </property>
  97.  
  98. 第三个:hdfs-site.xml
  99. <!-- 指定HDFS副本的数量 -->
  100. <property>
  101. <name>dfs.replication</name>
  102. <value>1</value>
  103. </property>
  104.  
  105. <property>
  106. <name>dfs.secondary.http.address</name>
  107. <value>192.168.1.152:50090</value>
  108. </property>
  109.  
  110. 第四个:mapred-site.xml (mv mapred-site.xml.template mapred-site.xml)
  111. mv mapred-site.xml.template mapred-site.xml
  112. vim mapred-site.xml
  113. <!-- 指定mr运行在yarn -->
  114. <property>
  115. <name>mapreduce.framework.name</name>
  116. <value>yarn</value>
  117. </property>
  118.  
  119. 第五个:yarn-site.xml
  120. <!-- 指定YARN的老大(ResourceManager)的地址 -->
  121. <property>
  122. <name>yarn.resourcemanager.hostname</name>
  123. <value>weekend-1206-01</value>
  124. </property>
  125. <!-- reducer获取数据的方式 -->
  126. <property>
  127. <name>yarn.nodemanager.aux-services</name>
  128. <value>mapreduce_shuffle</value>
  129. </property>
  130.  
  131. 3.2hadoop添加到环境变量
  132.  
  133. vim /etc/proflie
  134. export JAVA_HOME=/usr/java/jdk1.7.0_65
  135. export HADOOP_HOME=/itcast/hadoop-2.4.1
  136. export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
  137.  
  138. source /etc/profile
  139.  
  140. 3.3格式化namenode(是对namenode进行初始化)
  141. hdfs namenode -format (hadoop namenode -format)
  142.  
  143. 3.4启动hadoop
  144. 先启动HDFS
  145. sbin/start-dfs.sh
  146.  
  147. 再启动YARN
  148. sbin/start-yarn.sh
  149.  
  150. 3.5验证是否启动成功
  151. 使用jps命令验证
  152. 27408 NameNode
  153. 28218 Jps
  154. 27643 SecondaryNameNode
  155. 28066 NodeManager
  156. 27803 ResourceManager
  157. 27512 DataNode
  158.  
  159. http://192.168.1.101:50070 (HDFS管理界面)
  160. http://192.168.1.101:8088 (MR管理界面)
  161.  
  162. 4.配置ssh免登陆
  163. #生成ssh免登陆密钥
  164. #进入到我的home目录
  165. cd ~/.ssh
  166.  
  167. ssh-keygen -t rsa (四个回车)
  168. 执行完这个命令后,会生成两个文件id_rsa(私钥)、id_rsa.pub(公钥)
  169. 将公钥拷贝到要免密登陆的目标机器上
  170. ssh-copy-id localhost
  171. ---------------------------
  172. ssh免登陆:
  173. 生成key:
  174. ssh-keygen
  175. 复制从A复制到B上:
  176. ssh-copy-id B
  177. 验证:
  178. ssh localhost/exitps -e|grep ssh
  179. ssh A #在B中执行

hadoop2.4的伪集群的搭建的更多相关文章

  1. zookeeper伪集群的搭建

    由于公司服务器数量的限制,我们往往没有那么多的服务器用来搭建zookeeper的集群,所以产生了伪集群的搭建,也就是将多个zookeeper搭建在同一台机器上. 准备工作: 1,一台服务器,我们这里用 ...

  2. ZooKeeper伪集群环境搭建

    1.从官网下载程序包. 2.解压. [dev@localhost software]$ tar xzvf zookeeper-3.4.6.tar.gz 3.进入zookeeper文件夹后创建data文 ...

  3. STORM_0004_windows下zookeeper的伪集群的搭建

    -----------------------------------------------------START------------------------------------------ ...

  4. Redis Cluster 伪集群的搭建

    简介 为何要搭建Redis集群?Redis是在内存中保存数据的,而我们的电脑一般内存都不大,这也就意味着Redis不适合存储大数据,适合存储大数据的是Hadoop生态系统的Hbase或者是MogoDB ...

  5. hadoop2.x配合ZooKeeper集群环境搭建

    前期准备就不详细说了,课堂上都介绍了1.修改Linux主机名2.修改IP3.修改主机名和IP的映射关系 ######注意######如果你们公司是租用的服务器或是使用的云主机(如华为用主机.阿里云主机 ...

  6. Centos7:solr伪集群(SolrCloud)搭建

    JDK,tocmat环境搭建 zookeeper集群安装 解压缩zookeeper的压缩包 创建data目录 复制zoo_sample.cfg为zoo.cfg 修改confg/zoo.cfg中 dat ...

  7. ZooKeeper伪集群的搭建(Windows)

    首先下载 zookeeper 地址:https://www.apache.org/dyn/closer.cgi/zookeeper/ 1.下载完成解压后修改文件夹名字为zookeeper1,然后删除c ...

  8. hadoop2.7.1单机和伪集群的搭建-0

    内容中包含 base64string 图片造成字符过多,拒绝显示

  9. Hadoop 学习之路(四)—— Hadoop单机伪集群环境搭建

    一.前置条件 Hadoop的运行依赖JDK,需要预先安装,安装步骤见: Linux下JDK的安装 二.配置免密登录 Hadoop组件之间需要基于SSH进行通讯. 2.1 配置映射 配置ip地址和主机名 ...

随机推荐

  1. NET设计模式 第三部分 结构型模式(7):适配器模式(Adapter Pattern)

    适配器模式(Adapter Pattern) ——.NET设计模式系列之八 Terrylee,2006年2月 概述 在软件系统中,由于应用环境的变化,常常需要将“一些现存的对象”放在新的环境中应用,但 ...

  2. Qt中的标准对话框之QMessageBox

    1. Qt标准对话框 Qt为开发者提供了一些可复用的对话框类型 Qt提供的可复用对话框全部继承自QDialog类 Qt中的对话框的使用方式和QDialog完全一致 2. 标准对话框的使用步骤 ①定义对 ...

  3. F5负载均衡原理

    一. 负载均衡技术 负载均衡技术在现有网络结构之上提供了一种廉价.有效.透明的方法,来扩展网络设备和服务器的带宽.增加吞吐量.加强网络数据处理能力.提高网络的灵活性和可用性. 1.负载均衡发生的流程图 ...

  4. Spring Cloud Eureka 服务发现与消费

    服务发现与消费,其服务发现的任务是由Eureka的客户端完成,而服务的消费任务由Ribbon.JerseyClient等完成,Ribbon是一个基于HTTP和TCP的客户端负载均衡器:使用Jersey ...

  5. Digispark kickstarter + JoyStick 模拟鼠标

    IDE:Arduino 1.0.4 一.线路连接 S-Y --> P5(A0) S-X --> P2(A1) S-K --> P0 VCC --> VCC GND --> ...

  6. MHA failover GTID 专题

    https://yq.aliyun.com/articles/238882?spm=5176.8067842.tagmain.18.73PjU3 摘要: MHA failover GTID 专题 这里 ...

  7. linux 修改mac地址,干坏事必备

    首先关闭无线 wlan0 ifconfig wlan0 down 修改mac地址 macchanger -m [MAC] [INTERFACE] 例如:macchanger -m ::::: wlan ...

  8. Spring cloud和Dubbo

    dubbo由于是二进制的传输,占用带宽会更少springCloud是http协议传输,带宽会比较多,同时使用http协议一般会使用JSON报文,消耗会更大 dubbo的开发难度较大,原因是dubbo的 ...

  9. Mysql 性能优化7【重要】sql语句的优化 慢查询

    慢查询时间设置 慢查询日志分析工具 另一个慢查询日志分析工具 如何对sql进行特定的优化

  10. Selenium操作示例——鼠标悬停显示二级菜单,再点击二级菜单或下拉列表

    这两天在玩python中selenium,遇到一个问题,就是鼠标移动到页面中某按钮或菜单,自动弹出二级菜单或下拉菜单,再自动点击其中的二级菜单或下拉列表. 首先,手工操作:打开母校的主页 http:/ ...