hadoop2.4的伪集群的搭建
- 1.准备Linux环境
- 1.0先将虚拟机的网络模式选为NAT
- 1.1修改主机名
- vi /etc/sysconfig/network
- NETWORKING=yes
- HOSTNAME=itcast ###
- 1.2修改IP
- 两种方式:
- 第一种:通过Linux图形界面进行修改(强烈推荐)
- 进入Linux图形界面 -> 右键点击右上方的两个小电脑 -> 点击Edit connections -> 选中当前网络System eth0 -> 点击edit按钮 -> 选择IPv4 -> method选择为manual -> 点击add按钮 -> 添加IP:192.168.1.101 子网掩码:255.255.255.0 网关:192.168.1.1 -> apply
- 第二种:修改配置文件方式(屌丝程序猿专用)
- vim /etc/sysconfig/network-scripts/ifcfg-eth0
- DEVICE="eth0"
- BOOTPROTO="static" ###
- HWADDR="00:0C:29:3C:BF:E7"
- IPV6INIT="yes"
- NM_CONTROLLED="yes"
- ONBOOT="yes"
- TYPE="Ethernet"
- UUID="ce22eeca-ecde-4536-8cc2-ef0dc36d4a8c"
- IPADDR="192.168.1.101" ###
- NETMASK="255.255.255.0" ###
- GATEWAY="192.168.1.1" ###
- 1.3修改主机名和IP的映射关系
- vim /etc/hosts
- 192.168.1.101 itcast
- 1.4关闭防火墙
- #查看防火墙状态
- service iptables status
- #关闭防火墙
- service iptables stop
- #查看防火墙开机启动状态
- chkconfig iptables --list
- #关闭防火墙开机启动
- chkconfig iptables off
- 1.5 修改sudo
- su root
- vim /etc/sudoers
- 给hadoop用户添加执行的权限
- 关闭linux服务器的图形界面:
- vi /etc/inittab
- 把 init 5 改成 init 3(linux在开机的时候就进入文本界面)
- 1.5重启Linux
- reboot
- 2.安装JDK
- 2.1上传alt+p 后出现sftp窗口,然后put d:\xxx\yy\ll\jdk-7u_65-i585.tar.gz
- 2.2解压jdk
- #创建文件夹
- mkdir /home/hadoop/app
- #解压
- tar -zxvf jdk-7u55-linux-i586.tar.gz -C /home/hadoop/app
- 2.3将java添加到环境变量中
- vim /etc/profile
- #在文件最后添加
- export JAVA_HOME=/home/hadoop/app/jdk-7u_65-i585
- export PATH=$PATH:$JAVA_HOME/bin
- #刷新配置
- source /etc/profile
- 3.安装hadoop2.4.1
- 先上传hadoop的安装包到服务器上去/home/hadoop/
- 注意:hadoop2.x的配置文件$HADOOP_HOME/etc/hadoop
- 伪分布式需要修改5个配置文件
- 3.1配置hadoop
- 第一个:hadoop-env.sh
- vim hadoop-env.sh
- #第27行
- export JAVA_HOME=/usr/java/jdk1.7.0_65
- 第二个:core-site.xml
- <!-- 指定HADOOP所使用的文件系统schema(URI),HDFS的老大(NameNode)的地址 -->
- <property>
- <name>fs.defaultFS</name>
- <value>hdfs://weekend-1206-01:9000</value>
- </property>
- <!-- 指定hadoop运行时产生文件的存储目录 -->
- <property>
- <name>hadoop.tmp.dir</name>
- <value>/home/hadoop/hadoop-2.4.1/tmp</value>
- </property>
- 第三个:hdfs-site.xml
- <!-- 指定HDFS副本的数量 -->
- <property>
- <name>dfs.replication</name>
- <value>1</value>
- </property>
- <property>
- <name>dfs.secondary.http.address</name>
- <value>192.168.1.152:50090</value>
- </property>
- 第四个:mapred-site.xml (mv mapred-site.xml.template mapred-site.xml)
- mv mapred-site.xml.template mapred-site.xml
- vim mapred-site.xml
- <!-- 指定mr运行在yarn上 -->
- <property>
- <name>mapreduce.framework.name</name>
- <value>yarn</value>
- </property>
- 第五个:yarn-site.xml
- <!-- 指定YARN的老大(ResourceManager)的地址 -->
- <property>
- <name>yarn.resourcemanager.hostname</name>
- <value>weekend-1206-01</value>
- </property>
- <!-- reducer获取数据的方式 -->
- <property>
- <name>yarn.nodemanager.aux-services</name>
- <value>mapreduce_shuffle</value>
- </property>
- 3.2将hadoop添加到环境变量
- vim /etc/proflie
- export JAVA_HOME=/usr/java/jdk1.7.0_65
- export HADOOP_HOME=/itcast/hadoop-2.4.1
- export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
- source /etc/profile
- 3.3格式化namenode(是对namenode进行初始化)
- hdfs namenode -format (hadoop namenode -format)
- 3.4启动hadoop
- 先启动HDFS
- sbin/start-dfs.sh
- 再启动YARN
- sbin/start-yarn.sh
- 3.5验证是否启动成功
- 使用jps命令验证
- 27408 NameNode
- 28218 Jps
- 27643 SecondaryNameNode
- 28066 NodeManager
- 27803 ResourceManager
- 27512 DataNode
- http://192.168.1.101:50070 (HDFS管理界面)
- http://192.168.1.101:8088 (MR管理界面)
- 4.配置ssh免登陆
- #生成ssh免登陆密钥
- #进入到我的home目录
- cd ~/.ssh
- ssh-keygen -t rsa (四个回车)
- 执行完这个命令后,会生成两个文件id_rsa(私钥)、id_rsa.pub(公钥)
- 将公钥拷贝到要免密登陆的目标机器上
- ssh-copy-id localhost
- ---------------------------
- ssh免登陆:
- 生成key:
- ssh-keygen
- 复制从A复制到B上:
- ssh-copy-id B
- 验证:
- ssh localhost/exit,ps -e|grep ssh
- ssh A #在B中执行
hadoop2.4的伪集群的搭建的更多相关文章
- zookeeper伪集群的搭建
由于公司服务器数量的限制,我们往往没有那么多的服务器用来搭建zookeeper的集群,所以产生了伪集群的搭建,也就是将多个zookeeper搭建在同一台机器上. 准备工作: 1,一台服务器,我们这里用 ...
- ZooKeeper伪集群环境搭建
1.从官网下载程序包. 2.解压. [dev@localhost software]$ tar xzvf zookeeper-3.4.6.tar.gz 3.进入zookeeper文件夹后创建data文 ...
- STORM_0004_windows下zookeeper的伪集群的搭建
-----------------------------------------------------START------------------------------------------ ...
- Redis Cluster 伪集群的搭建
简介 为何要搭建Redis集群?Redis是在内存中保存数据的,而我们的电脑一般内存都不大,这也就意味着Redis不适合存储大数据,适合存储大数据的是Hadoop生态系统的Hbase或者是MogoDB ...
- hadoop2.x配合ZooKeeper集群环境搭建
前期准备就不详细说了,课堂上都介绍了1.修改Linux主机名2.修改IP3.修改主机名和IP的映射关系 ######注意######如果你们公司是租用的服务器或是使用的云主机(如华为用主机.阿里云主机 ...
- Centos7:solr伪集群(SolrCloud)搭建
JDK,tocmat环境搭建 zookeeper集群安装 解压缩zookeeper的压缩包 创建data目录 复制zoo_sample.cfg为zoo.cfg 修改confg/zoo.cfg中 dat ...
- ZooKeeper伪集群的搭建(Windows)
首先下载 zookeeper 地址:https://www.apache.org/dyn/closer.cgi/zookeeper/ 1.下载完成解压后修改文件夹名字为zookeeper1,然后删除c ...
- hadoop2.7.1单机和伪集群的搭建-0
内容中包含 base64string 图片造成字符过多,拒绝显示
- Hadoop 学习之路(四)—— Hadoop单机伪集群环境搭建
一.前置条件 Hadoop的运行依赖JDK,需要预先安装,安装步骤见: Linux下JDK的安装 二.配置免密登录 Hadoop组件之间需要基于SSH进行通讯. 2.1 配置映射 配置ip地址和主机名 ...
随机推荐
- NET设计模式 第三部分 结构型模式(7):适配器模式(Adapter Pattern)
适配器模式(Adapter Pattern) ——.NET设计模式系列之八 Terrylee,2006年2月 概述 在软件系统中,由于应用环境的变化,常常需要将“一些现存的对象”放在新的环境中应用,但 ...
- Qt中的标准对话框之QMessageBox
1. Qt标准对话框 Qt为开发者提供了一些可复用的对话框类型 Qt提供的可复用对话框全部继承自QDialog类 Qt中的对话框的使用方式和QDialog完全一致 2. 标准对话框的使用步骤 ①定义对 ...
- F5负载均衡原理
一. 负载均衡技术 负载均衡技术在现有网络结构之上提供了一种廉价.有效.透明的方法,来扩展网络设备和服务器的带宽.增加吞吐量.加强网络数据处理能力.提高网络的灵活性和可用性. 1.负载均衡发生的流程图 ...
- Spring Cloud Eureka 服务发现与消费
服务发现与消费,其服务发现的任务是由Eureka的客户端完成,而服务的消费任务由Ribbon.JerseyClient等完成,Ribbon是一个基于HTTP和TCP的客户端负载均衡器:使用Jersey ...
- Digispark kickstarter + JoyStick 模拟鼠标
IDE:Arduino 1.0.4 一.线路连接 S-Y --> P5(A0) S-X --> P2(A1) S-K --> P0 VCC --> VCC GND --> ...
- MHA failover GTID 专题
https://yq.aliyun.com/articles/238882?spm=5176.8067842.tagmain.18.73PjU3 摘要: MHA failover GTID 专题 这里 ...
- linux 修改mac地址,干坏事必备
首先关闭无线 wlan0 ifconfig wlan0 down 修改mac地址 macchanger -m [MAC] [INTERFACE] 例如:macchanger -m ::::: wlan ...
- Spring cloud和Dubbo
dubbo由于是二进制的传输,占用带宽会更少springCloud是http协议传输,带宽会比较多,同时使用http协议一般会使用JSON报文,消耗会更大 dubbo的开发难度较大,原因是dubbo的 ...
- Mysql 性能优化7【重要】sql语句的优化 慢查询
慢查询时间设置 慢查询日志分析工具 另一个慢查询日志分析工具 如何对sql进行特定的优化
- Selenium操作示例——鼠标悬停显示二级菜单,再点击二级菜单或下拉列表
这两天在玩python中selenium,遇到一个问题,就是鼠标移动到页面中某按钮或菜单,自动弹出二级菜单或下拉菜单,再自动点击其中的二级菜单或下拉列表. 首先,手工操作:打开母校的主页 http:/ ...