start-all.sh 总是需要输入当前密码. 一开始以为是权限不够. 1.修改sudo配置文件 sudo visudo 增加 hduser ALL=(ALL) NOPASSWD:ALL 解决了 权限提升需要输入密码的问题. 但是之后执行发现还是需要密码...  搜索后发现原来它是ssh登录本地shell来执行的. 解决办法就是. 把之前生成的rsa公匙追加到 ~/.ssh/authorized_keys cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_…
0. 安装JDK 参考网上教程在OSX下安装jdk 1. 下载及安装hadoop a) 下载地址: http://hadoop.apache.org b) 配置ssh环境 在terminal里面输入: ssh localhost 如果有错误提示信息,表示当前用户没有权限.这个多半是系统为安全考虑,默认设置的. 更改设置如下:进入system preference --> sharing --> 勾选remote login,并设置allow access for all users. 再次输入…
启动hadoop,没有启动namenode进程.log4j:ERROR setFile(null,true) call faild.   解决办法: cd /home/hadoop/hadoop-env/hadoop-1.0.1/log  less hadoop-hadoop-namenode-localhost.localdomain.log  --查看该日志,发现是权限问题 chmod 777 hadoop-hadoop-namenode-localhost.localdomain.log…
服务器角色 服务器 192.168.58.180 192.168.58.181 192.168.58.182 192.168.58.183 Name CentOSMaster Slvae1 Slave2 StandByNameNode NameNode  Yes      Yes DataNode    Yes  Yes  Yes journalNode    Yes  yes  Yes ZooKeeper  Yes  Yes    Yes ZKFC  Yes      Yes Spark  Y…
使用root用户启动hadoop的时候报错: [root@node1 ~]# su - hadoop -c start-all.sh starting namenode, logging to /app/hadoop/bin/../logs/hadoop-hadoop-namenode-node1.out 192.168.1.153: starting datanode, logging to /app/hadoop/bin/../logs/hadoop-hadoop-datanode-node…
start-all.sh 启动所有的Hadoop守护进程.包括NameNode. Secondary NameNode.DataNode.JobTracker. TaskTrack  stop-all.sh 停止所有的Hadoop守护进程.包括NameNode. Secondary NameNode.DataNode.JobTracker. TaskTrack  start-dfs.sh 启动Hadoop HDFS守护进程NameNode.SecondaryNameNode和DataNode …
有时候我们start-dfs.sh启动了hadoop但是发现datanode进程不存在 一.原因 当我们使用hadoop namenode -format格式化namenode时,会在namenode数据文件夹(这个文件夹为自己配置文件中dfs.name.dir的路径)中保存一个current/VERSION文件,记录clusterID,datanode中保存的current/VERSION文件中的clustreID的值是上一次格式化保存的clusterID,这样,datanode和nameno…
在启动Hadoop成功后,并没有报错信息,jps查看进程,发现DFSZKFailoverController没有启动成功,后来发现是因为防火墙的原因,关掉重试就OK了 systemctl stop firewalld…
启动hadoop报错: 解决方法: 我发现没有9000端口被占用,也不知道9000到哪去了,但是也没有NameNode,于是,直接把NameNode格式化了,再重启HDFS即可. 格式化命令:…
报错:启动hadoop报does not contain a valid host:port authority:node2_1:9000 原因:主机的hostname不合法,修改为不包含着‘.’ '/' '_'等非法字符.…
1.rz命令将hadoop压缩包上传至Linux服务器中 2.tar -zxvf hadoop-2.7.7.tar.gz(解压即可用) 3.将解压出来的hadoop移到想要放的位置 mv hadoop-2.7.7 ../software 4.配置六个文件 配置文件在etc目录下 1.hadoop-env.sh cd /opt/software/hadoop-2.7.7 vim etc/hadoop/hadoop-env.sh export JAVA_HOME=/opt/software/jdk1…
自己搭建的集群,启动hadoop 集群是,发现slave节点的datanode没有启动,查了资料发现是因为我在启动集群前,执行了这个命令: hadoop namenode -format 这个指令会重新格式化namenode的信息,这样可能会导致master节点的VERSION信息跟datanode的信息对不上,导致指令无法同步. 查看VERION信息: master 的 namenode 信息: > cd /usr/local/src/hadoop-2.6.1/dfs/name/current…
1.配置core-site.xml(每个节点上都要配置) 路径: /usr/local/hadoop-2.7.3/etc/hadoop/core-site.xml 配置项1: name: fs.defaultFS value: hdfs://master的地址:端口 作用: 告诉所有机器master的相关信息 例如: <property> <name>fs.defaultFS</name> <value>hdfs://192.168.0.104:9000&l…
1.启动前先将主节点下hadoop-2.2.0/hdfs/下,清空,然后新建name文件夹 2.将从节点下hadoop-2.2.0/hdfs/下,清空,然后新建data文件夹 3.hadoop-2.2.0/下,文件系统格式化,bin/hadoop namenode -format 4.启动hdfs与yarn: 进入目录sbin下,./start-dfs.sh(可进入50070端口查看),./start-yarn.sh(可进入8088端口查看) 5.运行pi实例:bin/hadoop jar ./…
问题描述:第一次启动输入jps都有,第二次没有datanode 日志如下: 查看日志如下: -- ::, INFO org.mortbay.log: Started HttpServer2$SelectChannelConnectorWithSafeStartup@ -- ::, INFO org.apache.hadoop.hdfs.server.datanode.DataNode: dnUserName = root -- ::, INFO org.apache.hadoop.hdfs.se…
1.下载tag软件包后,我习惯放到software文件夹下,并建立app文件夹2.通过tar -zxvf hadoop-2.6.0-cdh5.7.0.tar.gz -C ~/app/ 命令解压到app目录下3.配置环境变量:通过vim ~/.bash_profile进行编辑 export HADOOP_HOME=/home/安装目录/hadoop-2.6.0-cdh5.7.0 export PATH=$HADOOP_HOME/bin:$PATH4.使用source命令使修改立即生效source…
转自 http://blog.csdn.net/zhangt85/article/details/42078347 查看日志如下: 2014-12-22 12:08:27,264 INFO org.mortbay.log: Started HttpServer2$SelectChannelConnectorWithSafeStartup@0.0.0.0:500752014-12-22 12:08:27,692 INFO org.apache.hadoop.hdfs.server.datanode…
从截图上看是datanode的clusterID 和 namenode的clusterID 不匹配. 解决办法: 根据日志中的路径,cd /hadoop/data/dfs/ 能看到 data和name两个文件夹, 将name/current下的VERSION中的clusterID复制到data/current下的VERSION中,覆盖掉原来的clusterID   让两个保持一致 然后重启,启动后执行jps,查看进程 出现该问题的原因:在第一次格式化dfs后,启动并使用了hadoop,后来又重新…
查看slaver1/2的logs,发现 FATAL org.apache.hadoop.hdfs.server.datanode.DataNode: Initialization failed for block pool Block pool <registering> (Datanode Uuid unassigned) service to localhost/127.0.0.1:9000java.io.IOException: Incompatible clusterIDs in /u…
不知道怎么回事,今天在启动集群时通过jps查看进程时始终有一个standby namenode进程无法启动.查看日志时报的是不能加载fsimage文件.日志截图如下: 日志报的很明显了是不能加载元数据信息,解决方案: 解决办法: 1.手动copy namenode(active)所在的那台服务器上XXX/dfs/name/current/下的所有文件到namenode(standby) 所在的那台服务器的对应文件夹下. 2. 重新格式化namenode(active),然后再把格式化后的元数据复…
报如错误:JAVA_HOME is not set and could not be found,可能是因为JAVA_HOME环境没配置正确,还有一种情况是即使各结点都正确地配置了JAVA_HOME,但在集群环境下还是报该错误,解决方法是显示地重新声明一遍JAVA_HOME 1.检查JAVA_HOME是否配置正确(伪分布式环境) 启动start-all.sh时报错,如下所示 解决方法: 输入java –version,查看jdk是否安装成功 输入export,查看jdk环境变量是否设置成功 2.…
"Incompatible clusterIDs"的错误原因是在执行"hdfs namenode -format"之前,没有清空DataNode节点的data目录. 网上一些文章和帖子说是tmp目录,它本身也是没问题的,但Hadoop 2.4.0是data目录,实际上这个信息已经由日志的"/data/hadoop/hadoop-2.4.0/data"指出,所以不能死死的参照网上的解决办法,遇到问题时多仔细观察. 从上述描述不难看出,解决办法就是清…
背景:在装完hadoop及jdk之后,在执行start-all.sh的时候出现root@localhost's password:localhost:permission denied,please try again. 解决方案: 1.修改root密码:#sudo passwd root 2.辑配置文件,允许以 root 用户通过 ssh 登录:sudo vi /etc/ssh/sshd_config 找到:PermitRootLogin prohibit-password禁用 添加:Perm…
这个错误是由于配置文件没有配置好.解决方案如下: 1 打开profile文件 vim /etc/profile 2 在文件最后加入的内容应该如下(高亮的两句一般是大家缺少的): export JAVA_HOME=/usr/java/jdk export HADOOP_HOME=/itcast/hadoop-2.6.4 export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/nativeexport HADOOP_OPTS="-Djava.libr…
Hadoop是用作处理大数据用的,核心是HDFS.Map/Reduce.虽然目前工作中不需要使用这个,但是,技多不压身,经过虚拟机很多遍的尝试,终于将Hadoop2.5.2的环境顺利搭建起来了.       首先准备一个CentOS,将主机名改为master,并且在/etc/hosts里面加入master对应的本机ip地址.Linux基本配置vi /etc/sysconfig/network#编辑文件里面的HOSTNAME=mastervi /etc/hosts#添加本机IP地址   maste…
本文环境是在Ubuntu10.04环境下运行的. 在Linux上安装Hadoop之前,首先安装两个程序: 1.JDK1.6(或更高版本).Hadoop是用Java编写的程序,Hadoop编译及MapReduce的运行都需要使用JDK.因此在安装Hadoop之前,必须安装JDK1.6或更高版本. 2.SSH( Secure Shell 安全外壳协议).SSH 为建立在应用层和传输层基础上的安全协议.SSH 是目前较可靠,专为远程登录会话和其他网络服务提供安全性的协议.利用 SSH 协议可以有效防止…
这节就开始讲述Hadoop的安装吧.在这之前先配置下SSH免密码登录,为什么需要配置这个呢?大家都知道Hadoop集群中可能有几十台机器甚至是上千台机器,而每次启动Hadoop都需要输入密码才能够登录到每台机器的DataNode上的,所以为了避免后期繁琐的操作,一般都会配置SSH免密码登录. 注:笔者使用的远程连接工具是XShell,很好用的一款远程连接工具,推荐大家使用,还可以安装一下xftp文件传输工具,方便于将自己电脑上的软件拷贝到虚拟机中,xftp和Xshell是可以配套使用的. 配置S…
一.scala安装 1. 安装jdk 有mac专用的jdk安装包,这里下载安装jdk1.8 2. 安装scala 2.1下载scala 2.2解压到指定目录 tar -zxvf /Users/lodestar/Desktop/临时/scala-2.12.15.tar -C /Users/lodestar/software 2.3环境变量配置 vi ./bash_profile 我本机装过python和maven,这里再加入scala配置 PATH="/Library/Frameworks/Pyt…
简介: Hadoop是处理大数据的主要工具,其核心部分是HDFS.MapReduce.为了学习的方便,我在虚拟机上搭建了一个伪分布式环境,来进行开发学习. 一.安装前准备: 1)linux服务器:Vmware 上CentOS6.4 mini安装 2) JDK:jdk-7u65-linux-x64.gz 3) SSH:ssh client 4) YUM源配置妥当:yum list查看 5)Hadoop:hadoop-2.5.2.tar.gz 下载地址:http://mirror.bit.edu.c…
在本文中,我们主要介绍密码配置的内容,自我感觉有个不错的建议和大家分享下 我的用户名是master 1.安装ssh(若没安装的话) sudo apt-get install ssh 2.配置为可以免密码登岸本机. 2.1查看在master用户下是否存在.ssh文件夹(ssh后面有.的是隐藏文件夹),输入命令ls -a /home/master.我的没有,所以新建个mkdir /home/master/.ssh 2.2生成私钥和公钥:ssh-keygen -t dsa -P '' -f ~/.ss…