1.问题目录表:

Error代码  

failed on connection exception: java.net.ConnectException: Connection refused

3.           : no further information

错误提示“Bad connection to FS. command aborted. exception: Call tolocalhost/127.0.0.1:88

88failed on connection exception: java.net.ConnectException: Connection refused

:no further information”

起初怀疑是fs服务没有启动,但反复关闭启动多次后仍没用,请教高手后,被建议重新格式化namenode,就可以了。

格式化指令如下(在hadoop的bin目录下):

Shell代码  

1.           $ ./hadoop namenode -format

成功之后重启hadoop就可以了

2如果错误还存在,那么手动删除文件

Error代码  

1.           $ bin/hadoop fs -ls /

// :: INFO ipc.Client: Retrying connect to server: localhost/

:. Already tried  time(s).

// :: INFO ipc.Client: Retrying connect to server: localhost/

:. Already tried  time(s).

// :: INFO ipc.Client: Retrying connect to server: localhost/

:. Already tried  time(s).

// :: INFO ipc.Client: Retrying connect to server: localhost/

:. Already tried  time(s).

// :: INFO ipc.Client: Retrying connect to server: localhost/

:. Already tried  time(s).

// :: INFO ipc.Client: Retrying connect to server: localhost/

:. Already tried  time(s).

// :: INFO ipc.Client: Retrying connect to server: localhost/

:. Already tried  time(s).

// :: INFO ipc.Client: Retrying connect to server: localhost/

:. Already tried  time(s).

// :: INFO ipc.Client: Retrying connect to server: localhost/

:. Already tried  time(s).

// :: INFO ipc.Client: Retrying connect to server: localhost/

:. Already tried  time(s).

Error代码  

1.           Bad connection to FS. command aborted.

错误提示“Bad connection to FS. command aborted.”

把你DataNode上的DFS数据全删了,再重新格式化NameNode。

即:先将你D盘下tmp目录下所有文件删了,在重复上面第一点的过程

hadoop格式化失败原因

[root@hadoop home]# hadoop namenode -format

Warning: $HADOOP_HOME is deprecated.





14/01/24 11:41:59 INFO namenode.NameNode: STARTUP_MSG: 

/************************************************************

STARTUP_MSG: Starting NameNode

STARTUP_MSG:   host = hadoop/192.168.174.174

STARTUP_MSG:   args = [-format]

STARTUP_MSG:   version = 1.1.2

STARTUP_MSG:   build =https://svn.apache.org/repos/asf/hadoop/common/branches/branch-1.1 -r 1440782;compiled by 'hortonfo' on Thu Jan 31 02:03:24 UTC 2013

************************************************************/

Re-format filesystem in /usr/java/hadoop/tmp/dfs/name ? (Y or N) y

Format aborted in /usr/java/hadoop/tmp/dfs/name

14/01/24 11:42:04 INFO namenode.NameNode: SHUTDOWN_MSG: 

/************************************************************

SHUTDOWN_MSG: Shutting down NameNode at hadoop/192.168.174.174

************************************************************/

随后启动hadoop,发现http://hdp0:5007无法显示。

将cd/usr/java/hadoop/tmp/dfs文件夹整个删除。然后再格,成功!!!

[root@hadoop dfs]# hadoop namenode -format

Warning: $HADOOP_HOME is deprecated.





14/01/24 11:44:59 INFO namenode.NameNode: STARTUP_MSG: 

/************************************************************

STARTUP_MSG: Starting NameNode

STARTUP_MSG:   host = hadoop/192.168.174.174

STARTUP_MSG:   args = [-format]

STARTUP_MSG:   version = 1.1.2

STARTUP_MSG:   build = https://svn.apache.org/repos/asf/hadoop/common/branches/branch-1.1-r 1440782; compiled by 'hortonfo' on Thu Jan 31 02:03:24 UTC 2013

************************************************************/

14/01/24 11:44:59 INFO util.GSet: VM type       = 32-bit

14/01/24 11:44:59 INFO util.GSet: 2% max memory = 19.33375 MB

14/01/24 11:44:59 INFO util.GSet: capacity      = 2^22 = 4194304entries

14/01/24 11:44:59 INFO util.GSet: recommended=4194304, actual=4194304

14/01/24 11:45:00 INFO namenode.FSNamesystem: fsOwner=root

14/01/24 11:45:00 INFO namenode.FSNamesystem: supergroup=supergroup

14/01/24 11:45:00 INFO namenode.FSNamesystem: isPermissionEnabled=false

14/01/24 11:45:00 INFO namenode.FSNamesystem: dfs.block.invalidate.limit=100

14/01/24 11:45:00 INFO namenode.FSNamesystem: isAccessTokenEnabled=falseaccessKeyUpdateInterval=0 min(s), accessTokenLifetime=0 min(s)

14/01/24 11:45:00 INFO namenode.NameNode: Caching file names occuring more than10 times 

14/01/24 11:45:00 INFO common.Storage: Image file of size 110 saved in 0seconds.

14/01/24 11:45:00 INFO namenode.FSEditLog: closing edit log: position=4,editlog=/usr/java/hadoop/tmp/dfs/name/current/edits

14/01/24 11:45:00 INFO namenode.FSEditLog: close success: truncate to 4,editlog=/usr/java/hadoop/tmp/dfs/name/current/edits

14/01/24 11:45:01 INFO common.Storage: Storage directory/usr/java/hadoop/tmp/dfs/name has been successfully formatted.

14/01/24 11:45:01 INFO namenode.NameNode: SHUTDOWN_MSG: 

/************************************************************

SHUTDOWN_MSG: Shutting down NameNode at hadoop/192.168.174.174

************************************************************//************************************************************

STARTUP_MSG: Starting NameNode

STARTUP_MSG:   host = hdp0/192.168.221.100

STARTUP_MSG:   args = [-format]

STARTUP_MSG:   version = 0.20.2

STARTUP_MSG:   build = https://svn.apache.org/repos/asf/hadoop/common/branches/branch-0.20 -r911707; compiled
by 'chrisdo' on Fri Feb 19 08:07:34 UTC 2010

************************************************************/

11/04/12 15:33:30 INFO namenode.FSNamesystem:fsOwner=hadoop,hadoop,adm,dialout,cdrom,plugdev,lpadmin,admin,sambashare

11/04/12 15:33:30 INFO namenode.FSNamesystem: supergroup=supergroup

11/04/12 15:33:30 INFO namenode.FSNamesystem: isPermissionEnabled=true

11/04/12 15:33:31 INFO common.Storage: Image file of size 96 saved in 0seconds.

11/04/12 15:33:31 INFO common.Storage: Storage directory /home/hadoop/dfs/namehas been successfully formatted.

11/04/12 15:33:31 INFO namenode.NameNode: SHUTDOWN_MSG: 

/************************************************************

SHUTDOWN_MSG: Shutting down NameNode at hdp0/192.168.221.100

************************************************************/


hadoop创建两大错误:Bad connection to FS. command aborted. exception和Shutting down NameNode at hadoop的更多相关文章

  1. hadoop创建两大错误:Bad connection to FS. command aborted. exception和Shutting down NameNod...

    我的hadoop启动后,各个节点都正常,但是无法查看hdfs目录,错误提示 Bad connection to FS. command aborted.  查了下网上的解决办法,主要是删除tmp下的所 ...

  2. Bad connection to FS. command aborted. exception: Call to chaoren/192.168.80.100:9000 failed on connection exception: java.net.ConnectException: Connection refused

    Bad connection to FS. command aborted. exception: Call to chaoren/192.168.80.100:9000 failed on conn ...

  3. hadoop的两大核心之一:HDFS总结

    什么是HDFS? hadoop distributed file system(hadoop分布式文件系统) 是一种允许文件通过网络在多台主机上分享的文件系统, 可让多机器上的多用户分享文件和存储空间 ...

  4. Python 数据库的Connection、Cursor两大对象

    Python 数据库的Connection.Cursor两大对象 pymysql是Python中操作MySQL的模块,其使用方法和py2的MySQLdb几乎相同. Python 数据库图解流程 Con ...

  5. hadoop两大核心之一:MapReduce总结

    MapReduce是一种分布式计算模型,由Google提出,主要用于搜索领域,MapReduce程序 本质上是并行运行的,因此可以解决海量数据的计算问题. MapReduce任务过程被分为两个处理阶段 ...

  6. Go 语言的下一个大版本:Go 2.0 被安排上了(全面兼容1.X,改进错误处理和泛型这两大主题)

    今年 8 月 Go 开发团队公布了 Go 2.0 的设计草案,包括错误处理和泛型这两大主题.现在备受瞩目的 Go 2.0 又有了新动向 —— 昨日 Go 开发团队在其官方博客表示,Go 2 已经被安排 ...

  7. 敏捷数据科学:用Hadoop创建数据分析应用

    敏捷数据科学:用Hadoop创建数据分析应用(数据分析最佳实践入门敏捷大数据首作分步骤|全流程演示思路.工具与方法) [美]Russell Jurney(拉塞尔·朱尔尼) 著   冯文中 朱洪波 译 ...

  8. hadoop学习;大数据集在HDFS中存为单个文件;安装linux下eclipse出错解决;查看.class文件插件

    sudo apt-get install eclipse 安装后打开eclipse,提示出错 An error has occurred. See the log file /home/pengeor ...

  9. solr6.3 + Hbase Indexer使用MR创建索引,错误Bad return type

    使用solr6.3 + Hbase Indexer ,通过Hbase-indexer从Hbase建立索引到solr中,进行全文搜索. 两种实现方式:① 开启hbase-indexer进行实时同步新数据 ...

随机推荐

  1. 5. react 基础 - 组件拆分 和 组件传值

    1.将 todoList 进行拆分 创建 编写TodoList.js import React, {Component, Fragment} from 'react';import TodoItem ...

  2. jq监控滑动

    $(window).scroll(function () { if ($(window).scrollTop() == $(document).height() - $(window).height( ...

  3. 结点选择(树形DP)

    Description 有一棵 n 个节点的树,树上每个节点都有一个正整数权值.如果一个点被选择了,那么在树上和它相邻的点都不能被选择.求选出的点的权值和最大是多少? Input 接下来的一行包含 n ...

  4. 编程作业2.2:Regularized Logistic regression

    题目 在本部分的练习中,您将使用正则化的Logistic回归模型来预测一个制造工厂的微芯片是否通过质量保证(QA),在QA过程中,每个芯片都会经过各种测试来保证它可以正常运行.假设你是这个工厂的产品经 ...

  5. Python dict 字典 keys和values对换

    原字典: d1 = { 'en':'英语', 'cn':'中文', 'fr':'法语', 'jp':'日语' } 经过相互对换: d1_inverse = {values:keys for keys, ...

  6. Python—构造单向链表数据类型

    # _*_ coding=utf-8 _*_ class Node: """ 创建链表的属性 """ def __init__(self, ...

  7. 学会用Python操作Mongodb

    在linux下,用pip导包. pip install pymongo python操作基本步骤: 导包 建立连接,建立客户端. 获取数据库 获取集合 对数据操作 import pymongo #建立 ...

  8. Ubuntu目錄

    /         (这就是著名的根)├── bin         (你在终端运行的大多数程序,比如cp.mv...)├── boot         (内核放在这里,这个目录也经常被作为某个独立分 ...

  9. ASP.NET core MVC动作过滤器执行顺序

    using Microsoft.AspNetCore.Mvc.Filters; using System; using System.Threading.Tasks; namespace dotnet ...

  10. E. Arson In Berland Forest(思维,找二维阵列中的矩阵,二分)

    题:https://codeforces.com/contest/1262/problem/E 分析:预处理出阵列中的矩阵,然后二分答案还原题目的烧火过程,判断是否满足要求 #include<b ...