一、

[#|2013-09-16T18:19:02.663+0800|INFO|glassfish3.1.2|javax.enterprise.system.std.com.sun.enterprise.server.logging|_ThreadID=23364;_ThreadName=Thread-2;|2013-09-1618:19:02,663 WARN  DataStreamerException: org.apache.hadoop.ipc.RemoteException: java.io.IOException:
File:xxx could only be replicatedto 0 nodes, instead of 1

atorg.apache.hadoop.hdfs.server.namenode.FSNamesystem.getAdditionalBlock(FSNamesystem.java:1558)

atorg.apache.hadoop.hdfs.server.namenode.NameNode.addBlock(NameNode.java:696)

atsun.reflect.GeneratedMethodAccessor6.invoke(Unknown Source)

atsun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)

atjava.lang.reflect.Method.invoke(Method.java:597)

atorg.apache.hadoop.ipc.RPC$Server.call(RPC.java:563)

atorg.apache.hadoop.ipc.Server$Handler$1.run(Server.java:1388)

atorg.apache.hadoop.ipc.Server$Handler$1.run(Server.java:1384)

atjava.security.AccessController.doPrivileged(Native Method)

atjavax.security.auth.Subject.doAs(Subject.java:396)

atorg.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1121)

atorg.apache.hadoop.ipc.Server$Handler.run(Server.java:1382)

atorg.apache.hadoop.ipc.Client.call(Client.java:1070)

atorg.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:225)

at$Proxy140.addBlock(Unknown Source)

atsun.reflect.GeneratedMethodAccessor84.invoke(Unknown Source)

atsun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)

atjava.lang.reflect.Method.invoke(Method.java:597)

atorg.apache.hadoop.io.retry.RetryInvocationHandler.invokeMethod(RetryInvocationHandler.java:82)

atorg.apache.hadoop.io.retry.RetryInvocationHandler.invoke(RetryInvocationHandler.java:59)

at$Proxy140.addBlock(Unknown Source)

atorg.apache.hadoop.hdfs.DFSClient$DFSOutputStream.locateFollowingBlock(DFSClient.java:3510)

atorg.apache.hadoop.hdfs.DFSClient$DFSOutputStream.nextBlockOutputStream(DFSClient.java:3373)

atorg.apache.hadoop.hdfs.DFSClient$DFSOutputStream.access$2600(DFSClient.java:2589)

atorg.apache.hadoop.hdfs.DFSClient$DFSOutputStream$DataStreamer.run(DFSClient.java:2829)

|#]

二、

[#|2013-09-16T18:19:02.664+0800|INFO|glassfish3.1.2|javax.enterprise.system.std.com.sun.enterprise.server.logging|_ThreadID=23367;_ThreadName=Thread-2;|2013-09-1618:19:02,664 WARN  Error Recovery forblock null bad datanode[0] nodes
== null

|#]

[#|2013-09-16T18:19:02.664+0800|INFO|glassfish3.1.2|javax.enterprise.system.std.com.sun.enterprise.server.logging|_ThreadID=23367;_ThreadName=Thread-2;|2013-09-1618:19:02,664 WARN  Could not get blocklocations. Source file "xxx"-
Aborting...

|#]

三、

[#|2013-09-16T18:20:13.134+0800|SEVERE|glassfish3.1.2|javax.enterprise.system.std.com.sun.enterprise.server.logging|_ThreadID=23467;_ThreadName=Thread-2;|java.util.concurrent.TimeoutException:Timed out(5000 milliseconds) waiting for
operation while connected to xxx:11211

atnet.rubyeye.xmemcached.XMemcachedClient.latchWait(XMemcachedClient.java:2617)

atnet.rubyeye.xmemcached.XMemcachedClient.fetch0(XMemcachedClient.java:617)

atnet.rubyeye.xmemcached.XMemcachedClient.get0(XMemcachedClient.java:1030)

atnet.rubyeye.xmemcached.XMemcachedClient.gets(XMemcachedClient.java:1043)

atnet.rubyeye.xmemcached.XMemcachedClient.gets(XMemcachedClient.java:1065)

at net.rubyeye.xmemcached.XMemcachedClient.gets(XMemcachedClient.java:1054)

atcom.haierpip.service.impl.MemcachedServiceImpl.gets(MemcachedServiceImpl.java:104)

atcom.haierpip.timer.UpdateImgQueueMapJob.updateList(UpdateImgQueueMapJob.java:41)

at com.haierpip.timer.UpdateImgQueueMapJob.executeInternal(UpdateImgQueueMapJob.java:26)

at sun.reflect.GeneratedMethodAccessor64.invoke(UnknownSource)

atsun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)

at java.lang.reflect.Method.invoke(Method.java:597)

atorg.springframework.util.MethodInvoker.invoke(MethodInvoker.java:273)

atorg.springframework.scheduling.quartz.MethodInvokingJobDetailFactoryBean$MethodInvokingJob.executeInternal(MethodInvokingJobDetailFactoryBean.java:311)

atorg.springframework.scheduling.quartz.QuartzJobBean.execute(QuartzJobBean.java:113)

at org.quartz.core.JobRunShell.run(JobRunShell.java:202)

atorg.quartz.simpl.SimpleThreadPool$WorkerThread.run(SimpleThreadPool.java:525)

|#]

四、

[#|2013-09-16T18:05:12.983+0800|INFO|glassfish3.1.2|javax.enterprise.system.std.com.sun.enterprise.server.logging|_ThreadID=1595;_ThreadName=Thread-2;|2013-09-1618:05:12,983 INFO  Exception increateBlockOutputStream 10.255.254.6:50010
java.net.ConnectException:Connection timed out

|#]

[#|2013-09-16T18:05:12.983+0800|INFO|glassfish3.1.2|javax.enterprise.system.std.com.sun.enterprise.server.logging|_ThreadID=1595;_ThreadName=Thread-2;|2013-09-1618:05:12,983 INFO  Abandoning blockblk_2971499765308711932_1671045

|#]

[#|2013-09-16T18:05:12.984+0800|INFO|glassfish3.1.2|javax.enterprise.system.std.com.sun.enterprise.server.logging|_ThreadID=1595;_ThreadName=Thread-2;|2013-09-1618:05:12,984 INFO  Excluding datanode10.255.254.6:50010

|#]

五、

2013-09-16 17:56:04,034WARN org.apache.hadoop.hdfs.server.datanode.DataNode: Block report is due, andbeen waiting for it for 708 seconds...

六、

[#|2013-09-16T18:05:40.699+0800|INFO|glassfish3.1.2|javax.enterprise.system.std.com.sun.enterprise.server.logging|_ThreadID=1571;_ThreadName=Thread-2;|2013-09-16 18:05:40,699 INFO  Exception in createBlockOutputStream xxx:50010 java.io.IOException: Bad connect ack with firstBadLink as
xxx.6:50010

 |#]

页面

WARNING : There are about146 missing blocks. Please check the log or run fsck.

最近跑hadoop遇到的一些问题的更多相关文章

  1. 在eclipse上跑hadoop的helloworld

    关于hadoop的用处什么我就不说了,在这里记录下在eclipse上第一次跑hadoop遇到的问题吧~ hadoop的安装我就不说啦,网上教程一大堆~我直接用的公司的Linux上的hadoop. ec ...

  2. 在Docker中跑Hadoop与镜像制作

      重复造轮子,这里使用重新打包生成一个基于Docker的Hadoop镜像:   Hadoop集群依赖的软件分别为:jdk.ssh等,所以只要这两项还有Hadoop相关打包进镜像中去即可: 配置文件准 ...

  3. windows环境下跑hadoop自带的wordcount遇到的问题

    hadoop环境自己之前也接触过,搭建的是一个伪分布的环境,主从节点都在我自己的机子上,即127.0.0.1,当初记得步骤很多很麻烦的样子(可能自己用ubuntu还不够熟练),包括myeclipse. ...

  4. hadoop2.2编程:用ruby跑hadoop的完整实例

    Becareful!  All nodes include  need to install ruby! #!/usr/bin/ruby # Ruby code for map.rb ARGF.eac ...

  5. hadoop跑第一个实例过程

    第一次跑hadoop实例,中间经过了不少弯路,特此记录下来: 第一步:建立一个maven过程,pom.xml文件:(打包为jar包) <dependency> <groupId> ...

  6. 我的第一个hadoop程序

    利用virtualbox+win的开发环境搭设好咯,在win下做开发,利用linux跑hadoop,伪分布式的. 上第一个程序 package org.apache.hadoop.examples; ...

  7. hadoop的自定义数据类型和与关系型数据库交互

    最近有一个需求就是在建模的时候,有少部分数据是postgres的,只能读取postgres里面的数据到hadoop里面进行建模测试,而不能导出数据到hdfs上去. 读取postgres里面的数据库有两 ...

  8. Hadoop - 任务调度系统比较

    1.概述 在Hadoop应用,随着业务指标的迭代,而使其日趋复杂化的时候,管理Hadoop的相关应用会变成一件头疼的事情,如:作业的依赖调度,任务的运行情况的监控,异常问题的排查等,这些问题会是的我们 ...

  9. Cassandra + Eclipse + Hadoop

    配置好eclipse连接hadoop: 参考:http://www.powerxing.com/hadoop-build-project-using-eclipse/ http://blog.csdn ...

随机推荐

  1. 浅谈Base64编码

    浅谈Base64编码 我打赌当你见到Base64这个词的时候你会觉得在哪里见过,因为在你能够上网看到这篇文章的时候你已经在后台使用它了.如果您对二进制数有所了解,你就可以开始读它了. 打开一封Emai ...

  2. [Android学习笔记]双缓冲绘图技术

    双缓冲技术绘图: 什么情况下产生的双缓冲技术?当数据量很大时,绘图可能需要花费很长的时间,这样屏幕就会出现卡顿,闪烁等现象. 什么是双缓冲技术?双缓冲是在内存中创建一个与屏幕绘制区域一致的对象,先将图 ...

  3. 14.4.2 Configuring InnoDB for Read-Only Operation 配置InnoDB 永于只读操作:

    14.4.2 Configuring InnoDB for Read-Only Operation 配置InnoDB 永于只读操作: 你可以查询InnoDB 表 MySQL 数据目录是在只读介质里,通 ...

  4. [poj 2991]Crane[线段树表示向量之和,而非数量]

    题意: 起重机的机械臂, 由n段组成, 对某一些连接点进行旋转, 询问每次操作后的末端坐标. 思路: 由于旋转会影响到该点之后所有线段的角度, 因此容易想到用线段树记录角度, 成段更新. (但是不是每 ...

  5. Git详解之六 Git工具(转)

    Git 工具 现在,你已经学习了管理或者维护 Git 仓库,实现代码控制所需的大多数日常命令和工作流程.你已经完成了跟踪和提交文件的基本任务,并且发挥了暂存区和轻量级的特性分支及合并的威力. 接下来你 ...

  6. Servlet(七)生成验证码

    1.ImageCode.java package com.hunhun.utils; import java.awt.Color; import java.awt.Font; import java. ...

  7. hdu1114(完全背包)

    题目链接:http://acm.hdu.edu.cn/showproblem.php?pid=1114 分析:很裸的一道完全背包题,只是这里求装满背包后使得价值最少,只需初始化数组dp为inf:dp[ ...

  8. HDU 3639 Hawk-and-Chicken(良好的沟通)

    HDU 3639 Hawk-and-Chicken 题目链接 题意:就是在一个有向图上,满足传递关系,比方a->b, b->c,那么c能够得到2的支持,问得到支持最大的是谁,而且输出这些人 ...

  9. MD5加密算法的实现

    //////////////////////////////////////////////////////////////////// /*                 md5.h        ...

  10. Inno Setup打包添加和去除管理员权限

    原文:Inno Setup打包添加和去除管理员权限 添加管理员权限 1.在[Setup]节点添加 PrivilegesRequired=admin 2.进入安装目录,找到文件SetupLdr.e32, ...