错误记录与分析 错误1:java.net.BindException: Port in use: localhost:0 datanode节点启动时报错 日志信息如下: Exiting with status : java.net.BindException: Port 解决:在/etc/hosts文件开头添加如下内容 :: localhost 127.0.0.1 localhost 错误2:datanode节点磁盘空间爆满,导致datanode启动不能启动 解决: .查看数据 hadoop f
server检查的时候,发现存在HDFS上的文件无法同步.再发现hadoop停掉了. 进行重新启动,重新启动不成功. 查看hadoop日志: 2014-07-30 14:15:42,025 INFO org.apache.hadoop.hdfs.server.namenode.FSNamesystem: Roll Edit Log from 192.168.206.133 <span style="color:#ff0000;">2014-07-30 14:15:42,02
Hadoop Datanode节点无法启动(All directories in dfs.data.dir are invalid) java.io.IOException: All directories in dfs.datanode.data.dir are invalid: "/usr/local/hadoop-2.4.0/dfs/data" at org.apache.hadoop.hdfs.server.datanode.DataNode.checkStorageLocat
今天在使用exp imp将生产环境数据库导入到测试环境的过程中,imp的时候 发现在导入某张表的时候卡住了. 起初是以为该表比较大的缘故,后来过了很久 发现还是卡在那里. 最后分析原因 发现设置的归档目录大小太小了. 修改了归档目录的大小 Imp操作继续执行. 查看归档目录的大小 show parameter db_recovery_file_dest 修改归档目录的大小 alter system set db_recovery_file_dest_size=20G; 后来又遇到数据库表空间满了
FATAL org.apache.hadoop.hdfs.server.datanode.DataNode: Initialization failed for block pool Block pool BP-336454126-127.0.0.1-1419216478581 (storage id DS-445205871-127.0.0.1-50010-1419216613930) service to /192.168.149.128:9000org.apache.hadoop.ipc.