在Linux下执行 jps 是快速查看Java程序进程的命令,一般情况下hadoop,hbase,storm等进程都是通过jps查看,有些时候因为进程没有被正常结束,比如资源占用过大时挂掉或者没有结束进程就直接重启计算机,会导致原有进程变为-- process information unavailable这样的空值,有时候不用管它,一段时间后会自动消失,如果一直不消失的情况下,可以使用如下方法清理: 进入/tmp目录 cd /tmp 可以看到有很多以hsperfdata_{用户名}这样的目录,…
jps 显示process information unavailable解决办法jps时出现如下信息: 4791 -- process information unavailable 解决办法: 进入tmp目录, cd /tmp 删除该目录下 名称为hsperfdata_{username}的文件夹 然后jps,清净了.…
启动Hadoop之后,使用jps命令查看当前系统的java进程情况,显示: hduser@jack:/usr/local/hadoop$ jps 18470 SecondaryNameNode 19096 Jps 12167 -- process information unavailable 19036 NodeManager 18642 ResourceManager 18021 DataNode 17640 NameNode 这时可以通过进入本地文件系统的/tmp目录下,删除名称为hspe…
4883 -- process information unavailable 解决办法: 进入tmp目录, cd /tmp 删除该目录下 名称为hsperfdata_{username}的文件夹 然后jps,清净了.…
现象 启动Hadoop的时候使用jps检查进程 ,出现Process information unavailable的问题,如下 [root@vm8033 local]# jps -- process information unavailable -- process information unavailable Jps -- process information unavailable -- process information unavailable -- process infor…
在之前停止java进程时,使用了 kill -9,结果进程未正常退出. 之后每次执行 jps 命令时都会打印出 -- process information unavailable 在ls /tmp/hsperfdata_USER/ 目录下 列出了一些进程相关的文件 jps 执行时会到这个目录下查找java进程文件 删掉那些 进程信息不可用的 PID 文件即可…
有时候在centos上查看java进程时,会遇到process information unavailable 的情况,如下图: 不同账号之间kill进程时,可能会造成这种现象(比如:deploy用户启动了一个java进程,但是用root用户去kill,虽然杀掉了,但是查看进程时偶尔就会出现) 解决办法:cd /tmp 进到该目录,然后ls查看下,通常会遇到很多hsperfdata_开头的目录,进入可疑的目录看看,比如 然后把11786这个给 rm -rf 11786 干掉,然后再看进程就消失了…
jps出现process information unavailable(当然我ps -aux了,确定该进程是存在的),网上查找了原因,我的理解是这样: 因为jps的进程信息是存储在/tmp/hsperfdata_{myuser}中,那么当我使用 root 操作jps时,发现其它用户启动的java进程的tmp文件是读不了的.所以使用 sudo -u cloudera-scm /usr/java/jdk1.7.0_79/bin/jps 即可正常显示jps信息了. sudo -u hdfs /usr…
执行jps,有些未知进程: 2690 -- process information unavailable2666 原因:内存不足. cd /tmp/hsperfdata_impala/ 执行ll后,发现其中正好有2个文件,删除这2个文件即可: -rw------- 1 impala impala 32768 Jul 9 23:48 2666-rw------- 1 impala impala 32768 Jul 9 23:47 2690 解决方案: cd /tmp rm -rf hsperfd…
百度的方法有两种: 第一种 1.进入/tmp 2.删除该目录下的hsperfdata_${username} 文件夹 3.再执行jps 第二种 做软连接 或者修改权限hsperfdata_${username} . 但是都没有解决我的问题: 切换jdk版本,完美解决,但是不知道为什么. 仅仅提供我的解决方案..哪位老哥知道的话可以解答一下啊. jps原理: ********************************************************以下转载自https://w…
异常详细:An exception of type 'System.Data.Entity.Core.EntityException' occurred in EntityFramework.SqlServer.dll but was not handled in user codeAdditional information: The underlying provider failed on Open. 原因分析:数据库连接使用的是集成模式,改为Sqlserver身份验证模式即可 用sqls…
一.Tomcat安装部署 一.安装jdk和Tomcat 1.上传jdk和Tomcat mkdir -p /opt/tools/ /application ##jdk:jdk-8u131 tomcat:9.0 cd /opt/tools/ rz apache-tomcat-.M17.tar.gz jdk-8u131-linux-x64.tar.gz 2.解压jdk和Tomcat .jdk部署 tar xf jdk-8u131-linux-x64.tar.gz -C /application .0_…
相关文章链接 CentOS7安装CDH 第一章:CentOS7系统安装 CentOS7安装CDH 第二章:CentOS7各个软件安装和启动 CentOS7安装CDH 第三章:CDH中的问题和解决方法 CentOS7安装CDH 第四章:CDH的版本选择和安装方式 CentOS7安装CDH 第五章:CDH的安装和部署-CDH5.7.0 CentOS7安装CDH 第六章:CDH的管理-CDH5.12 CentOS7安装CDH 第七章:CDH集群Hadoop的HA配置 CentOS7安装CDH 第八章:…
目录 1 准备 mysql hive hadoop spark livy es maven 配置环境变量 2 安装griffin 配置配置文件 编译 部署jar包 3 批处理测试 准确度度量 Accuracy Measure 性能分析度量 Profiling Measure Rule 规则编写 4 流处理测试[有问题,待解决] 5 问题 问题1 问题2 问题3 问题4[待解决] 问题5 问题6 问题7 注1:griffin 官网 doc 部分教程内容较少,主要在 griffin 源文件的 gri…
第一篇博客:linux学习笔记1-ubuntu的安装与基本设置 之中,已经介绍了如何安装linux操作系统,以及一些基本的设置修改. 本篇博客主要介绍linux中的一些常用的终端命令 ============================================== 启用和禁用触摸盘  sudo rmmod psmouse 禁用触摸盘 sudo modprobe psmouse 启用触摸盘 ============================================== 连…
一.安装环境 硬件:虚拟机 操作系统:Ubuntu 14 32位 IP:59.77.132.28主机名:admin安装用户:root 二.安装JDK 安装JDK1.7或者以上版本.这里安装jdk1.7.0_79. 下载地址:http://www.oracle.com/technetwork/java/javase/downloads/index.html 1,下载jdk-7u79-linux-x64.gz,解压到/usr/java/jdk1.7.0_79. 2,在/root/.bash_prof…
jps 时出现没有名字的进程 或者process information unavailable 把服务关掉,执行一下 rm -rf /tmp/hsperfdata_* 再重启就好了.…
转载请标注原链接:http://www.cnblogs.com/xczyd/p/5543731.html 第一篇博客:linux学习笔记1-ubuntu的安装与基本设置 之中,已经介绍了如何安装linux操作系统,以及一些基本的设置修改. 本篇博客主要介绍linux中的一些常用的命令(主要是shell命令) ============================================== 文件/文件夹相关操作 #在当前目录下,创建一个名为test的文件夹 mkdir test #在当…
5.在安装的时候遇到的问题 5.1使用ambari-server start的时候出现ERROR: Exiting with exit code -1. 5.1.1REASON: Ambari Server java process died with exitcode 255. Check /var/log/ambari-server/ambari-server.out for more information 解决: 由于是重新安装,所以在使用/etc/init.d/postgresql …
在Linux环境下安装Hadoop:    一.安装环境 硬件:虚拟机 操作系统:Centos 6.4 64位 IP:192.168.153.130主机名:imooc安装用户:root              二.安装JDK 安装JDK1.7或者以上版本.这里安装jdk1.7.0_79. 下载地址:http://www.oracle.com/technetwork/java/javase/downloads/index.html 1,下载jdk-7u79-linux-x64.gz,解压到/us…
5.在安装的时候遇到的问题 5.1使用ambari-server start的时候出现ERROR: Exiting with exit code -1. 5.1.1REASON: Ambari Server java process died with exitcode 255. Check /var/log/ambari-server/ambari-server.out for more information 解决: 由于是重新安装,所以在使用/etc/init.d/postgresql …
安装 Hadoop 2.7.3 配置ssh免密码登陆 cd ~/.ssh                       # 若没有该目录,请先执行一次ssh localhost ssh-keygen -t rsa               # 会有提示,都按回车就可以 cat id_rsa.pub >> authorized_keys # 加入授权 chmod 600 ./authorized_keys # 修改文件权限 1.此处我们选择二进制安装包 http://www.apache.org…
一.安装环境 硬件:虚拟机 操作系统:Centos 6.4 64位 IP:192.168.241.128主机名:admin安装用户:root 二.安装JDK 安装JDK1.7或者以上版本.这里安装jdk1.7.0_79. 下载地址:http://www.oracle.com/technetwork/java/javase/downloads/index.html 1,下载jdk-7u79-Linux-x64.gz,解压到/usr/Java/jdk1.7.0_79. 2,在/root/.bash_…
HDFS(Hadoop Distributed File System)和Mapreduce是hadoop的两大核心: HDFS(文件系统)实现分布式存储的底层支持 Mapreduce(编程模型)实现分布式并行任务处理的程序支持 JobTracker   对应于 NameNode TaskTracker 对应于 DataNode DataNode和NameNode   是针对数据存放来而言的 JobTracker和TaskTracker是对于MapReduce执行而言的 从官网下载安装包: wg…
因玩票需要,使用三台搭建spark(192.168.1.10,192.168.1.11,192.168.1.12),又因spark构建在hadoop之上,那么就需要先搭建hadoop.历经一个两个下午,终于搭建完成,特记录如下. 准备工作 1. jdk已经安装. 2. 文件下载 http://pan.baidu.com/s/1o6mydYi 包含scala,hadoop,spark 3. ssh无密码认证 三台互相无密码认证步骤: 第一步,生成rsa公约私钥: [root@jw01 .ssh]#…
需求: 在实战(一)的基础 上,实现自定义分组机制.例如根据手机号的不同,分成不同的省份,然后在不同的reduce上面跑,最后生成的结果分别存在不同的文件中. 对流量原始日志进行流量统计,将不同省份的用户统计结果输出到不同文件. 思考: 需要自定义改造两个机制:1.改造分区的逻辑,自定义一个partitioner,主要是实现如何进行分组. Partitioner的作用是对Mapper产生的中间结果进行分片,以便将同一个分区的数据交给同一个Reducer处理,它直接影响Reducer阶段的负载均衡…
环境:ubuntu 16.0 需要软件:jdk ssh https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/ 2.8.3 安装 jdk并配置环境变量 安装ssh和rshync,主要设置免密登录 sudo apt-get install ssh sudo apt-get install rshync sh-keygen -t dsa -P '' -f ~/.ssh/id_dsa cat ~/.ssh/id_dsa.pub >> ~/…
1.查看linux中某个端口是否被占用 1> 使用lsof lsof -i:端口号      查看该端口是否被占用 2> 使用netstat netstat -antpu |grep 80   过滤端口80的使用状态 2.linux中源码包编译安装后,不受systemctrl控制,启动/关闭服务方式: 启动:/usr/local/nginx/sbin/nginx[没有报错提示,代表成功了] 关闭:/usr/local/nginx/sbin/nginx -s stop 报错:Address  a…
添加节点: 安装完cdh 后jps出现:process information unavailable 解决办法:…