最近都在流行大数据什么的,然后偶然之间加入了一个物联网的小公司,可以使用hadoop 来做数据分析,于是心中窃喜,可以有机会接触大数据了,从此走上人生巅峰赢取白富美. 可是成功的道路总不是一帆风顺滴,从我开始接触这玩意儿,到现在大概有一个多月了,但是我居然还在搭环境...我丢你老牟,这个hadoop的环境怎么这么复杂,这是人干的事?能不能像springboot 一样做一些简单化的配置就行呢?搞死我了.. 首先第一个问题: 因为启动haoop要启动好多相关联的东西比如说: hadoop-daemo…
相关参考文献: https://www.oschina.net/question/93435_174549 警告信息如下: 看起来明明就是一个文件,怎么还提示multiple bindings呢,slf4j这货一直没用明白,求解 其它参考文献: http://www.slf4j.org/news.html August 19th, 2011 - Release of SLF4J 1.6.2 本文解决方法: find ./ -name "slf4j*" 分别找出 hadoop 和 spa…
1.问题: 群起脚本启动后查看jps没有出现:QuorumPeerMain Zookeeper正常启动但是群起脚本查状态出现:Error contacting service. It is probably not running错误 ZooKeeper JMX enabled by default Using config: /opt/module/zookeeper-/bin/../conf/zoo.cfg Error contacting service. It is probably n…
春节前用的shark,是从github下载的源码,自己编译.shark的master源码仅支持hive 0.9,支持hive 0.11的shark只是个分支,不稳定,官方没有发布release版,在使用过程中出现了一些问题.现在官方将hive 0.11分布合并到主干代码,并且发布了支持hive 0.11的稳定版本.为了使用最新的shark 0.9,需要重新安装部署整个环境,包括:hadoop cdh 4.5+hive 0.11(shark 0.9版)+spark 0.9 +shark 0.9.…
一.NTP 配置时间服务器1.1.检查当前系统时区1.2.同步时间1.3.检查软件包1.4.修改 ntp 配置文件1.5.重启 ntp 服务1.6.设置定时同步任务二.Linux 集群服务群起脚本2.1.介绍2.2.编写脚本三.CentOS6.8 升级到 python 到 2.73.1.环境准备3.2.安装 Python2.7 一.NTP 配置时间服务器   当集群中各个节点的时间不同步,误差超过某个范围时,会导致一些集群的服务无法正常进行,这时我们应该想办法做一个定时同步集群所有节点时间的任务…
3.1 创建文件cd bin 跳转到bin文件夹里touch  start-kafka-cluster.sh --新建一键启动文件touch  stop-kafka-cluster.sh --新建一键停止文件 3.2 编写startstart-kafka-cluster.sh内容:#!/bin/bashbrokers="hadoop01 hadoop02 hadoop03"KAFKA_HOME="/home/hadoop/kafka_2.12-2.3.0"KAFKA…
启动hadoop,没有启动namenode进程.log4j:ERROR setFile(null,true) call faild.   解决办法: cd /home/hadoop/hadoop-env/hadoop-1.0.1/log  less hadoop-hadoop-namenode-localhost.localdomain.log  --查看该日志,发现是权限问题 chmod 777 hadoop-hadoop-namenode-localhost.localdomain.log…
Nginx和PHP-FPM的启动/重启脚本 [转发] (2012-07-27 16:07:52) 标签: it 分类: 学习 转载自:http://blog.sina.com.cn/s/blog_539d6e0c0101357j.html 服务器上的Nginx和PHP都是源码编译安装的,不支持类似以前的nginx (start|restart|stop|reload)了.自己动手丰衣足食.以下脚本应该在RHEL, Fedora, CentOS下都适用. 一.Nginx启动脚本/etc/init.…
问题一:出现Attempting to operate on hdfs namenode as root 写在最前注意: 1.master,slave都需要修改start-dfs.sh,stop-dfs.sh,start-yarn.sh,stop-yarn.sh四个文件 2.如果你的Hadoop是另外启用其它用户来启动,记得将root改为对应用户 HDFS格式化后启动dfs出现以下错误: [root@master sbin]# ./start-dfs.sh Starting namenodes…
1.下载安装jmeter安装包 下载链接: https://pan.baidu.com/s/1KPhwNDsmTIAy41fEopHQEw 提取码: spwd 2.上传linux平台,解压jmeter安装包 解压安装完成 3.设置jmeter环境变量 1)打开vi /etc/profile 2)添加变量: export PATH=/data/jmeter/apache-jmeter-3.0/bin:$PATHexport JMETER="/data/jmeter/apache-jmeter-3.…