大数据之Ganglia安装1】的更多相关文章

0.前期准备修改主机名.ip.iptables关闭:时间同步:ntpdate -s time.windows.com;软件准备ganglia-3.7.1.tar.gz.ganglia-web-3.7.0.tar.gz 地址:http://ganglia.info/?page_id=66confuse-2.7.tar.gz 地址:http://www.nongnu.org/confuse/Python-2.7.10.tgz 地址:https://www.python.org/downloads/r…
大数据之pig安装 1.下载 pig download 2. 解压安装 mapreduce模式安装: 1:设置HADOOP_HOME,如果pig所在节点不是集群中的节点,那就需要把集群中使用的hadoop的安装包拷贝过来一份. export HADOOP_HOME=/usr/local/hadoop-2.6.0 2:创建一个文件夹,cluster-conf,里面保存的是hadoop的配置文件,core-site.xml.hdfs-site.xml.mapred-site.xml.yarn-sit…
相关文章链接 CentOS6安装各种大数据软件 第一章:各个软件版本介绍 CentOS6安装各种大数据软件 第二章:Linux各个软件启动命令 CentOS6安装各种大数据软件 第三章:Linux基础软件的安装 CentOS6安装各种大数据软件 第四章:Hadoop分布式集群配置 CentOS6安装各种大数据软件 第五章:Kafka集群的配置 CentOS6安装各种大数据软件 第六章:HBase分布式集群的配置 CentOS6安装各种大数据软件 第七章:Flume安装与配置 CentOS6安装各…
大数据hbase分布式安装及其部署. 首先要启动Hadoop以及zookeeper,可以参考前面发布的文章. 将hbase的包上传至master节点 这里我使用的是1.3.6的版本,具体的根据自己的版本来. ~~~[root@master ~]# ls [root@master ~]# ls hbase-1.3.6-bin.tar.gz 然后解压hbase的包到当前的目录. [root@master ~]# tar -zxvf hbase-1.3.6-bin.tar.gz 查看解压后Hbase目…
1. CentOS6.5mini安装 文件>>新建虚拟机 选择自定义,下一步 默认,下一步 选择稍后安装操作系统,下一步 选择CentOS版本,下一步 给虚拟机命名,这个是在VMWare中显示的名称,下一步 处理器配置,默认,下一步 根据电脑配置选择虚拟内存,不能小于1024M,下一步 网络类型选择NAT,下一步 I/O类型和磁盘类型,默认,下一步 磁盘大小,默认20G,一般情况下20G用不完,但是大数据可能会有大文件导入,所以我们选择100G.100G比我们当前所在的D盘都大,但是没关系,它…
配置 Linux 系统基础环境 查看服务器的IP地址 设置服务器的主机名称 hostnamectl set-hostname hadoop hostname可查看 绑定主机名与IP 地址 vim /etc/hosts 写入: ip hadoop #自己虚拟机ip和主机名 查看SSH 服务状态 SSH 为 Secure Shell 的缩写,是专为远程登录会话和其他网络服务提供安 全性的协议.一般的用法是在本地计算机安装SSH客服端,在服务器端安装SSH 服务,然后本地计算机利用 SSH 协议远程登…
1.什么是ganglia 一个开源集群监视项目:Ganglia可以做系统监控,但是,目前它不支持服务器异常或故障报警功能. 2.Ganglia监控集群架构 Ganglia 集群主要是由gmond.gmetad.gweb这3个守护进程组成,其中gmetad进程相当于监控集群的master.而多个gmond进程可以进行分组,每个分组其实是一个用来收集监控数据的代理服务集群,也就是说多个gmond集群在整个Ganglia监控集群中作为从节点的角色. 3.gmond •gmond(Ganglia Mon…
https://note.youdao.com/share/?id=40be7f77434910e8860c5fd1ef5d24fe&type=note#/ MongoDB安装 环境 CentOS 7 安装 从官网下载mongodb-linux-x86_64-rhel70-3.4.9.tgz 将压缩包复制到/usr/local下面并解压 cd /usr/local tar -xzvf mongodb-linux-x86_64-rhel70-3.4.9.tgz 进入MongoDB目录并建立存放数据…
1.Flume的安装非常简单,只需要解压即可,当然,前提是已有hadoop环境 上传安装包到数据源所在节点上 然后解压  tar -zxvf apache-flume-1.6.0-bin.tar.gz 2. cd apache-bin; cd conf; -- 修改环境变量 -- 重命名 mv flume-env.sh.template flume-env.sh vi flume-env.sh 测试小案例 1 在 flume的conf文件下建一个文件 vi   netcat-logger.con…
1上传压缩包 2 解压 tar -zxvf apache-hive-1.2.1-bin.tar.gz -C apps 3 重命名 mv apache-hive-1.2.1-bin hive 4 设置环境变量 vi /etc/profile expert HIVE_HOME=/root/apps/hiveexport PATH=$PATH:$HIVE_HOME/bin 5 启动hive cd apps/hive bin/hive 出现上面的问题是因为版本不兼容 解决一下版本不兼容问题:替换 app…