前期:
--------------------------------------------------------
准备:
1、centos6.5 /7 x86_64(后期会更改主机名称)
2、jdk 1.6
3、hadoop
4、zookeerper-3.4.5
5、zeromq-2.1.7
6、jzmq 2.1.0
7、mdrill 0.20.9
-------------------------------------------------------
开始:(root用户)----------(-注:这里的主机名和hosts名都为master.chinaj.com,可以修改,但尽量不要修改,为了跟后面的文件相对应,否则需要更改的配置文件太多)
1、配置主机名:
nano /etc/sysconfig/network
修改为以下内容:
HOSTNAME=master.chinaj.com
2、配置hosts文件
nano /etc/hosts
增加如下内容:
主机ip地址 master.chinaj.com
(192.168.0.103  master.chinaj.com) ------此处为192.168.0.103
3、关闭SELINUX
nano /etc/selinux/config
修改SELINUX=disabled
--------------------------------------可能需要重启
4、配置好yum(/etc/yum.repos.d) 注:非常重要,很多软件都是基于yum安装
5、配置本机无密码登陆:
ssh-keygen -t rsa
cd /root/.ssh/
cat id_rsa.pub   >>authorized_keys   ------创建authorized_keys 文件
chmod 777 authorized_keys ---- 修改 authorized_keys 权限
ssh master.chinaj.com uptime-------注:测试,建议一定要执行;
6、安装 java jdk(jdk1.6)
yum install java-1.6.0-openjdk java-1.6.0-openjdk-devel
(注: 可以使用压缩包直接添加环境变量使用,这里直接安装,本可以不用配置环境变量,这里建议配置上环境变量,预防后面出错,也可以不添加环境变量,等出错后再 行添加,默认安装路径 /usr/lib/jvm/java-1.6.0-openjdk-1.6.0.36.x86_64/,直接在/root/.bashrc 同下面要配置的环境变量一样,直接添加即可)
如果电脑上配置多个java环境可以通过 alternatives --cofig java 命名直接切换。
7、安装hadoop-0.20.2
解压目录src,进入目录后再次解压install.tgz,进入hadoop-0.20.2。此处不需要解压,若需要解压,请自行解压。(具体应该是hadoop-0.20.2-cdh3u3.tar.gz,此处已经给出
直接添加环境变量:这里的目录为(/home/centos/mdrill/src/hadoop)
编辑 /root/.bashrc文件     nano  /root/.bashrc
添加:
export HADOOP_HOME=/home/centos/mdrill/src/hadoop
export PATH=$PATH:$HADOOP_HOME/bin--------------------------后面有其他的环境变量,可在此直接添加路径
8、立即启用bashrc文件 :  source    /root/.bashrc
9、完后验证 直接输入  hadoop  ---------------若出现“Usage: hadoop [--config confdir] COMMAND”  证明成功!
10、配置hadoop文件,(core-site.xml  , mapred-site.xml  ,hdfs-site.xml。)------在install解压后hadoop文件夹conf目录下。给出的配置文件基本已经配置好,无需再配置--------------------注:如果您的主机名不是相对应,需要修改
大致内容如下:(按实际情况,谨慎修改)
 

11、启动hadoop  
start-all.sh
 ---启动完后查看进程  jps(如果有5个进程  JobTracker、SecondaryNameNode、NameNode、
DataNode、Jps  、TaskTracker 则启动成功)
----------------------------注:如果hadoop中的namenode节点没有起来的话,可以尝试 :hadoop namenode  -format
12、在浏览器中输入    :           http://主机IP地址:50070或者主机名加端口号,本机的话也可以localhost:50070
13、安装依赖   yum -y install libtool------------libtool工具
yum -y install gcc-c++ ------------------gcc工具https://app.yinxiang.com/Home.action#n=50d169d6-1209-4cb7-9702-c8056eb3b2a8&ses=4&sh=2&sds=5&

yum -y install uuid-devel

yum -y install libuuid-devel--------------- 安装uuid-devel   

14、安装 zeromq和jzmq

直接进入目录相应的目录后  rmp -ivh  zeromq-2.1.7.rmp

                                     rmp -ivh jzmq 2.1.0.rpm
15、 安装zookeeper-3.4.5
直接进入目录  在此为:/home/centos/mdrill/src/zookeeper-3.4.5
按照步骤7、8 中配置环境变量,并启用.
 ZOOPKEEPER_HOME=/home/centos/mdrill/src/zookeeper-3.4.5
 PATH=$PATH:$HADOOP_HOME/bin:$ZOOPKEEPER_HOME/bin
                                                               
16、验证  直接输入zkServer.sh----------------"Usage:   /home/mdrill/zookeeper-3.4.5/bin/zkServer.sh   {start|start-foreground|stop|restart|status|upgrade|print-cmd}"出现这样的提示,证明成功。
17、配置zookeeper服务   进入conf 目录
 cp zoo_sample.cfg  zoo.cfg -----------------注:请仔细观察,在给出的源码中,此处可省略,请酌情处理,因为这是配置好的.
在这里需要更改的为12行左右,dataDir=PATH(修改为自己的特定的路径)
常规的话,可能需要在末尾添加server.1=主机名:2888:3888,此处已经有了,不需要再次添加。
我这里的目录为 dataDir=/home/centos/mdrill/src/zookeeperdata
18、新建zookeeper服务数据文件夹
mkdir /home/centos/mdrill/src/zookeeperdata
nano /home/centos/mdrill/src/zookeeperdata/myid ------------------给文件myid中写入 “1”。
19、启动zookeeper并查看状态
zkServer.sh start
zkServer.sh status
20、启动客户端测试
zkCli.sh -server mdrill:2181 ---------------------------------“WATCHER::WatchedEvent
                                                                                       
state:SyncConnected   type:None path:null”
21、安装mdrill,,,配置storm.yml文件

nano /home/centos/mdrill/src/mdrill-0.20.9/conf/storm.yaml

修改内容主要是对主机地址,shards个数,worker启动参数进行调整。
内容大体如下:
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
###zookeeper配置####

storm.zookeeper.servers:                                                                                                                                           - "master.chinaj.com"                                                                                            
 storm.zookeeper.port: 2181

storm.zookeeper.root: "/higo2"

####蓝鲸配置####

storm.local.dir: "/home/mdrill/alimama/bluewhale/stormwork"

nimbus.host: "master.chinaj.com"

####hadoop配置####

hadoop.conf.dir:   "/home/mdrill/hadoop-0.20.2-cdh3u3/conf"

hadoop.java.opts: "-Xmx128m"

####mdrill存储目录配置####

higo.workdir.list:   "/home/mdrill/alimama/higoworkerdir"---------------------/home/centos/mdrill/src/mdrillworker

#----mdrill的表格列表在hdfs下的路径-----

higo.table.path:   "/home/mdrill/tablelist"

#----mdrill中启动的solr使用的初始端口号-----

higo.solr.ports.begin: 51110

#----mdrill分区方式,目前支持default,day,month,single,default是将一个月分成3个区,single意味着没有分区-----

higo.partion.type: "month"

#----创建索引生成的每个shard的并行----

higo.index.parallel: 2

#----启动的shard的数,每个shard为一个solr实例,结合cpu个数和内存进行配置,10台48G内存配置60----

higo.shards.count: 2

#----基于冗余的ha,设置为1表示没有冗余,如果设置为2,则冗余号位0,1----

higo.shards.replication: 1

#----启动的merger server的worker数量,建议根据机器数量设定----

higo.mergeServer.count: 1

#----mdrill同时最多加载的分区个数,取决于内存与数据量----

higo.cache.partions: 1

…… ------------------------------绿色显示为要修改的地方,其他地方,请谨慎处理

&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&

22、新建mdrill工作目录  我这里是

mkdir /home/centos/mdrill/src/mdrillworkerdir-----------------------按照个人情况建立相应的目录

23、启动 hadoop

start-all.sh

24、启动zookeeper

zkServer.sh start

25、启动 nimbus

进入mdrill的bin目录    cd /home/centos/mdrill/src/mdrill-0.20.9/bin

修改 bluewhale的权限     chmod 777 ./bluewhale

启动nimbus    nohup ./bluewhale nimbus >nimbus.log   &

26、启动supervisor

依然在mdrill的bin目录中 nohup ./bluewhale supervisor   >supervisor.log &

27、启动ui和jdbc接口

mkdir ./ui -----------------此过程可以省略,因为该目录下已经存在该文件目录

nohup ./bluewhale   mdrillui 1107 ../lib/adhoc-web-0.18-beta.jar ./ui >ui.log &

启动后,可以通过浏览器打开mdrill的1107端口,看是否能正常打开即可,可看到下图:

27、查看进程 jps(应该具有以下进程)

Jps

NameNode

JobTracker

Supervisor

SecondaryNameNode

MdrillUi

NimbusServer

TaskTracker

DataNode

QuorumPeerMain

------------------------------------------------------------------------------------------

后期:

测试:单机测试

 
 

Mdrill 安装部署(单机版)的更多相关文章

  1. Storm入门教程 第三章Storm集群安装部署步骤、storm开发环境

    一. Storm集群组件 Storm集群中包含两类节点:主控节点(Master Node)和工作节点(Work Node).其分别对应的角色如下: 主控节点(Master Node)上运行一个被称为N ...

  2. OEMCC 13.2 集群版本安装部署

    之前测试部署过OEMCC 13.2单机,具体可参考之前随笔: OEMCC 13.2 安装部署 当时环境:两台主机,系统RHEL 6.5,分别部署OMS和OMR: OMS,也就是OEMCC的服务端 IP ...

  3. Hadoop分布式HA的安装部署

    Hadoop分布式HA的安装部署 前言 单机版的Hadoop环境只有一个namenode,一般namenode出现问题,整个系统也就无法使用,所以高可用主要指的是namenode的高可用,即存在两个n ...

  4. Linux 下Redis集群安装部署及使用详解(在线和离线两种安装+相关错误解决方案)

    一.应用场景介绍 本文主要是介绍Redis集群在Linux环境下的安装讲解,其中主要包括在联网的Linux环境和脱机的Linux环境下是如何安装的.因为大多数时候,公司的生产环境是在内网环境下,无外网 ...

  5. ArcGIS Enterprise 10.5.1 静默安装部署记录(Centos 7.2 minimal)- 6、总结

    安装小结 安装完成后,首先我们需要将Datastore托管给Server,再将Server托管给Portal以此来完成整个单机版Enterprise 部署流程.为了测试流程是否正确,我们可以采用上传一 ...

  6. 【APM】Pinpoint 安装部署(一)

    Pinpoint简介 Pinpoint是用Java / PHP编写的大规模分布式系统的APM(应用程序性能管理)工具.受Dapper的启发,Pinpoint提供了一种解决方案,可通过跟踪跨分布式应用程 ...

  7. 10分钟学会RabbitMQ安装部署

    一.单机版的 RabbitMQ 的安装部署 1.安装 Erlang 环境 wget http://erlang.org/download/otp_src_19.3.tar.gz tar -zxvf o ...

  8. K8S集群安装部署

    K8S集群安装部署   参考地址:https://www.cnblogs.com/xkops/p/6169034.html 1. 确保系统已经安装epel-release源 # yum -y inst ...

  9. etcd安装部署步骤

    我是通过yum直接安装的(yum install etcd -y),其生成的配置文件在/etc/etcd/etcd.conf. 这里分单机版和集群版来介绍配置项 单机配置 ETCD_DATA_DIR: ...

随机推荐

  1. 对于System.Net.Http的学习(一)——System.Net.Http 简介

    System.Net.Http 是微软推出的最新的 HTTP 应用程序的编程接口, 微软称之为“现代化的 HTTP 编程接口”, 主要提供如下内容: 1. 用户通过 HTTP 使用现代化的 Web S ...

  2. eclipse提交项目到github

    1.在https://github.com   new repository 2.在eclipse中new project  比如:Test项目 3.右击"Test"->Te ...

  3. pycharm快捷键 - 官方全

    pycharm快捷键 - 官方全 Ctrl + F12 显示文件内的成员,继承的成员

  4. codeforces B - Preparing Olympiad(dfs或者状态压缩枚举)

    B. Preparing Olympiad You have n problems. You have estimated the difficulty of the i-th one as inte ...

  5. 关于CPU Cache -- 程序员需要知道的那些事

    本文将介绍一些作为程序猿或者IT从业者应该知道的CPU Cache相关的知识.本章从"为什么会有CPU Cache","CPU Cache的大致设计架构",&q ...

  6. Android Fragment完全解析

    转载请注明出处:http://blog.csdn.net/guolin_blog/article/details/8881711 我们都知道,Android上的界面展示都是通过Activity实现的, ...

  7. Unsafe的应用

    要想把java并发包学好,并明白其底层的设计原理,Unsafe类你不能不去研究一下.下面介绍一下Unsafe类的功能以及它在JDK中的应用. 一.分配内存和释放内存 功能:类中提供的3个本地方法all ...

  8. Windows Azure Virtual Network (6) 设置Azure Virtual Machine固定公网IP (Virtual IP Address, VIP) (1)

    <Windows Azure Platform 系列文章目录> 注意:本文介绍的是Global Azure (http://www.windowsazure.com),如果你使用的是由世纪 ...

  9. java并发编程:并发容器之CopyOnWriteArrayList(转)

    原文:http://ifeve.com/java-copy-on-write/ Copy-On-Write简称COW,是一种用于程序设计中的优化策略.其基本思路是,从一开大家都在共享同一个内容,当某个 ...

  10. Spark程序使用groupByKey后数据存入HBase出现重复的现象

    最近在一个项目中做数据的分类存储,在spark中使用groupByKey后存入HBase,发现数据出现双份( 所有记录的 rowKey 是随机  唯一的 ) .经过不断的测试,发现是spark的运行参 ...