最新版大数据平台安装部署指南,HDP-2.6.5.0,ambari-2.6.2.0
一、服务器环境配置
1 系统要求
名称 |
地址 |
操作系统 |
root密码 |
Master1 |
10.1.0.30 |
Centos 7.7 |
Root@bidsum1 |
Master2 |
10.1.0.105 |
Centos 7.7 |
|
Worker1 |
10.1.0.127 |
Centos 7.7 |
|
Worker2 |
10.1.0.106 |
Centos 7.7 |
|
Worker3 |
10.1.0.3 |
Centos 7.7 |
|
系统要求 |
Centos 7.3以上 64bit 最小化安装 |
||
浏览器 |
Google Chrome |
2 SSH免密登录配置
ssh-keygen cat .ssh/*.pub > .ssh/authorized_keys scp -r .ssh root@10.1.0.30:/root/ scp -r .ssh root@10.1.0.105:/root/ |
3 主机名IP映射配置
在master 机器上执行如下命令
vi /etc/hosts 192.168.217.130 hdp-0001 192.168.217.131 hdp-0002 192.168.217.132 hdp-0003 scp /etc/hosts root@hdp-0002:/etc/hosts scp /etc/hosts root@hdp-0003:/etc/hosts |
4 关闭及禁止防火墙
systemctl stop firewalld systemctl disable firewalld |
5 配置阿里yum源(可选)
mv /etc/yum.repos.d/CentOS-Base.repo /etc/yum.repos.d/CentOS-Base.repo.bak wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo yum makecache |
6 开启时钟同步
yum install -y ntp systemctl enable ntpd systemctl start ntpd |
7 关闭SELinux
vi /etc/sysconfig/selinux #修改以下内容 SELINUX=disabled |
8 安装mysql数据库
mysql服务安装在master节点,也可选择其他节点或机器。
具体步骤如下:
8.1数据库安装
wget http://repo.mysql.com/mysql57-community-release-el7-8.noarch.rpm yum install mysql-server [root@master ~]# service mysqld start [root@master ~]# grep "password" /var/log/mysqld.log [root@master ~]# mysql -u root -p Enter password: mysql>set global validate_password_policy=LOW; mysql> set password = password("mysql@Edmp.com"); mysql> grant all privileges on *.* to root@"%" identified by " mysql@Edmp.com" ; mysql> flush privileges; |
8.2安装成功后,创建ambari数据库及用户
#进入mysql shell mysql -uroot –p #创建ambari用户 create database ambari character set utf8 ; CREATE USER 'ambari'@'%'IDENTIFIED BY 'ambari123'; GRANT ALL PRIVILEGES ON *.* TO 'ambari'@'%'; FLUSH PRIVILEGES; #创建hive用户 create database hive character set utf8 ; CREATE USER 'hive'@'%'IDENTIFIED BY 'hive123'; GRANT ALL PRIVILEGES ON *.* TO 'hive'@'%'; FLUSH PRIVILEGES; #创建oozie用户 create database oozie character set utf8 ; CREATE USER 'oozie'@'%'IDENTIFIED BY 'oozie123'; GRANT ALL PRIVILEGES ON *.* TO 'oozie'@'%'; FLUSH PRIVILEGES; |
9 安装JDK
9.1解压安装包并配置环境变量
|
9.2分发到其他服务器
scp
-r
/opt
/java
/jdk1
.8.0_181/root@hdc
-data2
:/opt
/java
/
scp
-r
/opt
/java
/jdk1
.8.0_181/root@hdc
-data3
:/opt
/java
/
scp
/etc
/profile root@hdc
-data2
:/etc/
scp
/etc
/profile root@hdc
-data3
:/etc/
source
/etc
/profile
二、配置本地yum库
1 服务安装配置
yum install yum-utils createrepo yum install httpd service httpd start |
2 磁盘挂载
磁盘文件系统可用ext4或者xfs,挂载时需添加noatime选项
mkdir /data vi /etc/fstab /dev/vdb /data xfs defaults,noatime 0 0 mkfs -t xfs /dev/vdb mount /dev/vdb /data |
3下载镜像包,解压到指定目录
操作系统 |
版本 |
库名称 |
下载链接 |
CentOS 7 |
2.6.5.0 |
HDP |
http://public-repo-1.hortonworks.com/HDP/centos7/2.x/updates/2.6.5.0/HDP-2.6.5.0-centos7-rpm.tar.gz |
Md5: 1775e80b7fcc16ff1f908f3d81693854 |
|||
HDP-UTILS |
http://public-repo-1.hortonworks.com/HDP-UTILS-1.1.0.22/repos/centos7/HDP-UTILS-1.1.0.22-centos7.tar.gz |
||
Md5: ebf4c5519640b6a62a3def461ea66f13 |
|||
HDP-GPL |
http://public-repo-1.hortonworks.com/HDP-GPL/centos7/2.x/updates/2.6.5.0/HDP-GPL-2.6.5.0-centos7-gpl.tar.gz |
||
Md5: c1e0b4b6517142bf61f7bbdef967558f |
|||
CentOS 7 |
2.6.2.0 |
Ambari |
http://public-repo-1.hortonworks.com/ambari/centos7/2.x/updates/2.6.2.0/ambari-2.6.2.0-centos7.tar.gz |
Md5: 6d87af3788b8fdf4a6abaa759b1dc84e |
|||
Jdk |
jdk-8u281-linux-x64.tar.gz |
||
Md5: e85f591a370400c99fc314e5c43015a7 |
下载后把镜像包解压缩,并且移动到/var/www/html/hdp 目录下;
mkdir /var/www/html/ambari tar -zxvf HDP-UTILS-1.1.0.22-centos7.tar.gz -C /var/www/html/ambari/ tar -zxvf ambari-2.6.5.0-centos7.tar.gz -C /var/www/html/ambari/ tar -zxvf HDP-2.6.5.0-centos7-rpm.tar.gz -C /var/www/html/ambari/ tar -zxvf HDP-GPL-2.6.5.0-centos7-gpl.tar.gz -C /var/www/html/ambari/ |
三、安装配置ambari Server
1 配置ambari 的yum源(在master节点)
wget -nv http://public-repo-1.hortonworks.com/HDP/centos7/2.x/ updates/2.6.0.3/hdp.repo -O /etc/yum.repos.d/hdp.repo |
2 修改ambari.repo配置信息
#VERSION_NUMBER=2.5.0.3-7 [ambari-2.5.0.3] name=ambari Version - ambari-2.5.0.3 baseurl=http://10.1.0.30/ambari/ambari/centos7 gpgcheck=0 gpgkey=http://10.1.0.30/ambari/ambari/centos7/2.x/updates/2.5.0.3/RPM-GPG-KEY/RPM-GPG-KEY-Jenkins enabled=1 priority=1 |
3 执行ambari server安装
yum install ambari-server |
4 安装mysql-java驱动
yum install –y mysql-connector-java.noarch
找到/usr/share/java/mysql-connector-java.jar
将mysql-connector-java.jar复制到/var/lib/ambari-server/resources目录下
cp mysql-connector-java-5.1.40.jar /var/lib/ambari-server/resources/mysql-jdbc-driver.jar |
5 ambaria初始化
#设置mysql驱动 ambari-server setup --jdbc-db=mysql --jdbc-driver=/usr/share/java/mysql-connector-java.jar ambari-server setup |
[root@master yum.repos.d]# ambari-server setup Checking SELinux... SELinux status is 'enabled' SELinux mode is 'permissive' WARNING: SELinux is set to 'permissive' mode and temporarily disabled. OK to continue [y/n] (y)? y Customize user account for ambari-server daemon [y/n] (n)? Adjusting ambari-server permissions and ownership... Checking firewall status... Checking JDK... [1] Oracle JDK 1.8 + Java Cryptography Extension (JCE) Policy Files 8 [2] Oracle JDK 1.7 + Java Cryptography Extension (JCE) Policy Files 7 [3] Custom JDK ============================================================================== Enter choice (1): 1 ………… Successfully downloaded JDK distribution to /var/lib/ambari-server/resources/jdk-8u112-linux-x64.tar.gz Installing JDK to /usr/jdk64/ Successfully installed JDK to /usr/jdk64/ Successfully downloaded JCE Policy archive to /var/lib/ambari-server/resources/jce_policy-8.zip Installing JCE policy... Checking GPL software agreement... GPL License for LZO: https://www.gnu.org/licenses/old-licenses/gpl-2.0.en.html Enable Ambari Server to download and install GPL Licensed LZO packages [y/n] (n)? Completing setup... Configuring database... Enter advanced database configuration [y/n] (n)? y Configuring database... ============================================================================== Choose one of the following options: [1] - PostgreSQL (Embedded) [2] - Oracle [3] - MySQL / MariaDB [4] - PostgreSQL [5] - Microsoft SQL Server (Tech Preview) [6] - SQL Anywhere [7] - BDB ============================================================================== Enter choice (1): 3 Hostname (localhost): master.bigdata.com Port (3306): Database name (ambari): Username (ambari): Enter Database Password (bigdata): BigData123_ Configuring ambari database... Configuring remote database connection properties... WARNING: Before starting Ambari Server, you must run the following DDL against the database to create the schema: /var/lib/ambari-server/resources/Ambari-DDL-MySQL-CREATE.sql (此处转下表的数据库操作) Proceed with configuring remote database connection properties [y/n] (y)? y Extracting system views... ambari-admin-2.6.1.5.3.jar Ambari Server 'setup' completed successfully. |
说明: |
数据库操作
[root@master ~]# mysql -u root -p Enter password: mysql> use ambari; Database changed mysql> source Query OK, 0 rows affected (0.00 sec) |
6 服务启停
启动:ambari-server start
停止:ambari-server stop
启动成功后可以通过浏览器访问管理界面。
URL:
192.168.217.130:8080(IP为master节点IP)
用户名:admin 密码:admin
四、HDP集群部署
1
登录ambari
server 管理界面
1.在浏览器打开http://192.168.217.130:8080
2.输入用户名密码 默认admin/admin
2
进入集群安装向导
3
输入集群名称
建议设置为EDMP,标信数据管理平台简称
4
选择hdp版本
点击HDP-2.6,选择上传文件
在HDP/centos7/2.6.4.0-91/HDP-2.6.4.0-91.xml文件基础上,修改baseurl,修改完后如下:
选择增加版本、上传修改后的版本文件。
增加版本完成后,直接下一步
5
确认主机列表(并上传id_rsa文件)
6
主机注册、主机环境检查
ERROR 2021-02-20 00:17:28,352 NetUtil.py:96 - EOF occurred in violation of protocol (_ssl.c:618)
ERROR 2021-02-20 00:17:28,352 NetUtil.py:97 - SSLError: Failed to connect. Please check openssl library versions.
这一步会出现一些问题,具体解决方案在第六部分安装过程中出现的问题中查找
7 选择安装部署组件
选择安装组件,(最小化安装HDFS+YARN+MAPREDUCE2+Ambari Metrics+SmartSense+ZooKeeper+Hbase)不必要的组件可以暂时不安装节省安装时间,后续可以再添加安装组件
8
分配服务角色
9
组件配置信息修改
通常数据目录修改到/data/目录下,
有红色信息提示的组件表示要输入相应的账号密码。
以下示例,可根据自己的实际情况配置。
9.1 HDFS
修改3个数据盘路径
9.2 HIVE
修改元数据库类型及地址,填写账号密码hive/hive123
9.3 oozie
填写元数据库账号密码,修改访问地址oozie/oozie123,路径参考hive
9.4 zookeeper
修改数据存放路径
9.5 ambari Metrics/ smartsence
设置账号密码,默认为admin/admin
附:暂时修改了以下属性,具体配置信息可根据实际情况后续相应修改
属性 |
修改值 |
HDFS |
|
NameNode |
/data/hadoop/hdfs/namenode |
DataNode |
/data/hadoop/hdfs/data |
SecondaryNameNode Checkpoint directories |
/data/hadoop/hdfs/namesecondary |
Hadoop PID Dir Prefix |
/data/var/run/hadoop |
Hadoop Log Dir Prefix |
/data/var/log/hadoop |
dfs.journalnode.edits.dir |
/data/hadoop/hdfs/journalnode |
Yarn |
|
yarn.nodemanager.local-dirs |
/data/hadoop/yarn/local |
yarn.nodemanager.log-dirs |
/data/hadoop/yarn/log |
yarn.timeline-service.leveldb-state-store.path |
/data/hadoop/yarn/timeline |
yarn.timeline-service.leveldb-timeline-store.path |
/data/hadoop/yarn/timeline |
YARN Log Dir Prefix |
/data/var/log/hadoop-yarn |
YARN PID Dir Prefix |
/data/var/run/hadoop-yarn |
Mapreduce |
|
Mapreduce Log Dir Prefix |
/data/var/log/hadoop-mapreduce |
Mapreduce PID Dir Prefix |
/data/var/run/hadoop-mapreduce |
mapreduce.jobhistory.recovery.store.leveldb.path |
/data/hadoop/mapreduce/jhs |
Hive |
|
Hive Log Dir |
/data/var/log/hive |
Hive PID Dir |
/data/var/run/hive |
HBase |
|
HBase Log Dir Prefix |
/data/var/log/hbase |
HBase PID Dir |
/data/var/run/hbase |
Oozie |
|
Oozie Data Dir |
/data/hadoop/oozie/data |
Oozie Log Dir |
/data/var/log/oozie |
Oozie PID Dir |
/data/var/run/oozie |
zookeeper |
|
ZooKeeper directory |
/data/hadoop/zookeeper |
ZooKeeper Log Dir |
/data/var/log/zookeeper |
ZooKeeper PID Dir |
/data/var/run/zookeeper |
ambari-infra |
|
Metrics Collector log dir |
/data/var/log/ambari-metrics-collector |
Metrics Collector pid dir |
/data/var/run/ambari-metrics-collector |
Metrics Monitor log dir |
/data/var/log/ambari-metrics-monitor |
Metrics Monitor pid dir |
/data/var/run/ambari-metrics-monitor |
Aggregator checkpoint directory |
/data/var/lib/ambari-metrics-collector/checkpoint |
Metrics Grafana data dir |
/data/var/lib/ambari-metrics-grafana |
Metrics Grafana log dir |
/data/var/log/ambari-metrics-grafana |
Metrics Grafana pid dir |
/data/var/run/ambari-metrics-grafana |
hbase_log_dir |
/data/var/log/ambari-metrics-collector |
hbase_pid_dir |
/data/var/run/ambari-metrics-collector/ |
hbase.tmp.dir |
/data/var/lib/ambari-metrics-collector/hbase-tmp |
ambari-infra |
|
Infra Solr Client log dir |
/data/var/log/ambari-infra-solr-client |
Infra Solr log dir |
/data/var/log/ambari-infra-solr |
Infra Solr pid dir |
/data/var/run/ambari-infra-solr |
spark |
|
livy2_log_dir |
/data/var/log/livy2 |
livy2_pid_dir |
/data/var/run/livy2 |
spark_log_dir |
/data/var/log/spark2 |
spark_pid_dir |
/data/var/run/spark2 |
10
执行安装
11 安装成功,点击完成进入图形界面
五 HDFS启用HA(高可用)(暂时忽略)
1停止hbase hive相关服务,
2
在hdfs界面,点击 enable namenode ha
3 输入namenode ha serverid
六 安装过程中出现的问题
安装过程中排查问题具体思路:2个路径,第1个为安装页面message目录,点击蓝色进度信息跳转查看;第二个ambari-server后台日志,具体路径为
1)UID错误问题
具体报错信息如下
# 修改文件:/var/lib/ambari-server/resources/stacks/HDP/2.0.6/hooks/before-ANY/files/changeToSecureUid.sh [root@manager ~]# vim function find_available_uid() { for ((i=8001; do grep -q $i if [ then newUid=$i break fi done } # 修改原来的 for ((i=1001; i<=2000; i++)) 为 # 8001,9000可以取值为暂时未使用的UID,可以使用id UID验证UID是否被使用,找一段未使用的UID即可 |
修改完之后需要重启ambari服务
|
2)8080端口报错
报错现象:
|
错误原因:
客户端调用setupAgent.py函数, ambari-server所在IP传参失败,从而导致了问题的发生。
解决办法:
找到文件:/usr/lib/ambari-server/lib/ambari_server/setupAgent.py
手动修改ambari-server hostname
160 161 162 163 164 |
3)SSL HTTPS连接错误
注册ambari-agents时failed
NetUtil.py:96 - EOF occurred in violation of protocol (_ssl.c:579)
SSLError: Failed to connect. Please check openssl library versions.
解决:如下第三个方案,/etc/ambari-agent/conf/ambari-agent.ini文件只有执行该步骤进行注册才生成。修改后点击“Retry Failed”按钮,等待注册成功进入下一步。
# 1、yum upgrade openssl 已是最新本版,未解决
# 2、vi /etc/python/cert-verification.cfg 修改 verify=disable,未解决
[ #verify=platform_default
# 3、最后解决方案 在ambari-agent的配置文件/etc/ambari-agent/conf/ambari-agent.ini
[
|
最新版大数据平台安装部署指南,HDP-2.6.5.0,ambari-2.6.2.0的更多相关文章
- GreenPlum 大数据平台--安装
1. 环境准备 01, 安装包准备: Greenplum : >>>>链接地址 Pgadmin客户端 : >>>链接地址 greenplum-cc-web ...
- Redis安装,mongodb安装,hbase安装,cassandra安装,mysql安装,zookeeper安装,kafka安装,storm安装大数据软件安装部署百科全书
伟大的程序员版权所有,转载请注明:http://www.lenggirl.com/bigdata/server-sofeware-install.html 一.安装mongodb 官网下载包mongo ...
- Spark大数据平台安装教程
一.Spark介绍 Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎.Spark是开源的类Hadoop MapReduce的通用并行框架,Spark拥有Hadoop MapRe ...
- 大数据平台比较-CDH,HDP
主要的不同点 apache Ambari ClouderaManager Express(免费版) 配置版本控制和历史记录 支持 不支持 二次开发 支持 不支持 集成 支持 no (不支持redis. ...
- HDP 企业级大数据平台
一 前言 阅读本文前需要掌握的知识: Linux基本原理和命令 Hadoop生态系统(包括HDFS,Spark的原理和安装命令) 由于Hadoop生态系统组件众多,导致大数据平台多节点的部署,监控极其 ...
- 大数据平台迁移实践 | Apache DolphinScheduler 在当贝大数据环境中的应用
大家下午好,我是来自当贝网络科技大数据平台的基础开发工程师 王昱翔,感谢社区的邀请来参与这次分享,关于 Apache DolphinScheduler 在当贝网络科技大数据环境中的应用. 本次演讲主要 ...
- CentOS7部署CDH6.0.1大数据平台
Cloudera’s Distribution Including Apache Hadoop,简称“CDH”,基于Web的用户界面,支持大多数Hadoop组件,包括HDFS.MapReduce.Hi ...
- 【定义及安装】Ambari——大数据平台的搭建利器
Ambari 是什么 Ambari 跟 Hadoop 等开源软件一样,也是 Apache Software Foundation 中的一个项目,并且是顶级项目.目前最新的发布版本是 2.0.1,未来不 ...
- product of大数据平台搭建------CM 和CDH安装
一.安装说明 CM是由cloudera公司提供的大数据组件自动部署和监控管理工具,相应的和CDH是cloudera公司在开源的hadoop社区版的基础上做了商业化的封装的大数据平台. 采用离线安装模式 ...
随机推荐
- 1. Machine Learning - Introduction
Speaker: Andrew Ng 1. Introduction 1.A comptuter program is said to learn from experience E with r ...
- Codeforces Round #622 (Div. 2) B. Different Rules(数学)
Codeforces Round #622 (Div. 2) B. Different Rules 题意: 你在参加一个比赛,最终按两场分赛的排名之和排名,每场分赛中不存在名次并列,给出参赛人数 n ...
- Codeforces Round #622 (Div. 2) A. Fast Food Restaurant(全排列,DFS)
Codeforces Round #622 (Div. 2) A. Fast Food Restaurant 题意: 你是餐馆老板,虽然只会做三道菜,上菜时还有个怪癖:一位客人至少上一道菜,且一种菜最 ...
- BZOJ3238 [Ahoi2013]差异 【SAM or SA】
BZOJ3238 [Ahoi2013]差异 给定一个串,问其任意两个后缀的最长公共前缀长度的和 1.又是后缀,又是\(lcp\),很显然直接拿\(SA\)的\(height\)数组搞就好了,配合一下单 ...
- Codeforces Round #633 (Div. 2)
Codeforces Round #633(Div.2) \(A.Filling\ Diamonds\) 答案就是构成的六边形数量+1 //#pragma GCC optimize("O3& ...
- codeforce 849A
A. Odds and Ends time limit per test 1 second memory limit per test 256 megabytes input standard inp ...
- Leetcode(38)-报数
报数序列是指一个整数序列,按照其中的整数的顺序进行报数,得到下一个数.其前五项如下: 1. 1 2. 11 3. 21 4. 1211 5. 111221 1 被读作 "one 1&quo ...
- C++ STL (基础)
STL是什么(STL简介) 本节主要讲述 STL 历史.STL 组件.STL 基本结构以及 STL 编程概述.STL 历史可以追溯到 1972 年 C 语言在 UNIX 计算机上的首次使用.直到 19 ...
- Gym102361A Angle Beats(直角三角形 计算几何)题解
题意: \(n\)个点,\(q\)个询问,每次问包含询问点的直角三角形有几个 思路: 代码: #include<bits/stdc++.h> using namespace std; co ...
- POJ1273 最大流模板
之前自己写的,以后当一个模板的基础吧,不管是最大流,最小割,二分图匹配 下面是POJ1273的一个裸题.. 1 #include <iostream> 2 #include <cst ...