Hadoop入门学习整理(一)
今天是2020年4月8日,是一个平凡而又特殊的日子,武汉在经历了77天的封城之后,于今日0点正式解封。从1月14日放寒假离开武汉,到今天已近3个月,学校的花开了又谢了。随着疫情好转,春回大地,万物复苏,武汉这座城市又活了起来。想念桂子山!
在家里这段时间学习了JavaSE基础,学习了Linux的基本命令,安装Linux虚拟机,用Xshell远程登录Linux服务器,用Xftp在本地Windows系统和远程Linux系统之间上传下载文件,学习了大数据入门,对Hadoop生态系统有一个初步的了解,在Linux系统中安装Hadoop,安装jdk,安装hbase,另外还学习了MySQL基础,会简单的增删改查。然后从今天开始,希望在这里记录自己每天的学习,希望每天都有一点点进步。
言归正传,接下来对最近学习的Hadoop做一个总结。主要是从安装虚拟机到安装jdk和Hadoop这一部分内容。
具体步骤:
1、在VMware12上面安装Linux虚拟机(CentOS-6.10版本),并且能够联网,然后安装Vmware Tools,方便Linux和Windows之间复制粘贴,熟练掌握Linux文件系统的目录结构,学会Linux的基本指令和用户管理。
(安装 Vmware 和 centos6.10 可参考 https://blog.csdn.net/lx940112/article/details/80159509 和 https://www.cnblogs.com/cao-yin/p/11550178.html)
(安装Vmware Tools 可参考 https://www.cnblogs.com/yujianadu/p/10454915.html)
(学习Linux可参考 http://c.biancheng.net/linux_tutorial/)
2、安装XShell和XFTP5两个软件,分别用于远程登录和远程上传下载文件。
(安装 XShell 和 Xftp 可关注微信公众号:软件安装管家,并回复 xshell)
(在连接XShell之前,需要给Linux进行网络配置,参考 https://jingyan.baidu.com/article/76a7e409ed694dfc3a6e1548.html)
(XShell连接到Linux,参考 https://jingyan.baidu.com/article/36d6ed1f7520991bcf4883e6.html)
3、克隆虚拟机(Hadoop100克隆出Hadoop101 )(这一步伪分布式不是必须)
第一步:在hadoop100中先创建hadoop用户,关闭防火墙。
第二步:克隆
第三步:进行Hadoop 101的相关设置:修改ip地址、配置网络、修改主机名称、关闭防火墙。(https://blog.csdn.net/qq_39192827/article/details/85952823)
开机,登录root账号
(1)修改克隆机的ip地址
终端输入 vim /etc/udev/rules.d/70-persistent-net.rules 然后三件事
第一件:删除(dd命令)父本克隆过来的网卡,即第一个SUBSYSTEM
第二件:把下面一个SUBSYSTEM中的网卡名(NAME)改为eth0
第三件:复制MAC地址,ATTR{address}==“复制这部分内容”
:wq 保存退出
(2)配置网络
终端输入 vim /etc/sysconfig/networking-scripts/ifcfg-eth0 然后两件事
第一件:修改MAC地址,HWADDR=刚刚复制的MAC
第二件:修改IP地址,192.168.1.100 ----改为---> 192.168.1.101
(3)修改主机名称
终端输入 vim /etc/sysconfig/network 然后
修改HOSTNAME=hadoop101
(4)配置主机名称映射,方便通信
终端输入 vim /etc/hosts
在最后添加 192.168.1.100 hadoop100
192.168.1.102 hadoop102(如果有的话就添加)
注:在Windows系统中也可以添加主机名称映射,具体方法如下:
进入 C:\windows\System32\drivers\etc\hosts 最后同样方法添加 ip地址 主机名称
(5)reboot重启,ping测试通信
4、安装jdk并配置环境变量,安装Hadoop并配置环境变量。
(https://blog.csdn.net/SXY16044314/article/details/90550543)
准备工作
(1)给普通用户授予root权限
大部分和安全相关的命令,只有root用户才有权限执行,如果希望普通用户可以直接使用,又避免切换到root用户的麻烦操作,可以为普通用户赋予root权限。
首先了解 sudo 和sudoers (https://blog.csdn.net/iteye_2642/article/details/82510194)
sudo是Linux下常用的允许普通用户使用超级用户权限的工具,sudo的配置文件是sudoers文件,该配置文件的位置是/etc/sudoers。
最简单的配置,让普通用户(用户名为support)具有所有的root权限,通过修改 /etc/sudoers,方法如下:
su root //需要在root用户
vim /etc/sudoers //去95行,G+95,复制一行,在下面再添加一条配置
support ALL=(ALL) ALL
然后esc,接着:wq保存退出
注:修改完毕,现在可以用support帐号登录,然后用命令 sudo ,即可获得root权限进行操作。 (super user do)
(2)关闭防火墙
(防止无法访问hdfs,需要使用sudo命令)
如果需要克隆虚拟机,那么在克隆之前就关闭,避免克隆之后给每台虚拟机关闭。
这里用到service后台服务管理:
service + 服务名 + 命令
其中命令包括:start开启 / stop关闭 / restart 重启 / status查看服务状态
查看防火墙状态:sudo service iptables status
关闭防火墙:sudo service iptables stop
正式安装
(1)在/opt目录下面创建/software目录和/module目录
其中/software目录用于存放今后需要用到的安装压缩包jar包(jdk、hadoop、hbase等),即利用xftp软件将Windows里面的安装包直接传输到/software下面,然后将压缩包解压到/module目录下面。
注:可以利用以下命令更改文件夹的所有者和所在组:
sudo chown guan:guan 文件名 -R // -R表示递归
解压命令为:
tar -zxvf 文件名 -C 解压到的目录(这里是/opt/module)
(2)重命名
为了方便使用,可以用以下命令给文件重命名:
mv hadoop-2.7.2 hadoop
mv jdk-1.8.2 jdk
(3)配置环境变量
进入jdk目录,使用pwd命令查看路径,将此路径复制下来。
进入hadoo目录,使用pwd命令查看路径,将此路径复制下来。
然后 进入/etc,编辑profile文件 vim profile
在profile中添加的内容如下:
###JAVA_HOME
export JAVA_HOME=刚刚复制的jdk路径
export PATH=$PATH:$JAVA_HOME/bin
###HADOOP_HOME
export HADOOP_HOME=刚刚复制的hadoop路径
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
然后 :wq 保存退出,至此环境变量配置好了。
(4)让刚刚配置的环境变量生效并测试
/etc下命令: source profile
测试是否安装成功:
java -version
hadoop version
至此jdk和Hadoop安装完成!
Hadoop安装完成之后,接下来就是本地模式、伪分布式和完全分布式的配置和使用。
Hadoop入门学习整理(一)的更多相关文章
- Hadoop入门学习整理(二)
2020-04-15 在上一篇文章中介绍了Linux虚拟机的安装,Hadoop的安装和配置,这里接着上一篇的内容,讲Hadoop的简要介绍和简单使用, 以及HBase的安装和配置. 1.首先要了解Ha ...
- hadoop入门学习整理
技术性网站 1.http://dongxicheng.org/ 2.http://www.iteblog.com/ 3.http://www.cnblogs.com/shishanyuan/p/414 ...
- Hadoop入门学习整理(三)
1.Hive 的安装 下载tar包,并且要注意和Hadoop版本兼容. 下载 -----> 传输 -------> 解压 即可. 然后配置环境变量和相关配置信息. 参考: ...
- Hadoop入门学习笔记---part1
随着毕业设计的进行,大学四年正式进入尾声.任你玩四年的大学的最后一次作业最后在激烈的选题中尘埃落定.无论选择了怎样的选题,无论最后的结果是怎样的,对于大学里面的这最后一份作业,也希望自己能够尽心尽力, ...
- Hadoop入门学习笔记---part4
紧接着<Hadoop入门学习笔记---part3>中的继续了解如何用java在程序中操作HDFS. 众所周知,对文件的操作无非是创建,查看,下载,删除.下面我们就开始应用java程序进行操 ...
- Hadoop入门学习笔记---part3
2015年元旦,好好学习,天天向上.良好的开端是成功的一半,任何学习都不能中断,只有坚持才会出结果.继续学习Hadoop.冰冻三尺,非一日之寒! 经过Hadoop的伪分布集群环境的搭建,基本对Hado ...
- Hadoop入门学习笔记---part2
在<Hadoop入门学习笔记---part1>中感觉自己虽然总结的比较详细,但是始终感觉有点凌乱.不够系统化,不够简洁.经过自己的推敲和总结,现在在此处概括性的总结一下,认为在准备搭建ha ...
- hadoop入门学习
hadoop入门学习:http://edu.csdn.net/course/detail/1397hadoop hadoop2视频:http://pan.baidu.com/s/1o6uy7Q6HDF ...
- Hadoop入门学习路线
走上大数据的自学之路....,Hadoop是走上大数据开发学习之路的第一个门槛. Hadoop,是Apache的一个开源项目,开发人员可以在不了解分布式底层细节,开发分布式程序,充分利用集群进行高速运 ...
随机推荐
- Hitool打开出现failed to create the java virtual machine
今天在安装Hitool后,打开hitool后出现了错误:failed to create the java virtual machine. 解决方法如下: 记事本打开HiTool.ini -star ...
- Jmeter 常用函数(8)- 详解 __MD5
如果你想查看更多 Jmeter 常用函数可以在这篇文章找找哦 https://www.cnblogs.com/poloyy/p/13291704.html 作用 将指定的字符串 MD5 加密并返回,加 ...
- Micro LED巨量转移技术研究进展
近年来,Micro LED因其功耗低.响应快.寿命长.光效率高等特点,被视为继LCD.OLED之后的新一代显示面板技术.Micro LED的英文全名是Micro Light Emitting Diod ...
- docker 启动容器失败 id already in use
问题:id already in use 解决:/etc/docker/daemon.json {"shutdown-timeout": 60}
- openstack nova 虚机镜像后端提取
参考链接:https://www.cnblogs.com/storymedia/p/4500186.html 1.nova 创建的虚机后端目录 其中的base是虚机基础镜像,创建虚机会根据这个基础镜像 ...
- 微信商户H5支付申请不通过被驳回解法,拒绝提示:网站有不实内容或不安全信息
H5支付是指商户在微信客户端外的移动端网页展示商品或服务,用户在前述页面确认使用微信支付时,商户发起本服务呼起微信客户端进行支付.主要用于触屏版的手机浏览器请求微信支付的场景.可以方便从外部浏览器唤起 ...
- 你竟然不知道Java中可以用 :: 吗?
简介 Java8中方法引用分为三种,方法引用通过一对双冒号:: 来表示,方法引用是一种函数式接口的另一种书写方式 静态方法引用,通过类名::静态方法名, 如 Integer::parseInt 实例方 ...
- js apply() call() bind() 的使用
bind ,call,apply 这三者都是用来改变函数的this对象的指向的. call和apply其实是同一个东西,区别只有参数不同. 其实call和apply ,只要你调用调用一个函数的时候就可 ...
- 标准git请求
initCate() // 定义加载文章分类的方法 function initCate() { $.ajax({ method: 'GET', url: '/my/article/cates', su ...
- Apache Pulsar 社区周报:08-15 ~ 08-21
关于 Apache Pulsar Apache Pulsar 是 Apache 软件基金会顶级项目,是下一代云原生分布式消息流平台,集消息.存储.轻量化函数式计算为一体,采用计算与存储分离架构设计,支 ...