一、Hadoop的安装

①Hadoop运行的前提是本机已经安装了JDK,配置JAVA_HOME变量
②在Hadoop中启动多种不同类型的进程
        例如NN,DN,RM,NM,这些进程需要进行通信!
        在通信时,常用主机名进行通信!
        
        在192.168.6.100机器上的DN进程,希望访问192.168.6.104机器的NN进程!
        需要在集群的每台机器上,配置集群中所有机器的host映射!
        配置:
            Linux:   /etc/hosts
            Windows:  C:\Windows\System32\drivers\etc\hosts
            
        不配报错:  
                 DNS映射异常,HOST映射异常
                
③注意权限
        hadoop框架在运行需要产生很多数据(日志),数据的保存目录,必须让当前启动hadoop进程的用户拥有写权限!
        
④关闭防火墙,设置开机不自启动
        service iptables stop
        chkconfig iptables off
        
二、使用普通用户操作
①创建普通用户atguigu
        useradd atguigu
        
②为atgugiu用户设置密码
        passwd atguigu
③赋予atguigu用户root权限
        vim /etc/sudoers
        
④将/opt目录下创建的soft目录和module目录的所属主修改为atguigu
        chown -R atguigu:atguigu /opt/soft /opt/module
        
三、hadoop的目录介绍

bin:  使用Hdfs和运算MR时,常用的目录!
            常用hadoop命令!
sbin:  管理员启动和停止集群使用的命令!

etc:  hadoop配置文件所在的目录

四、使用HDFS
        完成大数据的存储!
        HDFS(hadoop distributed filesystem)
        
        HDFS的运行模式:
                取决于参数:  fs.defaultFS=file:///(默认)
                 fs.defaultFS在core-default.xml中!
                    ①本地模式(在本机上使用HDFS,使用的就是本机的文件系统)
                            fs.defaultFS=file:///
                    ②分布式模式
                            要使用的文件系统是一个分布式的文件系统!
                            一个分布式的文件系统,必须由NN,DN等若干进程共同运行完成文件系统的读写操作!
                            fs.defaultFS=hdfs://
                            
                    启动NN:  hadoop-daemon.sh start namenode
                    停止NN:  hadoop-daemon.sh stop namenode
                    启动DN:  hadoop-daemon.sh start datanode
                    停止DN:  hadoop-daemon.sh stop datanode
                    
        使用:  hadoop fs  命令  文件路径

五、运行MapReduce
        完成大数据的计算!
        ①按照MR的规范编写一个程序
        ②将程序打包为jar
        ③运行jar中的程序
                
                两种运行模式:
                        取决于参数:  mapreduce.framework.name=local(默认)
                    ①本地模式(在本机上运行MR)   mapreduce.framework.name=local
                            在本机运行MR!在本机使用多线程的方式,运行多个Task!
                    ②在YARN上运行  mapreduce.framework.name=yarn
                            将MR提交给YARN,由YARN将Job中的多个task分配到多台机器中,启动container运行task!
                            
                            需要启动YARN,YARN由RM和NM进程组成!
        
        
六、hadoop的配置文件
        hadoop安装后,hadoop的性能和表现取决于用户的配置!
        
        4个默认的配置文件:
                位置:  HADOOP_HOME/share/xxxx.jar/xxx-default.xml
                core-default.xml: 设置hadoop最核心的参数!
                hdfs-default.xml   保存的是hdfs相关的参数!
                
                mapred-default.xml: MR程序在运行时,需要使用的参数!
                yarn-default.xml: yarn在启动时,需要的参数!
        
        4个用户可以自定义的配置文件: xxx-site.xml
                core-site.xml: 用户自定义的设置hadoop最核心的参数!
                hdfs-site.xml   用户自定义的保存的是hdfs相关的参数!
                
                mapred-site.xml: 用户自定义的MR程序在运行时,需要使用的参数!
                yarn-site.xml: 用户自定义的yarn在启动时,需要的参数!
        
        用户自定义的配置文件,可以覆盖默认配置文件中同名的参数的值!
        
        Hadoop在启动时,先加载4个默认的配置文件,再加载用户自定义的配置文件,如果用户自定义的配置文件
        中有和4个默认配置文件中门的参数,可以覆盖之前已经加载的值!

七、在使用hadoop命令时
        可以自定义配置文件的目录:  hadoop --config 配置文件的目录
        如果没有配置,默认读取  HADOOP_HOME/etc/hadoop 中对应的配置文件!
        
        hadoop-daemon.sh start namenode脚本在执行时,只会去默认的目录中读取配置文件!

Hadoop的安装配置(一)的更多相关文章

  1. Hadoop单机安装配置过程:

    1. 首先安装JDK,必须是sun公司的jdk,最好1.6版本以上. 最后java –version 查看成功与否. 注意配置/etc/profile文件,在其后面加上下面几句: export JAV ...

  2. Hadoop简单安装配置

    Hadoop开始设计以Linux平台为运行目标,所以这里推荐在Linux发行版比如Ubuntu进行安装,目前已经有Hadoop for Windows出来,大家自行搜下文章. Hadoop运行模式分为 ...

  3. Hadoop详细安装配置过程

    步骤一:基础环境搭建 1.下载并安装ubuntukylin-15.10-desktop-amd64.iso 2.安装ssh sudo apt-get install openssh-server op ...

  4. Hadoop HA- zookeeper安装配置

    安装集群 1.1 虚拟机: 3台安装好JDK的centos Linux虚拟机 1.2 安装包: 把下载好的zookeeper安装包,官网:http://mirror.bit.edu.cn/apache ...

  5. 【大数据】Hadoop单机安装配置

    1.解压缩hadoop-2.7.6.tar.gz到/home/hadoop/Soft目录中 2.创建软链接,方便hadoop升级  ln -s /home/hadoop/Soft/hadoop-2.7 ...

  6. hadoop搭建杂记:Linux下hadoop的安装配置

    VirtualBox搭建伪分布式模式:hadoop的下载与配置 VirtualBox搭建伪分布式模式:hadoop的下载与配置 由于个人机子略渣,无法部署XWindow环境,直接用的Shell来操作, ...

  7. hadoop的安装配置

    资源下载路径:https://archive.cloudera.com/cdh5/cdh/5/:https://archive.cloudera.com/cdh5/cdh/5/hadoop-2.6.0 ...

  8. Docker Hadoop LAMP安装配置教程

    以下教程来自九章算法. 1.How to install Dockerhttps://bupt.quip.com/YehSAR4qnGqB 2.How to set up hadoop environ ...

  9. Hadoop 单机安装配置

随机推荐

  1. 在sublime上运行node

    1.安装node,这个就简单了,不多说了.默认会安装在C盘,也可以自己设定盘符,如D.E 2.打开Sublime Text -> Tools -> Build -> Build Sy ...

  2. vulhub漏洞环境

    0x00 vulhub介绍 Vulhub是一个基于docker和docker-compose的漏洞环境集合,进入对应目录并执行一条语句即可启动一个全新的漏洞环境,让漏洞复现变得更加简单,让安全研究者更 ...

  3. 一文带你盘点市场上主流的BI产品主要有哪些

    ​随着时代的发展,商业智能使数据分析和数据可视化的门槛不断降低,使得企业各级人员都能进行数据分析,从而加深业务洞察,推动企业发展.而在数据分析领域,BI产品发挥了十分重要的作用. 市场需求变化日益频繁 ...

  4. 国内专业web报表工具,完美解决中国式报表难题

    近几年报表工具的热度不断上升,很多企业都用上了全新的报表工具,主要是企业数据化转型已经成为趋势.在进行选型的时候,很多企业最好都选择国内的报表工具,相信一些人不知道为什么国内的报表工具表现比国外的好. ...

  5. python的标识符&&关键字

    和Java语言一样,python也有标识符和关键字.那么,你是否知道python的关键字呢?一起先从标识符了解python吧. 什么是标识符? 标识符,开发人员在开发过程中自定义的一些符号和名称. 标 ...

  6. 基于IEC61499标准的组件

    IEC 61499标准通常用于开发分布式控制系统.IEC 61499定义了功能模块(FB, function block)的模型.有三种FB,分别是Basic FB (BFB),Service Int ...

  7. Spark on Yarn出现hadoop.compression.lzo.LzoCodec not found问题发现及解决

    问题描述: spark.SparkContext: Created broadcast 0 from textFile at WordCount.scala:37 Exception in threa ...

  8. windows下安装gym

    安装gym在执行pip install -e'.[all]'这句语句时,可能会出现这种情况 在pycharm中运行的时候会出现如下这种情况: 或者这种情况 出现这种问题可能是python的版本太高了, ...

  9. ASP.NET Core 简单集成签发 JWT (JSON Web Tokens)

    什么是 JWT ? 从 https://jwt.io/ 可以了解到对 JWT 的描述:JSON Web Tokens are an open, industry standard RFC 7519 m ...

  10. 【一周聚焦】 联邦学习 arxiv 2.16-3.10

    这是一个新开的每周六定期更新栏目,将本周arxiv上新出的联邦学习等感兴趣方向的文章进行总结.与之前精读文章不同,本栏目只会简要总结其研究内容.解决方法与效果.这篇作为栏目首发,可能不止本周内容(毕竟 ...