[b0001] 伪分布式 hadoop 2.6.4】的更多相关文章

说明: 任务:搭建Hadoop伪分布式版本. 目的:快速搭建一个学习环境,跳过这一环境,快速进入状态,使用Hadoop一些组件做些任务 没有选择2.7,觉得bug比较多,不稳定. 选择伪分布式简单快速 环境: Win 7  64  8G 内存 ,4核 VM 12,1 虚拟机  3G 内存 ubuntu 4.4.0  x86-64 Hadoop 2.6.4 JDK 1.7.0_80 1.  虚拟机Linux准备 安装虚拟机,(可以选择克隆方式),网络选择NAT. 创建用户hadoop,  配置 s…
VMwareWorkstation平台Ubuntu14下安装配置伪分布式hadoop 安装VmwareStation 内含注册机. 链接:https://pan.baidu.com/s/1j-vKgDcMYyOYWg9QQs3FKg 提取码:byMB 下载与安装Ubuntu http://www.ubuntu.com 在vmware下安装镜像的过程中能跳过直接跳过,在命令行界面如果卡住直接断网即可.网络问题在后面会得到解决. 配置共享文件夹 图片太糊了,下载这个文档清晰点. 链接:https:/…
先写的这一篇,很多东西没再重复写. 一.所需软件 jdk和ubuntu都是32位的. 二.安装JDK 1.建jdk文件夹 cd usr sudo mkdir javajdk 2.移动mv或者复制cp安装包 //进入桌面 cd home/hxsyl/DeskTop sudo mv /usr/javajdk 3.安装 //切换到root下 //如果忘记密码,先 sudo passwd //直接会让你输入新密码,不需要输入原来的密码 //到jdk目录下 ./jdk-6u30-linux-i586.bi…
本文所用软件版本: VMware-workstation-full-11.1.0 jdk-6u45-linux-i586.bin ubuntukylin-14.04-desktop-i386.iso 第一步:安装JDK 详见本博客  http://www.cnblogs.com/yangxiao99/p/4519385.html 第二步:安装Hadoop  首先加入下载的Hadoop安装包在/usr/local/hadoop文件夹下面.然后在命令行下进入/usr/local/hadoop文件,类…
一.搭建环境的前提条件 环境:Linux系统 Hadoop-2.6.0 MySQL 5.6 apache-hive-2.3.7 这里的环境不一定需要和我一样,基本版本差不多都ok的,所需安装包和压缩包自行下载即可.但是注意hive和hadoop都是2.x系列版本的. 这里提供一个我下载的hive版本的链接,读者有需要可以自取:http://mirror.bit.edu.cn/apache/hive/hive-2.3.7/ 这里需要提前搭建好hadoop环境和MySQL环境,具体可以看我的博客链接…
1.下载安装包 下载hadoop安装包 官网地址:https://hadoop.apache.org/releases.html 版本:建议使用hadoop-2.7.3.tar.gz 系统环境:CentOS 7 注:需要装有JDK支持,版本1.8或者更高 2.解压安装包 默认软件安装路径为 /usr/soft,因此先传输安装包到该路径下 cd /usr/soft tar -zxvf hadoop-2.7.3.tar.gz 3.环境变量配置 vi /ect/profile 文件末尾换行追加以下内容…
原因:在原来的电脑上配置伪分布的时候,已经将hostname与IP绑定了,所以拷贝到别的电脑的时候,重新启动的时候就会失败,因为新的电脑的IP不见得就和原来的电脑的IP一样!因为在不同的网络中,在NAT模式下Linux的IP肯定是位于不同的网段的!! 解决方法:vi /etc/hosts  将原来的电脑的IP改成新的电脑的IP即可. 另外:重新格式化hadoop的时候,要把原来的hadoop下的tmp目录下的所有文件都删除掉,然后停止所有的进程,如datanode等.然后 利用hadoop na…
安装准备: (1)hadoop安装包:hadoop-1.2.1.tar.gz (2)jdk安装包:jdk-7u60-linux-i586.gz (3)要是须要eclipse开发的话 还须要eclipse安装包 和eclipse和hadoop相关连的jar包. 安装: (1)能够选择一个新建用户安装 也能够使用眼下账户. (2)规定 所属用户组: (3) 给予用户hadoop权限: sudo vim /etc/sudoers 改动加入: watermark/2/text/aHR0cDovL2Jsb…
[hadoop@LexiaofeiMaster hadoop-2.6.0]$ start-dfs.shStarting namenodes on [localhost]localhost: starting namenode, logging to /opt/modules/hadoop-2.6.0/logs/hadoop-hadoop-namenode-LexiaofeiMaster.outLexiaofeiMaster: starting datanode, logging to /opt/…
hadoop 解决问题: 海量数据存储(HDFS) 海量数据的分析(MapReduce) 资源管理调度(YARN)…