Sqoop迁移Hadoop与RDBMS间的数据
Sqoop是用来实现结构型数据(如:关系型数据库RDBMS)和Hadoop之间进行数据迁移的工具。它充分利用了MapReduce的并行特点以批处理的方式加快数据的传输,
同时也借助MapReduce实现容错。
一、将MySQL中的表迁移到HDFS上(RDBMS —> HDFS)
- 导入MySQL"db_sqoop.mysql_emp表"所有数据到HDFS中;
sqoop import \
--connect jdbc:mysql://hadoopone:3306/db_sqoop \
--username root \
--password root \
--table mysql_emp \
--target-dir /data/hdfs_sqoop \
--delete-target-dir \
--num-mappers 1 \
--fields-terminated-by '\t'--table mysql中目标表;
--target-dir hdfs存放目录;
--delete-target-dir:若hdfs存放目录已存在,则自动删除;
--num-mappers:指定maptask数量;
--fields-terminated-by:各字段间的分隔符; - 将MySQL的查询结果导入HDFS上;
sqoop import \
--connect jdbc:mysql://hadoopone:3306/db_sqoop \
--username root \
--password root \
--target-dir /data/hdfs_sqoop \
--delete-target-dir \
--num-mappers 1 \
--fields-terminated-by '\t' \
--query 'SELECT emp_no,first_name,last_name FROM mysql_emp WHERE gender="M" and $CONDITIONS;'”$CONDITIONS"表示将查询结果带回。
- 使用sqoop的关键字筛选查询后的结果导入到HDFS;
sqoop import \
--connect jdbc:mysql://hadoopone:3306/db_sqoop \
--username root \
--password root \
--table mysql_emp \
--target-dir /data/hdfs_sqoop \
--delete-target-dir \
--num-mappers 1 \
--fields-terminated-by '\t' \
--where "gender='F'" - 从MySQL导入指定’列’到HDFS上;
sqoop import \
--connect jdbc:mysql://hadoopone:3306/db_sqoop \
--username root \
--password root \
--table mysql_emp \
--target-dir /data/hdfs_sqoop \
--delete-target-dir \
--num-mappers 1 \
--fields-terminated-by '\t' \
--columns emp_no,gender,birth_date
二、MySQL ——> Hive (RDBMS ——> HIVE)
- 将MySQL中的表导入Hive中;
sqoop import \
--connect jdbc:mysql://hadoopone:3306/db_sqoop \
--username root \
--password root \
--num-mappers 1 \
--table mysql_emp \
--hive-import \
--hive-table db_hive_sqoop.hive_emp \
--fields-terminated-by '\t' \
--hive-overwrite \
--delete-target-dir
三、MySQL –> Hbase(RDBMS ——> Hbase)
- 将MySQL中的表导入Hbase中;
sqoop import \
--connect jdbc:mysql://hadoopone:3306/db_sqoop \
--username root \
--password root \
--table book \
--columns "id,name,price" \
--column-family "info" \
--hbase-create-table \
--hbase-row-key "id" \
--hbase-table "hbase_book" \
--num-mappers 1 \
--split-by id
四、HDFS/Hive —> MySQL (HDFS/Hive —> RDBMS)
- 在MySQL中创建对应的表,然后使用如下语句;
sqoop export \
--connect jdbc:mysql://hadoopone:3306/db_sqoop \
--username root \
--password root \
--table myqsl_dept \
--num-mappers 1 \
--export-dir /usr/hive/warehouse/db_hive_sqoop.db/hive_dept \
--input-fields-terminated-by '\t'
五、导出MySQL表结构到hive
- 导出MySQL表结构;
sqoop create-hive-table \
--connect jdbc:mysql://hadoopone:3306/db_sqoop \
--username root \
--password root \
--table mysql_stu \
--hive-database db_hive_sqoop \
--hive-table hive_stu
Sqoop迁移Hadoop与RDBMS间的数据的更多相关文章
- Sqoop -- 用于Hadoop与关系数据库间数据导入导出工作的工具
Sqoop是一款开源的工具,主要用于在Hadoop相关存储(HDFS.Hive.HBase)与传统关系数据库(MySql.Oracle等)间进行数据传递工作.Sqoop最早是作为Hadoop的一个第三 ...
- Sqoop是一款开源的工具,主要用于在HADOOP(Hive)与传统的数据库(mysql、oracle...)间进行数据的传递
http://niuzhenxin.iteye.com/blog/1706203 Sqoop是一款开源的工具,主要用于在HADOOP(Hive)与传统的数据库(mysql.postgresql.. ...
- 阿里云 RDS实例间的数据迁移
使用数据传输DTS可以实现两个RDS实例间的数据迁移.对于支持增量迁移的存储引擎,还可以使用DTS在源RDS实例不停服的情况下,将数据迁移到目标RDS实例.目前对于RDS不同存储引擎,只支持同构迁移( ...
- Hadoop基础之初识大数据与Hadoop
前言 从今天起,我将一步一步的分享大数据相关的知识,其实很多程序员感觉大数据很难学,其实并不是你想象的这样,只要自己想学,还有什么难得呢? 学习Hadoop有一个8020原则,80%都是在不断的配置配 ...
- 关于Hadoop结合RDBMS应用的一些思考
最近一段时间一直在从事和hadoop相关的工作,主要是技术内容学习.安装配置优化以及一些框架结构的设计.在此期间,我对于RDBMS和Hadoop的结合应用有了一些自己的看法,写出来大家共同探讨一下. ...
- hadoop集群间的hdfs文件拷贝
1.背景 部门有个需求,在网络互通的情况下,把现有的hadoop集群(未做Kerberos认证,集群名为:bd-stg-hadoop)的一些hdfs文件拷贝到新的hadoop集群(做了Kerberos ...
- PHP+Hadoop+Hive+Thrift+Mysql实现数据统计分析
原址:http://www.cnblogs.com/wicub/p/6094045.html 安装 Hadoop安装: http://www.powerxing.com/install-hadoo ...
- 小菜学习Winform(五)窗体间传递数据
前言 做项目的时候,winfrom因为没有B/S的缓存机制,窗体间传递数据没有B/S页面传递数据那么方便,今天我们就说下winfrom中窗体传值的几种方式. 共有字段传递 共有字段传递实现起来很方便, ...
- View与Control间的数据交互
View与Control间的数据交互 1.ViewBag.Name ="Name1" 2.ViewData["VD"] = "view data&qu ...
随机推荐
- freemarker模板跟java代码放在一起
在配置 freemarkerConfig时加上 <property name="templateLoaderPath" value="classpath:hello ...
- windows 本地搭建 apache+mysql+php环境详细讲解
1.mysql下载配置 可参考这篇文章:https://www.cnblogs.com/myIvan/p/9265645.html 2.php下载及配置 可参考这篇文章:https://www.cnb ...
- 小蒟蒻的垃圾emacs配置
(global-set-key [f9] 'compile-file) (global-set-key [f10] 'gud-gdb) (global-set-key (kbd "C-s&q ...
- js toFixed 方法重写,兼容负数
Number.prototype.toFixed = function (s) { var that = this, changenum, index; if (this < 0) { that ...
- java se系列(十二)集合
1.集合 1.1.什么是集合 存储对象的容器,面向对象语言对事物的体现,都是以对象的形式来体现的,所以为了方便对多个对象的操作,存储对象,集合是存储对象最常用的一种方式.集合的出现就是为了持有对象.集 ...
- SpringCloud---服务容错保护---Spring Cloud Hystrix
1.概述 1.1 在分布式架构中,存在着许多的服务单元,若一个单元出现故障,很容易因依赖关系引发故障的蔓延,最终导致整个系统的瘫痪: 为了解决这样的问题,产生了断路器等服务保护机制: 1.2 分布式架 ...
- 解决重装 Oracle 出现的 INS-32025 问题,完全卸载 Oracle11g
如果您要重装 Oracle,并且安装程序正在运行,请先关闭它. 完全卸载: 1.停止所有 Oracle 服务 2.通过开始菜单 Oracle Installation Products -> U ...
- java实现猴子选大王问题(约瑟夫问题)
题目:m只猴子围成一圈报数,报n的猴子自动离开,然后下一位重新从1开始报数,一直循环,最后剩下的那个猴子就是猴大王,写出程序求出最后是大王的那只猴子最初的位置. package learn; impo ...
- ztree树的模糊搜索功能
在做机场项目的时候,业务为一个input框,点击的时候出现一个下拉树,这个下拉树是所有的设备,由于设备太多,加上分了区域,为了更好的用户体验,设计一个模糊搜索的功能,方便用户进行选择 具体实现过程如下 ...
- C 六度空间理论的实现
“六度空间”理论又称作“六度分隔(Six Degrees of Separation)”理论.这个理论可以通俗地阐述为:“你和任何一个陌生人之间所间隔的人不会超过六个,也就是说,最多通过五个人你就能够 ...