[sqoop1.99.7] sqoop命令
官网文档:http://sqoop.apache.org/docs/1.99.7/user/CommandLineClient.html#delete-link-function
一、了解sqoop数据导入的几个重要概念
- (1)connector:sqoop2中预定了各种链接,这些链接是一些配置模板。
- #查看预定制的连接器
- sqoop:000> show connector
- +------------------------+---------+------------------------------------------------------------+----------------------+
- | Name | Version | Class | Supported Directions |
- +------------------------+---------+------------------------------------------------------------+----------------------+
- | oracle-jdbc-connector | 1.99.7 | org.apache.sqoop.connector.jdbc.oracle.OracleJdbcConnector | FROM/TO |
- | sftp-connector | 1.99.7 | org.apache.sqoop.connector.sftp.SftpConnector | TO |
- | kafka-connector | 1.99.7 | org.apache.sqoop.connector.kafka.KafkaConnector | TO |
- | kite-connector | 1.99.7 | org.apache.sqoop.connector.kite.KiteConnector | FROM/TO |
- | ftp-connector | 1.99.7 | org.apache.sqoop.connector.ftp.FtpConnector | TO |
- | hdfs-connector | 1.99.7 | org.apache.sqoop.connector.hdfs.HdfsConnector | FROM/TO |
- | generic-jdbc-connector | 1.99.7 | org.apache.sqoop.connector.jdbc.GenericJdbcConnector | FROM/TO |
- +------------------------+---------+------------------------------------------------------------+----------------------+
- 其中,最基本的是generic-jdbc-connector,是mysql等关系型数据库的连接器。支持数据的从关系型数据库的导入导出。
- 除此之外,支持导入导出的还有:hdfs-connector、kite-connector和oracle-jdbc-connector。
- 仅支持数据导入的连接器有: sftp-connector 、 ftp-connector 以及kafka-connector 。
- 通过这些模板,可以创建出对应数据源的link,比如我们链接mysql,就是使用JDBC的方式进行链接,这时候就从这个generic-jdbc-connector模板继承出一个link。那如果我们需要连接hdfs,则需要使用hdfs-connector模版。
- (2)link:从connector继承出的对象,用于指定的对数据源的链接。
- (3)job:指定一个导入导出作业,必须指定数据源和数据目的地,并配置各项job参数,用于提交给mapreduce。
二、几个常用的重要命令
- #设置
- set [server|option|truststore]
- #查看
- show [server|version|connector|driver|link|job|submission|option|role|principal|privilege]
- #创建
- create [link|job|role]
- #删除
- delete [link|job|role]
- #更新
- update [link|job]
- #克隆
- clone [link|job]
- #执行任务
- start [job]
- #结束任务
- stop [job]
- #查看任务状态
- status [job]
- #启用
- enable [link|job]
- #禁用
- disable [link|job]
- #授权
- grant [role|privilege]
- #回收授权
- revoke [role|privilege]
- set option --name verbose --value true
- set option --name poll-timeout --value 20000
三、查看
查看服务器
- sqoop:000> show server -all
- Server host: localhost
- Server port: 12000
- Server webapp: sqoop
查看版本
- sqoop:000> show version -all
- client version:
- Sqoop 1.99.7 source revision 435d5e61b922a32d7bce567fe5fb1a9c0d9b1bbb
- Compiled by abefine on Tue Jul 19 16:08:27 PDT 2016
- server version:
- Sqoop 1.99.7 source revision 435d5e61b922a32d7bce567fe5fb1a9c0d9b1bbb
- Compiled by abefine on Tue Jul 19 16:08:27 PDT 2016
- API versions:
- [v1]
查看内置连接器
- sqoop:000> show connector
- +------------------------+---------+------------------------------------------------------------+----------------------+
- | Name | Version | Class | Supported Directions |
- +------------------------+---------+------------------------------------------------------------+----------------------+
- | oracle-jdbc-connector | 1.99.7 | org.apache.sqoop.connector.jdbc.oracle.OracleJdbcConnector | FROM/TO |
- | sftp-connector | 1.99.7 | org.apache.sqoop.connector.sftp.SftpConnector | TO |
- | kafka-connector | 1.99.7 | org.apache.sqoop.connector.kafka.KafkaConnector | TO |
- | kite-connector | 1.99.7 | org.apache.sqoop.connector.kite.KiteConnector | FROM/TO |
- | ftp-connector | 1.99.7 | org.apache.sqoop.connector.ftp.FtpConnector | TO |
- | hdfs-connector | 1.99.7 | org.apache.sqoop.connector.hdfs.HdfsConnector | FROM/TO |
- | generic-jdbc-connector | 1.99.7 | org.apache.sqoop.connector.jdbc.GenericJdbcConnector | FROM/TO |
- +------------------------+---------+------------------------------------------------------------+----------------------+
- sqoop:000> show link
- 0 [main] WARN org.apache.hadoop.util.NativeCodeLoader - Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
- +------+----------------+---------+
- | Name | Connector Name | Enabled |
- +------+----------------+---------+
- +------+----------------+---------+
其他查看命令
- show server --all
- show option --name verbose
- show version --all
- show connector --all or show connector
- show driver
- show link --all
- show link --name linkName
- show job --all
- show job --name jobName
- show submission
- show submission -j jobName
- show submission --job jobName --detail
四、创建
创建link
- create link --connector connectorName
create link -c connectorName
- 例如:
create link -connector generic-jdbc-connector
create link -connector hdfs-connector
创建job
- create job --from fromLinkName --to toLinkName
- create job -f fromLinkName -t toLinkName
五、更新
- update link --name linkName
- update job --name jobName
六、删除
- delete link --name linkName
- delete job --name jobName
七、克隆
- clone link --name linkName
- clone job --name jobName
八、启动
- start job --name jobName
- start job --name jobName --synchronous
九、停止
- stop job --name jobName
十、查看任务执行状态
- status job --name jobName
[sqoop1.99.7] sqoop命令的更多相关文章
- [sqoop1.99.7] sqoop入门-下载、安装、运行和常用命令
一.简介 Apache Sqoop is a tool designed for efficiently transferring data betweeen structured, semi-str ...
- [sqoop1.99.7] sqoop实例——数据ETL
一.创建一个mysql的link MySQL链接使用的是JDBC,必须有对应的驱动文件jar,还得有对应的访问权限,请确保能在server端访问MySQL.确保mysql的jar包已经导入到${SQO ...
- 【甘道夫】Sqoop1.99.3基础操作--导入Oracle的数据到HDFS
第一步:进入clientShell fulong@FBI008:~$ sqoop.sh client Sqoop home directory: /home/fulong/Sqoop/sqoop-1. ...
- sqoop1.99.4安装与简介
1.什么是sqoop clouder公司开发的一个在关系数据库和hdfs,hive之间数据导入导出的一个工具 2.版本及其区别 现在分为sqoop1和sqoop2 1)架构图(sqoop1和hadoo ...
- Hadoop2.2.0环境下Sqoop1.99.3安装
本文转载自http://blog.csdn.net/liuwenbo0920/article/details/40504045 1.安装准备工作: 已经装好的hadoop环境是hadoop 2.2.0 ...
- sqoop1.99.4 JAVA API操作
貌似天国还没有介绍1.99.4的java操作代码的,自己吃一次螃蟹吧 如果你是MAVEN项目 <dependency> <groupId>org.apache.sqoop< ...
- hadoop 2.6.0上安装sqoop-1.99.6-bin-hadoop200
第一步:下载sqoop-1.99.6-bin-hadoop200.tar.gz 地址:http://www.eu.apache.org/dist/sqoop/1.99.6/ 第二步:将下载好的sqo ...
- sqoop1.99.3配置过程
感谢:http://www.myexception.cn/database/1600202.html 官网配置指导:http://sqoop.apache.org/docs/1.99.3/Instal ...
- 【甘道夫】Ubuntu14 server + Hadoop2.2.0环境下Sqoop1.99.3部署记录
第一步.下载.解压.配置环境变量: 官网下载sqoop1.99.3 http://mirrors.cnnic.cn/apache/sqoop/1.99.3/ 将sqoop解压到目标文件夹,我的是 /h ...
随机推荐
- YbSoftwareFactory 代码生成插件【十九】:实体类配合数据库表字段进行属性扩展的小技巧
实体类通常需要和数据库表进行了ORM映射,当你需要添加新的属性时,往往同时也需要在数据库中添加相应的字段并配置好映射关系,同时可能还需对数据访问组件进行重新编译和部署才能有效.而当你开始设计一个通用数 ...
- python学习笔记之基础二(第二天)
1.编码转换介绍 unicode是最底层.最纯的,会根据终端的编码进行转化展示 一般硬盘存储或传输为utf-8(因为省空间.省带宽),读入内存中为unicode,二者如何转换 a = ' ...
- drdb
Distributed Replicated Block Device(DRBD)是一种基于软件的,无共享,复制的存储解决方案,在服务器之间的对块设备(硬盘,分区,逻辑卷等)进行镜像.DRBD工作在内 ...
- jade模板
jade 模板使用 npm install jade -g 安装到全局 jade index.jade 导出一个 index.html 压缩后的 jade -P index. ...
- C# TimeSpan 计算时间差(时间间隔)
命名空间:System 程序集:mscorlib(在 mscorlib.dll 中) 说明: 1.DateTime值类型代表了一个从公元0001年1月1日0点0分0秒到公元9999年12月31日23点 ...
- mysql 删除时候有外键提示问题解决
在直接调用delete 语句的时候,如果出现了外键错误提示的时候,可以考虑用下面的语句执行. 原理是去除外键提示,先用外键约束,再取消外键约束即可 SET FOREIGN_KEY_CHECKS=1;D ...
- sharepoint2013用户切换实现方式
作为一个刚学sharepoint的新人,今天在账号的切换中烦躁无比,不知道有木有人和我一样,sharepoint2013没有了切换用户,真的很不方便,当然了,也不是没有办法加上去,经过本人一个下午的研 ...
- window7 x64 path
%SystemRoot%\system32; %SystemRoot%; %SystemRoot%\System32\Wbem; %SYSTEMROOT%\System32\WindowsPowerS ...
- 【前端】stopPropagation, preventDefault, return false的区别
e.stopPropagation()阻止事件冒泡或者捕获 因为事件可以在各层级的节点中传递, 不管是冒泡还是捕获, 有时我们希望事件在特定节点执行完之后不再传递, 可以使用事件对象的 stopPro ...
- 【Treap】bzoj1588-HNOI2002营业额统计
一.题目 Description 营业额统计 Tiger最近被公司升任为营业部经理,他上任后接受公司交给的第一项任务便是统计并分析公司成立以来的营业情况. Tiger拿出了公司的账本,账本上记录了公司 ...