第一步:进入clientShell
fulong@FBI008:~$ sqoop.sh client
Sqoop home directory: /home/fulong/Sqoop/sqoop-1.99.3-bin-hadoop200
Sqoop Shell: Type 'help' or '\h' for help.

sqoop:000> set server --host FBI003 --port 12000 --webapp sqoop
Server is set successfully
sqoop:000> show version --all
client version:
  Sqoop 1.99.3 revision 2404393160301df16a94716a3034e31b03e27b0b
  Compiled by mengweid on Fri Oct 18 14:15:53 EDT 2013
server version:
  Sqoop 1.99.3 revision 2404393160301df16a94716a3034e31b03e27b0b
  Compiled by mengweid on Fri Oct 18 14:15:53 EDT 2013
Protocol version:
  [1]


第二步:创建连接
sqoop:000> create connection --cid 001
Creating connection for connector with id 1
Please fill following values to create new connection object
Name: 147patents

Connection configuration

JDBC Driver Class: oracle.jdbc.driver.OracleDriver
JDBC Connection String: jdbc:oracle:thin:@192.168.0.147:1521:ORCLGBK
Username: zhaobiao
Password: ******
JDBC Connection Properties:
There are currently 0 values in the map:
entry#

Security related configuration options

Max connections: 
New connection was successfully created with validation status FINE and persistent id 1

第三步:创建Job
我这里顺便尝试了一下update命令。所以第一遍创建job时输入了错误的tablename:
sqoop:000> create job
Required argument --xid is missing.
sqoop:000> create job --xid 1 --type import
Creating job for connection with id 1
Please fill following values to create new job object
Name: ImportPatents

Database configuration

Schema name: zhaobiao
Table name: zhaobiao
Table SQL statement:
Table column names:
Partition column name:
Nulls in partition column:
Boundary query:

Output configuration

Storage type:
  0 : HDFS
Choose: 
Output format:
  0 : TEXT_FILE
  1 : SEQUENCE_FILE
Choose: 
Compression format:
  0 : NONE
  1 : DEFAULT
  2 : DEFLATE
  3 : GZIP
  4 : BZIP2
  5 : LZO
  6 : LZ4
  7 : SNAPPY
Choose: 
Output directory: /Data/zhaobiao

Throttling resources

Extractors:
Loaders:
New job was successfully created with validation status FINE  and persistent id
1

sqoop:000> update job
Required argument --jid is missing.
sqoop:000> update job --jid 1
Updating job with id 1
Please update job metadata:
Name: ImportPatents

Database configuration

Schema name: zhaobiao
Table name: CMS_NEWS_0625
Table SQL statement:
Table column names:
Partition column name:
Nulls in partition column:
Boundary query:

Output configuration

Storage type:
  0 : HDFS
Choose: 0
Output format:
  0 : TEXT_FILE
  1 : SEQUENCE_FILE
Choose: 0
Compression format:
  0 : NONE
  1 : DEFAULT
  2 : DEFLATE
  3 : GZIP
  4 : BZIP2
  5 : LZO
  6 : LZ4
  7 : SNAPPY
Choose: 0
Output directory: /Data/zhaobiao

Throttling resources

Extractors:
Loaders:
Job was successfully updated with status FINE

总结:
1.create job时必须指定一个连接id
2.create job完毕后。自己主动分配了一个job id
3.update job时。须要指定job id
4.创建Job过程中指定的Output directory指定的是HDFS中的路径

第四步:运行job
sqoop:000> start job --jid 1
2014-06-27 12:44:17 CST: FAILURE_ON_SUBMIT
Exception: org.apache.hadoop.mapred.FileAlreadyExistsException: Output directory hdfs://fulonghadoop/Data/zhaobiao already exists
sqoop:000> start job --jid 1
Submission details
Job ID: 1
Server URL: http://FBI003:12000/sqoop/
Created by: fulong
Creation date: 2014-06-27 12:44:53 CST
Lastly updated by: fulong
External ID: job_1403248336137_0005
        http://FBI003:8088/proxy/application_1403248336137_0005/
2014-06-27 12:44:53 CST: BOOTING  - Progress is not available
sqoop:000> status job --jid 1
Submission details
Job ID: 1
Server URL: http://FBI003:12000/sqoop/
Created by: fulong
Creation date: 2014-06-27 12:44:53 CST
Lastly updated by: fulong
External ID: job_1403248336137_0005
        http://FBI003:8088/proxy/application_1403248336137_0005/
2014-06-27 12:50:11 CST: RUNNING  - 0.00 %

sqoop:000> status job --jid 1
Submission details
Job ID: 1
Server URL: http://FBI003:12000/sqoop/
Created by: fulong
Creation date: 2014-06-27 12:44:53 CST
Lastly updated by: fulong
External ID: job_1403248336137_0005
        http://FBI003:8088/proxy/application_1403248336137_0005/
2014-06-27 13:36:49 CST: RUNNING  - 25.00 %
sqoop:000> status job --jid 1
Submission details
Job ID: 1
Server URL: http://FBI003:12000/sqoop/
Created by: fulong
Creation date: 2014-06-27 12:44:53 CST
Lastly updated by: fulong
External ID: job_1403248336137_0005
        http://FBI003:8088/proxy/application_1403248336137_0005/
2014-06-27 13:39:24 CST: RUNNING  - 35.00 %
sqoop:000> status job --jid 1
Submission details
Job ID: 1
Server URL: http://FBI003:12000/sqoop/
Created by: fulong
Creation date: 2014-06-27 12:44:53 CST
Lastly updated by: fulong
External ID: job_1403248336137_0005
        http://FBI003:8088/proxy/application_1403248336137_0005/
2014-06-27 13:47:19 CST: RUNNING  - 40.00 %
sqoop:000> status job --jid 1
Submission details
Job ID: 1
Server URL: http://FBI003:12000/sqoop/
Created by: fulong
Creation date: 2014-06-27 12:44:53 CST
Lastly updated by: fulong
External ID: job_1403248336137_0005
        http://FBI003:8088/proxy/application_1403248336137_0005/
2014-06-27 14:08:36 CST: SUCCEEDED
Counters:
        org.apache.hadoop.mapreduce.JobCounter
                SLOTS_MILLIS_MAPS: 16499226
                TOTAL_LAUNCHED_MAPS: 10
                SLOTS_MILLIS_REDUCES: 0
                OTHER_LOCAL_MAPS: 15
        org.apache.hadoop.mapreduce.lib.output.FileOutputFormatCounter
                BYTES_WRITTEN: 421226094
        org.apache.hadoop.mapreduce.lib.input.FileInputFormatCounter
                BYTES_READ: 0
        org.apache.hadoop.mapreduce.TaskCounter
                MAP_INPUT_RECORDS: 0
                MERGED_MAP_OUTPUTS: 0
                PHYSICAL_MEMORY_BYTES: 1185689600
                SPILLED_RECORDS: 0
                COMMITTED_HEAP_BYTES: 627179520
                CPU_MILLISECONDS: 307570
                FAILED_SHUFFLE: 0
                VIRTUAL_MEMORY_BYTES: 6542311424
                SPLIT_RAW_BYTES: 1437
                MAP_OUTPUT_RECORDS: 644083
                GC_TIME_MILLIS: 5279
        org.apache.hadoop.mapreduce.FileSystemCounter
                FILE_WRITE_OPS: 0
                FILE_READ_OPS: 0
                FILE_LARGE_READ_OPS: 0
                FILE_BYTES_READ: 0
                HDFS_BYTES_READ: 1437
                FILE_BYTES_WRITTEN: 931780
                HDFS_LARGE_READ_OPS: 0
                HDFS_WRITE_OPS: 20
                HDFS_READ_OPS: 40
                HDFS_BYTES_WRITTEN: 431907904
        org.apache.sqoop.submission.counter.SqoopCounters
                ROWS_READ: 644083
Job executed successfully

接下来的问题:怎样导入数据到Hbase中?


【甘道夫】Sqoop1.99.3基础操作--导入Oracle的数据到HDFS的更多相关文章

  1. 【甘道夫】Win7x64环境下编译Apache Hadoop2.2.0的Eclipse小工具

    目标: 编译Apache Hadoop2.2.0在win7x64环境下的Eclipse插件 环境: win7x64家庭普通版 eclipse-jee-kepler-SR1-win32-x86_64.z ...

  2. 【甘道夫】MapReduce实现矩阵乘法--实现代码

    之前写了一篇分析MapReduce实现矩阵乘法算法的文章: [甘道夫]Mapreduce实现矩阵乘法的算法思路 为了让大家更直观的了解程序运行,今天编写了实现代码供大家參考. 编程环境: java v ...

  3. Sqoop2入门之导入关系型数据库数据到HDFS上(sqoop2-1.99.4版本)

    sqoop2-1.99.4和sqoop2-1.99.3版本操作略有不同:新版本中使用link代替了老版本的connection,其他使用类似. sqoop2-1.99.4环境搭建参见:Sqoop2环境 ...

  4. 【甘道夫】Ubuntu14 server + Hadoop2.2.0环境下Sqoop1.99.3部署记录

    第一步.下载.解压.配置环境变量: 官网下载sqoop1.99.3 http://mirrors.cnnic.cn/apache/sqoop/1.99.3/ 将sqoop解压到目标文件夹,我的是 /h ...

  5. 【甘道夫】Hadoop2.2.0环境使用Sqoop-1.4.4将Oracle11g数据导入HBase0.96,并自己主动生成组合行键

    目的: 使用Sqoop将Oracle中的数据导入到HBase中,并自己主动生成组合行键! 环境: Hadoop2.2.0 Hbase0.96 sqoop-1.4.4.bin__hadoop-2.0.4 ...

  6. 小白学 Python 数据分析(6):Pandas (五)基础操作(2)数据选择

    人生苦短,我用 Python 前文传送门: 小白学 Python 数据分析(1):数据分析基础 小白学 Python 数据分析(2):Pandas (一)概述 小白学 Python 数据分析(3):P ...

  7. 【甘道夫】HBase基本数据操作的详细说明【完整版,精绝】

    介绍 之前具体写了一篇HBase过滤器的文章.今天把基础的表和数据相关操作补上. 本文档參考最新(截止2014年7月16日)的官方Ref Guide.Developer API编写. 全部代码均基于& ...

  8. 【甘道夫】HBase基本数据操作详解【完整版,绝对精品】

    引言 之前详细写了一篇HBase过滤器的文章,今天把基础的表和数据相关操作补上. 本文档参考最新(截止2014年7月16日)的官方Ref Guide.Developer API编写. 所有代码均基于“ ...

  9. 【甘道夫】HBase(0.96以上版本号)过滤器Filter具体解释及实例代码

    说明: 本文參考官方Ref Guide,Developer API和众多博客.并结合实測代码编写.具体总结HBase的Filter功能,并附上每类Filter的对应代码实现. 本文尽量遵从Ref Gu ...

随机推荐

  1. 1、koa的安装,get和post方法的基础使用

    koa是干什么:koa是用来解决回调嵌套的方案,减少异步回调,提高代码的可读性和可维护性同时也改进了错误处理( Express的错误处理相当糟糕) koa相比express的优点在哪里1.更加优雅简单 ...

  2. Git学习总结(8)——Git和SVN之间的基本区别

    GIT不仅仅是个版本控制系统,它也是个内容管理系统(CMS),工作管理系统等.如果你是一个具有使用SVN背景的人,你需要做一定的思想转换,来适应GIT提供的一些概念和特征.所以,这篇文章的主要目的就是 ...

  3. 自己定义控件-MultipleTextView(自己主动换行、自己主动补齐宽度的排列多个TextView)

    一.功能: 1.传入一个 List<String> 数组,控件会自己主动加入TextView,一行显示不下会自己主动换行.而且把上一行末尾的空白通过拉伸而铺满. 2.配置灵活 <co ...

  4. openfiler作为文件server,实现ISCSI共享存储

    还是不能发图.这是第二篇.图文在这个地址:http://download.csdn.net/detail/weimingyu945/8089893 1      登陆 首先登陆openfiler的we ...

  5. Eureka Server添加用户认证

    Eureka Server添加用户认证 学习了:http://blog.csdn.net/liuchuanhong1/article/details/54729556 注意:1,需要使用 defaul ...

  6. 面向程序猿的设计模式 ——GoF《设计模式》读书总结(壹)抽象工厂&amp;生成器

    第一部分:创建型模式 创建型模式抽象了实例化过程. 它们帮助一个系统独立于怎样创建.组合和表示它的那些对象.(把一些小的对象组装成大对象,这个工作由专门的类对象来做) 一个类创建型模式使用继承改变被实 ...

  7. Swift 3.0 (二)

    一:函数 1.1无参数无返回值的简单函数 func sendMessage(){ let message = "Hey, Guys!" print(message) } sendM ...

  8. hdoj--1260--Tickets(简单dp)

    Tickets Time Limit: 2000/1000 MS (Java/Others)    Memory Limit: 65536/32768 K (Java/Others) Total Su ...

  9. 高斯滤波及高斯卷积核C++实现

    高斯滤波是一种线性平滑滤波,适用于消除高斯噪声,在图像处理的降噪.平滑中应用较多,特别是对抑制或消除服从正态分布的噪声非常有效. 高斯滤波的过程其实就是对整幅图像进行加权平均操作的过程.滤波后图像上每 ...

  10. Storm Spout

    本文主要介绍了Storm Spout,并以KafkaSpout为例,进行了说明. 概念 数据源(Spout)是拓扑中数据流的来源.一般 Spout 会从一个外部的数据源读取元组然后将他们发送到拓扑中. ...