本文可以让刚接触pig的人对一些基础概念有个初步的了解。

本文的大量实例都是作者Darran Zhang(website: codelast.com)在工作、学习中总结的经验或解决的问题,并且添加了较为详尽的说明及注解,此外,作者还在不断地添加本文的内容,希望能帮助一部分人。

要查看Pig系列教程,请点击【这里】

Apache pig是用来处理大规模数据的高级查询语言,配合Hadoop使用,可以在处理海量数据时达到事半功倍的效果,比使用Java,C++等语言编写大规模数据处理程序的难度要小N倍,实现同样的效果的代码量也小N倍。Twitter就大量使用pig来处理海量数据——有兴趣的,可以看Twitter工程师写的这个PPT

但是,刚接触pig时,可能会觉得里面的某些概念以及程序实现方法与想像中的很不一样,甚至有些莫名,所以,你需要仔细地研究一下基础概念,这样在写pig程序的时候,才不会觉得非常别扭。

本文基于以下环境:

pig 0.8.1



先给出两个链接:pig参考手册1pig参考手册2。本文的部分内容来自这两个手册,但涉及到翻译的部分,也是我自己翻译的,因此可能理解与英文有偏差,如果你觉得有疑义,可参考英文内容。

(1)LIMIT操作并不会减少读入的数据量

如果你只需要输出一个小数据集,通常你可以使用LIMIT来实现,例如:

1
2
3
A = LOAD
'1.txt' AS
(col1:
int, col2: chararray);
B = LIMIT A 5;
DUMP B;

Pig会只加载5条记录,就不再读取其他的记录了吗?答案是:不会。Pig将读取数据文件中的所有记录,然后再从中挑5条。这是Pig可以做优化、却没有做的一点。

【更新】Pig 0.10已经有了这功能了:

Push Limit into Loader
Pig optimizes limit query by pushing limit automatically to the loader, thus requiring only a fraction of the entire input to be scanned.
按我的理解,上面这段话的含义是:Pig将LIMIT查询自动优化到loader中,这样就只会扫描整个输入数据集的一部分(而不是全部)。

文章来源:http://www.codelast.com/

(2)使用UDF不一定要在Pig脚本中REGISTER,也可以在命令行指定

大家知道,使用UDF需要在Pig脚本中REGISTER该UDF的jar包,但你可能不知道,你也可以不在Pig脚本中REGISTER它,而是通过命令行指定:

1
pig -Dpig.additional.jars=/home/codelast/a.jar:/home/codelast/b.jar:/home/codelast/c.jar
test.pig

以上命令告诉了我们几件事:

我们让Pig执行了test.pig脚本;

我们向Pig传入了“pig.additional.jars”这样一个参数,此参数的作用相当于在Pig脚本中REGISTER jar包;

如果你要REGISTER多个jar包,只需像上面的例子一样,用分号(:)把多个jar包路径隔开即可;

test.pig必须写在最后,而不能写成“pig test.pig -Dpig.additional.jars=XXX”这样,否则Pig直接报错:

ERROR 2999: Unexpected internal error. Encountered unexpected arguments on command line - please check the command line.

当然,为了可维护性好,你最好把REGISTER jar包写在Pig脚本中,不要通过命令行传入。

(3)使用ORDER排序时,null会比所有值都小

用ORDER按一个字段排序,如果该字段的所有值中有null,那么null会比其他值都小。

(4)如何按指定的几个字段来去重

去重,即去除重复的记录。通常,我们使用DISTINCT来去除整行重复的记录,但是,如果我们只想用几个字段来去重,怎么做?

假设有以下数据文件:

1
2
3
4
5
6
7
[root@localhost ~]$
cat 1.txt 
1 2 3 4 uoip
1 2 3 4 jklm
9 7 5 3 sdfa
8 8 8 8 dddd
9 7 5 3 qqqq
8 8 8 8 sfew

我们要按第1、2、3、4个字段来去重,也就是说,去重结果应为:

1
2
3
1 2 3 4 uoip
9 7 5 3 sdfa
8 8 8 8 dddd

那么,我们可以这样做:

1
2
3
4
5
6
7
A = LOAD
'1.txt' AS
(col1: chararray, col2: chararray, col3: chararray, col4: chararray, col5: chararray);
B = GROUP
A BY
(col1, col2, col3, col4);
C = FOREACH B {
  D = LIMIT A 1;
  GENERATE FLATTEN(D);
};
DUMP C;

文章来源:http://www.codelast.com/

输出结果为:

1
2
3
(1,2,3,4,uoip)
(8,8,8,8,dddd)
(9,7,5,3,sdfa)

代码很简单,就是利用了GROUP时会自动对group的key去重的功能,这里不用多解释大家应该也能看懂。

(5)如何设置Pig job的名字,使得在Hadoop jobtracker中可以清晰地识别出来

在Pig脚本中的一开始处,写上这一句:

1
set
job.
name 'This is my job';

将使得Pig job name被设置为“This is my job”,从而在Hadoop jobtracker的web界面中可以很容易地找到你的job。如果不设置的话,其名字将显示为“PigLatin:DefaultJobName”。

(6)“scalar has more than one row in the output”错误的一个原因

遇到了这个错误?我来演示一下如何复现这个错误。

假设有两个文件:

1
2
3
4
5
6
[root@localhost ~]$
cat a.txt 
1 2
3 4
[root@localhost ~]$
cat b.txt 
3 4
5 6

现在我们来做一个JOIN:

1
2
3
4
5
A = LOAD
'a.txt' AS
(col1:
int, col2:
int);
B = LOAD
'b.txt' AS
(col1:
int, col2:
int);
C = JOIN
A BY
col1, B
BY col1;
D = FOREACH C GENERATE A.col1;
DUMP D;

这段代码是必然会fail的,错误提示为:

1
org.apache.pig.backend.executionengine.ExecException: ERROR 0: Scalar has more than one row in the output. 1st : (1,2), 2nd :(3,4)

文章来源:http://www.codelast.com/

乍一看,似乎代码简单得一点问题都没有啊?其实仔细一看,“A.col1”的写法根本就是错误的,应该写成“A::col1”才对,因为你只要 DESCRIBE 一下 C 的schema就明白了:

1
C: {A::col1: int,A::col2: int,B::col1: int,B::col2: int}

Pig的这个错误提示得很不直观,在这个链接中也有人提到过了。

(7)如何输出LZO压缩格式的文本文件

借助于elephant-bird,可以轻易完成这个工作。

方法1:

1
2
A =LOAD
'input';
STORE A INTO
'output' USING com.twitter.elephantbird.pig.store.LzoPigStorage();

结果就会得到一堆名称类似于“part-m-00000.lzo”的文件。

注意以上省略了一堆的“REGISTER XXX.jar”代码,你需要自己添加上你的jar包路径。

方法2:

在Pig脚本的最前面添加两句话:

1
2
set mapred.output.compression.codec 'com.hadoop.compression.lzo.LzopCodec';
set mapred.output.compress 'true';

STORE的时候(不需要USING...)会自动将文件保存为LZO格式。

文章来源:http://www.codelast.com/

有人说,那加载LZO压缩的文本文件呢?很简单:

1
A = LOAD
'output' USING com.twitter.elephantbird.pig.store.LzoPigStorage(',');

这表示指定了分隔符为逗号,如果不想指定,省略括号中的内容即可。

(8)如何输出 gz 及 bz2 压缩格式的文件

首先请看这个链接的说明。摘录一段话:

Compression
 
Storing to a directory whose name ends in ".bz2" or ".gz" or ".lzo" (if you have installed support for LZO compression in Hadoop) will automatically use the corresponding compression codec.
output.compression.enabled and output.compression.codec job properties also work.
Loading from directories ending in .bz2 or .bz works automatically; other compression formats are not auto-detected on loading.
说得简单点就是:当你把保存的目录名设置为以 .bz2 或 .gz 结尾时,输出的文件就自动会被压缩为对应的文件格式。

因此,我就有了下面这两段极其简单的示例代码:

1
2
3
4
5
6
7
--压缩率稍低
A = LOAD
'1.txt';
STORE A INTO
'z.gz';
  
--压缩率较高
A = LOAD
'1.txt';
STORE A INTO
'z.bz2';

正如上面的注释所示,bz2 的压缩率比 gz 高。

最后生成的目录下,文件名类似于:

1
2
3
part-m-00000.gz
part-m-00001.gz
part-m-00002.gz

如果是 bz2,则后缀名为 .bz2。

文章来源:http://www.codelast.com/

(9)类似于Java字符串的contains方法,在Pig中怎么做

例如,要判断一个字符串“abc”是否包含“bc”,怎么做?

有一个方法,利用Pig内置的INDEXOF函数来实现:

INDEXOF(string, 'character', startIndex)

string: The string to be searched.
'character': The character being searched for, in quotes.
startIndex: The index from which to begin the forward search. The string index begins with zero (0).
即:string 相当于上面所说的字符串“abc”,'character'相当于上面所说的字符串“bc”,startIndex设置为0即可,表示从字符串“abc”的头开始搜索。

如果能查到字符串,则返回值为搜索到的字符串的起始索引位置;如果查不到字符串,则返回值为-1。

这里给一个例子。输入数据为:

1
2
[root@localhost] ~$
cat a.txt 
abc 123

Pig脚本:

1
2
3
A = LOAD
'a.txt' AS
(col1: chararray, col2: chararray);
B = FOREACH A GENERATE INDEXOF(col1,
'abc', 0), INDEXOF(col2,
'9', 0);
DUMP B;

输出结果:

1
(0,-1)

可见,查不到的字符串,其返回值为-1。

pig入门教程(2)的更多相关文章

  1. pig 入门教程(1)

    出处:http://www.codelast.com/ 本文可以让刚接触pig的人对一些基础概念有个初步的了解. 本文大概是互联网上第一篇公开发表的且涵盖大量实际例子的Apache Pig中文教程(由 ...

  2. D3.js的v5版本入门教程(第五章)—— 选择、插入、删除元素

    D3.js的v5版本入门教程(第五章) 1.选择元素 现在我们已经知道,d3.js中选择元素的函数有select()和selectAll(),下面来详细讲解一下 假设我们的<body>中有 ...

  3. D3.js的v5版本入门教程(第三章)—— 选择元素和绑定数据

    D3.js的v5版本入门教程(第三章) 在D3.js中,选择元素和绑定元素是最基本的内容,也是很重要的内容,等你看完整个教程后你会发现,这些D3.js教程都是在选择元素和绑定元素的基础上展开后续工作的 ...

  4. D3.js的v5版本入门教程(第四章)—— 理解Update、Enter、Exit

    D3.js的v5版本入门教程(第四章) Update.Enter.Exit是D3.js中很重要的概念,下面来讲一下它们到底是什么?(当你看完后.你就会知道如果数据集个数和选择集个数不匹配的情况下使用d ...

  5. wepack+sass+vue 入门教程(三)

    十一.安装sass文件转换为css需要的相关依赖包 npm install --save-dev sass-loader style-loader css-loader loader的作用是辅助web ...

  6. wepack+sass+vue 入门教程(二)

    六.新建webpack配置文件 webpack.config.js 文件整体框架内容如下,后续会详细说明每个配置项的配置 webpack.config.js直接放在项目demo目录下 module.e ...

  7. wepack+sass+vue 入门教程(一)

    一.安装node.js node.js是基础,必须先安装.而且最新版的node.js,已经集成了npm. 下载地址 node安装,一路按默认即可. 二.全局安装webpack npm install ...

  8. Content Security Policy 入门教程

    阮一峰文章:Content Security Policy 入门教程

  9. gulp详细入门教程

    本文链接:http://www.ydcss.com/archives/18 gulp详细入门教程 简介: gulp是前端开发过程中对代码进行构建的工具,是自动化项目的构建利器:她不仅能对网站资源进行优 ...

随机推荐

  1. 【leetcode刷题笔记】Merge Intervals

    Given a collection of intervals, merge all overlapping intervals. For example,Given [1,3],[2,6],[8,1 ...

  2. Flask框架的学习与实战(三):登陆管理

    继续flask的学习之旅.今天介绍flask的登陆管理模块,还记得上一篇中的blog小项目么,登录是咱们自己写的验证代码,大概有以下几个步骤: 1.在登录框中输入用户名和密码 2.flask view ...

  3. hdu 1701 (Binary Tree Traversals)(二叉树前序中序推后序)

                                                                                Binary Tree Traversals T ...

  4. IO流 相关基础积累

    一个整型32位字节. 写入到流.? 为什么要按十六进制输出到控制台?

  5. 【二叉查找树】01不同的二叉查找树的个数【Unique Binary Search Trees】

    当数组为1,2,3,4,...,n时,基于以下原则构建的BST树具有唯一性: 以i为根节点的树,其左子树由[1,i-1]构成,其右子树由[i+1, n]构成. 我们假定f(i)为以[1,i]能产生的U ...

  6. tornado 获取参数

    self.get_argument('name') 没有传递name就报400错误了 tornado.web.MissingArgumentError: HTTP 400: Bad Request ( ...

  7. ACdream1430SETI(后缀自动机)

    问题: Amateur astronomers Tom and Bob try to find radio broadcasts of extraterrestrial civilizations i ...

  8. 1030 Travel Plan (30)(30 分)

    A traveler's map gives the distances between cities along the highways, together with the cost of ea ...

  9. ACM学习历程—Hihocoder 1290 Demo Day(动态规划)

    http://hihocoder.com/problemset/problem/1290 这题是这次微软笔试的第三题,过的人比第一题少一点,这题一眼看过去就是动态规划,不过转移方程貌似不是很简单,调试 ...

  10. python中全局变量的使用

    python中在module定义的变量可以认为是全局变量, 而对于全局变量的赋值有个地方需要注意. test.py ------------------------------------------ ...