如何读取pig运行结果part

如何读取pig运行结果part,第1张

part-r-0000这个文件时存放在hdfs上的,并非本地文件系统,所以你当然找不到了,你只能通过hdfs的命令查看,或者使用插件。 hdfs的文件虽然底层也是存放在本地文件系统的,但是你是没法显式查看的,跟数据库一样的。

本节来介绍一些Pig常用的数据分析命令。

1.load命令

load命令用来加载数据到指定的表结构,语法格式如下:

load '数据文件' [using PigStorage("分隔符")] as (表结构)

注意:默认分隔符是制表符Tab,如果数据文件不是以Tab分割的,必须指定分隔符,否则加载数据失败。例如:

A = load 'a.txt' as (id:int,name:chararray)

B = load 'b.txt' using PigStorage(",") as (id:int,name:chararray)

注意:等号=两边必须有空格,否则容易出错。

2.describe命令

describe命令用于查看表结构,语法格式如下:

describe 表名

例如:

describe A

3.group命令

group命令用来将数据分组,语法格式如下:

group 表名 by 字段名

例如:

C = group A by id

4.foreach命令

foreach命令用来对数据集进行迭代处理,语法格式如下:

foreach 表名 generate 字段列表

例如:

C = foreach A generate id,name

也可以使用$0类似的命令来获取数据集中的数据:

C = foreach A generate 1

5.filter命令

filter命令用来过滤数据,语法格式如下:

filter A by 过滤条件

例如:

D = filter A by id == 'zs'

常用的条件表达式有:==, !=, >=, <=, >, <

6.join命令

join命令用来连接两张表,语法格式如下:

内连接:join A by id,B by id

外连接:

左外连接:join A by id left outer,B by id

右外连接:join A by id right outer,B by id

全外连接:join A by id full outer,B by id

7.limit命令

limit命令用于取出有限大小的数据集,语法格式如下:

limit 表名 大小

例如:取出A中的前10条数据赋给B

B = limit A 10

8.order命令

order命令用来对数据集按照指定字段排序,语法格式如下:

order 表名 by 字段列表 [desc]

默认是正序排列,如需倒序在最后加上desc。例如:

B = order A by id

B = order A by id desc, name desc

9.split命令

split命令用来根据条件切分数据集,语法格式如下:

split 表名 into 子表1 if 条件1[,子表2 if 条件2, ……]

例如:

split A into A1 if id<=10, A2 if (id>10 and id<=20), A3 if id>20

10.union命令

union命令用来合并两个数据集,语法格式如下:

union 表1,表2

例如:

C = union A, B

注意:union要求这两个数据集的结构一样,或者能隐式转换成一样,否则 *** 作失败。

11.exec命令

exec命令用于执行pig脚本,语法格式如下:

exec [-param param_name=param_value] [-param_file file_name] [script]

示例1:显示和运行脚本

grunt>cat myscript.pig

a = LOAD 'student' AS (name, age, gpa)

b = LIMIT a 3

DUMP b

grunt>exec myscript.pig

(alice,20,2.47)

(luke,18,4.00)

(holly,24,3.27)

示例2:带参数运行命令

grunt>cat myscript.pig

a = LOAD 'student' AS (name, age, gpa)

b = ORDER a BY name

STORE b into '$out'

grunt>exec –param out=myoutput myscript.pig

示例3:带多个参数运行命令

grunt>exec –param p1=myparam1 –param p2=myparam2 myscript.pig

12.run命令

run命令也是用来执行pig脚本的,语法格式如下:

run [-param param_name=param_value] [-param_file file_name] script

示例1:显示和运行脚本

grunt>cat myscript.pig

b = ORDER a BY name

c = LIMIT b 10

grunt>a = LOAD 'student' AS (name, age, gpa)

grunt>run myscript.pig

grunt>d = LIMIT c 3

grunt>DUMP d

(alice,20,2.47)

(alice,27,1.95)

(alice,36,2.27)

示例2:带参数运行命令

grunt>a = LOAD 'student' AS (name, age, gpa)

grunt>cat myscript.pig

b = ORDER a BY name

STORE b into '$out'

grunt>run –param out=myoutput myscript.pig

13.set命令

set命令用于给key设置值,语法格式如下:

set key 'value'

例如:

set name ‘xiaoming’

14.kill命令

kill命令用于杀死进程,语法格式如下:

kill jobid

15.help命令

help命令用于列出pig命令及属性,格式如下:

-help [properties]

16.quit命令

quit命令用于退出Grunt Shell环境,格式如下:

quit

17.clear命令

clear命令用来清屏,语法格式如下:

clear;

18.history命令

history命令用来查看执行命令记录,语法格式如下:

history

19.distinct命令

distinct命令用来删除数据集中的重复项,语法格式如下:

distinct 表名

例如:

B = distinct A

20.dump命令

dump命令用来将结果数据集显示到屏幕上,格式如下:

dump 表名

例如:

dump A

21.store命令

store命令用于将结果数据集保存到文件中,格式如下:

store 表名 into '文件路径' [using PigStorage('分隔符')]

例如:

store A into '/pig/output/A.txt'

store A into '/pig/output/A.txt' using PigStorage(',')

store命令与load命令一样,默认分隔符为Tab,如需更改分隔符,需要手动指定。

总结

常用的Pig命令就是以上这些了,在执行Pig命令时,需要注意以下几点内容:

PigLatin语句末尾一定要加分号【】。

Pig对命令的大小写没有规定,可以使用大写,也可以小写。

Pig中的函数就必须使用大写,因为这些函数在pig中定义的时候就是大写。

针对Pig处理过程中的临时变量的名称,大小写也是有区分的。

在pig中执行的命令其实并不会真正的执行,只有当执行dump或者store命令的时候才会真正指定之前定义的命令。

如果某一条命令执行失败了,那么只需要修改这条命令,重新执行即可。

Pig是一种编程语言,它简化了Hadoop常见的工作任务。Pig可加载数据、表达转换数据以及存储最终结果。Pig内置的 *** 作使得半结构化数据变得有意义(如日志文件)。同时Pig可扩展使用Java中添加的自定义数据类型并支持数据转换。

Hive在Hadoop中扮演数据仓库的角色。Hive添加数据的结构在HDFS(hive superimposes structure on data in HDFS),并允许使用类似于SQL语法进行数据查询。与Pig一样,Hive的核心功能是可扩展的。

Hive更适合于数据仓库的任务,Hive主要用于静态的结构以及需要经常分析的工作。Hive与SQL相似促使其成为Hadoop与其他BI工具结合的理想交集。Pig赋予开发人员在大数据集领域更多的灵活性,并允许开发简洁的脚本用于转换数据流以便嵌入到较大的应用程序。Pig相比Hive相对轻量,它主要的优势是相比于直接使用Hadoop Java APIs可大幅削减代码量。

本质上说说Pig与Hive。

经过Pig Latin的转换后变成了一道MapReduce的作业,通过MapReduce多个线程,进程或者独立系统并行执行处理的结果集进行分类和归纳。Map() 和 Reduce() 两个函数会并行运行,即使不是在同一的系统的同一时刻也在同时运行一套任务,当所有的处理都完成之后,结果将被排序,格式化,并且保存到一个文件。Pig利用MapReduce将计算分成两个阶段,第一个阶段分解成为小块并且分布到每一个存储数据的节点上进行执行,对计算的压力进行分散,第二个阶段聚合第一个阶段执行的这些结果,这样可以达到非常高的吞吐量,通过不多的代码和工作量就能够驱动上千台机器并行计算,充分的利用计算机的资源,打消运行中的瓶颈。

也就是说,Pig最大的作用就是对mapreduce算法(框架)实现了一套shell脚本 ,类似我们通常熟悉的SQL语句,在Pig中称之为Pig Latin,在这套脚本中我们可以对加载出来的数据进行排序、过滤、求和、分组(group by)、关联(Joining),Pig也可以由用户自定义一些函数对数据集进行 *** 作,也就是传说中的UDF(user-defined functions)。

结论性的阅读感觉是:Pig用来写一些即时脚本吧,比如领导问你要份数据,半个小时要出来之类;Hive嘛,就是一个产品经理过来,问这个啥回事?于是你Hive一下,一个简洁的类SQL语句...Done!


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/tougao/12107347.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-21
下一篇 2023-05-21

发表评论

登录后才能评论

评论列表(0条)

保存