大象教程
首页
Spark
Hadoop
HDFS
MapReduce
Hive
Pig 教程
Pig 教程
Pig 体系结构
Pig 安装
Pig 执行
Pig Grunt Shell
Pig Latin 基础
Pig 读取数据
Pig 存储数据
Pig Dump 运算符
Pig Describe 运算符
Pig Explain 运算符
Pig illustrate 运算符
Pig GROUP 运算符
Pig Cogroup 运算符
Pig JOIN 运算符
Pig Cross 运算符
Pig Union 运算符
Pig SPLIT 运算符
Pig FILTER 运算符
Pig DISTINCT 运算符
Pig FOREACH 运算符
Pig ORDER BY 运算符
Pig LIMIT 运算符
Pig eval(求值) 函数
Pig Load & Store 函数
Pig Bag & Tuple 函数
Pig 字符串(String) 函数
Pig 日期时间函数
Pig 数学函数
#Pig FOREACH 运算符 ##FOREACH 运算符 Pig Latin的FOREACH运算符用于基于所述列数据指定的数据转换。 **语法** 下面给出的是FOREACH运算符的语法。 ```bash grunt> Relation_name2 = FOREACH Relatin_name1 GENERATE (required data); ``` 假设我们在HDFS目录/pig_data/中有一个名为student_details.txt的文件,如下所示。 ``` 001,Rajiv,Reddy,21,9848022337,Hyderabad 002,siddarth,Battacharya,22,9848022338,Kolkata 003,Rajesh,Khanna,22,9848022339,Delhi 004,Preethi,Agarwal,21,9848022330,Pune 005,Trupthi,Mohanthy,23,9848022336,Bhuwaneshwar 006,Archana,Mishra,23,9848022335,Chennai 007,Komal,Nayak,24,9848022334,trivendram 008,Bharathi,Nambiayar,24,9848022333,Chennai ``` 并且我们已经将该文件加载到Pig中,关系名称为student_details,如下所示。 ```bash grunt> student_details = LOAD 'hdfs://localhost:9000/pig_data/student_details.txt' USING PigStorage(',') as (id:int, firstname:chararray, lastname:chararray,age:int, phone:chararray, city:chararray); ``` 现在让我们从以下关系获得ID,年龄和城市每个学生的价值student_details并存储到另一个名为关系foreach_data使用的foreach操作如下图所示。 ```bash grunt> foreach_data = FOREACH student_details GENERATE id,age,city; ``` **验证** 如下所示,使用DUMP运算符验证foreach_data的关系。 ```bash grunt> Dump foreach_data; ``` **输出** 它将产生以下输出,显示关系foreach_data的内容。 ``` (1,21,Hyderabad) (2,22,Kolkata) (3,22,Delhi) (4,21,Pune) (5,23,Bhuwaneshwar) (6,23,Chennai) (7,24,trivendram) (8,24,Chennai) ```
加我微信交流吧