`

Hadoop Streaming 之 awk实现Map/Reduce

阅读更多

//TODO 说明

 

 

 

 

 

[xxuser@xxhost ~]$ hadoop jar $HADOOP_STREAMING_JAR \
> -input /test/ylb/mock_data/cv-pt-demo.txt \
> -output /test/ylb/mock_data/output/cv-pt-demo-10 \
> -mapper "awk '\$1~/1/ {printf(\"%s\t%s\n\",\$1,\$2)}'" \
> -reducer "awk 'BEGIN{pt[\"test_key\"]=0;} {key=\$2/10;pt[key]+=1;} END{ for(k in pt){printf(\"%d\t%d\n\",k,pt[k]);} }'"
 

 

 

1. -mapper " awk '  '  "    , 这种写法的话, ' ' 里面的脚本中有三种字符(shell特殊字符)需要转义,分别是  " ' $ 

  这种写法的好处是可以方便的引用外部shell变量

 

    -mapper '  awk " "  '    这种写法则不需要转义

 

第一种写法比较容易出错,所有必须要理解 unix shell 的   双引号  单引号 的区别

摘自 http://hi.baidu.com/liangkejia_jaja/blog/item/189438f03ef74709b17ec5bf.html

 

1)"" -> 双引号(不保留完整内容,比如遇到$, 反引号, \ 等就会执行相应的shell)
# echo "Today is `date`"   -> Today is Wed Aug  3 05:50:34 GMT 2011
    
2)'' -> 单引号(完整保留内容)
# echo "Today is `date`"   -> Today is `date`
    
3)`` -> 反引号 (反引号内的shell会执行)
# echo `date`   -> Wed Aug 3 05:59:19 GMT 2011
 

 

 

分享到:
评论

相关推荐

Global site tag (gtag.js) - Google Analytics