博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Hadoop Streaming 实战: 文件分发与打包
阅读量:2229 次
发布时间:2019-05-09

本文共 2131 字,大约阅读时间需要 7 分钟。

如果程序运行所需要的可执行文件、脚本或者配置文件在Hadoop集群的计算节点上不存在,则首先需要将这些文件分发到集群上才能成功进行计算。

Hadoop提供了自动分发文件和压缩包的机制,只需要在启动Streaming作业时配置相应的参数。 

1. –file 将本地文件分发到计算结点 
2. –cacheFile 文件已经存放在HDFS中,希望计算时在每个计算节点上将文件当作本地文件处理 
3. –cacheArchive 将存放在HDFS中的压缩包分发并解压

-file实战: 使用-file分发本地可执行文件和其他文件

      a. 待计算的数据放入hdfs 

       $ hadoop fs -put localfile /user/hadoop/hadoopfile

      b. 编写map、reduce脚本,记得给脚本加可执行权限。 

       mapper.sh        
 

  1. #!/bin/sh  
  2. wc -l  
 

       reducer.sh

  1. #!/bin/sh  
  2. a=0  
  3. while read i  
  4. do  
  5.         let a+=$i  
  6. done  
  7. echo $a  
 

       hello.txt文件内容:

hello

world

      c. 运行: 
        $ hadoop streaming –input /user/hadoop/hadoopfile  -output /user/hadoop/result -mapper ./mapper.sh -reducer ./reducer.sh -file mapper.sh -file reducer.sh -file hello.txt  -jobconf mapred.reduce.tasks=1 -jobconf mapre.job.name="sum_test"

      d.  查看结果: 

        $ hadoop fs –cat /user/hadoop/result/part-00000

 

-cacheFile实战

       a. 待计算的数据和文件放入hdfs 

         $ hadoop fs -put localfile /user/hadoop/hadoopfile  
         $ hadoop fs -put hello.txt /user/hadoop/

       b.运行命令(mapper.sh和reducer.sh脚本内容同上): 

          $ hadoop streaming –input /user/hadoop/hadoopfile  -output /user/hadoop/result -mapper ./mapper.sh -reducer ./reducer.sh -file mapper.sh -file reducer.sh -cacheFile  -jobconf mapred.reduce.tasks=1 -jobconf mapre.job.name="sum_test"  
          可以通过配置文件hadoop-site.xml中的fs.default.name配置参数的值得到文件所在的host和port。

        c.  查看结果: 

        $ hadoop fs –cat /user/hadoop/result/part-00000

  -cacheArchive 实战

        a. 创建一个目录test,目录中包含文件mapper.txt,reducer,hello.txt 

        修改mapper.sh: 

  1. #!/bin/sh  
  2. a=`wc -l`  
  3. #使用参数  
  4. b=`wc -l $1 | awk '{print $1}'`  
  5. let c=a+b  
  6. echo $c  
        b.压缩文件夹并将压缩文件放入hdfs: 
           $ cd test 
           $ tar –zcvf test.tar.gz * 
           $ hadoop fs –put test.tar.gz /user/hadoop/test/

        c.运行命令: 

           $  hadoop streaming –input /user/hadoop/hadoopfile  -output /user/hadoop/result -mapper “./test/mapper.sh ./test/hello.txt” -reducer ./test/reducer.sh -cacheArchive hdfs://host:port/user/hadoop/test/test.tar.gz#test -jobconf mapred.reduce.tasks=1 -jobconf mapre.job.name="sum_test" 

       d.  查看结果: 

        $ hadoop fs –cat /user/hadoop/result/part-00000

       首先将本地test目录中的所有文件和目录打包压缩,然后上传到HDFS中。启动streaming任务时使用-cacheArchive选项将test.tar.gz分发到计算节点并解压到test目录,然后在当前工作目录创建到test目录的链接,-mapper选项指定为mapper程序及其运行参数,-reducer选项指定reducer程序。本地打包时要进入目录test而不是在test的上层目录打包,否则要通过test/test/mapper.sh才能访问到mapper.shl文件。

转载地址:http://sizbb.baihongyu.com/

你可能感兴趣的文章
ThreadLocal 那点事儿
查看>>
ThreadLocal 那点事儿(续集)
查看>>
阳台做成榻榻米 阳台做成书房
查看>>
深入分析java线程池的实现原理
查看>>
mybatis中"#"和"$"的区别
查看>>
Hibernate与MyBatis区别
查看>>
如何禁用Eclipse的Validating
查看>>
据说看完这21个故事的人,30岁前都成了亿万富翁。你是下一个吗?
查看>>
SpringMVC学习笔记2
查看>>
Oracle知识点连载(一)
查看>>
Oracle知识点连载(二)
查看>>
Oracle知识点连载(三)
查看>>
Oracle知识点连载(五)
查看>>
关于三元运算符的类型转换问题
查看>>
笔记本怎么设置WIfi热点
查看>>
如何实现字符串的反转及替换?
查看>>
Java面试题全集(上)
查看>>
Java面试题全集(中)
查看>>
值传递和引用传递
查看>>
什么情况下用+运算符进行字符串连接比调用StringBuilder对象的append方法连接字符串性能更好?
查看>>