怎么从HadoopURL读取数据-成都创新互联网站建设

关于创新互联

多方位宣传企业产品与服务 突出企业形象

公司简介 公司的服务 荣誉资质 新闻动态 联系我们

怎么从HadoopURL读取数据

本篇内容主要讲解“怎么从Hadoop URL读取数据”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“怎么从Hadoop URL读取数据”吧!

创新互联建站是一家集网站建设,象山企业网站建设,象山品牌网站建设,网站定制,象山网站建设报价,网络营销,网络优化,象山网站推广为一体的创新建站企业,帮助传统企业提升企业形象加强企业竞争力。可充分满足这一群体相比中小企业更为丰富、高端、多元的互联网需求。同时我们时刻保持专业、时尚、前沿,时刻以成就客户成长自我,坚持不断学习、思考、沉淀、净化自己,让我们为更多的企业打造出实用型网站。

1,编写代码

import java.io.*;
import java.net.URL;

import org.apache.hadoop.fs.FsUrlStreamHandlerFactory;
import org.apache.hadoop.io.IOUtils;

public class URLCat {
    static {
        URL.setURLStreamHandlerFactory(new FsUrlStreamHandlerFactory());
    }
    
    public static void main(String[] args) throws Exception {
        InputStream in = null;
        try {
            in = new URL(args[0]).openStream();
            IOUtils.copyBytes(in, System.out, 4096, false);
        } finally {
            IOUtils.closeStream(in);
        }
    }
}
 


2,编译Java代码

  1. $ Hadoopcom.sun.tools.javac.Mian -d classes URLCat.java  

  2. // then the class files will be generated in the directory of classes  

3,打包成jar包

  1. jar cf URLCat.jar classes/URLCat.class   

  2. // then we will get the URLCat.jar, the source is from classes/URLCat.class  


4,运行jar包

hadoop jar URLCat.jar URLCat hdfs://10.10.12.171/input/WordCount/file1  

Result:

  1. hadoop  ok  

  2. hadoop  fail  

  3. hadoop  2.3  

可见hdfs://10.10.12.171/input/WordCount/file1的内容就输出到了标准输出了。

到此,相信大家对“怎么从Hadoop URL读取数据”有了更深的了解,不妨来实际操作一番吧!这里是创新互联网站,更多相关内容可以进入相关频道进行查询,关注我们,继续学习!


标题名称:怎么从HadoopURL读取数据
网站地址:http://kswsj.cn/article/gshiog.html

其他资讯