当前位置:首页 > 网站源码 > 正文内容

hadoop源码是什么语言(hadoop 源码剖析)

网站源码2年前 (2023-03-11)497

本篇文章给大家谈谈hadoop源码是什么语言,以及hadoop 源码剖析对应的知识点,希望对各位有所帮助,不要忘了收藏本站喔。

本文目录一览:

如何编译Apache Hadoop2.2.0源代码

从hadoop官网下载2.2稳定版,下载地址是,下载hadoop-2.2.0-src.tar.gz 下载。

执行以下命令解压缩jdk

tar -zxvf hadoop-2.2.0-src.tar.gz

会生成一个文件夹 hadoop-2.2.0-src。源代码中有个bug,这里需要修改一下,编辑目录/usr/local/hadoop-2.2.0-src/hadoop-common-project/hadoop-auth中的文件pom.xml,执行以下命令

gedit pom.xml

在第55行下增加以下内容

dependency

groupIdorg.mortbay.jetty/groupId

artifactIdjetty-util/artifactId

scopetest/scope

/dependency

保存退出即可。

上述bug详见,在hadoop3中修复了,离我们太遥远了。

好了,现在进入到目录/usr/local/hadoop-2.2.0-src中,执行命令

mvn package -DskipTests -Pdist,native,docs

如果没有执行第4步,把上面命令中的docs去掉即可,就不必生成文档了。

该命令会从外网下载依赖的jar,编译hadoop源码,需要花费很长时间,你可以吃饭了。

在等待n久之后,可以看到如下的结果:

[INFO] Apache Hadoop Main ................................ SUCCESS [6.936s]

[INFO] Apache Hadoop Project POM ......................... SUCCESS [4.928s]

[INFO] Apache Hadoop Annotations ......................... SUCCESS [9.399s]

[INFO] Apache Hadoop Assemblies .......................... SUCCESS [0.871s]

[INFO] Apache Hadoop Project Dist POM .................... SUCCESS [7.981s]

[INFO] Apache Hadoop Maven Plugins ....................... SUCCESS [8.965s]

[INFO] Apache Hadoop Auth ................................ SUCCESS [39.748s]

[INFO] Apache Hadoop Auth Examples ....................... SUCCESS [11.081s]

[INFO] Apache Hadoop Common .............................. SUCCESS [10:41.466s]

[INFO] Apache Hadoop NFS ................................. SUCCESS [26.346s]

[INFO] Apache Hadoop Common Project ...................... SUCCESS [0.061s]

[INFO] Apache Hadoop HDFS ................................ SUCCESS [12:49.368s]

[INFO] Apache Hadoop HttpFS .............................. SUCCESS [41.896s]

[INFO] Apache Hadoop HDFS BookKeeper Journal ............. SUCCESS [41.043s]

[INFO] Apache Hadoop HDFS-NFS ............................ SUCCESS [9.650s]

[INFO] Apache Hadoop HDFS Project ........................ SUCCESS [0.051s]

[INFO] hadoop-yarn ....................................... SUCCESS [1:22.693s]

[INFO] hadoop-yarn-api ................................... SUCCESS [1:20.262s]

[INFO] hadoop-yarn-common ................................ SUCCESS [1:30.530s]

[INFO] hadoop-yarn-server ................................ SUCCESS [0.177s]

[INFO] hadoop-yarn-server-common ......................... SUCCESS [15.781s]

[INFO] hadoop-yarn-server-nodemanager .................... SUCCESS [40.800s]

[INFO] hadoop-yarn-server-web-proxy ...................... SUCCESS [6.099s]

[INFO] hadoop-yarn-server-resourcemanager ................ SUCCESS [37.639s]

[INFO] hadoop-yarn-server-tests .......................... SUCCESS [4.516s]

[INFO] hadoop-yarn-client ................................ SUCCESS [25.594s]

[INFO] hadoop-yarn-applications .......................... SUCCESS [0.286s]

[INFO] hadoop-yarn-applications-distributedshell ......... SUCCESS [10.143s]

[INFO] hadoop-mapreduce-client ........................... SUCCESS [0.119s]

[INFO] hadoop-mapreduce-client-core ...................... SUCCESS [55.812s]

[INFO] hadoop-yarn-applications-unmanaged-am-launcher .... SUCCESS [8.749s]

[INFO] hadoop-yarn-site .................................. SUCCESS [0.524s]

[INFO] hadoop-yarn-project ............................... SUCCESS [16.641s]

[INFO] hadoop-mapreduce-client-common .................... SUCCESS [40.796s]

[INFO] hadoop-mapreduce-client-shuffle ................... SUCCESS [7.628s]

[INFO] hadoop-mapreduce-client-app ....................... SUCCESS [24.066s]

[INFO] hadoop-mapreduce-client-hs ........................ SUCCESS [13.243s]

[INFO] hadoop-mapreduce-client-jobclient ................. SUCCESS [16.670s]

[INFO] hadoop-mapreduce-client-hs-plugins ................ SUCCESS [3.787s]

[INFO] Apache Hadoop MapReduce Examples .................. SUCCESS [17.012s]

[INFO] hadoop-mapreduce .................................. SUCCESS [6.459s]

[INFO] Apache Hadoop MapReduce Streaming ................. SUCCESS [12.149s]

[INFO] Apache Hadoop Distributed Copy .................... SUCCESS [15.968s]

[INFO] Apache Hadoop Archives ............................ SUCCESS [5.851s]

[INFO] Apache Hadoop Rumen ............................... SUCCESS [18.364s]

[INFO] Apache Hadoop Gridmix ............................. SUCCESS [14.943s]

[INFO] Apache Hadoop Data Join ........................... SUCCESS [9.648s]

[INFO] Apache Hadoop Extras .............................. SUCCESS [5.763s]

[INFO] Apache Hadoop Pipes ............................... SUCCESS [16.289s]

[INFO] Apache Hadoop Tools Dist .......................... SUCCESS [3.261s]

[INFO] Apache Hadoop Tools ............................... SUCCESS [0.043s]

[INFO] Apache Hadoop Distribution ........................ SUCCESS [56.188s]

[INFO] Apache Hadoop Client .............................. SUCCESS [10.910s]

[INFO] Apache Hadoop Mini-Cluster ........................ SUCCESS [0.321s]

[INFO] ------------------------------------------------------------------------

[INFO] BUILD SUCCESS

[INFO] ------------------------------------------------------------------------

[INFO] Total time: 40:00.444s

[INFO] Finished at: Thu Dec 26 12:42:24 CST 2013

[INFO] Final Memory: 109M/362M

[INFO] ------------------------------------------------------------------------

好了,编译完成了。

window下怎么编译hadoop的源码

a) 进入windows命令行模式,进入到D:\soft\hadoop-2.6.4-src\hadoop-maven-plugins目录,执行"mvn install"命令,如果命令行界面提示:build success"时表示成功:

b) 进入到hadoop-2.5.2-src 目录,执行"mvn eclipse:eclipse -DskipTests"命令,如果出现"BUILD SUCCESS"说明hadoop源码编译成功。

c) 打开eclipse开发工具,将D:\soft\hadoop-2.6.4-src导入到workspace中,就可以查看源码。

hadoop hdfs 源码怎么看

在使用Hadoop的过程中,很容易通过FileSystem类的API来读取HDFS中的文件内容,读取内容的过程是怎样的呢?今天来分析客户端读取HDFS文件的过程,下面的一个小程序完成的功能是读取HDFS中某个目录下的文件内容,然后输出到控制台,代码如下:

[java] view plain copy

public class LoadDataFromHDFS {

public static void main(String[] args) throws IOException {

new LoadDataFromHDFS().loadFromHdfs("hdfs://localhost:9000/user/wordcount/");

}

public void loadFromHdfs(String hdfsPath) throws IOException {

Configuration conf = new Configuration();

Path hdfs = new Path(hdfsPath);

FileSystem in = FileSystem.get(conf);

//in = FileSystem.get(URI.create(hdfsPath), conf);//这两行都会创建一个DistributedFileSystem对象

FileStatus[] status = in.listStatus(hdfs);

for(int i = 0; i status.length; i++) {

byte[] buff = new byte[1024];

FSDataInputStream inputStream = in.open(status[i].getPath());

while(inputStream.read(buff) 0) {

System.out.print(new String(buff));

}

inputStream.close();

}

}

}

FileSystem in = FileSystem.get(conf)这行代码创建一个DistributedFileSystem,如果直接传入一个Configuration类型的参数,那么默认会读取属性fs.default.name的值,根据这个属性的值创建对应的FileSystem子类对象,如果没有配置fs.default.name属性的值,那么默认创建一个org.apache.hadoop.fs.LocalFileSystem类型的对象。但是这里是要读取HDFS中的文件,所以在core-site.xml文件中配置fs.default.name属性的值为hdfs://localhost:9000,这样FileSystem.get(conf)返回的才是一个DistributedFileSystem类的对象。 还有一种创建DistributedFileSystem这种指定文件系统类型对像的方法是使用FileSystem.get(Configuration conf)的一个重载方法FileSystem.get(URI uri, Configuration),其实调用第一个方法时在FileSystem类中先读取conf中的属性fs.default.name的值,再调用的FileSystem.get(URI uri, Configuration)方法。

hadoop 源代码 从哪里可以找到啊?怎么下载,说详细一点谢谢

hadoop的源代码可以到 下载,下载要用SVN软件来下,具体的方法可以在Hadoop入门期 刊中找到

为什么编译 hadoop 源码

编译了hadoop,可以方便的查看某个函数的实现。如果不编译就只是自己去翻源代码了。更重要的是如果你编译了hadoop,你可以根据自己的需要改动hadoop的某些实现机制。(hadoop开源的好处)

如何通过eclipse查看,阅读hadoop2.4源码

1.导入查看hadoop源码

(1)选择Existing Projects into Workspace

(2)选择源码路径

(3)查看源码

这样我们就完成了全部的内容。

2.阅读hadoop源码

其中比较常用的

Open Call Hierarchy:

用Open Call Hierarchy可以查看方法的调用层次。如果想知道一个方法在别的什么地方被调用了,这个功能就很好用了,实际中也很常用,比如要重构一个方法时,想 知道他对其它什么地方可能有影响,就可以用这个功能。在方法名上点击右键,选择Open Type Hierarchy即可,快捷键是Ctrl+Alt+H。可以在Call Hierarchy窗口看到方法的调用层次的导航。

Open Type Hierarchy:

用Open Type Hierarchy可以查看类的继承关系,可以在Hierarchy窗口看到继承层次的导航。在方法或类名上点击右键,选择Open Type Hierarchy即可,快捷键是F4。

这里在演示一下:

看到下面代码

介绍完毕,这里在介绍一些其他的跟踪源码的方法:

1、 用Open Declaration可以查看类、方法和变量的声明。这是最常用的一个功能了,如果在要追踪的对象上点右键,选择Open Declaration,可以跳转到其声明的地方。这个功能有个快捷键是F3,当然你也可以按住Ctrl键,鼠标移过去会变成一个小手,单击就可以了。

2、用Open Super Implemention可以查看当前方法在父类中的实现或接口中的声明(前提是该方法是对父类或接口中相应方法的重写),在方法名上点击右键,选择Open Super Implemention即可。

关于hadoop源码是什么语言和hadoop 源码剖析的介绍到此就结束了,不知道你从中找到你需要的信息了吗 ?如果你还想了解更多这方面的信息,记得收藏关注本站。

扫描二维码推送至手机访问。

版权声明:本文由我的模板布,如需转载请注明出处。


本文链接:http://sdjcht.com/post/6078.html

分享给朋友:

“hadoop源码是什么语言(hadoop 源码剖析)” 的相关文章

闪传照片直播平台(闪传照片直播平台有哪些)

闪传照片直播平台(闪传照片直播平台有哪些)

本篇文章给大家谈谈闪传照片直播平台,以及闪传照片直播平台有哪些对应的知识点,希望对各位有所帮助,不要忘了收藏本站喔。 本文目录一览: 1、闪传直播平台怎么进入 2、闪传直播平台照片能存多久 3...

一场2小时的直播要多少流量(一场两小时的直播需要多少流量)

一场2小时的直播要多少流量(一场两小时的直播需要多少流量)

本篇文章给大家谈谈一场2小时的直播要多少流量,以及一场两小时的直播需要多少流量对应的知识点,希望对各位有所帮助,不要忘了收藏本站喔。 本文目录一览: 1、手机看电视直播一小时要多少流量? 2、两个...

游戏引擎是怎么做出来的(游戏引擎怎么制作)

游戏引擎是怎么做出来的(游戏引擎怎么制作)

今天给各位分享游戏引擎是怎么做出来的的知识,其中也会对游戏引擎怎么制作进行解释,如果能碰巧解决你现在面临的问题,别忘了关注本站,现在开始吧!本文目录一览: 1、游戏引擎怎么开发 2、如何从零开始写...

北京市96中学官方网站(北京第96中学官网)

北京市96中学官方网站(北京第96中学官网)

本篇文章给大家谈谈北京市96中学官方网站,以及北京第96中学官网对应的知识点,希望对各位有所帮助,不要忘了收藏本站喔。 本文目录一览: 1、北京96中学是重点中学吗 2、天津市96中学录取分数线...

九紫网络手游交易平台(九手游交易平台官网)

九紫网络手游交易平台(九手游交易平台官网)

本篇文章给大家谈谈九紫网络手游交易平台,以及九手游交易平台官网对应的知识点,希望对各位有所帮助,不要忘了收藏本站喔。 本文目录一览: 1、九紫游戏地藏弑神录帐号可否交易 2、十大手游交易平台排行榜...

5173账号交易平台和交易猫哪个好(5173好还是交易猫好)

5173账号交易平台和交易猫哪个好(5173好还是交易猫好)

本篇文章给大家谈谈5173账号交易平台和交易猫哪个好,以及5173好还是交易猫好对应的知识点,希望对各位有所帮助,不要忘了收藏本站喔。 本文目录一览: 1、dnf交易平台哪个好 2、游戏交易平台哪...