1. 首先前往 官网(Hadoop 2.6 下载地址)上下载Hadoop的源码文件,并解压

2. 事先请确定已经安装好jdk以及maven(Maven安装教程 这是其他人写的一篇博文,保存profile后,记得source下)

3. 进入到hadoop-2.6.0-src/hadoop-common-project/hadoop-common/src/test/java/org/apache/hadoop 目录

可以看到有很多文件夹,找到ipc目录,在里面mkdir protobuf文件夹(还有一丢丢问题,这个后面解决)

4. 安装protobuf

下载地址 : http://pan.baidu.com/s/1pJlZubT  并解压

切换到protobuf文件夹,依次在终端下输入:

. / configure

make

make check

make install

全部执行完后再输入protoc - - version检查是否安装成功。

5. hadoop-2.6.0-src/hadoop-common-project/hadoop-common/src/test/java/org/apache/hadoop/io/serializer/avro/TestAvroSerialization.java显示找不到AvroRecord类

去grepcode下载2.5.0或者更高版本的。放到相应位置

6. cd到 hadoop-2.6.0-src/hadoop-maven-plugins 目录下 使用:mvn intall

7. cd到hadoop-2.6.0-src 目录下 使用mvn eclipse:eclipse -DskipTests

8. 在Eclipse中:File-Import-Existing Projects into Workspace 选择hadoop-2.6.0-src目录导入(推荐换一个workspace再导入,因为project的数目挺多的)

到了这一步,基本上已经没什么问题了,但是还有一些小问题,需要解决

可能遇到的问题:

1.org.apache.hadoop.ipc.protobuf 包下,可能是空包。

去grepcode上搜索TestProtos和TestRpcServiceProtos两个类,我遇到的情况是本地目录已经存在那两个文件,却没有导入。

没有上述两个类,会提示一大片的EmptyRequestProto之类的无法解析

2.会提示com.sum.tool或者javadoc包无法解析

右键选择buildpath -> configure build path -> library -> add library -> ire system 即可

3. hadoop-streaming 工程中的build path 有问题

把source中的hadoop-yarn-server-resourcemanager/conf删除掉,然后Link Source:源码根目录/hadoop-yarn-project/hadoop-yarn/hadoop-yarn-server/hadoop-yarn-server-resourcemanager/conf

4. mac下发现classes.jar找不到的问题:

Exception in thread "main" java.lang.AssertionError: Missing tools.jar at: /Library/Java/JavaVirtualMachines/jdk1.7.0_45.jdk/Contents/Home/Classes/classes.jar. Expression: file.exists()

this is as the compiler needs a file named tools.jar but localted at classes.jar under dir Classes but found nothing.so u can do workaround:

解决办法:

cd $JAVA_HOME
mkdir Classes
cd Classes
ln -s ../lib/tools.jar classes.jar

附件:AvroRecord.java hadoop2.6版本

/**
* Autogenerated by Avro
*
* DO NOT EDIT DIRECTLY
*/
package org.apache.hadoop.io.serializer.avro;
@SuppressWarnings("all")
@org.apache.avro.specific.AvroGenerated
public class AvroRecord extends org.apache.avro.specific.SpecificRecordBase implements org.apache.avro.specific.SpecificRecord {
public static final org.apache.avro.Schema SCHEMA$ = new org.apache.avro.Schema.Parser().parse("{\"type\":\"record\",\"name\":\"AvroRecord\",\"namespace\":\"org.apache.hadoop.io.serializer.avro\",\"fields\":[{\"name\":\"intField\",\"type\":\"int\"}]}");
public static org.apache.avro.Schema getClassSchema() { return SCHEMA$; }
@Deprecated public int intField; /**
* Default constructor.
*/
public AvroRecord() {} /**
* All-args constructor.
*/
public AvroRecord(java.lang.Integer intField) {
this.intField = intField;
} public org.apache.avro.Schema getSchema() { return SCHEMA$; }
// Used by DatumWriter. Applications should not call.
public java.lang.Object get(int field$) {
switch (field$) {
case 0: return intField;
default: throw new org.apache.avro.AvroRuntimeException("Bad index");
}
}
// Used by DatumReader. Applications should not call.
@SuppressWarnings(value="unchecked")
public void put(int field$, java.lang.Object value$) {
switch (field$) {
case 0: intField = (java.lang.Integer)value$; break;
default: throw new org.apache.avro.AvroRuntimeException("Bad index");
}
} /**
* Gets the value of the 'intField' field.
*/
public java.lang.Integer getIntField() {
return intField;
} /**
* Sets the value of the 'intField' field.
* @param value the value to set.
*/
public void setIntField(java.lang.Integer value) {
this.intField = value;
} /** Creates a new AvroRecord RecordBuilder */
public static org.apache.hadoop.io.serializer.avro.AvroRecord.Builder newBuilder() {
return new org.apache.hadoop.io.serializer.avro.AvroRecord.Builder();
} /** Creates a new AvroRecord RecordBuilder by copying an existing Builder */
public static org.apache.hadoop.io.serializer.avro.AvroRecord.Builder newBuilder(org.apache.hadoop.io.serializer.avro.AvroRecord.Builder other) {
return new org.apache.hadoop.io.serializer.avro.AvroRecord.Builder(other);
} /** Creates a new AvroRecord RecordBuilder by copying an existing AvroRecord instance */
public static org.apache.hadoop.io.serializer.avro.AvroRecord.Builder newBuilder(org.apache.hadoop.io.serializer.avro.AvroRecord other) {
return new org.apache.hadoop.io.serializer.avro.AvroRecord.Builder(other);
} /**
* RecordBuilder for AvroRecord instances.
*/
public static class Builder extends org.apache.avro.specific.SpecificRecordBuilderBase<AvroRecord>
implements org.apache.avro.data.RecordBuilder<AvroRecord> { private int intField; /** Creates a new Builder */
private Builder() {
super(org.apache.hadoop.io.serializer.avro.AvroRecord.SCHEMA$);
} /** Creates a Builder by copying an existing Builder */
private Builder(org.apache.hadoop.io.serializer.avro.AvroRecord.Builder other) {
super(other);
} /** Creates a Builder by copying an existing AvroRecord instance */
private Builder(org.apache.hadoop.io.serializer.avro.AvroRecord other) {
super(org.apache.hadoop.io.serializer.avro.AvroRecord.SCHEMA$);
if (isValidValue(fields()[0], other.intField)) {
this.intField = data().deepCopy(fields()[0].schema(), other.intField);
fieldSetFlags()[0] = true;
}
} /** Gets the value of the 'intField' field */
public java.lang.Integer getIntField() {
return intField;
} /** Sets the value of the 'intField' field */
public org.apache.hadoop.io.serializer.avro.AvroRecord.Builder setIntField(int value) {
validate(fields()[0], value);
this.intField = value;
fieldSetFlags()[0] = true;
return this;
} /** Checks whether the 'intField' field has been set */
public boolean hasIntField() {
return fieldSetFlags()[0];
} /** Clears the value of the 'intField' field */
public org.apache.hadoop.io.serializer.avro.AvroRecord.Builder clearIntField() {
fieldSetFlags()[0] = false;
return this;
} @Override
public AvroRecord build() {
try {
AvroRecord record = new AvroRecord();
record.intField = fieldSetFlags()[0] ? this.intField : (java.lang.Integer) defaultValue(fields()[0]);
return record;
} catch (Exception e) {
throw new org.apache.avro.AvroRuntimeException(e);
}
}
}
}

  

参考资料:

1. 在mac中导入hadoop2.6.0源代码至eclipse教程

2. Eclipse导入Hadoop源码

3.  hadoop-2.6.0-src源码导入Eclipse

4. grepcode TestProtos

5. 百度知道:导入时可能遇到的错误以及解决办法 (请参考其他1条回答)

Eclipse 导入Hadoop 2.6.0 源码的更多相关文章

  1. eclipse导入java和android sdk源码,帮助文档

    eclipse导入java和android sdk源码,帮助文档 http://blog.csdn.net/ashelyhss/article/details/37993261 JavaDoc集成到E ...

  2. 64位centos 下编译 hadoop 2.6.0 源码

    64位os下为啥要编译hadoop就不解释了,百度一下就能知道原因,下面是步骤: 前提:编译源码所在的机器,必须能上网,否则建议不要尝试了 一. 下载必要的组件 a) 下载hadoop源码 (当前最新 ...

  3. 如何从Eclipse导入github上的项目源码

    1.首先在github.com上申请一个账号,比如笔者的账号为puma0072.Eclipse需要安装egit插件,在Eclipse中选择help->Marketplace,在search中输入 ...

  4. 如何从Eclipse导入github上的项目源码--转载

    [转载出处声明:hil2000的专栏] 1.首先在github.com上申请一个账号,比如笔者的账号为puma0072.Eclipse需要安装egit插件,在Eclipse中选择help->Ma ...

  5. spark最新源码下载并导入到开发环境下助推高质量代码(Scala IDEA for Eclipse和IntelliJ IDEA皆适用)(以spark2.2.0源码包为例)(图文详解)

    不多说,直接上干货! 前言   其实啊,无论你是初学者还是具备了有一定spark编程经验,都需要对spark源码足够重视起来. 本人,肺腑之己见,想要成为大数据的大牛和顶尖专家,多结合源码和操练编程. ...

  6. Eclipse 导入 Hadoop 源码

    1.准备工作 jdk: eclipse: Maven: libprotoc :https://developers.google.com/protocol-buffers/ hadoop:http:/ ...

  7. Eclipse导入Hadoop源码项目及编写Hadoop程序

    一 Eclipse导入Hadoop源码项目 基本步骤: 1)在Eclipse新建一个java项目[hadoop-1.2.1] 2)将Hadoop压缩包解压目录src下的core,hdfs,mapred ...

  8. JMeter4.0源码导入Eclipse记录

    参考: https://blog.csdn.net/yue530tomtom/article/details/77870233?locationNum=10&fps=1 1.准备jdk环境 下 ...

  9. Hadoop1.x目录结构及Eclipse导入Hadoop源码项目

    这是解压hadoop后,hadoop-1.2.1目录 各目录结构及说明: Eclipse导入Hadoop源码项目: 注意:如果没有ant的包可以去网上下,不是hadoop里面的. 然后如果通过以上还报 ...

随机推荐

  1. scrum立会报告+燃尽图(第三周第二次)

    此作业要求参见:https://edu.cnblogs.com/campus/nenu/2018fall/homework/2284 项目地址:https://coding.net/u/wuyy694 ...

  2. Beta发布—美工+文案

    此作业要求参见:https://edu.cnblogs.com/campus/nenu/2018fall/homework/2408 视频展示地址:https://www.bilibili.com/v ...

  3. 软工1816 · Alpha冲刺(6/10)

    团队信息 队名:爸爸饿了 组长博客:here 作业博客:here 组员情况 组员1(组长):王彬 过去两天完成了哪些任务 alpha冲刺时间延后一周,重新规划任务安排 完成食堂店铺经纬度标注,以供美食 ...

  4. Alpha事后诸葛(团队)

    [设想和目标] Q1:我们的软件要解决什么问题?是否定义得很清楚?是否对典型用户和典型场景有清晰的描述? "小葵日记"是为了解决18-30岁年轻用户在记录生活时希望得到一美体验友好 ...

  5. 第15章 磁盘配额(Quota)与高级文件系统管理

    磁盘配额(quota)的应用与实践 什么是quota 举例来说,用户的默认主文件夹是在/home下面,如果/home是个独立的分区,假设是10G,/home下有30个账号,这样30个用户共享这10G的 ...

  6. 第8章 Linux磁盘与文件系统管理

    认识EXT2文件系统 文件的系统特性 Linux的正规文件系统为Ext2 文件数据除了文件实际内容外,还包括其他属性(文件权限.文件属性). 文件系统将这两部分数据分别存放在不同的块,权限和属性放在i ...

  7. 软工网络15团队作业4——Alpha阶段敏捷冲刺-7

    一.当天站立式会议照片: 二.项目进展 昨天已完成的工作: 进一步优化功能与完善服务器. 明天计划完成的工作: 服务器是需要完善,后端的配置还需要修改. 工作中遇到的困难: 今日遇到的困难是服务器后端 ...

  8. Ubuntu 16.04出现:Problem executing scripts APT::Update::Post-Invoke-Success 'if /usr/bin/test -w /var/

    转自:http://blog.csdn.net/zzq123686/article/details/77454066 出现错误信息: Reading package lists... Done E:  ...

  9. Hibernate学习--hibernate延迟加载原理-动态代理(阿里电面)

    在正式说hibernate延迟加载时,先说说一个比较奇怪的现象吧:hibernate中,在many-to-one时,如果我们设置了延迟加载,会发现我们在eclipse的调试框中查看one对应对象时,它 ...

  10. Linux服务器ping不通域名出现的unknown host 错误解决办法

    "ping: unknown host www.baidu.com" 解决方法 如果某台Linux服务器ping不通域名, 如下提示: # ping www.baidu.compi ...