Hadoop周边环境:Hadoop2.4

定义中的Hadoop的Writable时间,有时你需要使用数组,而不是简单的单一值或串。例如,下面的代码:

package test;

import java.io.DataInput;
import java.io.DataOutput;
import java.io.IOException; import org.apache.hadoop.io.WritableComparable;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory; public class MyData implements WritableComparable<MyData>,Cloneable {
private Logger log = LoggerFactory.getLogger(MyData.class); private float[] distance; public MyData(){// 空指针异常
set(new float[6]); // 凝视掉此行代码,在readFields会有空指针异常
} public MyData(float[] distance) {
set(distance);
}
public void set(float[] distance) {
this.distance=distance;
} @Override
public void readFields(DataInput arg0) throws IOException {
for(int i=0;i<distance.length;i++){
distance[i]=arg0.readFloat();
}
}
@Override
public void write(DataOutput arg0) throws IOException { for(int i=0;i<distance.length;i++){ arg0.writeFloat(distance[i]);
}
}
@Override
public int compareTo(MyData o) {// 当前值小于o则返回负数 float[] oDistance =o.distance;
int cmp=0;
for(int i=0;i<oDistance.length;i++){ if(Math.abs(this.distance[i]-oDistance[i])<0.0000000001){
continue; // 比較下一个
}
if(this.distance[i]<oDistance[i]){
return -1;
}else{
return 1;
}
} return cmp;
} @Override
public int hashCode(){
int hashCode =0;
for(int i=0;i<distance.length;i++){ hashCode=+Float.floatToIntBits(distance[i]);
}
return hashCode;
} public float[] getDistance() {
return distance;
} public void setDistance(float[] distance) {
this.distance = distance;
} }

能够看到其无參构造函数里面含有一个初始化的操作。这个初始化的操作限定了其矩阵distance的维度(代码中设置为6),可是一般这个值由外部设置才比較合适,可是在读取的时候,也就是readFields的时候是从这个无參构造函数进入的,这里没有办法设置參数,没有办法在外面初始化这个矩阵的大小,可是不设置又不行。有没有什么办法呢?在Mahout的一些代码中能够看到相似的代码。比方VectorWritable,从VectorWritable能够找到解决问题的答案。

先看看vectorWritable的一段代码:

 @Override
public void readFields(DataInput in) throws IOException {
int flags = in.readByte();
int size = Varint.readUnsignedVarInt(in);
readFields(in, (byte) flags, size);
}

通过这段代码能够知道。不一定要通过外部传入。事实上能够从in中读取就可以。详细怎样做呢?定义一个数组distance的大小变量,比方为num。然后把num在write中写入,然后在readFields中先读出,然后再初始化数组distance,这样就不会有刚才的问题了。详细代码例如以下:

package test;

import java.io.DataInput;
import java.io.DataOutput;
import java.io.IOException; import org.apache.hadoop.io.WritableComparable;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory; public class MyData implements WritableComparable<MyData>,Cloneable {
private Logger log = LoggerFactory.getLogger(MyData.class); private float[] distance;
private int num;
public MyData(){// 此处不再有空指针异常
// set(new float[6]); // 凝视掉此行代码,在readFields不会有空指针异常
} public MyData(float[] distance) {
this.num=distance.length;
set(distance);
}
public void set(float[] distance) {
this.distance=distance;
} @Override
public void readFields(DataInput arg0) throws IOException {
num = arg0.readInt();
distance = new float[num];
for(int i=0;i<distance.length;i++){
distance[i]=arg0.readFloat();
}
}
@Override
public void write(DataOutput arg0) throws IOException {
arg0.writeInt(num);
for(int i=0;i<distance.length;i++){ arg0.writeFloat(distance[i]);
}
}
@Override
public int compareTo(MyData o) {// 当前值小于o则返回负数 float[] oDistance =o.distance;
int cmp=0;
for(int i=0;i<oDistance.length;i++){ if(Math.abs(this.distance[i]-oDistance[i])<0.0000000001){
continue; // 比較下一个
}
if(this.distance[i]<oDistance[i]){
return -1;
}else{
return 1;
}
} return cmp;
} @Override
public int hashCode(){
int hashCode =0;
for(int i=0;i<distance.length;i++){ hashCode=+Float.floatToIntBits(distance[i]);
}
return hashCode;
} public float[] getDistance() {
return distance;
} public void setDistance(float[] distance) {
this.distance = distance;
} }

通过上面的改进,就不用操心 空指针的问题了。

分享。成长,快乐

转载请注明blog地址:http://blog.csdn.net/fansy1990

版权声明:本文博客原创文章,博客,未经同意,不得转载。

Hadoop 它们的定义Writable NullpointerException的更多相关文章

  1. Hadoop Serialization hadoop序列化详解(最新版) (1)【java和hadoop序列化比较和writable接口】

    初学java的人肯定对java序列化记忆犹新.最开始很多人并不会一下子理解序列化的意义所在.这样子是因为很多人还是对java最底层的特性不是特别理解,当你经验丰富,对java理解更加深刻之后,你就会发 ...

  2. hadoop自带的writable类型

    Hadoop 中,并没有使用Java自带的基本类型类(Integer.Float等),而是使用自己开发的类.Hadoop 自带有很多序列化类型,大致分为以下两种: 实现了WritableCompara ...

  3. 使用hadoop命令rcc生成Record 一个简单的方法来实现自己的定义writable对象

    hadoop 的bin文件夹以下一个rcc命令,网上介绍非常少.看了一下源代码.发现能够用来生成 java和c++的hadoop Record 类代码,比起自己直接实现writable 接口.简单非常 ...

  4. Hadoop中序列化与Writable接口

    学习笔记,整理自<Hadoop权威指南 第3版> 一.序列化 序列化:序列化是将 内存 中的结构化数据 转化为 能在网络上传输 或 磁盘中进行永久保存的二进制流的过程:反序列化:序列化的逆 ...

  5. hadoop中实现定制Writable类

    Hadoop中有一套Writable实现可以满足大部分需求,但是在有些情况下,我们需要根据自己的需要构造一个新的实现,有了定制的Writable,我们就可以完全控制二进制表示和排序顺序. 为了演示如何 ...

  6. hbase报错org.apache.hadoop.ipc.RemoteException(java.lang.NullPointerException): java.lang.NullPointerException

    这个错误找了好长时间,日志看半天,找度娘没什么用,再看stackoverflow,上面有几篇相关的帖子,但是没人回答. 看半天,没有cause,只好到idea中去看sortLocalSorts源码,结 ...

  7. Hadoop基础-序列化与反序列化(实现Writable接口)

    Hadoop基础-序列化与反序列化(实现Writable接口) 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 一.序列化简介 1>.什么是序列化 序列化也称串行化,是将结构化 ...

  8. Hadoop Serialization -- hadoop序列化详解 (3)【ObjectWritable,集合Writable以及自定义的Writable】

    前瞻:本文介绍ObjectWritable,集合Writable以及自定义的Writable TextPair 回顾: 前面了解到hadoop本身支持java的基本类型的序列化,并且提供相应的包装实现 ...

  9. Hadoop中Writable类之四

    1.定制Writable类型 Hadoop中有一套Writable实现,例如:IntWritable.Text等,但是,有时候可能并不能满足自己的需求,这个时候,就需要自己定制Writable类型. ...

随机推荐

  1. ftp桥接到http服务

    先说一下我的需求:我的linodeserver近期ftp和sftp连不上了,port被封了.仅仅有http能够訪问,我没有办法上传文件了.由于我寻常都用beyond compare上传文件,非常方便. ...

  2. meta标签详解:源http://blog.csdn.net/kongjiea/article/details/17092413

    一.大众机型常用meta标签name的设置 1.name之viewport <meta name="viewport" content=""> 说明 ...

  3. 跨平台移动框架iMAG开发入门

    iMAG是一个非常简洁高效的移动跨平台开发框架,开发一次能够同一时候兼容Android和iOS平台,有点儿Web开发基础就能非常快上手.当前移动端跨平台开发的框架有非常多,但用iMAG另一个优点,就是 ...

  4. setInterval定时和ajax请求

    fnSetMarkPoint = function (param) { $.ajax({ success: function (returnValue) { window.setInterval(&q ...

  5. 重新想象 Windows 8 Store Apps (12) - 控件之 GridView 特性: 拖动项, 项尺寸可变, 分组显示

    原文:重新想象 Windows 8 Store Apps (12) - 控件之 GridView 特性: 拖动项, 项尺寸可变, 分组显示 [源码下载] 重新想象 Windows 8 Store Ap ...

  6. effective c++ 条款5 c++ 默默实现的函数

    当写一个空类c++ 会为我们自动提供四个函数 1 默认构造函数 2 默认析构函数 3 拷贝构造函数 4 默认赋值运算符

  7. sql分隔字符串数组

    declare @relation_code nvarchar(1024) set @relation_code = '#10000#10002' set @relation_code=substri ...

  8. 使用 WPF 创建预加载控件

    Introduction At the time when WPF applications do a very long process like getting response from a w ...

  9. iOS结合导航控制器和标签栏控制器

    <span style="font-family: Arial, Helvetica, sans-serif;"></span><pre name=& ...

  10. Memcahce(MC)系列(两)Linux下一个Memcache安装

    Linux下一个memcache安装 memcache是高性能.分布式的内存对象缓存系统,用于在动态应用中降低数据库负载.提升訪问速度.眼下用memcache解决互联网上的大用户读取是很流行的一种使用 ...