记一次深刻的教训-----将mat数据转化为SequenceFile
深刻的体会就是,“java.lang.NullPointer.Exception”就是空指针异常可能是由于数组部分元素未被初始化引起的。
1)使用jmatio将mat数据转化为SequenceFile形式的数据,代码如下:
/**
* Created with IntelliJ IDEA.
* User: hadoop
* Date: 16-3-6
* Time: 上午10:56
* To change this template use File | Settings | File Templates.
*/
import com.jmatio.io.MatFileReader;
import com.jmatio.types.*;
import java.io.IOException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.*;
import java.net.URI;
import org.apache.hadoop.mapreduce.*;
public class mat2Seq {
public static void main(String[] args) throws IOException {
writeMat2Seq("data/100_100/F100.mat","SeqOutput/F");
writeMat2Seq("data/100_100/b100.mat","SeqOutput/b");
writeMat2Seq("data/100_100/d100.mat","SeqOutput/d");
writeMat2Seq("data/100_100/s100.mat","SeqOutput/s");
writeMat2Seq("data/100_100/u100.mat","SeqOutput/u");
} public static void writeMat2Seq(String matPath,String SeqOutput) throws IOException {
MatFileReader reader=new MatFileReader(matPath);
MLArray mlArray=reader.getMLArray("a");
MLDouble doubleValue=(MLDouble)mlArray;
double[][] matrix=doubleValue.getArray();
Configuration conf =new Configuration();
FileSystem fs=FileSystem.get(URI.create(SeqOutput),conf);
IntWritable key=new IntWritable();
DoubleArrayWritable value=new DoubleArrayWritable();
SequenceFile.Writer writer=null;
try {
writer=SequenceFile.createWriter(fs,conf,new Path(SeqOutput),key.getClass(),
value.getClass());
if (matPath.endsWith("F100.mat")){ //左矩阵F依次将行存储到Seq
DoubleWritable[] rowVector=new DoubleWritable[matrix.length];
for (int i=0;i<matrix.length;++i){
for (int j=0;j<matrix[0].length;++j){
rowVector[j]=new DoubleWritable(0);
rowVector[j].set(matrix[i][j]);
}
value.set(rowVector);
key.set(i);
writer.append(key,value);
}
writer.close();
}
else{ //其他右矩阵依次将列存储到Seq中
DoubleWritable[] columnVector=new DoubleWritable[matrix[0].length];
for (int i=0;i<matrix[0].length;++i){
for (int j=0;j<matrix.length;++j){
columnVector[j]=new DoubleWritable(0);
columnVector[j].set(matrix[j][i]);
}
value.set(columnVector);
key.set(i);
writer.append(key,value);
}
writer.close(); }
}
finally {
}
System.out.println(matPath+"write done!");
}
}
class DoubleArrayWritable extends ArrayWritable {
public DoubleArrayWritable(){
super(DoubleWritable.class);
}
public String toString(){
StringBuilder sb=new StringBuilder();
for (Writable val:get()){
DoubleWritable doubleWritable=(DoubleWritable)val;
sb.append(doubleWritable.get());
sb.append(",");
}
sb.deleteCharAt(sb.length()-1);
return sb.toString();
}
}
以上使用的.mat文件,程序都可以好好的运行。但是当把文件换成一个B1k2k,也就是一个1000*2000的矩阵文件时,就报空指针的异常,“java.lang.NullPointerException”,具体如下:
提示是在ArrayWritable.write()方法中出现空指针的异常,就开始怀疑是ArrayWritable这个类没写好(也就是怀疑人家有bug,然后就下了hadoop2.6.4,还是不行),然后一路追查,到最后ArrayWritable的write()方法最终调用了BufferedOutputStream.write(),然后就开始是open-jdk的不兼容了,然后就重装了sun JDK。还是不行,然后就把java的io包里的.java源码拷贝到工程里,想着单步调试到BufferedOutputStream.write(),看看究竟发生了什么,怎奈jmatio需要用到io包,我又不行重新编译,所以就想先把.mat转化为.txt文件,但是呢,没成功,因为虚拟机磁盘空间不够了,没法了,想想是不是机子环境的问题呢(哈哈哈,想象力太好),就传给谷总试试看能不能运行,谷总说你确定不是算法问题?答:不该呀。呵呵呵,结果谷总发来了两张图片,如下:
至此,终于找到了原因,就是代码有问题。columnVector数组是用来存储矩阵的一列,数组长度矩阵的行数,但是原先的代码里却将数组长度定义为矩阵的列数。
DoubleWritable[] columnVector=new DoubleWritable[matrix[0].length];
for (int i=0;i<matrix[0].length;++i){
for (int j=0;j<matrix.length;++j){
columnVector[j]=new DoubleWritable(0);
columnVector[j].set(matrix[j][i]);
}
value.set(columnVector);
key.set(i);
writer.append(key,value);
}
这就解释了,为什么1k*1100的矩阵转化时会提示空指针异常,按照上述对columnVector的定义,这个列向量数组的长度是1100,但是在接下来给这个向量赋值时,是由矩阵的行数来控制,也就是说在赋值时只是对columnVector复制到第1000个元素,剩下的100个元素是空(如果是系统的基本类型,如int double,编译器会将其置为0,不过DoubleWritable不是基本类型),也就是“null”,所以在接下来使用writer.append(key,vlaue)调用输出流写出的时候,自然会抛出“java.lang.NullPointerException”异常。经过修改的代码如下:
/**
* Created with IntelliJ IDEA.
* User: hadoop
* Date: 16-3-6
* Time: 上午10:56
* To change this template use File | Settings | File Templates.
*/
//package java.io;
import com.jmatio.io.MatFileReader;
import com.jmatio.types.*;
import java.io.IOException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.*;
public class mat2Seq {
public static void main(String[] args) throws IOException {
writeMat2Seq("data/1k_1k/F1k1k.mat","SeqOutput/F1k1k");
writeMat2Seq("data/100_100/b100.mat","SeqOutput/b100");
writeMat2Seq("data/1k1100/mat1k1100.mat","SeqOutput/test1k1100");
writeMat2Seq("data/B1k2w.mat","SeqOutput/1k2w"); //writeMat2Seq("data/1k_2w/B1k2w.mat","SeqOutput5/B1k2w");
} public static void writeMat2Seq(String matPath,String SeqOutput) throws IOException {
MatFileReader reader=new MatFileReader(matPath);
MLArray mlArray=reader.getMLArray("a");
MLDouble doubleValue=(MLDouble)mlArray;
double[][] matrix=doubleValue.getArray();
Configuration conf =new Configuration();
//FileSystem fs=FileSystem.get(URI.create(SeqOutput),conf);
FileSystem fs=FileSystem.get(conf);
Path path=new Path(SeqOutput);
//FSDataOutputStream outputStream=fs.create(path);
IntWritable key=new IntWritable();
DoubleArrayWritable value=new DoubleArrayWritable();
SequenceFile.Writer writer=null;
try {
writer=SequenceFile.createWriter(fs,conf,path,key.getClass(),value.getClass()); // SequenceFile.Writer.Option
if (matPath.endsWith("F1k.mat")){ //左矩阵F依次将行存储到Seq
DoubleWritable[] rowVector=new DoubleWritable[matrix[0].length];
for (int i=0;i<matrix.length;++i){
for (int j=0;j<matrix[0].length;++j){
rowVector[j]=new DoubleWritable(0);
rowVector[j].set(matrix[i][j]);
}
value.set(rowVector);
key.set(i);
writer.append(key,value);
}
writer.close();
//outputStream.close();
fs.close();
}
else{ //其他右矩阵依次将列存储到Seq中
//DoubleWritable[] columnVector=new DoubleWritable[matrix[0].length];
DoubleWritable[] columnVector=new DoubleWritable[matrix.length];
for (int i=0;i<matrix[0].length;++i){
for (int j=0;j<matrix.length;++j){
columnVector[j]=new DoubleWritable(0);
columnVector[j].set(matrix[j][i]);
}
value.set(columnVector);
key.set(i);
writer.append(key,value);
}
writer.close();
//outputStream.close();
fs.close(); }
}
finally {
}
System.out.println(matPath+"write done!");
}
}
class DoubleArrayWritable extends ArrayWritable {
public DoubleArrayWritable(){
super(DoubleWritable.class);
}
/*
public String toString(){
StringBuilder sb=new StringBuilder();
for (Writable val:get()){
DoubleWritable doubleWritable=(DoubleWritable)val;
sb.append(doubleWritable.get());
sb.append(",");
}
sb.deleteCharAt(sb.length()-1);
return sb.toString();
}
*/
}
另外,就是把DoubleArrayWritable的toString()方法注释掉是有原因的,如果使用这个新定义的toString()方法,写入SequenceFile中的value形式就是0.344,0.435......,这种矩阵形式(使用hadoop fs -text),形式一目了然,但是文件写入速度慢(B1k2w文件需要两分钟才可以完成)。如果使用Object提供的toString()方法的话,写入的value形式就是DoubleArrayWritable@34d79f形式,看着不直观,如果要查看value的值还必须使用程序反序列化,但是这种方法写入的内容很少,文件的写入速度很快(B1k2w文件只需要1~2s就可完成)。所以还是不要重载toString()方法。
记一次深刻的教训-----将mat数据转化为SequenceFile的更多相关文章
- opencv MAT数据操作
1.存取单个像素值 最通常的方法就是 img.at<uchar>(i,j) = 255; img.at<Vec3b>(i,j)[0] = 255; 2.用指针扫描一幅图像 对于 ...
- 两分钟解决Python读取matlab的.mat数据
Matlab是学术界非常受欢迎的科学计算平台,matlab提供强大的数据计算以及仿真功能.在Matlab中数据集通常保存为.mat格式.那么如果我们想要在Python中加载.mat数据应该怎么办呢?所 ...
- 【转】Java读取matlab的.mat数据文件
参考:Java读取mat文件 下载链接:ujmp jmatio 下载完两个.jar文件之后,如何引用到java项目当中?项目名称->右键->Property->Java Build ...
- OpenCV几种访问cv::Mat数据的方法
一般来说,如果是遍历数据的话用指针ptr比用at要快.特别是在debug版本下.因为debug中,OpenCV会对at中的坐标检查是否有溢出,这是非常耗时的. 代码如下 #include <op ...
- opencv-从图像旋转学习Mat数据訪问
先看一个简单的样例 代码: // ConsoleApplication3_6_23.cpp : Defines the entry point for the console application. ...
- OpenCV中Mat数据的访问报错
最近再写一段程序的时候,要访问Mat中的元素.在定义Mat型数据的时候,用 Mat ObjectPoints(48,3,CV_32FC1,0) 对其进行初始化后,用at进行访问时报内存错误. Mat ...
- 转 OpenCV Mat 数据读写
转:https://blog.csdn.net/u011520181/article/details/83831866 1.创建 Mat 对象: // 创建一个 320x240 的 8 位无符号型 4 ...
- c++读写matlab中.mat数据
前言:在进行图形图像处理时,经常会用到matlab进行算法的仿真验证,然后再移植到别的语言中.有时会涉及到数据的交互,比如直接读取matlab的.mat类型数据,或者是将c++中的数组存为.mat,为 ...
- 记一次利用AutoMapper优化项目中数据层到业务层的数据传递过程。
目前项目中获取到DataSet数据后用下面这种方式复制数据. List<AgreementDoc> list = new List<AgreementDoc>(); ].Row ...
随机推荐
- vs tip1
纠结了两个小时在ivtc上,最后得出结论:别用ffms2打开m2ts,要用lsmas.LWLibavSource...
- Git命令文本手册
git init # 初始化本地git仓库(创建新仓库) git config --global user.name "xxx" # 配置用户名 git config --glob ...
- 迅雷Bolt图像拉伸不清晰的解决办法
迅雷Bolt库中的图像拉伸的效果锯齿比较严重,常见的导致锯齿的情况: 1.在使用ImageObject时,drawmode为1拉伸模式下: 2.使用Bitmap类的Stretch函数拉伸图像: 虽然I ...
- js闭包,原型,作用域等再一次理解
要理解闭包,原型等,首先要理解作用域 作用域:就是函数在定义的时候创建的,用于寻找使用到的变量的值的一个索引,而他内部的规则是,把函数自身的本地变量放在最前面,把自身的父级函数中的变量放在其次,把再高 ...
- ES6学习笔记(三)—— Set 和 Map
SetES6提供的数据结构,类似于数组,但是成员的值都是唯一的.(提供了一种数组去重的方法) Set 内部判断两个值是否相同使用的是 'Same-value equality',类似于 ===但是 N ...
- js错误处理
导致程序无法继续执行的异常状态称为错误. js中一旦发生错误,就会自动创建一个Error类型对象 js中有6中错误类型: SyntaxError 语法错误 ReferenceError 引用错误,找不 ...
- JAVA中List<Long> 转long[]的方法
之前每次都是通过循环去写,感觉代码不够优雅,百度了一下,查到如下的写法,先记下来: List<Long> list = new ArrayList<Long>(); list. ...
- 【Foreign】最大割 [线性基]
最大割 Time Limit: 15 Sec Memory Limit: 256 MB Description Input Output Sample Input 3 6 1 2 1 1 2 1 3 ...
- 安装并解决purcell/emacs.d网络问题
安装: $ git clone https://github.com/purcell/emacs.d.git ~/.emacs.d 不使用https访问lisp库: $ sed -i 's/https ...
- 1.shell快速入门
shell是什么?shell是一个命令行解释器,它提供了一个像linux内核发送请求以便运行程序的界面系统程序,用户可以用shell来启动.挂起.停止甚至是编写一些程序.说白了,shell就是用来和内 ...