来自:http://blog.csdn.net/xyilu/article/details/9066973

引言

何 为大矩阵?Excel、SPSS,甚至SAS处理不了或者处理起来非常困难,需要设计巧妙的分布式方法才能高效解决基本运算(如转置、加法、乘法、求逆) 的矩阵,我们认为其可被称为大矩阵。这意味着此种矩阵的维度至少是百万级的、经常是千万级的、有时是亿万级的。举个形象的栗子。至2012年12月底,新 浪微博注册用户数超5亿,日活跃用户4629万[1],如果我们要探索这4000多万用户可以分成哪些类别,以便深入了解用户共同特征,制定精准营销策 略,势必要用到聚类相关的算法(比如新浪大牛张俊林就利用聚类算法来挖掘新浪微博中的兴趣圈子[2]),而聚类算法都需要构造用户两两之间的关系,形成 n*n的矩阵,称为相似度矩阵。新浪微博这个例子中,这个矩阵的维度是4000万*4000万。

矩阵乘法为何重要?这个时代(我就不说那个被媒体用烂了的恶心词汇了),在海量数据中淘金,已是各大互联网公司的既定目标,亚马逊是数据化运营的成功典
范,Google、百度投巨资用于对海量数据进行深度学习(Deep
Learning)研究,阿里把数据与平台、金融并列成为未来三大战略。话扯得有点大而远,但任何伟大的战略,最终都要落地到非常细粒度的具体操作上。我
们想在海量数据中淘到金子,强大的挖掘工具是必不可少的,而诸如回归、聚类、主成分分析、决策树等数据挖掘算法常常涉及大规模矩阵运算。这其中,大矩阵乘
法具有较大的时间消耗,是算法的瓶颈。张俊林的文章[2]用到了谱聚类算法,其中有个重要步骤是将相似度矩阵转换为拉普拉斯矩阵,这就需要用到大矩阵乘
法。很酷有没有!大矩阵乘法运算可以从根基上影响数据战略的实施,它比那些大而空的废话重要千百万倍。
我们将使用MapReduce来分布式计算大矩阵乘法。伟大导师黑格尔告诉我们,量变导致质变。当所操作的矩阵维度达到百万、千万级时,会产生亟待攻克的新问题:
  • 大矩阵如何存储?
  • 计算模型如何设计?
  • 矩阵维度如何传递给乘法运算?

3个问题看似与矩阵的“大”无关,但实际上,当矩阵规模巨大时,我们就不太可能像对待小规模矩阵一样将整个矩阵读入内存、从而在一个job中就判断出其维
度,而是需要分开成为两个job,第一个job专注于计算矩阵维度并存入全局变量,传递给第二个job做乘法运算。MapReduce中全局变量的传递,
可以专门写一篇长文来讨论,本文中我们假定矩阵维度已知,并在代码中写死,从而先着眼于解决前两个问题。

数据准备

为了方便说明,举两个矩阵作为示例:
容易看出,是一个矩阵,是一个矩阵,我们能够算出:
这三个矩阵当然不大,但作为示例,它们将暂时享受大矩阵的待遇。

存储方式

理论上,在一个文件中存储4000万*4000万的矩阵当然是可以的,但非常失之优雅,因为这意味着在一条记录中挤下4000万个变量的值。

们注意到,根据海量数据构造的矩阵,往往是极其稀疏的。比如4000万*4000万的相似度矩阵,一般来说,如果平均每个用户和1万个用户具有大于零的相
似度,常识告诉我们,这样的关系网络已经非常密集了(实际网络不会这样密集,看看自己的微博,被你关注的、评论过的、转发过的对象,会达到1万个吗?);
但对于4000万维度的矩阵,它却依然是极度稀疏的。
因此,我们可以采用稀疏矩阵的存储方式,只存储那些非零的数值。具体而言,存储矩阵的文件每一条记录的结构如下:
其中,第一个字段为行标签,第二个字段为列标签,第三个字段值为
比如矩阵在HDFS中存储为
1     1     1
1     2     2
1     3     3
2     1     4
2     2     5
3     1     7
3     2     8
3     3     9
4     1     10
4     2     11
4     3     12
矩阵存储为
1     1     10
1     2     15
2     2     2
3     1     11
3     2     9
注意到,这样的值不会在文件中存储。

计算模型

回顾一下矩阵乘法。
,那么
矩阵乘法要求左矩阵的列数与右矩阵的行数相等,的矩阵,与的矩阵相乘,结果为的矩阵
现在我们来分析一下,哪些操作是相互独立的(从而可以进行分布式计算)。很显然,的计算和的计算是互不干扰的;事实上,中各个元素的计算都是相互独立的。这样,我们在Map阶段,可以把计算所需要的元素都集中到同一个key中,然后,在Reduce阶段就可以从中解析出各个元素来计算的其他元素的计算同理。
我们还需要注意,会被……的计算所使用,会被……的计算所使用。也就是说,在Map阶段,当我们从HDFS取出一行记录时,如果该记录是的元素,则需要存储成个<key,
value>对,并且这个key互不相同;如果该记录是的元素,则需要存储成个<key, value>对,同样的,个key也应互不相同;但同时,用于计算的、存放…………的<key,
value>对的key应该都是相同的,这样才能被传递到同一个Reduce中。
经过以上分析,整个计算过程设计为:
(1)在Map阶段,把来自表的元素,标识成条<key,
value>的形式。其中;把来自表的元素,标识成条<key,
value>形式,其中
于是乎,在Map阶段,我们实现了这样的战术目的:通过key,我们把参与计算的数据归为一类。通过value,我们能区分元素是来自还是,以及具体的位置。
(2)在Shuffle阶段,相同key的value会被加入到同一个列表中,形成<key, list(value)>对,传递给Reduce,这个由Hadoop自动完成。
(3)在Reduce阶段,有两个问题需要自己问问:
  • 当前的<key, list(value)>对是为了计算的哪个元素?
  • list中的每个value是来自表或表的哪个位置?
第一个问题可以从key中获知,因为我们在Map阶段已经将key构造为形式。第二个问题,也可以在value中直接读出,因为我们也在Map阶段做了标志。
接下来我们所要做的,就是把list(value)解析出来,来自的元素,单独放在一个数组中,来自的元素,放在另一个数组中,然后,我们计算两个数组(各自看成一个向量)的点积,即可算出的值。
示例矩阵相乘的计算过程如下图所示:
 
     import java.io.IOException;
import java.util.HashMap;
import java.util.Iterator;
import java.util.StringTokenizer; import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.io.Writable;
import org.apache.hadoop.io.WritableComparable;
import org.apache.hadoop.mapred.FileSplit;
import org.apache.hadoop.mapred.JobConf;
import org.apache.hadoop.mapred.MapReduceBase;
import org.apache.hadoop.mapred.Mapper;
import org.apache.hadoop.mapred.OutputCollector;
import org.apache.hadoop.mapred.RecordWriter;
import org.apache.hadoop.mapred.Reducer;
import org.apache.hadoop.mapred.Reporter;
import org.apache.hadoop.mapred.TextOutputFormat;
import org.apache.hadoop.mapred.lib.MultipleOutputFormat;
import org.apache.hadoop.util.Progressable; public class Bigmmult {
public static final String CONTROL_I = "\u0009";
public static final int MATRIX_I = 4;
public static final int MATRIX_J = 3;
public static final int MATRIX_K = 2; public static String makeKey(String[] tokens, String separator) {
StringBuffer sb = new StringBuffer();
boolean isFirst = true;
for (String token : tokens) {
if (isFirst)
isFirst = false;
else
sb.append(separator);
sb.append(token);
}
return sb.toString();
} public static class MapClass extends MapReduceBase implements
Mapper<LongWritable, Text, Text, Text> {
public static HashMap<String , Double> features = new HashMap<String, Double>(); public void configure(JobConf job) {
super.configure(job);
} public void map(LongWritable key, Text value, OutputCollector<Text, Text> output,
Reporter reporter) throws IOException, ClassCastException {
// 获取输入文件的全路径和名称
String pathName = ((FileSplit)reporter.getInputSplit()).getPath().toString(); if (pathName.contains("m_ys_lab_bigmmult_a")) {
String line = value.toString(); if (line == null || line.equals("")) return;
String[] values = line.split(CONTROL_I); if (values.length < 3) return; String rowindex = values[0];
String colindex = values[1];
String elevalue = values[2]; for (int i = 1; i <= MATRIX_K; i ++) {
output.collect(new Text(rowindex + CONTROL_I + i), new Text("a#"+colindex+"#"+elevalue));
}
} if (pathName.contains("m_ys_lab_bigmmult_b")) {
String line = value.toString();
if (line == null || line.equals("")) return;
String[] values = line.split(CONTROL_I); if (values.length < 3) return; String rowindex = values[0];
String colindex = values[1];
String elevalue = values[2]; for (int i = 1; i <= MATRIX_I; i ++) {
output.collect(new Text(i + CONTROL_I + colindex), new Text("b#"+rowindex+"#"+elevalue));
}
}
}
} public static class Reduce extends MapReduceBase
implements Reducer<Text, Text, Text, Text> {
public void reduce(Text key, Iterator<Text> values,
OutputCollector<Text, Text> output, Reporter reporter)
throws IOException { int[] valA = new int[MATRIX_J];
int[] valB = new int[MATRIX_J]; int i;
for (i = 0; i < MATRIX_J; i ++) {
valA[i] = 0;
valB[i] = 0;
} while (values.hasNext()) {
String value = values.next().toString();
if (value.startsWith("a#")) {
StringTokenizer token = new StringTokenizer(value, "#");
String[] temp = new String[3];
int k = 0;
while(token.hasMoreTokens()) {
temp[k] = token.nextToken();
k++;
} valA[Integer.parseInt(temp[1])-1] = Integer.parseInt(temp[2]);
} else if (value.startsWith("b#")) {
StringTokenizer token = new StringTokenizer(value, "#");
String[] temp = new String[3];
int k = 0;
while(token.hasMoreTokens()) {
temp[k] = token.nextToken();
k++;
} valB[Integer.parseInt(temp[1])-1] = Integer.parseInt(temp[2]);
}
} int result = 0;
for (i = 0; i < MATRIX_J; i ++) {
result += valA[i] * valB[i];
} output.collect(key, new Text(Integer.toString(result)));
}
}
}

参考资料

MapReduce实现大矩阵乘法的更多相关文章

  1. Hadoop下大矩阵乘法Version2

    1)使用本方法计算F*B,其中F是1000*1000的矩阵,B是1000*20000的矩阵,使用三个节点的集群,每个节点一个CPU核(集群装在虚拟机里,宿主机只有4个CPU核),每个节点配置一个map ...

  2. MapReduce实现矩阵乘法

    简单回想一下矩阵乘法: 矩阵乘法要求左矩阵的列数与右矩阵的行数相等.m×n的矩阵A,与n×p的矩阵B相乘,结果为m×p的矩阵C.具体内容能够查看:矩阵乘法. 为了方便描写叙述,先进行如果: 矩阵A的行 ...

  3. 矩阵乘法的MapReduce实现

    对于任意矩阵M和N,若矩阵M的列数等于矩阵N的行数,则记M和N的乘积为P=M*N,其中mik 记做矩阵M的第i行和第k列,nkj记做矩阵N的第k行和第j列,则矩阵P中,第i行第j列的元素可表示为公式( ...

  4. 【甘道夫】MapReduce实现矩阵乘法--实现代码

    之前写了一篇分析MapReduce实现矩阵乘法算法的文章: [甘道夫]Mapreduce实现矩阵乘法的算法思路 为了让大家更直观的了解程序运行,今天编写了实现代码供大家參考. 编程环境: java v ...

  5. THUSCH 2017 大魔法师(矩阵乘法+线段树)

    题意 https://loj.ac/problem/2980 思路 区间修改考虑用线段树维护.由于一段区间的 \(A,B,C\) 可以表示成由原来的 \(A,B,C\) 乘上带上系数再加上某一个某个常 ...

  6. *HDU2254 矩阵乘法

    奥运 Time Limit: 1000/1000 MS (Java/Others)    Memory Limit: 65536/65536 K (Java/Others)Total Submissi ...

  7. *HDU 1757 矩阵乘法

    A Simple Math Problem Time Limit: 3000/1000 MS (Java/Others)    Memory Limit: 32768/32768 K (Java/Ot ...

  8. CH Round #30 摆花[矩阵乘法]

    摆花 CH Round #30 - 清明欢乐赛 背景及描述 艺术馆门前将摆出许多花,一共有n个位置排成一排,每个位置可以摆花也可以不摆花.有些花如果摆在相邻的位置(隔着一个空的位置不算相邻),就不好看 ...

  9. POJ3070 Fibonacci[矩阵乘法]

    Fibonacci Time Limit: 1000MS   Memory Limit: 65536K Total Submissions: 13677   Accepted: 9697 Descri ...

随机推荐

  1. 在Android工程中加入AIDL文件时,gen目录生成的文件报错-问题解决

    from://http://blog.csdn.net/watt520/article/details/10099047 今天在弄清除缓存的东东,按照网上别人的方法,创建了一个AIDL文件,这个时候发 ...

  2. 技术人生:Knowing when or where it’s appropriate to use a technique or tool is just as important as knowing how to use it.

    Knowing when or where it’s appropriate to use a technique or tool is just as important as knowing ho ...

  3. Linux学习15-CentOS安装mysql5.6环境

    前言 在linux上安装mysql5.6版本,并远程连接mysql数据库操作 安装mysql mysql的安装可以用yum安装更方便 [root@yoyo ~]# cd /usr/local/ [ro ...

  4. IP视频通信中的"丢包恢复技术”(LPR)

    转自:http://blog.csdn.net/blade2001/article/details/9094709 在IP视频通话中,即使是在丢包率很小的情况下也会对使用效果造成较为明显的影响.正是由 ...

  5. Base64 JAVA后台编码与JS前台解码(解决中文乱码问题)

    中文通过Java后台进行Base64编码后传到前台,通过JS进行Base64解码时会出现中文乱码的问题,被这个问题也是困扰了几天,使用jquery.base64.js只能转码非中文字符,经过搜集各种方 ...

  6. SharePoint 压缩打包文件代码分享

    前言 最近碰到这样一个需求,用户需要批量打包下载sharepoint文档库中的文档,所以,就需要开发一个打包下载的服务. 然后,把打包的代码分享给大家,也许会有需要的人. static void Ma ...

  7. Swift - 从字典(或者Alamofire)直接创建Model文件的工具

    Swift - 从字典(或者Alamofire)直接创建Model文件的工具 效果 1. 常规生成model的方式 2. 通过debug创建model的方式 特性 1. 可以处理JSON格式的字典数据 ...

  8. Redis Nosql数据库

              Redis是一个key-value存储系统.和Memcached类似.可是攻克了断电后数据全然丢失的情况.并且她支持很多其它无化的value类型.除了和string外,还支持lis ...

  9. NameError: name 'reduce' is not defined

    听说了大名鼎鼎的 reduce 函数,可以是执行的时候却显示这个. In [1]: reduce(lambda x, y: x+y, [1, 2, 3, 4, 5]) ---------------- ...

  10. C#零基础入门04:打老鼠初级之枚举、重构、事件处理器

    一:为界面加入"开始"."暂停"."停止" 经过上节课程我们的交互的过程,我们的程序增加了用户友好度,同时也可以记录更为详尽的成绩了.但是我 ...