并行归并排序——MPI
并行归并排序在程序开始时,会将n/comm_comm个键值分配给每个进程,程序结束时,所有的键值会按顺序存储在进程0中。为了做到这点,它使用了树形结构通信模式。当进程接收到另一个进程的键值时,它将该键值合并进自己排序的键值列表中。编写一个程序实现归并排序。进程0应该读入n的值,将其广播给其余进程。每个进程需要使用随机数生成器来创建n/comm_sz的局部int型数据列表。每个进程先排序各自的局部列表,然后进程0收集并打印这些局部列表。然后,这些进程使用树形结构通信合并全局列表给进程0,并打印最终结果。
如图,一般情况下,应由进程读入数据,然后一层一层的传到每个进程,每个进程排序完成之后,由上一层的进程进行合并。我这次做的只是输入数n,由每个进程产生n/comm_sz个随机数。
这里有一个问题,如何确定一个进程的父节点和子节点?
你最初可能认为让在处理树中的每个节点是一个单独的进程中。这样,你可以简单地从二叉堆借用一个想法任何父节点的左子节点的下标2* K+1,右子节点的下标是2* K+2,一个节点的父节点是(K-1 )/ 2,这在一个完全二叉树中确定了父子关系。因此,一个内部节点将数据分成两半,并发送给每个子进程进行处理。这样叶节点,只是做了排序,内部节点等待然后从两个子节点接收回数据,执行两半的合并,以及(对于所有内部节点但非根节点本身)将结果发送到父节点。
#include <stdio.h> void communicate ( int myHeight, int myRank )
{ int parent = myRank & ~(<<myHeight); if ( myHeight > )
{ int nxt = myHeight - ;
int rtChild = myRank | ( << nxt ); printf ("%d sending data to %d\n", myRank, rtChild);
communicate ( nxt, myRank );
communicate ( nxt, rtChild );
printf ("%d getting data from %d\n", myRank, rtChild);
}
if ( parent != myRank )
printf ("%d transmitting to %d\n", myRank, parent);
} int main ( void )
{ int myHeight = , myRank = ; printf ("Building a height %d tree\n", myHeight);
communicate(myHeight, myRank);
return ;
}
下面是输出结果
Building a height 3 tree
0 sending data to 4
0 sending data to 2
0 sending data to 1
1 transmitting to 0
0 getting data from 1
2 sending data to 3
3 transmitting to 2
2 getting data from 3
2 transmitting to 0
0 getting data from 2
4 sending data to 6
4 sending data to 5
5 transmitting to 4
4 getting data from 5
6 sending data to 7
7 transmitting to 6
6 getting data from 7
6 transmitting to 4
4 getting data from 6
4 transmitting to 0
0 getting data from 4
了解了通信结构之后,下面是mpi_merge_sort.c文件,利用MPI写的归并排序,
#include<stdlib.h>
#include<stdio.h>
#include<time.h>
#include<math.h>
#include<string.h>
#include<mpi.h>
//读取输入的要排序的数的个数,并计算每个进程需要排序的个数
void read_n(int* n,int my_rank,MPI_Comm comm,int comm_sz,int* size);
//根据节点在通信树中的最高度为数组分配空间
void allocate_arrays(int** left,int** right,int** merge,int size,int height,int* myHeight,int my_rank);
//在left数组中生成size个随机数
void randnum(int* left,int size,int my_rank);
//以下三个函数时用于在通信树的叶节点对生成在left中的size个随机数进行快速排序
void swap(int *a,int *b);
int partition(int left[],int lo,int hi);
void QuickSort(int left[], int lo, int hi);
//父节点将接收子节点的数据与自己节点的数据进行归并
void merge_sort(int* left,int* right,int* merge,int size);
//控制通信,确定从哪个子节点中接收数据或向哪个父节点发送数据
void communicate ( int Height, int my_rank,int size,int* right,int* left,int* merge,MPI_Comm comm); int main(int argc,char* argv[]){
int n,comm_sz,my_rank;
int* left;
int* right;
int* merge;
int size;
int myHeight=;
MPI_Comm comm;
int height=; MPI_Init(NULL,NULL);
comm=MPI_COMM_WORLD;
MPI_Comm_size(comm,&comm_sz);
MPI_Comm_rank(comm,&my_rank);
read_n(&n,my_rank,comm,comm_sz,&size);
int tt=comm_sz;
for(int i=;i<comm_sz;i++){
tt=tt/;
if(tt==)
break;
height++;
}
allocate_arrays(&left,&right,&merge,size,height,&myHeight,my_rank);
randnum(left,size,my_rank);
QuickSort(left,,size-); communicate(height,my_rank,size,right,left,merge,comm);
if(my_rank==){
if(height%!=)
for(int i=;i<n;i++)
printf("%d ",merge[i]);
else
for(int i=;i<n;i++)
printf("%d ",left[i]);
printf("\n");
}
MPI_Finalize();
free(left);
free(right);
free(merge); }
void read_n(int* n,int my_rank,MPI_Comm comm,int comm_sz,int* size){
if(my_rank==){
printf("please intput the number of number\n");
scanf("%d",n);
}
MPI_Bcast (n,,MPI_INT,,comm);
*size=*n/comm_sz;
}
void allocate_arrays(int** left,int** right,int** merge,int size,int height,int* myHeight,int my_rank){
for(int i=;i<height;i++){
int parent=my_rank&~(<<i);
if(parent!=my_rank)
break;
(*myHeight)++;
}
*left=malloc((<<(*myHeight))*size*sizeof(int)); *right=malloc((<<(*myHeight-))*size*sizeof(int));
*merge=malloc((<<(*myHeight))*size*sizeof(int)); }
void randnum(int* left,int size,int my_rank){
srand(my_rank);
for(int i=;i<size;i++)
left[i]=rand();
}
void swap(int *a,int *b)
{
int temp=*a;
*a=*b;
*b=temp;
}
int partition(int* left,int lo,int hi)
{
int key=left[hi];
int i=lo-;
for(int j=lo;j<hi;j++)
{
if(left[j]<=key)
{
i=i+;
swap(&left[i],&left[j]);
}
}
swap(&left[i+],&left[hi]);
return i+;
}
void QuickSort(int *left, int lo, int hi)
{
if (lo<hi)
{
int k = partition(left, lo, hi);
QuickSort(left, lo, k-);
QuickSort(left, k+, hi);
}
}
void merge_sort(int* left,int* right,int* merge,int size){ int lp=,rp=,mp=;
for(int i=;i<*size;i++){
if(left[lp]<=right[rp]){
merge[mp]=left[lp];
lp++;
mp++;
}else{
merge[mp]=right[rp];
rp++;
mp++;
}
if(lp==size||rp==size)
break;
}
if(lp==size){
memcpy(&merge[mp],&right[rp],(size-rp)*sizeof(int));
}else{
memcpy(&merge[mp],&left[lp],(size-lp)*sizeof(int));
}
}
void communicate ( int Height, int my_rank,int size,int* right,int* left,int* merge,MPI_Comm comm)
{
for(int i=;i<=Height;i++){
int parent=my_rank&~(<<i);
if(parent==my_rank){
int rtChild=my_rank|(<<i); MPI_Recv(right,size,MPI_INT,rtChild,,comm,MPI_STATUS_IGNORE); merge_sort(left,right,merge,size); int* temp;
temp=left;
left=merge;
merge=temp;
size*=; }else{
MPI_Send(left,size,MPI_INT,parent,,comm);
break; }
} }
使用 mpicc -g -Wall -std=c99 -o mpi_merge_sort mpi_merge_sort.c 进行编译
使用 mpirun -n ./mpi_merge_sort
注意输入的进程个数一定是2的整数次幂,且输入的要排序数的个数要能整除进程个数
下面是一次的运行结果:
please intput the number of number
12
190686788 483147985 844158168 846930886 846930886 1205554746 1505335290 1681692777 1681692777 1738766719 1804289383 1804289383
参考资料:http://penguin.ewu.edu/~trolfe/ParallelMerge/ParallelMerge.html
并行归并排序——MPI的更多相关文章
- 疯狂的Java算法——插入排序,归并排序以及并行归并排序
从古至今的难题 在IT届有一道百算不厌其烦的题,俗称排序.不管是你参加BAT等高端笔试,亦或是藏匿于街头小巷的草根笔试,都会经常见到这样一道百年难得一解的问题. 今天LZ有幸与各位分享一下算法届的草根 ...
- 典型分布式系统分析:Bigtable
本文是典型分布式系统分析的第三篇,分析的是Bigtable,一个结构化的分布式存储系统. Bigtable作为一个分布式存储系统,和其他分布式系统一样,需要保证可扩展.高可用与高性能.与此同时,Big ...
- [Distributed ML] Yi WANG's talk
王益,分布式机器学习的践行者,他的足迹值得后来者学习. 膜拜策略: LinkedIn高级分析师王益:大数据时代的理想主义和现实主义(图灵访谈)[心路历程] 分布式机器学习的故事-王益[历史由来] 分布 ...
- C++程序中调用MPI并行的批处理命令
问题来源:在使用MPI时,将程序并行实现了,运行时需要在dos窗口下输入批处理命令,以完成程序的执行. 如:mpiexec -localroot -n 6 d:/mpi/pro.exe 但每次这样挺麻 ...
- 【MPI学习7】MPI并行程序设计模式:MPI的进程组和通信域
基于都志辉老师MPI编程书中的第15章内容. 通信域是MPI的重要概念:MPI的通信在通信域的控制和维护下进行 → 所有MPI通信任务都直接或间接用到通信域这一参数 → 对通信域的重组和划分可以方便实 ...
- 【MPI学习6】MPI并行程序设计模式:具有不连续数据发送的MPI程序设计
基于都志辉老师<MPI并行程序设计模式>第14章内容. 前面接触到的MPI发送的数据类型都是连续型的数据.非连续类型的数据,MPI也可以发送,但是需要预先处理,大概有两类方法: (1)用户 ...
- 【MPI学习4】MPI并行程序设计模式:非阻塞通信MPI程序设计
这一章讲了MPI非阻塞通信的原理和一些函数接口,最后再用非阻塞通信方式实现Jacobi迭代,记录学习中的一些知识. (1)阻塞通信与非阻塞通信 阻塞通信调用时,整个程序只能执行通信相关的内容,而无法执 ...
- 【MPI学习2】MPI并行程序设计模式:对等模式 & 主从模式
这里的内容主要是都志辉老师<高性能计算之并行编程技术——MPI并行程序设计> 书上有一些代码是FORTAN的,我在学习的过程中,将其都转换成C的代码,便于统一记录. 这章内容分为两个部分: ...
- 《并行程序设计导论》——MPI(Microsoft MPI)(1):Hello
=================================版权声明================================= 版权声明:原创文章 禁止转载 请通过右侧公告中的“联系邮 ...
随机推荐
- Ubuntu 16.04出现:dpkg: 处理软件包 xxx (--configure)时出错:
如下所示: 解决方法: #将info文件夹更名 sudo mv /var/lib/dpkg/info /var/lib/dpkg/info_old #再新建一个新的info文件夹 sudo mkdir ...
- Apache压力(并发)测试工具ab的使用教程收集
说明:用ab的好处,在处理多并发的情况下不用自己写线程模拟.其实这个世界除了LoadRunner之外还是有很多方案可以选择的. 官网: http://httpd.apache.org/(Apache服 ...
- 监控SQL Server正在执行的SQL语句和死锁情况
原文:监控SQL Server正在执行的SQL语句和死锁情况 SELECT [Individual Query] = SUBSTRING(qt.TEXT, er.statement_start_off ...
- Ubuntu 16.04 -- 同时配置Nginx(转发)和frp(内网映射)和HTTPS(ca加密) - 端口转发
Ubuntu16.04下: sudo apt -get nginx 用这条命令安装完nginx之后, nginx在该目录下: 然后配置nginx: 如下: 红圈圈住的地方多写几个可以做负载均衡. 端口 ...
- 谈谈 ES7、ES8、ES9 和 Stage 3 的那些事儿
ES6 作为多年来 JavaScript 的重大版本变革,受到 JavaScript 开发者们的普遍欢迎. 也正是从 ES6 (ES2015) 开始,JavaScript 版本发布变为年更,即每年发布 ...
- ncurses简单的一个多窗体程序
#include <ncurses.h> #include <string.h> #include <iostream> #include <stdlib.h ...
- UIViewController的生命周期及iOS程序运行顺序
当一个视图控制器被创建,并在屏幕上显示的时候. 代码的运行顺序 1. alloc 创建对象,分配空间 2.init (initWit ...
- leetcode题解:Valid Palindrome(判断回文)
题目: Given a string, determine if it is a palindrome, considering only alphanumeric characters and ig ...
- 基于Android的rgb七彩环颜色采集器
代码地址如下:http://www.demodashi.com/demo/11892.html 一.前言. 在大学期间,看到这个rgb灯,蛮好奇的,这么漂亮的颜色采集,并且可以同步到设备rbg灯颜色, ...
- Git学习小结
版本控制工具 集中式: CVS SVN 集大成者 分布式:git 创始人:inux Towards 2005年 工具 最好使用linux(oh-my-zsh) gitbash -> cygwin ...