欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页

MPI并行程序设计原理--基础知识

程序员文章站 2024-02-26 10:48:34
...

MPI并行程序设计原理–基础知识

前言

消息传递并行程序设计

指用户必须通过显式地发送和接收消息来实现处理机间的数据交换。在这种并行编程中,每个并行进程均有自己独立的地址空间,相互之间访问不能直接进行,必须通过显式的消息传递来实现。
这种编程方式是大规模并行处理机(MPP)和机群( luster)采用的主要编程方式。
并行计算粒度大,特别适合于大规模可扩展并行算法。
由于消息传递程序设计要求用户很好地分解问题,组织不同进程间的数据交换,并行计算粒度大,特别适合于大规模可扩展并行算法。
消息传递是当前并行计算领域的一个非常重要的并行程序。

什么是MPI?

Massage Passing Interface:是消息传递函数库的标准规范,由MPI论坛开发,支持 Fortran和C。
MPI是一种新的库描述,不是一种语言。共有上百个函数调用接口,在 Fortran和C语言中可以直接对这些函数进行调用。
MPI是一种标准或规范的代表,而不是特指某一个对它的具体实现。
MP是一种消息传递编程模型,并成为这种编程模型的代表和事实上的标准。

C中的MPI约定

1.必须包含mpi.h头文件。
2.MPI_ 前缀,只有MPI以及MPI_标志后的第一个字母大写,其余小写。

MPI中基本函数

1.MPI_Init(int *argc,char *argv)
—MPI程序的第一个调用,完成MPI程序的所有初始化工作。所有的MPI的第一条可执行语句都是这个语句。
–  启动MPI环境,标志并行代码的开始。
–  并行代码之前,第一个MPI函数(除MPI_Initialize()外)。
–  main函数必须带参数运行,否则出错。

2.MPI_Finalize(void)
–  MPI程序的最后一个调用,结束MPI程序的运行,是MPI程序的最后一条可执行语句。否则程序的运行结果是不可预知的。
–  标志并行代码的结束,结束除主进程外的其他进程。
–  之后串行代码仍可在主进程(rank=0)上运行。

3.int MPI_Comm_size (MPI_Comm comm ,int* size )
–  获得进程个数 size。
–  指定一个通信子,也指定了一组共享该空间的进程, 这些进程组成该通信子的group(组)。
–  获得通信子comm中规定的group包含的进程的数量。

4.int MPI_Comm_rank (MPI_Comm comm ,int* rank)
–  得到本进程在通信空间中的rank值,即在组中的逻辑编号(该 rank值为0到p-1间的整数,相当于进程的ID。)

5.int MPI_Send( void *buff, int count, MPI_Datatype datatype, int dest, int tag, MPI_Comm comm)
– void *buff:你要发送的变量。
– int count:你发送的消息的个数(注意:不是长度,例如你要发送一个int整数,这里就填写1,如要是发送“hello”字符串,这里就填写6(C语言中字符串未有一个结束符,需要多一位))。
– MPI_Datatype datatype:你要发送的数据类型,这里需要用MPI定义的数据类型,可在网上找到,在此不再罗列。
– int dest:目的地进程号,你要发送给哪个进程,就填写目的进程的进程号。
– int tag:消息标签,接收方需要有相同的消息标签才能接收该消息。
– MPI_Comm comm:通讯域。表示你要向哪个组发送消息。
MPI并行程序设计原理--基础知识
6.int MPI_Recv( void *buff, int count, MPI_Datatype datatype, int source, int tag, MPI_Comm comm, MPI_Status *status)
– void *buff:你接收到的消息要保存到哪个变量里。
– int count:你接收消息的消息的个数(注意:不是长度,例如你要发送一个int整数,这里就填写1,如要是发送“hello”字符串,这里就填写6(C语言中字符串未有一个结束符,需要多一位))。它是接收数据长度的上界. 具体接收到的数据长度可通过调用MPI_Get_count 函数得到。
– MPI_Datatype datatype:你要接收的数据类型,这里需要用MPI定义的数据类型,可在网上找到,在此不再罗列。
– int dest:接收端进程号,你要需要哪个进程接收消息就填写接收进程的进程号。
– int tag:消息标签,需要与发送方的tag值相同的消息标签才能接收该消息。
– MPI_Comm comm:通讯域。
– MPI_Status *status:消息状态。接收函数返回时,将在这个参数指示的变量中存放实际接收消息的状态信息,包括消息的源进程标识,消息标签,包含的数据项个数等。

消息发送与接收函数的参数的一些重要说明。
1.MPI标识一条消息的信息包含四个域:
–  源:发送进程隐式确定,进程rank值唯一标识.
–  目的:Send函数参数确定.
–  Tag:Send函数参数确定.
–  通信子:缺省MPI_COMM_WORLD
•  Group:有限/N,有序/Rank [0,1,2,…N-1]
•  Contex:Super_tag,用于标识该通讯空间.
2. buffer的使用
buffer必须至少可以容纳count个由datatype指明类型的数据. 如果接收buf太小, 将导致溢出、 出错
3. 消息匹配
–  参数匹配source,tag,comm/dest,tag,comm.
–  Source == MPI_ANY_SOURCE: 接收任意处理器来的数据(任意消息来源).
–  Tag == MPI_ANY_TAG: 匹配任意tag值的消息(任意tag消息).
4. 在阻塞式消息传送中不允许Source == dest,否则会导致死锁。
6. 消息传送被限制在同一个通信域内。
7. 在send函数中必须指定唯一的接收者。

MPI程序的编译与执行

需要已经装好MPICH

以Hello.c文件为例
编译:

mpicc -o hello hello.c
--生成可执行文件hello	

执行:

mpirun -np 4 hello
--4 指定np的实参,表示进程数,由用户指定。
相关标签: MPI并行程序