17.2.265. MPI_Neighbor_alltoallv_init
MPI_Neighbor_alltoallv, MPI_Ineighbor_alltoallv, MPI_Neighbor_alltoallv_init — 所有进程向邻居发送不同数量的数据,并从所有邻居接收不同数量的数据
17.2.265.1. 语法
17.2.265.1.1. C语法
#include <mpi.h>
int MPI_Neighbor_alltoallv(const void *sendbuf, const int sendcounts[],
const int sdispls[], MPI_Datatype sendtype,
void *recvbuf, const int recvcounts[],
const int rdispls[], MPI_Datatype recvtype, MPI_Comm comm)
int MPI_Ineighbor_alltoallv(const void *sendbuf, const int sendcounts[],
const int sdispls[], MPI_Datatype sendtype,
void *recvbuf, const int recvcounts[],
const int rdispls[], MPI_Datatype recvtype, MPI_Comm comm,
MPI_Request *request)
int MPI_Neighbor_alltoallv_init(const void *sendbuf, const int sendcounts[],
const int sdispls[], MPI_Datatype sendtype,
void *recvbuf, const int recvcounts[],
const int rdispls[], MPI_Datatype recvtype, MPI_Comm comm,
MPI_Info info, MPI_Request *request)
17.2.265.1.2. Fortran语法
USE MPI
! or the older form: INCLUDE 'mpif.h'
MPI_NEIGHBOR_ALLTOALLV(SENDBUF, SENDCOUNTS, SDISPLS, SENDTYPE,
RECVBUF, RECVCOUNTS, RDISPLS, RECVTYPE, COMM, IERROR)
<type> SENDBUF(*), RECVBUF(*)
INTEGER SENDCOUNTS(*), SDISPLS(*), SENDTYPE
INTEGER RECVCOUNTS(*), RDISPLS(*), RECVTYPE
INTEGER COMM, IERROR
MPI_INEIGHBOR_ALLTOALLV(SENDBUF, SENDCOUNTS, SDISPLS, SENDTYPE,
RECVBUF, RECVCOUNTS, RDISPLS, RECVTYPE, COMM, REQUEST, IERROR)
<type> SENDBUF(*), RECVBUF(*)
INTEGER SENDCOUNTS(*), SDISPLS(*), SENDTYPE
INTEGER RECVCOUNTS(*), RDISPLS(*), RECVTYPE
INTEGER COMM, REQUEST, IERROR
MPI_NEIGHBOR_ALLTOALLV_INIT(SENDBUF, SENDCOUNTS, SDISPLS, SENDTYPE,
RECVBUF, RECVCOUNTS, RDISPLS, RECVTYPE, COMM, INFO, REQUEST, IERROR)
<type> SENDBUF(*), RECVBUF(*)
INTEGER SENDCOUNTS(*), SDISPLS(*), SENDTYPE
INTEGER RECVCOUNTS(*), RDISPLS(*), RECVTYPE
INTEGER COMM, INFO, REQUEST, IERROR
17.2.265.1.3. Fortran 2008 语法
USE mpi_f08
MPI_Neighbor_alltoallv(sendbuf, sendcounts, sdispls, sendtype, recvbuf,
recvcounts, rdispls, recvtype, comm, ierror)
TYPE(*), DIMENSION(..), INTENT(IN) :: sendbuf
TYPE(*), DIMENSION(..) :: recvbuf
INTEGER, INTENT(IN) :: sendcounts(*), sdispls(*), recvcounts(*),
rdispls(*)
TYPE(MPI_Datatype), INTENT(IN) :: sendtype, recvtype
TYPE(MPI_Comm), INTENT(IN) :: comm
INTEGER, OPTIONAL, INTENT(OUT) :: ierror
MPI_Ineighbor_alltoallv(sendbuf, sendcounts, sdispls, sendtype, recvbuf,
recvcounts, rdispls, recvtype, comm, request, ierror)
TYPE(*), DIMENSION(..), INTENT(IN), ASYNCHRONOUS :: sendbuf
TYPE(*), DIMENSION(..), ASYNCHRONOUS :: recvbuf
INTEGER, INTENT(IN), ASYNCHRONOUS :: sendcounts(*), sdispls(*),
recvcounts(*), rdispls(*)
TYPE(MPI_Datatype), INTENT(IN) :: sendtype, recvtype
TYPE(MPI_Comm), INTENT(IN) :: comm
TYPE(MPI_Request), INTENT(OUT) :: request
INTEGER, OPTIONAL, INTENT(OUT) :: ierror
MPI_Neighbor_alltoallv_init(sendbuf, sendcounts, sdispls, sendtype, recvbuf,
recvcounts, rdispls, recvtype, comm, info, request, ierror)
TYPE(*), DIMENSION(..), INTENT(IN), ASYNCHRONOUS :: sendbuf
TYPE(*), DIMENSION(..), ASYNCHRONOUS :: recvbuf
INTEGER, INTENT(IN), ASYNCHRONOUS :: sendcounts(*), sdispls(*),
recvcounts(*), rdispls(*)
TYPE(MPI_Datatype), INTENT(IN) :: sendtype, recvtype
TYPE(MPI_Comm), INTENT(IN) :: comm
TYPE(MPI_Info), INTENT(IN) :: info
TYPE(MPI_Request), INTENT(OUT) :: request
INTEGER, OPTIONAL, INTENT(OUT) :: ierror
17.2.265.2. 输入参数
sendbuf: 发送缓冲区的起始地址。sendcounts: 整型数组,其中第i个条目指定要发送给邻居i的元素数量。sdispls: 整型数组,其中第i个元素指定了向邻居i发送数据的位移量(相对于sendbuf的偏移量,以sendtype为单位)。sendtype: 发送缓冲区元素的数据类型。recvcounts: 整数数组,其中第j个条目指定了从邻居j接收的元素数量。rdispls: 整型数组,其中条目j指定了从邻居j接收的数据应写入的位移(相对于recvbuf的偏移量,以recvtype为单位)。recvtype: 接收缓冲区元素的数据类型。comm: 用于交换数据的通信器。info: 信息(句柄,仅持久化)。
17.2.265.3. 输出参数
recvbuf: 接收缓冲区的地址。request: 请求(句柄,仅限非阻塞模式)。ierror: 仅限Fortran:错误状态。
17.2.265.4. 描述
MPI_Neighbor_alltoallv 是一个通用的集合通信操作,其中所有进程都会向所有邻居发送数据并接收数据。它通过允许用户以向量方式(通过位移量和元素计数)指定发送和接收的数据,为MPI_Neighbor_alltoall增加了灵活性。可以将此例程的操作理解为:每个进程执行2n次(n是通信器comm拓扑结构中的邻居数量)独立的点对点通信。邻居和缓冲区布局由comm的拓扑结构决定。
MPI_Cart_get(comm, maxdims, dims, periods, coords);
for (dim = 0, i = 0 ; dim < dims ; ++dim) {
MPI_Cart_shift(comm, dim, 1, &r0, &r1);
MPI_Isend(sendbuf + sdispls[i] * extent(sendtype),
sendcount, sendtype, r0, ..., comm, ...);
MPI_Irecv(recvbuf + rdispls[i] * extent(recvtype),
recvcount, recvtype, r0, ..., comm, ...);
++i;
MPI_Isend(sendbuf + sdispls[i] * extent(sendtype),
sendcount, sendtype, r1, ..., comm, &req[i]);
MPI_Irecv(recvbuf + rdispls[i] * extent(recvtype),
recvcount, recvtype, r1, ..., comm, ...);
++i;
}
进程j将其本地sendbuf的第k个数据块发送给邻居进程k,后者将该数据存入其本地recvbuf的第j个块中。
当一对进程交换数据时,只要发送方指定的发送数据量(以字节为单位)与接收方预期的接收量相同,双方可以传递不同的元素计数和数据类型参数。
请注意,进程i发送给进程j的数据量可能与它从进程j接收的数据量不同。此外,同一个进程在通信器中发送给不同进程的数据量也可能完全不同。
17.2.265.5. 邻居排序
对于使用MPI_Dist_graph_create创建的分布式图拓扑结构,每个进程中发送和接收缓冲区内的邻居序列分别定义为MPI_Dist_graph_neighbors返回的目标节点和源节点序列。对于使用MPI_Graph_create创建的一般图拓扑结构,发送和接收缓冲区中的邻居顺序定义为MPI_Graph_neighbors返回的邻居序列。需要注意的是,通常应该用分布式图拓扑结构来替代一般图拓扑结构。
对于通过MPI_Cart_create创建的笛卡尔拓扑结构,每个进程中发送和接收缓冲区的邻居顺序由维度顺序定义:首先是负方向的邻居,然后是位移为1的正方向邻居。通信例程中的源和目标数量为2*ndims,其中ndims在MPI_Cart_create中定义。如果某个邻居不存在(例如在非周期性虚拟网格维度的笛卡尔拓扑边界处,即periods[…]==false时),则该邻居被定义为MPI_PROC_NULL。
如果在任何函数中的邻居是MPI_PROC_NULL,那么
该方向的邻域集合通信行为将类似于与MPI_PROC_NULL的点对点
通信。也就是说,缓冲区仍然是邻居序列的一部分,但既不会
进行通信也不会被更新。
17.2.265.6. 备注
对于此操作,sendbuf的MPI_IN_PLACE选项没有实际意义。
计数和位移的指定不应导致任何位置被多次写入。
所有进程上的所有参数都很重要。特别是comm参数,必须在所有进程上描述相同的通信器。
sdispls 和 rdispls 的偏移量分别以 sendtype 和 recvtype 为单位进行计量。请与 MPI_Neighbor_alltoallw 进行对比,后者的偏移量是以字节为单位计量的。
17.2.265.7. 错误
几乎所有MPI例程都会返回一个错误值;C语言例程通过函数返回值返回,Fortran例程则通过最后一个参数返回。
在返回错误值之前,会调用与通信对象(如通信器、窗口、文件)关联的当前MPI错误处理程序。如果MPI调用未关联任何通信对象,则该调用被视为附加到MPI_COMM_SELF,并将调用关联的MPI错误处理程序。当MPI_COMM_SELF未初始化时(即在MPI_Init/MPI_Init_thread之前、MPI_Finalize之后,或仅使用会话模型时),错误会触发初始错误处理程序。初始错误处理程序可通过在使用世界模型时调用MPI_Comm_set_errhandler来修改MPI_COMM_SELF,或通过mpiexec的mpi_initial_errhandler命令行参数,或MPI_Comm_spawn/MPI_Comm_spawn_multiple的info键来设置。如果未设置其他适当的错误处理程序,则MPI I/O函数将调用MPI_ERRORS_RETURN错误处理程序,而其他所有MPI函数将调用MPI_ERRORS_ABORT错误处理程序。
Open MPI 包含三个可使用的预定义错误处理器:
MPI_ERRORS_ARE_FATAL导致程序中止所有连接的MPI进程。MPI_ERRORS_ABORT一个可在通信器、窗口、文件或会话上调用的错误处理程序。当在通信器上调用时,其行为类似于在该通信器上调用MPI_Abort。如果在窗口或文件上调用,则行为类似于在包含对应窗口或文件中进程组的通信器上调用MPI_Abort。如果在会话上调用,则仅中止本地进程。MPI_ERRORS_RETURN向应用程序返回一个错误代码。
MPI应用程序也可以通过调用以下方式实现自己的错误处理程序:
请注意,MPI不保证MPI程序在出现错误后能够继续运行。
有关更多信息,请参阅MPI-3.1标准中的错误处理部分。