17.2.297. MPI_Reduce_scatter_block_init

MPI_Reduce_scatter_block, MPI_Ireduce_scatter_block, MPI_Reduce_scatter_block_init — 合并数值并以块形式分散结果。

17.2.297.1. 语法

17.2.297.1.1. C语法

#include <mpi.h>

int MPI_Reduce_scatter_block(const void *sendbuf, void *recvbuf, int recvcount,
     MPI_Datatype datatype, MPI_Op op, MPI_Comm comm)

int MPI_Ireduce_scatter_block(const void *sendbuf, void *recvbuf, int recvcount,
     MPI_Datatype datatype, MPI_Op op, MPI_Comm comm, MPI_Request *request)


int MPI_Reduce_scatter_block_init(const void *sendbuf, void *recvbuf, int recvcount,
     MPI_Datatype datatype, MPI_Op op, MPI_Comm comm, MPI_Info info, MPI_Request *request)

17.2.297.1.2. Fortran语法

USE MPI
! or the older form: INCLUDE 'mpif.h'
MPI_REDUCE_SCATTER_BLOCK(SENDBUF, RECVBUF, RECVCOUNT, DATATYPE, OP,
             COMM, IERROR)
     <type>  SENDBUF(*), RECVBUF(*)
     INTEGER RECVCOUNT, DATATYPE, OP, COMM, IERROR

MPI_IREDUCE_SCATTER_BLOCK(SENDBUF, RECVBUF, RECVCOUNT, DATATYPE, OP,
             COMM, REQUEST, IERROR)
     <type>  SENDBUF(*), RECVBUF(*)
     INTEGER RECVCOUNT, DATATYPE, OP, COMM, REQUEST, IERROR


MPI_REDUCE_SCATTER_BLOCK_INOT(SENDBUF, RECVBUF, RECVCOUNT, DATATYPE, OP,
             COMM, INFO, REQUEST, IERROR)
     <type>  SENDBUF(*), RECVBUF(*)
     INTEGER RECVCOUNT, DATATYPE, OP, COMM, INFO, REQUEST, IERROR

17.2.297.1.3. Fortran 2008 语法

USE mpi_f08
MPI_Ireduce_scatter_block(sendbuf, recvbuf, recvcount, datatype, op, comm,
             ierror)
     TYPE(*), DIMENSION(..), INTENT(IN), ASYNCHRONOUS :: sendbuf
     TYPE(*), DIMENSION(..), ASYNCHRONOUS :: recvbuf
     INTEGER, INTENT(IN) :: recvcount
     TYPE(MPI_Datatype), INTENT(IN) :: datatype
     TYPE(MPI_Op), INTENT(IN) :: op
     TYPE(MPI_Comm), INTENT(IN) :: comm
     INTEGER, OPTIONAL, INTENT(OUT) :: ierror

MPI_Ireduce_scatter_block(sendbuf, recvbuf, recvcount, datatype, op, comm,
             request, ierror)
     TYPE(*), DIMENSION(..), INTENT(IN), ASYNCHRONOUS :: sendbuf
     TYPE(*), DIMENSION(..), ASYNCHRONOUS :: recvbuf
     INTEGER, INTENT(IN) :: recvcount
     TYPE(MPI_Datatype), INTENT(IN) :: datatype
     TYPE(MPI_Op), INTENT(IN) :: op
     TYPE(MPI_Comm), INTENT(IN) :: comm
     TYPE(MPI_Request), INTENT(OUT) :: request
     INTEGER, OPTIONAL, INTENT(OUT) :: ierror

MPI_Reduce_scatter_block_init(sendbuf, recvbuf, recvcount, datatype, op, comm,
             info, request, ierror)
     TYPE(*), DIMENSION(..), INTENT(IN), ASYNCHRONOUS :: sendbuf
     TYPE(*), DIMENSION(..), ASYNCHRONOUS :: recvbuf
     INTEGER, INTENT(IN) :: recvcount
     TYPE(MPI_Datatype), INTENT(IN) :: datatype
     TYPE(MPI_Op), INTENT(IN) :: op
     TYPE(MPI_Comm), INTENT(IN) :: comm
     TYPE(MPI_Info), INTENT(IN) :: info
     TYPE(MPI_Request), INTENT(OUT) :: request
     INTEGER, OPTIONAL, INTENT(OUT) :: ierror

17.2.297.2. 输入参数

  • sendbuf: 发送缓冲区的起始地址(选项)。

  • recvcount: 每个块中的元素数量(非负整数)。

  • datatype: 输入缓冲区元素的数据类型(句柄)。

  • op: 操作(句柄)。

  • comm: 通信器(句柄)。

  • info: 信息(句柄,仅持久化)。

17.2.297.3. 输出参数

  • recvbuf: 接收缓冲区的起始地址(选项)。

  • request: 请求(句柄,仅限非阻塞模式)。

  • ierror: 仅限Fortran:错误状态(整数)。

17.2.297.4. 描述

MPI_Reduce_scatter_block首先对发送缓冲区中由sendbufcountdatatype定义的count = n * recvcount元素向量进行逐元素归约操作,使用操作op,其中n是comm组中的进程数。接着,将结果向量分割成n个不相交的段(n为组内进程数),每段包含recvcount个元素。第i个段会被发送到进程i,并存储到由recvbufrecvcountdatatype定义的接收缓冲区中。

17.2.297.5. 原地选项的使用

当通信器为内部通信器时,您可以原地执行归约-分散操作(输出缓冲区同时用作输入缓冲区)。使用变量MPI_IN_PLACE作为sendbuf的值。在这种情况下,输入数据将从接收缓冲区的顶部获取。输入数据占用的区域可能比输出数据填充的区域更长或更短。

17.2.297.6. 当通信器为跨通信器时

当通信器为跨通信器时,归约-分散操作分两个阶段进行。首先,对第一组进程提供的数据执行归约操作的结果将分散到第二组进程中。然后进行反向操作:对第二组进程提供的数据执行归约操作的结果将分散到第一组进程中。对于每个组,所有进程都提供相同的recvcounts参数,且两组recvcounts值的总和应保持一致。

17.2.297.7. 关于集合操作的注意事项

归约函数(MPI_Op)不会返回错误值。因此,如果这些函数检测到错误,它们只能选择调用MPI_Abort或静默跳过问题。因此,如果您将错误处理程序从MPI_ERRORS_ARE_FATAL更改为其他选项,例如MPI_ERRORS_RETURN,则可能不会指示任何错误。

原因在于确保所有集合例程返回相同错误值时存在的性能问题。

17.2.297.8. 错误

几乎所有MPI例程都会返回一个错误值;C语言例程通过函数返回值返回,Fortran例程则通过最后一个参数返回。

在返回错误值之前,会调用与通信对象(如通信器、窗口、文件)关联的当前MPI错误处理程序。如果MPI调用未关联任何通信对象,则该调用被视为附加到MPI_COMM_SELF,并将调用关联的MPI错误处理程序。当MPI_COMM_SELF未初始化时(即在MPI_Init/MPI_Init_thread之前、MPI_Finalize之后,或仅使用会话模型时),错误会触发初始错误处理程序。初始错误处理程序可通过在使用世界模型时调用MPI_Comm_set_errhandler来修改MPI_COMM_SELF,或通过mpiexec的mpi_initial_errhandler命令行参数,或MPI_Comm_spawn/MPI_Comm_spawn_multiple的info键来设置。如果未设置其他适当的错误处理程序,则MPI I/O函数将调用MPI_ERRORS_RETURN错误处理程序,而其他所有MPI函数将调用MPI_ERRORS_ABORT错误处理程序。

Open MPI 包含三个可使用的预定义错误处理器:

  • MPI_ERRORS_ARE_FATAL 导致程序中止所有连接的MPI进程。

  • MPI_ERRORS_ABORT 一个可在通信器、窗口、文件或会话上调用的错误处理程序。当在通信器上调用时,其行为类似于在该通信器上调用MPI_Abort。如果在窗口或文件上调用,则行为类似于在包含对应窗口或文件中进程组的通信器上调用MPI_Abort。如果在会话上调用,则仅中止本地进程。

  • MPI_ERRORS_RETURN 向应用程序返回一个错误代码。

MPI应用程序也可以通过调用以下方式实现自己的错误处理程序:

请注意,MPI不保证MPI程序在出现错误后能够继续运行。

查看MPI手册页获取完整的MPI错误代码列表。

有关更多信息,请参阅MPI-3.1标准中的错误处理部分。

另请参阅