腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(8463)
视频
沙龙
1
回答
当
节
点数
大于
3时,
MPI
程序
不会
执行
、
、
、
设置节
点数
为3,
当
执行
以下命令时
程序
将正常运行: [changmx@gpu02 mpiTest]$ mpiexec -n 4 -host gpu02,gpu03,gpu04 helloworld [gpu04Process 3 of 4 on gpu05 但是
当
节
点数
为4时,
程序
既
不会
执行
也
不会
退出,除非我键入Ctrl C退出: [changmx@gpu02 mpiTest]$ mpiexec -n 4 -(&
浏览 29
提问于2021-03-25
得票数 1
1
回答
一些数据传输后的
MPI
_Bcast挂起
、
、
我正在运行在7
节
点集群上
执行
一些大型矩阵转换的应用
程序
。节点通过QDR 40 Gbit Infiniband连接。打开
MPI
1.4.3已安装在系统上。进程数等于所使用的节
点数
。我不得不说,我在
MPI
方面相对较新,但似乎最理想的
执行
方法是使用
MPI
_Bcast。我不完全确定,但我的代码中似乎没有错误。我还运行了许多
浏览 1
提问于2013-07-25
得票数 0
回答已采纳
1
回答
MPI
_Send()和
MPI
_Ssend()有什么区别?
、
、
我知道
MPI
_Send()是一个阻塞调用,它会一直等待,直到可以安全地修改应用
程序
缓冲区以便重用为止。为了使发送调用同步(应该与接收方握手),我们需要使用
MPI
_Ssend()。对于我来说,代码可以很好地调用
MPI
_Send(),但是会无限期地等待
MPI
_Ssend()。可能的原因是什么?最重要的是,我非常确定在使用
MPI
_Send()时,数据是在接收过程中接收到的,所以在使用
MPI
_Ssend()时,这种推断
不会
导致任何有利于等待握手的事情。或者,我
浏览 2
提问于2013-07-11
得票数 22
回答已采纳
1
回答
如何将
MPI
_Reduce转换为
MPI
_Send和
MPI
_Recv?
、
、
我正在开发一个并行处理
程序
,它使用
MPI
_Send()和
MPI
_Recv()而不是
MPI
_Reduce()。我知道
MPI
_Send()需要从每个处理器向根处理器发送一个值,也就是0,而
MPI
_Recv()需要从每个处理器接收所有值。
MPI
_Recv(&n, 1,
MPI
_INT, 0, 0,
MPI
_COM
浏览 2
提问于2021-02-04
得票数 0
3
回答
加速比上界
、
、
、
、
我的
MPI
经验表明,加速比
不会
随着我们使用的节
点数
而线性增加(因为通信成本)。我的经验与此类似: 今天,一位发言者说:“神奇地(微笑),在某些情况下,我们可以得到更多的速度比理想的!”但是在某些情况下,我们可以得到
大于
4的加速比,有4个节点!这一主题与
MPI
有关。 这是真的吗?如果是的话,有人能提供一个简单的例子吗?或者他正在考虑在应用
程序
中添加多线程(他没有时间,然后不得不尽快离开,因此我们无法讨论)?
浏览 5
提问于2015-10-06
得票数 3
回答已采纳
1
回答
为什么
MPI
_Recv在积累了
MPI
_Send调用时会失败
、
、
我有一个
MPI
程序
,在这个
程序
中,工人级别(秩!= 0)进行一串
MPI
_Send调用,而主级别(秩== 0)接收所有这些消息。我像这样运行可
执行
文件:int main(int argc, char* argv[]){ }} 如果我只运行两个进程,
程序
就
不会
崩溃。因此
浏览 0
提问于2016-11-24
得票数 1
回答已采纳
1
回答
不能在一定长度内发送
MPI
消息
、
、
、
、
由于某种原因,试图发送
大于
64 Kb的消息会导致send/recv挂起;然而,我能够使用完全相同的软件和OpenMPI/
mpi
4py包在其他Ubuntu 14系统上成功地发送大型消息。我还能够在使用OpenMPI的C
程序
中成功地发送大型消息。这表明环境中存在一些对
mpi
4py
执行
的
MPI
通信产生不利影响的东西。对于什么会干扰
mpi
4py,有什么想法吗?下面是一个代码的示例,它在一个系统上工作,
当
N设置为65537或更高时挂起另一个系
浏览 1
提问于2015-11-11
得票数 1
回答已采纳
1
回答
MPI
.COMM_WORLD.Gather中的长度是如何在sendcount和recvcount中确定的
、
因此,在我将数据(clusters10 2d数组)转换到其他每个进程之后,然后
当
每个进程计算其新的本地值时,我想将它们发送回进程0。 但有些数据有时会丢失(取决于否)。而且
程序
不会
在数据被正确计算后结束,只有当我使用一个进程结束它,否则它会离开循环,然后打印到终端,然后我有
MPI
.finalize但是什么都没有发生,我有Ctrl+c来终止bat作业,这样我就可以再次使用终端了由于没有任何关于发送2d浮
点数
的文档记录(是的,我需要使用
MPI
.OBJECT,因为java不喜欢浮
点数<
浏览 1
提问于2021-05-11
得票数 0
1
回答
当
mpi
发送和接收被放入循环中时,Mpirun挂起
、
、
、
我试图使用mpirun在一个4
节
点的集群上运行给定的
程序
。
MPI
_Init(&argc,&argv);<em
浏览 1
提问于2014-02-17
得票数 0
2
回答
在消息传递中,
mpi
_send和recv“等待什么”
、
将配置考虑为非缓冲的、阻塞的(同步)
MPI
函数
mpi
_send是否被阻塞,以便
程序
能够继续工作直到消息被发送?类似的混淆,是
mpi
_recv被阻塞了,还是调用它的函数被阻塞了?的另一个原因:
当
进程调用
mpi
_send时,任何其他进程都不能使用
mpi
_s
浏览 4
提问于2010-11-01
得票数 1
回答已采纳
1
回答
malloc对
MPI
_Alloc_mem什么时候使用?
、
、
在编写
MPI
程序
时,我一直在使用malloc分配动态内存,例如:
MPI
_Init(&argc, &argvint arr_size = 10;但是,
浏览 0
提问于2019-03-19
得票数 1
回答已采纳
1
回答
在
MPI
中使用线程(OpenMP)的
MPI
_Bcast
、
、
MPI
标准3.0在第5.13
节
中说 void main(int argc, char *argv[])int required =
MPI
_THREAD_MULTIPLE, provided, rank, size, threadID, threadPro
浏览 0
提问于2013-07-13
得票数 2
回答已采纳
1
回答
当
使用
MPI
_Isend()
MPI
_and Irecv()时,这对应该使用相同的请求吗?如果消息已经是一个数组,应该如何传递它?
2.
当
消息是数组时,应该如何传递它?在这种情况下,message还是&message? 3.为什么我不能在少于或超过8个处理器上运行这段代码?如果级别不退出,难道不应该在不
执行
这段代码的情况下继续吗?5.
当
传递
大于
2^12的数组时,我会得到分段错误,而我检查了Isend()和Irecv()的限制,它们应该处理更长的消息。6.我用长倍记录时间,这是一种常见的做法还是良好的做法?当我使用较小的变量,如浮
点数
或双变量时,我会得到nan。N,
MPI
_FLOAT, 2, 0,
M
浏览 5
提问于2020-11-07
得票数 0
回答已采纳
2
回答
为什么NodeJS是不准确的大数目的加法?
、
、
我在PHP和NodeJS中
执行
了相同的添加。PHP正确计算了多达10亿次迭代,但NodeJS仅正确计算了多达1亿次迭代。<?
浏览 0
提问于2018-01-17
得票数 4
回答已采纳
1
回答
多机
MPI
_Scatter
、
我是
MPI
的新手,我有点困惑..谢谢!
浏览 2
提问于2013-10-30
得票数 0
回答已采纳
2
回答
在
MPI
_CART_CREATE中使用
MPI
_BCAST时遇到问题
、
我在Fortran中使用
MPI
_BCAST遇到了问题。我使用
MPI
_CART_CREATE (比如'COMM_NEW')创建了一个新的通信器。当我使用旧的通信器(即
MPI
_COMM_WORLD)从根目录广播数据时,它工作得很好。.local:15298] *** on communicator
MPI
_COMM_WORLD[compute-4-15.loc
浏览 0
提问于2013-06-22
得票数 1
1
回答
MPI
allReduce迭代
、
、
我在使用
MPI
_allReduce时遇到了一个问题,我必须在每次迭代后更新矩阵R_T,R_T_original,因为矩阵R_T在每个过程中都是相同的,但是矩阵mid_L,mid_B,mid_A对于每个过程都是不同的每个进程都有一行矩阵(A,L,B),变量no zero有3个不同的值(P0-->no zero=2,P1-->nozero=2,P2--> nozero=3),在我的调试输出中,我一直收到结果,直到i=1,
程序
进入索引阶段k++){ mid_L[rows_nz[i]][k] = mid_L[rows_nz[i]][
浏览 3
提问于2020-05-21
得票数 0
2
回答
艾森德和艾森德有什么区别?
需要澄清我对isend和issend的理解,如中给出的 我的理解是,一旦发送缓冲区空闲,即
当
所有数据都被释放时,isend将返回。
浏览 0
提问于2014-02-02
得票数 17
回答已采纳
2
回答
具有异步函数的
MPI
_SENDRCV的等效
、
、
我知道
MPI
_SENDRECV允许克服死锁问题(当我们使用经典的
MPI
_SEND和
MPI
_RECV函数时)。)
MPI
_WAIT(request1)使用异步
MPI
_ISEND和
MPI
_RECV据我所见,
MPI
_ISEND和
MPI
_RECV创建了一个分叉(即两个进程)。因此,如果我遵循这个逻辑
浏览 4
提问于2015-08-18
得票数 1
回答已采纳
1
回答
MPI
for应该是非并行
执行
的,但是他的身体是的
、
、
我的意思是循环应该在一个线程中
执行
,但是他的主体应该并行
执行
。int ID; int source; int tag = 50;
MPI
::Status status;
浏览 1
提问于2013-12-18
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Block-1.5的编译和安装
用MPI进行分布式内存编程(二)
【Python基础】02-控制流
Shell基础教程05 控制语句
C语言编程预备计算机专业知识
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券