腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
调度比MaxArraySize更多
的
任务
假设我要
运行
6233个模拟。这些命令被生成并存储在一个文件中,每一行一个。我想使用
Slurm
来调度和
运行
这些命令。然而,MaxArraySize
的
限制是2000年。因此,我不能使用一个
作业
数组
来调度所有这些任务。 给出了一种解决方案,在中,我们创建四个单独
的
作业
,并在文件中使用算术索引,最后一个
作业
有较少
的
任务要
运行
(233)。是否可以使用一个带有一个
作业
ID
的
S
浏览 9
提问于2022-05-10
得票数 1
回答已采纳
1
回答
slurm
作业
阵列与
作业
步骤绩效
的
差异
、
、
我在
slurm
中
运行
了一组
并行
作业
(大约1000),每个任务都必须分配给一个CPU。每个
Slurm
作业
可以包含多个
作业
步骤,而
Slurm
中用于管理
作业
步骤
的
开销要比单个
作业
低得多。
作业
数组
是管理具有相同资源需求
的
批处理
作业
集合
的
有效机制。大多数
Slurm
命令可以作为单个元素(任务)或单个实体
浏览 4
提问于2019-07-25
得票数 4
回答已采纳
1
回答
SLURM
:
连续
运行
的
并行
数组
作业
、
、
、
、
我想通过提交一个独特
的
作业
,使用
SLURM
对
作业
数组
执行类似的(
并行
)
运行
。当一个任务完成时,我想启动第二次
运行
,它接收第一个任务生成
的
文件。有可能吗?我举了个例子。我想用$
SLURM
_ARRAY_TASK_ID=0,1,2
运行
3个
并行
任务。当单个任务完成时,例如srun ./my_program1.exe 0完成后,我想启动srun ./my_program1
浏览 132
提问于2021-10-11
得票数 0
3
回答
如何在
slurm
作业
(从srun开始)完全完成之前保持脚本?
、
我使用
SLURM
运行
一个
作业
数组
,并使用下面的
作业
数组
脚本(我是用sbatch job_array_script.sh [args]
运行
的
)为了解释,我希望job_
slurm
_script.py作为
数组
作业
浏览 3
提问于2017-09-26
得票数 8
回答已采纳
5
回答
限制
SLURM
中
运行
的
作业
数
、
我在
SLURM
排队做多个工作。我可以限制
slurm
中
并行
运行
作业
的
数量吗? 提前感谢!
浏览 2
提问于2017-03-15
得票数 17
回答已采纳
1
回答
一个输入文件来产生多个输出文件
、
这是一种反向
的
snakemake方法,它
的
主要范式是“一个
作业
->一个输出”,但是我需要在
slurm
作业
提交集群中
的
相同输入矩阵上
并行
地
运行
很多次脚本。我怎样才能做到这一点?我试着指定多个线程、多个节点,每次都指示每个任务一个cpu,但它从不提交多个
作业
的
数组
,只是一个
作业
的
数组
。
浏览 7
提问于2022-02-28
得票数 0
1
回答
如何在DASK中批量调度dask_jobqueue
作业
而不是并发?
根据我对Dask-Jobqueue (https://jobqueue.dask.org/en/latest/)
的
阅读,以及在我们
的
SLURM
集群上
的
测试,似乎当您设置cluster.scale(n)假设您有999个
作业
要
运行
,一个集群有100个节点或插槽;更糟糕
的
是,假设其他人共享该集群,其中一些人可能有长期
运行
的
作业
。管理员有时需要对一些节点进行维护,因此他们会添
浏览 30
提问于2019-05-15
得票数 0
1
回答
在带有
SLURM
的
HPC系统上使用GNU
并行
运行
多个python文件实例和两个输入文件
、
、
、
我试图在一个HPC-系统上
并行
运行
一个python文件240次(因为每个单独
的
文件
运行
大约需要9分钟)。理想情况下,每个python文件都应该
运行
在单个核心上。每个节点有24个核心。当我
运行
以下发布代码时: -j $
SLURM
_NTASKS \\( -name "CN_ONLY*.pdb" -o -name "
浏览 2
提问于2020-05-05
得票数 1
1
回答
slurm
可以
运行
3台独立
的
计算机作为一个“节点”吗?
我是一个实习生,负责在三个
运行
ubuntu
的
计算单元上安装
slurm
。现在
的
工作方式是将ssh放入其中一个计算单元中,并在其中
运行
一个
作业
,因为所有三个单元都通过nfs挂载共享内存。我
的
问题是,从我在文档中看到
的
情况来看,在安装
slurm
时,我会将每个计算单元指定为一个完全独立
的
节点,而我想要
运行
的
任何使用多个核
的
作业
仍然会受到单个节点上可用<e
浏览 0
提问于2020-02-29
得票数 0
回答已采纳
1
回答
有没有办法通过
slurm
在集群上单独使用CPU?
、
我一直在使用一个由200个节点组成
的
集群,每个节点有32个核心,用于模拟随机过程。我必须对同一系统进行大约10000次模拟,所以我在一个节点
的
32个内核中
运行
相同
的
模拟(使用不同
的
RNG种子),直到它完成所有10000次模拟。(每个模拟完全独立于其他模拟) 在这样做
的
过程中,根据种子
的
不同,一些模拟比其他模拟需要更多
的
时间,一段时间后,我通常会分配给我完整
的
节点,但只有一个核心在
运行
(所以我不必要地占用了31个核心)
浏览 20
提问于2020-10-23
得票数 1
1
回答
SLURM
:如何从目录
并行
地为不同
的
$arg
运行
相同
的
python脚本
、
、
、
我必须为大约10,000个对象
运行
一系列python脚本。在我
的
目录中,每一个对象都是用参数来描述
的
。在我
的
计算机上,为了测试脚本,我只使用了一个bash文件,如下所示:
浏览 1
提问于2021-07-27
得票数 1
回答已采纳
1
回答
并行
执行多个
作业
时指定
SLURM
资源
、
、
根据这里
的
答案,用户可以通过What does the --ntasks or -n tasks does in
SLURM
?
的
ntasks参数
并行
运行
多个
作业
,后跟srun。要问一个后续问题-如何指定在以这种方式
并行
运行
作业
时所需
的
内存量?如果3个
作业
并行
运行
,每个
作业
需要8G内存,是在sbatch中指定24G内存(即来自所有
作业</e
浏览 49
提问于2018-12-28
得票数 3
回答已采纳
2
回答
在
SLURM
中在多个目录上
运行
一个脚本
的
首选方法
、
我最典型
的
用例是在多个目录(通常是R或Matlab)上
运行
一个脚本。我可以访问一个高性能
的
计算环境(基于
SLURM
)。从我目前
的
研究来看,我不清楚以下哪种方法是最有效地利用可用CPU/核心
的
方法。方法1: 脚本中
的
并
浏览 1
提问于2018-08-03
得票数 1
回答已采纳
1
回答
kubernetes和
slurm
,这是正确
的
设置吗?
、
、
、
我看到一些人使用Kubernetes和
slurm
共存,我只是好奇为什么你需要kubernetes和
slurm
?kubernetes和
slurm
之间
的
主要区别是什么?
浏览 624
提问于2019-07-31
得票数 5
1
回答
单
slurm
数组
与多个S批处理调用
我可以使用类似于以下
的
N
数组
来
运行
令人尴尬
的
并行
作业
:或者,我认为我可以通过手动启动8个
作业
,从调度
的
角度(即独立调度,一旦资源可用)实现同样
的
目标。例如,使用带有循环
的
简单bash脚本。我是不是遗漏了什么?
浏览 3
提问于2022-06-03
得票数 0
2
回答
监视在
slurm
作业
上
运行
的
OpenFOAM模拟
的
CPU使用情况
、
、
我已经为
slurm
分配了6个节点解算器
运行
平稳,没有任何错误。sacct --job=<jobNumber> --format="UserCPU&q
浏览 1
提问于2018-02-01
得票数 0
3
回答
如何将
作业
提交到
SLURM
节点列表中
的
任意[子集]节点?
、
、
、
我有几千个
作业
要在一个有16个节点
的
SLURM
集群上
运行
。这些
作业
只能在大小为7
的
可用节点
的
子集上
运行
。一些任务是
并行
化
的
,因此使用了单个节点
的
所有CPU能力,而其他任务是单线程
的
。因此,应该在单个节点上同时
运行
多个
作业
。任何任务都不应在多个节点上生成。目前,我提交
的
每个
作业
如下: sbatch --nodel
浏览 1
提问于2014-10-06
得票数 28
回答已采纳
1
回答
能否向
slurm
提交一系列不同
的
工作?
例如,我有一个名为myScript
的
脚本,它处理一个输入文件,还有一个文件名列表。也就是说,我得跑了有关存储在filenames.txt中
的
文件名列表。分发我在
Slurm
中找到
的
作业
的
唯一方法是指定-n参数,该参数重复您
的
命令或批处理脚本。但是请注意,我需要在每次
运行
中传递一个变量参数。在斯隆有可能这样做吗?我目前
的
解决方案是激发许多sbatch脚本,每个脚本都有一个指定<em
浏览 2
提问于2015-02-14
得票数 2
1
回答
Slurm
并行
“步骤”:25个独立
运行
,每个cpu使用一个cpu,最多同时
运行
5个
、
现在,即使在阅读
Slurm
文档之后,我也不知道如何
并行
化.1.
作业
数组
选项#!/myprogram "$input_file&
浏览 9
提问于2022-05-12
得票数 0
1
回答
SLURM
_ARRAY_TASK_ID为空
、
我是
SLURM
和云计算方面的新手。这是bash代码。EF=$((${
SLURM
_ARRAY_TA
浏览 5
提问于2018-10-10
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
PyTorch 并行训练 DistributedDataParallel完整代码示例
其实从底层的运行机制来看是没有二维数组的
召唤超参调优开源新神器:集XGBoost、TensorFlow、PyTorch、MXNet等十大模块于一身
HPC高性能计算知识:HPDA新兴技术分析
Shell 高阶开发实战|无密云盘分享
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券