我有一个Python程序,看起来像这样:for i in range(24):
error = some_function_call(parameters1,有没有一种方法可以在执行并行任务的同时仍然减少执行时间,然后在total_error中添加它们。我尝试使用pool和joblib,但都不能成功使用。
我想在GPU上并行化Python循环,但我不想使用pyCUDA,因为我需要自己做很多事情。我正在寻找像C++中的Python那样的OpenACC来实现简单的并行化,但它似乎没有这样的东西。因此,我认为只需在C++中使用OpenACC,然后系统调用Python脚本,如下面的代码所示。这样行得通吗?或者,有没有不使用pyCUDA的简单替代方案?void foo(float*parameters){
%%system call p
在这个任务中有两个涉及的的python脚本。
当前的任务要求我在GCP实例上的29个可用区域中的每个区域运行一个长进程(每个过程大约需要一两天,这是第一个python脚本)。为了尽可能快地完成任务,在一次分离出29个VM之后,我尝试在每个实例中同时运行每个进程。在不同区域运行 first script的第二个脚本的问题是,在第二个区域的VM中运行完之后,才开始在第二个区域的VM中运行first sc