当前位置: 首页 > 面试题库 >

适用于并行进程的Python多处理

宓博实
2023-03-14
问题内容

如果对某些人来说这太简单了,我感到抱歉,但是我仍然不了解python的多处理技巧。我已经阅读了
http://docs.python.org/dev/library/multiprocessing


http://pymotw.com/2/multiprocessing/basics.html
以及Google给我的许多其他教程和示例…其中许多从这里也是。

好吧,我的情况是我必须计算许多numpy矩阵,然后需要将它们存储在单个numpy矩阵中。假设我要使用20个核心(或者我可以使用20个核心),但是由于资源使进程一直存活到“死亡”,因此我没有成功使用池资源。所以我想做这样的事情:

from multiprocessing import Process, Queue  
import numpy as np

def f(q,i):  
     q.put( np.zeros( (4,4) ) )

if __name__ == '__main__':   
     q = Queue()   
     for i in range(30):   
          p = Process(target=f, args=(q,))  
          p.start()  
          p.join()  
     result = q.get()  
     while q.empty() == False:
          result += q.get()  
     print result

但是然后看来这些进程不是并行运行,而是按顺序运行(如果我错了,请纠正我),而且我不知道它们在执行计算后是否会死亡(因此对于20多个进程,尽了自己的本分,让核心可以自由地用于其他过程)。另外,对于一个非常大的数字(比如说100.000),将所有这些矩阵(可能也真的很大)存储在队列中将占用大量内存,使代码无用,因为这种想法是将每个结果都放在每次迭代中在最终结果中,就像使用锁(及其锁(及其Acquisition()和release()方法))一样,但是如果此代码不用于并行处理,则锁也无济于事…

我希望有人可以帮助我。

提前致谢!


问题答案:

您是正确的,它们在您的示例中按顺序执行。

p.join()导致当前线程阻塞,直到完成执行。您可能想在for循环之外单独加入您的进程(例如,通过将它们存储在列表中,然后对其进行迭代),或使用类似numpy.Poolapply_async的回调函数。这样一来,您也可以直接将其添加到结果中,而无需保留对象。

例如:

def f(i):  
    return i*np.identity(4)

if __name__ == '__main__':
    p=Pool(5)
    result = np.zeros((4,4))
    def adder(value):
        global result
        result += value

    for i in range(30):
        p.apply_async(f, args=(i,), callback=adder)
    p.close()
    p.join()
    print result

最后关闭并再加入池可确保池的进程已完成,并且result对象的计算已完成。您也可以调查将其Pool.imap用作解决问题的方法。该特定解决方案如下所示:

if __name__ == '__main__':
    p=Pool(5)
    result = np.zeros((4,4))

    im = p.imap_unordered(f, range(30), chunksize=5)

    for x in im:
        result += x

    print result

这对于您的特定情况比较干净,但对于最终尝试执行的操作可能不是这样。

至于存储所有变化的结果,如果我理解您的问题,您可以将其添加到回调方法(如上)中或使用imap/
imap_unordered(同时存储结果,但每次一次)添加到结果中您会在构建时清除它)。这样一来,存储时间就不会超过添加到结果中所需的时间。



 类似资料:
  • 我还有一个关于Python多处理的问题。我有一个模块,它创建了一个进程,并在while-True循环中运行。此模块将从另一个Python模块启用/禁用。另一个模块将导入第一个模块一次,并作为进程运行。 我该如何更好地实现这一点? 因此,作为参考: 想象第二个模块是这样的: 不断地运行一个流程来检查循环中的条件似乎是一种浪费,但我很乐意接受这样的解决方案,它只允许我从外部设置值。理想情况下,我希望能

  • 问题内容: 因此,我敲了一些测试代码,以了解与线程相比,多处理模块如何在cpu绑定工作上扩展。在linux上,我获得了预期的性能提升: 我的双核Macbook Pro表现出相同的行为: 然后,我在Windows机器上进行了尝试,并得到了非常不同的结果。 为什么哦,为什么在Windows上多处理方法这么慢? 这是测试代码: 问题答案: 在UNIX变体下,过程轻巧得多。Windows进程很繁琐,需要花

  • 问题内容: 我想同时运行许多进程并能够随时输出stdout。我该怎么办?我需要为每个调用运行线程吗? 问题答案: 您可以在一个线程中完成。 假设您有一个脚本可以随机打印行: 而且您想在输出可用后立即收集它,您可以按照@zigg的建议在POSIX系统上 使用: 更具可移植性的解决方案(应在Windows,Linux,OSX上运行)可以为每个进程使用读取器线程,请参阅python中的对子进程的非阻塞读

  • 本文向大家介绍python多进程并行代码实例,包括了python多进程并行代码实例的使用技巧和注意事项,需要的朋友参考一下 这篇文章主要介绍了python多进程并行代码实例,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下 代码: 效果图【未加锁,会发现数字1没出现,进程间资源抢夺导致】: 优化之后效果: 代码: 以上就是本文的全部内容,希望对大家的

  • 问题内容: 我正在学习如何使用Python多处理库。但是,当我浏览一些示例时,最终我在后台运行了许多python进程。 其中的例子看起来象下面这样: 现在,这是我的“ TOP”命令的屏幕截图: 我不知道如何一口气杀死他们。 ps … | grep python ....杀死吗? 我需要添加哪种python代码,以避免再次发生这种悲惨的情况。谢谢! 问题答案: 您需要在工作队列中处理您的进程,该进程

  • 我有一个C程序,通过响应信号来运行。一些信号导致父级分叉。这允许在父级继续响应信号的同时进行其他处理。 当父母被发送SIGTERM时,我希望分叉的孩子也收到一个SIGTERM。在父级退出之前,子级完成处理 SIGTERM 并不重要。 但是,使用下面的代码,当我从父代调用< code>kill(0,SIGTERM)时,子代没有收到SIGTERM。从< code>kill联机帮助页来看,似乎所有的孩子