如果对某些人来说这太简单了,我感到抱歉,但是我仍然不了解python的多处理技巧。我已经阅读了
http://docs.python.org/dev/library/multiprocessing
http://pymotw.com/2/multiprocessing/basics.html
以及Google给我的许多其他教程和示例…其中许多从这里也是。
好吧,我的情况是我必须计算许多numpy矩阵,然后需要将它们存储在单个numpy矩阵中。假设我要使用20个核心(或者我可以使用20个核心),但是由于资源使进程一直存活到“死亡”,因此我没有成功使用池资源。所以我想做这样的事情:
from multiprocessing import Process, Queue
import numpy as np
def f(q,i):
q.put( np.zeros( (4,4) ) )
if __name__ == '__main__':
q = Queue()
for i in range(30):
p = Process(target=f, args=(q,))
p.start()
p.join()
result = q.get()
while q.empty() == False:
result += q.get()
print result
但是然后看来这些进程不是并行运行,而是按顺序运行(如果我错了,请纠正我),而且我不知道它们在执行计算后是否会死亡(因此对于20多个进程,尽了自己的本分,让核心可以自由地用于其他过程)。另外,对于一个非常大的数字(比如说100.000),将所有这些矩阵(可能也真的很大)存储在队列中将占用大量内存,使代码无用,因为这种想法是将每个结果都放在每次迭代中在最终结果中,就像使用锁(及其锁(及其Acquisition()和release()方法))一样,但是如果此代码不用于并行处理,则锁也无济于事…
我希望有人可以帮助我。
提前致谢!
您是正确的,它们在您的示例中按顺序执行。
p.join()
导致当前线程阻塞,直到完成执行。您可能想在for循环之外单独加入您的进程(例如,通过将它们存储在列表中,然后对其进行迭代),或使用类似numpy.Pool
和apply_async
的回调函数。这样一来,您也可以直接将其添加到结果中,而无需保留对象。
例如:
def f(i):
return i*np.identity(4)
if __name__ == '__main__':
p=Pool(5)
result = np.zeros((4,4))
def adder(value):
global result
result += value
for i in range(30):
p.apply_async(f, args=(i,), callback=adder)
p.close()
p.join()
print result
最后关闭并再加入池可确保池的进程已完成,并且result
对象的计算已完成。您也可以调查将其Pool.imap
用作解决问题的方法。该特定解决方案如下所示:
if __name__ == '__main__':
p=Pool(5)
result = np.zeros((4,4))
im = p.imap_unordered(f, range(30), chunksize=5)
for x in im:
result += x
print result
这对于您的特定情况比较干净,但对于最终尝试执行的操作可能不是这样。
至于存储所有变化的结果,如果我理解您的问题,您可以将其添加到回调方法(如上)中或使用imap
/
imap_unordered
(同时存储结果,但每次一次)添加到结果中您会在构建时清除它)。这样一来,存储时间就不会超过添加到结果中所需的时间。
我还有一个关于Python多处理的问题。我有一个模块,它创建了一个进程,并在while-True循环中运行。此模块将从另一个Python模块启用/禁用。另一个模块将导入第一个模块一次,并作为进程运行。 我该如何更好地实现这一点? 因此,作为参考: 想象第二个模块是这样的: 不断地运行一个流程来检查循环中的条件似乎是一种浪费,但我很乐意接受这样的解决方案,它只允许我从外部设置值。理想情况下,我希望能
问题内容: 因此,我敲了一些测试代码,以了解与线程相比,多处理模块如何在cpu绑定工作上扩展。在linux上,我获得了预期的性能提升: 我的双核Macbook Pro表现出相同的行为: 然后,我在Windows机器上进行了尝试,并得到了非常不同的结果。 为什么哦,为什么在Windows上多处理方法这么慢? 这是测试代码: 问题答案: 在UNIX变体下,过程轻巧得多。Windows进程很繁琐,需要花
问题内容: 我想同时运行许多进程并能够随时输出stdout。我该怎么办?我需要为每个调用运行线程吗? 问题答案: 您可以在一个线程中完成。 假设您有一个脚本可以随机打印行: 而且您想在输出可用后立即收集它,您可以按照@zigg的建议在POSIX系统上 使用: 更具可移植性的解决方案(应在Windows,Linux,OSX上运行)可以为每个进程使用读取器线程,请参阅python中的对子进程的非阻塞读
本文向大家介绍python多进程并行代码实例,包括了python多进程并行代码实例的使用技巧和注意事项,需要的朋友参考一下 这篇文章主要介绍了python多进程并行代码实例,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下 代码: 效果图【未加锁,会发现数字1没出现,进程间资源抢夺导致】: 优化之后效果: 代码: 以上就是本文的全部内容,希望对大家的
问题内容: 我正在学习如何使用Python多处理库。但是,当我浏览一些示例时,最终我在后台运行了许多python进程。 其中的例子看起来象下面这样: 现在,这是我的“ TOP”命令的屏幕截图: 我不知道如何一口气杀死他们。 ps … | grep python ....杀死吗? 我需要添加哪种python代码,以避免再次发生这种悲惨的情况。谢谢! 问题答案: 您需要在工作队列中处理您的进程,该进程
我有一个C程序,通过响应信号来运行。一些信号导致父级分叉。这允许在父级继续响应信号的同时进行其他处理。 当父母被发送SIGTERM时,我希望分叉的孩子也收到一个SIGTERM。在父级退出之前,子级完成处理 SIGTERM 并不重要。 但是,使用下面的代码,当我从父代调用< code>kill(0,SIGTERM)时,子代没有收到SIGTERM。从< code>kill联机帮助页来看,似乎所有的孩子