当前位置: 首页 > 面试题库 >

python multiprocessing .join()死锁取决于辅助函数

廉实
2023-03-14
问题内容

我正在使用multiprocessingpython库生成4个Process()对象以并行化cpu密集任务。任务(灵感和代码从这个伟大的文章)是计算的主要因素列表中的每个整数。

main.py:

import random
import multiprocessing
import sys

num_inputs  = 4000
num_procs   = 4
proc_inputs = num_inputs/num_procs
input_list  = [int(1000*random.random()) for i in xrange(num_inputs)]

output_queue = multiprocessing.Queue()
procs        = []
for p_i in xrange(num_procs):
  print "Process [%d]"%p_i
  proc_list = input_list[proc_inputs * p_i:proc_inputs * (p_i + 1)]
  print " - num inputs: [%d]"%len(proc_list)

  # Using target=worker1 HANGS on join
  p = multiprocessing.Process(target=worker1, args=(p_i, proc_list, output_queue))
  # Using target=worker2 RETURNS with success
  #p = multiprocessing.Process(target=worker2, args=(p_i, proc_list, output_queue))

  procs.append(p)
  p.start()

for p in jobs:
  print "joining ", p, output_queue.qsize(), output_queue.full()
  p.join()
  print "joined  ", p, output_queue.qsize(), output_queue.full()

print "Processing complete."
ret_vals = []
while output_queue.empty() == False:
    ret_vals.append(output_queue.get())
print len(ret_vals)
print sys.getsizeof(ret_vals)

观察:

  • 如果每个进程的目标是函数worker1,则对于大于4000个元素的输入列表,主线程将停留在上.join(),等待生成的进程终止并且永不返回。
  • 如果每个进程的目标是function worker2,那么对于相同的输入列表,代码就可以正常工作,并且主线程返回。

这对我来说非常混乱,因为worker1和之间的唯一区别worker2(见下文)是前者在中插入单个列表,Queue而后者为每个过程插入一个列表列表。

为什么使用worker1和不使用worker2目标都有死锁?两种(或两者都不)都不能超过“多处理队列”的最大大小限制为32767吗?

worker1 vs worker2:

def worker1(proc_num, proc_list, output_queue):
    '''worker function which deadlocks'''  
    for num in proc_list:
        output_queue.put(factorize_naive(num))

def worker2(proc_num, proc_list, output_queue):
    '''worker function that works'''
    workers_stuff = []

    for num in proc_list:
        workers_stuff.append(factorize_naive(num))
    output_queue.put(workers_stuff)

关于SO有 很多 类似的问题,但是我相信这些问题的核心显然与所有这些问题截然不同。

相关链接:

  • https://sopython.com/canon/82/programs-using-multiprocessing-hang-deadlock-and-never-complete/
  • python多处理问题
  • python multiprocessing-进程在大队列的联接上挂起
  • Process.join()和队列不能大量使用
  • 在队列为空之前调用join的Python 3多处理队列死锁
  • 使用多处理模块的脚本不会终止
  • 为什么multiprocessing.Process.join()挂起?
  • 什么时候在进程上调用.join()?
  • Python多重处理模块的.join()方法到底在做什么?

问题答案:

文档警告此:

警告:如上所述,如果子进程已将项目放入队列中(并且未使用JoinableQueue.cancel_join_thread),则该进程将不会终止,直到所有缓冲的项目都已刷新到管道中为止。

这意味着,如果您尝试加入该进程,则可能会陷入僵局,除非您确定已放入队列中的所有项目都已消耗完。同样,如果子进程是非守护进程,则当父进程尝试加入其所有非守护进程子进程时,其父进程可能会在退出时挂起。

尽管aQueue似乎是不受限制的,但在后台隐藏的情况下,已排队的项目在内存中进行了缓冲,以避免进程间管道过载。在刷新这些内存缓冲区之前,进程无法正常结束。你worker1()放多了很多项目

排队比你的worker2(),而这一切就是这么简单。注意,在实现诉诸于内存缓冲之前可以排队的项目数量未定义:它在OS和Python版本之间可能会有所不同。

正如文档所建议的那样,避免这种情况的正常方法是 尝试处理 之前.get()所有项目 队列中 移出 。正如您所发现的,是否有
要这样做取决于未定义的方式,取决于每个工作进程将多少个项目放入队列中。 .join()



 类似资料:
  • 简介 Laravel 包含各种各样的全局「辅助」PHP 函数,框架本身也大量地使用了这些功能;如果你觉得方便,你可以在你的应用中自由的使用它们。 可用方法 数组 & 对象 array_add array_collapse array_divide array_dot array_except array_first array_flatten array_forget array_get arra

  • 列标字符转化 获取扩展版本 查看作者信息

  • 辅助函数,顾名思义,是帮助我们完成特定任务的函数。每个辅助函数文件仅仅是一些函数的集合。例如,URL Helpers 可以帮助我们创建链接,Form Helpers 可以帮助我们创建表单,Text Helpers 提供一系列的格式化输出方式,Cookie Helpers 能帮助我们设置和读取COOKIE, File Helpers 能帮助我们处理文件,等等。 跟其他部分不同的是,辅助函数不是用类的

  • 辅助函数,顾名思义,是帮助我们完成特定任务的函数。每个辅助函数文件都是某一类 函数的集合。例如, URL 辅助函数 帮助我们创建链接,表单辅助函数**帮助 我们创建表单元素,**本文辅助函数 帮助我们处理文本的格式化,Cookie 辅助函数 帮助我们读取或设置 Cookie ,文件辅助函数 帮助我们处理文件,等等等等。 不同于 CodeIgniter 中的大多数系统,辅助函数没有使用面向对象的方式

  • 存放位置 Laravel 提供了很多 辅助函数,有时候我们也需要创建自己的辅助函数。 必须 把所有的『自定义辅助函数』存放于 app 文件夹中。 并在 composer.json 文件中加载,方法请见: Laravel 的自定义函数 helpers.php 文件存放位置

  • xml辅助函数文件包含了一些辅助处理xml数据的函数 加载该辅助函数 本辅助函数通过如下代码加载:$this->load->helper('xml'); 可用函数如下: xml_convert('string') 以一个字符串(string)作为输入并且转换下列xml保留字符成为实体(entities): 连字号: & 小于和大于号: 单引号和双引号: ' " 破折号: - 该函数将忽略 & 如果