进程的概念
程序是没有运行的代码,静态的;
进程是运行起来的程序,进程是一个程序运行起来之后和资源的总称;
程序只有一个,但同一份程序可以有多个进程;例如,电脑上多开QQ;
程序和进程的区别在于有没有资源,进程有资源而程序没有资源,进程是一个资源分配的基本单元;
程序在没运行的时候没有资源,没有显卡,没有网卡,等等;双击运行后有摄像头,有网速等等,就叫做进程;
进程的状态
进程状态图
使用Process完成多任务
进程的使用步骤和线程的使用步骤基本一致;
进程的使用步骤:
进程使用步骤图示:
进程使用步骤代码
import time import multiprocessing def sing(): while True: print("-----sing-----") time.sleep(1) def dance(): while True: print("-----dance-----") time.sleep(1) def main(): p1 = multiprocessing.Process(target=sing) p2 = multiprocessing.Process(target=dance) p1.start() p2.start() if __name__ == "__main__": main()
运行结果:
-----sing----- -----dance----- -----sing----- -----dance----- -----sing----- -----dance----- ......
进程:
获取进程id
获取进程id代码
from multiprocessing import Process import osdef run_proc(): """子进程要执行的代码""" print('子进程运行中,pid=%d...' % os.getpid()) # os.getpid获取当前进程的进程号 print('子进程将要结束...') if __name__ == '__main__': print('父进程pid: %d' % os.getpid()) # os.getpid获取当前进程的进程号 p = Process(target=run_proc) p.start()
进程和线程对比
进程和线程的区别
通过队列完成进程间通信
队列使用语法
# 创建队列: from multiprocessing import Queue q = Queue(3) # 往队列中添加数据: q.put(xxx) # 从队列中获取数据: q.get()
通过队列完成进程间通信代码
from multiprocessing import Queue import multiprocessing def download_data(q): """模拟这是从网上下载数据""" data = [11, 22, 33] for i in data: q.put(i) print("数据下载完成") def deal_data(q): """模拟处理从网上下载下来的数据""" data_list = [] while True: data = q.get() data_list.append(data) if q.empty(): break print("处理数据结束,数据为:", data_list) def main(): q = Queue(3) p1 = multiprocessing.Process(target=download_data, args=(q,)) p2 = multiprocessing.Process(target=deal_data, args=(q,)) p1.start() time.sleep(1) p2.start() if __name__ == '__main__': main()
运行结果:
数据下载完成
处理数据结束,数据为: [11, 22, 33]
进程池完成多任务
进程池
进程池的概念
因为进程的创建和销毁是需要大量的资源的,为了减少消耗,当我们在处理多任务时,比如100个任务,我们可以先创建10个进程,然后用这10个进程来执行者100个任务,就可以重复使用进程,达到节约资源的目的了,而这个就可以使用进程池。
进程池的创建
任务数固定且较少,用普通的进程即可;任务数不确定,且比较多,就用进程池;
进程池不会等待进程执行完毕,我们需要使用po.join()让主进程等待进程池中的进程执行完;且po.close()必须在join前面;小编整理一套Python资料和PDF,有需要Python学习资料可以加学习群:631441315 ,反正闲着也是闲着呢,不如学点东西啦~~
创建进程池语法
# 创建进程池 from multiprocessing import Pool po = Pool(3) # 给进程池传递任务和参数 po.asyn(sing, (num,)) # 让进程池等待子进程执行完 po.close() po.join()
进程池pool示例
from multiprocessing import Pool import os, time, random def worker(msg): t_start = time.time() print("%s开始执行,进程号为%d" % (msg, os.getpid())) # random.random()随机生成0~1之间的浮点数 time.sleep(random.random() * 2) t_stop = time.time() print(msg, "执行完毕,耗时%0.2f" % (t_stop - t_start)) def main(): po = Pool(3) # 定义一个进程池,最大进程数3 for i in range(0, 10): # Pool().apply_async(要调用的目标,(传递给目标的参数元祖,)) # 每次循环将会用空闲出来的子进程去调用目标 po.apply_async(worker, (i,)) print("----start----") po.close() # 关闭进程池,关闭后po不再接收新的请求 po.join() # 等待po中所有子进程执行完成,必须放在close语句之后 print("-----end-----") if __name__ == '__main__': main()
执行结果:
----start---- 0开始执行,进程号为7812 1开始执行,进程号为9984 2开始执行,进程号为1692 执行完毕,耗时0.65 3开始执行,进程号为9984 执行完毕,耗时1.08 4开始执行,进程号为7812 执行完毕,耗时1.82 5开始执行,进程号为1692 执行完毕,耗时1.12 6开始执行,进程号为7812 执行完毕,耗时1.35 7开始执行,进程号为9984 执行完毕,耗时0.11 8开始执行,进程号为9984 执行完毕,耗时0.50 9开始执行,进程号为7812 执行完毕,耗时0.65 执行完毕,耗时0.70 执行完毕,耗时0.74 -----end-----
多进程拷贝文件夹
多任务文件夹copy
步骤思路:
1.获取用户要拷贝的文件夹的名字;
2.创建一个新的文件夹;
3.获取文件夹的所有待拷贝的文件名;listdir()
4.创建进程池;
5.复制原文件夹中的文件,到新文件夹的文件中去;
多任务拷贝文件代码
import os from multiprocessing import Pool def copy_file(file, old_folder, new_folder): old_f = open(old_folder+"/"+file, "rb") data = old_f.read() old_f.close() new_f = open(new_folder+"/"+file, "wb") new_f.write(data) new_f.close() print("创建文件成功:", file) def main(): # 1.获取要拷贝的文件夹 old_folder = input("请输入你要拷贝的文件夹:") # 2.创建新文件夹 new_folder = old_folder + "_复件" try: os.mkdir(new_folder) print("创建文件夹成功") except Exception as e: pass # 3.获取文件夹中所有待拷贝的文件,listdir() files_list = os.listdir(old_folder) # print(files_list) # 4.创建进程池 po = Pool(5) for file in files_list: # 向进程池中添加复制文件的任务 po.apply_async(copy_file, args=(file, old_folder, new_folder)) # 复制原文件夹中的文件,到新文件夹中 po.close() po.join() if __name__ == '__main__': main()
在完成文件夹拷贝后,增加了一个需求,显示拷贝文件的进度条,怎么办?
多任务拷贝文件并显示进度条
如果要在进程池中使用Queue,要使用from multiprocessing import Manager ,使用Manager().Queue();
显示进度条思路:
print("\r已拷贝文件%.2f %%" % (copy_ok_file_num*100/all_file_len), end="")
多任务拷贝文件并显示进度条代码:
import os from multiprocessing import Pool, Manager def copy_file(q, file, old_folder, new_folder): old_f = open(old_folder+"/"+file, "rb") data = old_f.read() old_f.close() new_f = open(new_folder+"/"+file, "wb") new_f.write(data) new_f.close() q.put(file) def main(): # 1.获取要拷贝的文件夹 old_folder = input("请输入你要拷贝的文件夹:") # 2.创建新文件夹 new_folder = old_folder + "_复件" try: os.mkdir(new_folder) print("创建文件夹成功") except Exception as e: pass # 3.获取文件夹中所有待拷贝的文件,listdir() files_list = os.listdir(old_folder) # 4.创建进程池 po = Pool(5) # 5.创建队列 q = Manager().Queue() # 6.复制原文件夹中的文件,到新文件夹中 for file in files_list: # 向进程池中添加复制文件的任务 po.apply_async(copy_file, args=(q, file, old_folder, new_folder)) all_file_len = len(files_list) po.close() # po.join() copy_ok_file_num = 0 while True: file = q.get() copy_ok_file_num += 1 print("已拷贝文件%.2f %%" % (copy_ok_file_num*100/all_file_len)) # print("\r已拷贝文件%.2f %%" % (copy_ok_file_num*100/all_file_len), end="") if copy_ok_file_num >= all_file_len: break print() if __name__ == '__main__': main()
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持小牛知识库。
本文向大家介绍python并发编程多进程 模拟抢票实现过程,包括了python并发编程多进程 模拟抢票实现过程的使用技巧和注意事项,需要的朋友参考一下 抢票是并发执行 多个进程可以访问同一个文件 多个进程共享同一文件,我们可以把文件当数据库,用多个进程模拟多个人执行抢票任务 db.txt 并发运行,效率高,但竞争写同一文件,数据写入错乱,只有一张票,都卖成功给了10个人 总结:程序出现数据写入错
本文向大家介绍Node.js中child_process实现多进程,包括了Node.js中child_process实现多进程的使用技巧和注意事项,需要的朋友参考一下 以上示例提供了一个斐波纳契数列的计算服务,由于此计算相当耗时,且是单线程,当同时有多个请求时只能处理一个,通过child_process.fork()就可以解决此问题 这里引用一下官网上的一个示例,通过这个例子可以很好的理解fork
本文向大家介绍Android通过继承Binder类实现多进程通信,包括了Android通过继承Binder类实现多进程通信的使用技巧和注意事项,需要的朋友参考一下 AIDL的底层是通过Binder进行通信的,通过追踪.aidl编译后自动生成的文件我们知道,文件中的Stub类用于服务端,Proxy类用于客户端调用,那么可否直接通过继承Binder类实现多进程通信呢?下面就来试一试。 效果图: 服务端
我自己写了一个多进程下载网络大文件的程序:基本思路是多进程分块下载完后,再拼接文件。 这个url的大文件被分割成20个部分,开启了4个进程下载。 测试运行: python3 mpdown.py #速度比单进程快50%以上。 现在我有点不满意这个多进程下载,拼接文件(merge)是在全部下载完成后,再拼接,我想这个拼接动作也修改成多进程并行的,边下载边拼接。 由于下载是多进程的,各进程存在一定的竞争
本文向大家介绍PHP多进程编程实例,包括了PHP多进程编程实例的使用技巧和注意事项,需要的朋友参考一下 羡慕火影忍者里鸣人的影分身么?没错,PHP程序是可以开动影分身的!想完成任务,又觉得一个进程太慢,那么,试试用多进程来搞吧。这篇文章将会介绍一下PHP多进程的基本需求,如何创建多进程以及基本的信号控制,暂时不会告诉你如何进行进程间通信和信息共享。 1. 准备 在动手之前,请确定你用的不是M$ W
译者:cvley torch.multiprocessing 是 Python 的 multiprocessing 的直接替代模块。它支持完全相同的操作,但进行了扩展,这样所有的张量就可以通过一个 multiprocessing.Queue 进行传递,将数据移动到共享内存并只将句柄传递到另一个进程。 注意 当一个 Tensor 传递到另一个进程时,Tensor 的数据是共享的。如果 torch.T