当前位置: 首页 > 知识库问答 >
问题:

FUNCTION_WORKER_PROCESS_COUNT可以做多少个并行任务等于10

易衡
2023-03-14

所以我们在Azure Datafactory中设置了一个管道,它包含4个触发器,可以同时触发Function1,并使用4个不同的参数。

管道-

昨天,我试图在5分钟内触发该管道两次,例如10:30和10:31。这意味着,那次我在5分钟内触发了函数1 8次。

管道-

时间1函数1-参数1函数1-参数2函数1-参数3函数1-参数4 10:30

时间 2 函数1-参数1-参数1-参数2 函数1-参数3 函数1-参数4 10:31

奇怪的是,我们预计8个调用并行运行导致FUNCTION_WORKER_PROCESS_COUNT被设置为10,但只有6个调用并行运行,2个是在那之后运行的。

那么问题来了,FUNCTION_WORKER_PROCESS_COUNT和可以并行运行的任务有什么关系。

函数是用 Powershell 7 编写的。

共有1个答案

益富
2023-03-14

AFAIK,每个函数主机实例的最大工作进程数受< code > FUNCTIONS WORKER PROCESS COUNT 变量的限制。这些实例被视为独立的虚拟机,每个实例都有< code > FUNCTIONS WORKER PROCESS COUNT 限制。

如果< code > FUNCTIONS WORKER PROCESS COUNT 设置为10,则每个主机实例将同时执行10个单独的函数。

多个辅助角色是指相同功能应用程序多个进程ID,它是功能的逻辑集合。

一个工作进程可以托管一个函数应用程序的所有函数,其中单个主机具有< code>1到< code > FUNCTIONS _ Worker _ Process _ COUNT 的默认值,函数主机意味着它是函数应用程序作为Windows/Linux进程运行的物理/虚拟主机。

有关<code>FUNCTIONS_WORKER_PROCESS_COUNT

扩展还可以让您更快地适应需求的变化。

为了满足资源需求,通常可以快速添加或删除服务。这种灵活性和快速性通过仅使用(并支付)当前所需的资源来有效地节省开支。

有关纵向扩展和横向扩展的好处的详细信息,请参阅此文章。

有关< code > FUNCTIONS _ WORKER _ PROCESS _ COUNT 的更多信息参考:

  1. Azure函数-函数应用程序设置-函数_worker_process_count
  2. Azure函数-最佳实践-函数_WORKER_PROCESS_COUNT
 类似资料:
  • 我的makefile中的一个目标是一个非常耗时的CPU任务。但是我可以分割工作负载并并行运行任务几次,以加快整个过程。 我的问题是make不会等待所有过程完成。 考虑一下这个简单的脚本,名为“代码> MyTask.SH <代码>: 现在,让我们从bash脚本调用它,并使用等待所有任务完成: 产出如预期: 但是在Makefile中尝试相同的方法时: 它不起作用: 当然,我可以创建多个目标,这些目标可

  • 本文向大家介绍1in等于多少mm?1mm等于多少px?相关面试题,主要包含被问及1in等于多少mm?1mm等于多少px?时的应答技巧和注意事项,需要的朋友参考一下 1in == 96px 1mm == 0.1cm == 3.78px 1in == 96/3.78 mm

  • 我有大约5个与从HTTP获取数据以及基于数据处理和生成结果相关的任务。 我希望并行运行这些任务,并等待所有任务成功完成或其中一个任务失败。每个任务都应该能够发布失败原因。如果其中一项任务失败,那么所有任务都将被视为失败,并在不等待所有任务完成的情况下退出。 我试图使用完整的未来和未来列表来实现它,但它不起作用,代码也不能很好地发布。 我有没有更好的方法来实现它?以身作则会有所帮助。

  • 问题内容: 我想知道您是否有关于websocket的并发连接的任何数据?我在Node.js服务器上使用Socket.io。有多少个客户端可以连接到套接字并接收数据而无需关闭我的服务器?1000?1000.0000? 谢谢! 问题答案: 这在很大程度上取决于您的硬件配置,您在服务器端究竟在做什么/处理什么以及您的系统是否针对许多并发连接进行了优化。例如,默认情况下,在Linux计算机上,您可能首先会

  • 在Spark中,一次并行执行多少个任务?在Spark中如何将阶段划分为任务?DAG在RDD中是如何工作的? 但我没有找到明确的结论。 null null 如果这是真的,那么Spark在一个执行器中的行为不是有点不确定吗(单线程v.s.多线程)? 注意,从驱动程序运到执行程序的代码可能没有考虑使用synchronized关键字的自动性问题。 Spark对此是如何处理的?

  • 问题内容: 我有以下使用类的课程。所以我想做的是,在运行cp1实例处理方法的同时,我要并行运行。 但是,我要按顺序cp1,所以我要它运行并完成,如果cp2没有完成或失败,那就很好。如果确实失败,我想加入结果。该示例中未返回任何内容,但我想返回结果。 为此,应该使用TaskExecutor吗?还是线程? 我只希望cp2与cp1并行运行。或者,如果我添加更多内容,例如说cp3,我希望它也可以与cp1并