当前位置: 首页 > 知识库问答 >
问题:

Azure Blob触发器函数应用:为多个Blob上传运行相同实例

白弘伟
2023-03-14

我在Python中创建了一个Blob触发函数应用程序。我的要求是为每个blob上传运行一个单独的实例(用于并行处理),但这并没有发生。甚至我也修改了主机。根据以下链接,json如下:https://docs.microsoft.com/en-us/azure/azure-functions/functions-bindings-storage-blob

{ “version”: “2.0”, “extensions”: { “blobs”: { “maxDegreeOfParallelism”: “4” } } } }

尽管如此,同一个实例仍在一个接一个地运行和处理文件。我错过了什么吗?

共有1个答案

濮阳旺
2023-03-14

恐怕我们无法实现这个要求。据我所知,我们可以将函数应用设置为横向扩展到最大 n 个(在你的例子中是 4 个)实例,但我们不能手动横向扩展实例。

修改配置以允许函数应用针对多个实例进行横向扩展时,它可以在大量请求传入时自动横向扩展。如果只有 4 个请求,则在大多数情况下只会启动一个实例。

这里是我过去做过的另一篇文章,这篇文章与这个案例有类似的问题,供您参考。

 类似资料:
  • 我已经创建了一个blob触发器,它从一个blob接受一个文件,解压缩它,并使用streams将它移动到另一个blob。 我的代码如下所示 实际上,这将在本地运行时使用我的local.settings.json文件中的“azurewebjobstorage”:“UseDevelopmentStorage = true”。 然而,一旦我部署了这个应用程序,并使用Azure Storage Explor

  • 我在Visual Studio中创建了一个简单的blob触发器,init.py如下 function.json如下 local.settings。json如下所示 此代码在本地计算机上的visual studio中运行良好。但在azure portal上发布时,它无法从函数中读取blob路径。json并给出错误为 我已经使用命令发布了local.settings.json的contains。 .有

  • 如果你使用blob存储触发器阅读Azure WebJobs上的留档,它们会提到这不是很可靠: WebJobs SDK扫描日志文件以查看新的或更改的blob。这个过程不是实时的;在创建blob后的几分钟或更长时间内,函数可能不会被触发。此外,存储日志是在“尽力而为”的基础上创建的;无法保证所有事件都将被捕获。在某些情况下,日志可能会丢失。如果您的应用程序无法接受blob触发器的速度和可靠性限制,建议

  • 我是Azure Function应用程序中blob触发器的新手,需要一些帮助。我正在努力寻找有关如何重命名触发该函数的blob的资源。 我有一个函数应用程序,当一个新的blob被上传到容器时触发,文件被处理,我需要一种方法来将其“标记”为已处理,因此我想重命名blob。 这是我的职责: 我该如何重命名该文件?在这种情况下有可能吗?

  • 我有两个blob触发器,我想触发。一个有效,一个无效! 我使用Azure Storage Explorer来确保blob被上传到每个blob,< code>scanFiles永远不会触发,而< code>scanExports似乎总是会触发。 问题:什么会导致某些blob无法触发Azure函数?

  • 我的Python Azure函数配置文件()定义了一个Blob存储触发器。 当Azure功能唤醒时(即,Live Metrics中显示的服务器在一段睡眠时间后变为在线),它将处理所有现有Blob,而不管哪些Blob已经生成触发事件。 我注意到< code > azure-web jobs-hosts/blob receipts 文件夹中填充了< code>sandboxhost637nnn文件夹。