当前位置: 首页 > 知识库问答 >
问题:

Azure流分析输入blob存储动态路径模式

顾昊穹
2023-03-14

我有一个Azure流分析资源,其中Blob存储作为输入(因此不是输出,我可以阅读足够多的文档)。问题是我的路径模式是动态的。我们在此Blob存储中创建目录以识别批次,如下所示:

/批次-1234/ /批次-5678/ 等等...

我尝试在输入路径模式中添加“batch-*”来动态分配目录,但这是不允许的。

这是否可能以某种方式与流分析有关?

提前谢谢你帮助我。

共有1个答案

孔寒
2023-03-14

不幸的是,到目前为止,ASA不支持*,这在文档中有所说明。

因此,文件路径中只支持日期、时间和分区,不支持通配符。如果可以接受,您可以将批处理-*目录分类在一个根容器中,并将路径模式留空。

 类似资料:
  • 我有一个EventHubTrighted函数app。下面是方法签名的代码示例: @functionname(“foo”)@storageaccount(“foostorageRead”)public HttpResponseMessage run(@httptrigger(name=“req”,methods={httpmethod.post},authLevel=authorizationlev

  • 我相当愚蠢地上传了一个vhd到Azure文件存储,以为我可以从它创建一个虚拟机,却发现它真的需要在Blob存储中。 我知道我可以再上传一次,但它非常大,我的上传速度非常慢。 我的问题是-我可以将文件从文件存储移动到blob存储,而无需再次下载/上传吗?也就是说,Azure门户UI中是否有任何东西可以执行此操作,甚至是PowerShell命令?

  • 有人能指导我如何在JavaSDK中模拟Azure Blob存储。 我想模拟连接字符串、SAS令牌、endpoint、容器名称。如果所有这些都得到了模拟,那么模拟BlobClient就很容易了。 参考代码是- public BlobServiceClient BlobServiceClient(){return new BlobServiceClientBuilder().connectionStr

  • 我正在尝试使用pyspark来分析我在数据砖笔记本上的数据。Blob 存储已装载到数据砖群集上,在分析后,希望将 csv 写回 blob 存储。由于 pyspark 以分布式方式工作,csv 文件被分解为小块并写入 Blob 存储。如何克服这个问题,并在我们使用pyspark进行分析时在blob上编写为单个csv文件。谢谢。

  • 我在PowerShell(.NET Framework)中开发了一个函数,用于从任何给定的Azure Blob存储中检索数据:到目前为止,还不错。 不幸的是,当涉及到验证用户的输入时,我不能依赖外部模块或库,例如Azure SDK for .NET的NameValidator类。 然而,命名和引用容器、Blob和元数据这篇文章详细介绍了命名规则,因此regex模式可能会起到拯救作用。 对于容器名称

  • 我刚刚在Azure Function中创建了一个Azure Blob触发器。我可以在“路径”属性下配置触发函数的Blob名称。我在这里看到了一些如何设置blob名称的示例 但是在我的情况下,我想触发我的AzureFunction.When模式中的文件 ABL_{时间戳}.XML 例如, ABL_07022017_000114.xml 当我改变我的道路 “路径”:“ABL_{filename}.xm