我有一个Azure流分析资源,其中Blob存储作为输入(因此不是输出,我可以阅读足够多的文档)。问题是我的路径模式是动态的。我们在此Blob存储中创建目录以识别批次,如下所示:
/批次-1234/ /批次-5678/ 等等...
我尝试在输入路径模式中添加“batch-*”来动态分配目录,但这是不允许的。
这是否可能以某种方式与流分析有关?
提前谢谢你帮助我。
不幸的是,到目前为止,ASA不支持*
,这在文档中有所说明。
因此,文件路径中只支持日期、时间和分区
,不支持通配符
。如果可以接受,您可以将批处理-*目录分类在一个根容器中,并将路径模式
留空。
我有一个EventHubTrighted函数app。下面是方法签名的代码示例: @functionname(“foo”)@storageaccount(“foostorageRead”)public HttpResponseMessage run(@httptrigger(name=“req”,methods={httpmethod.post},authLevel=authorizationlev
我相当愚蠢地上传了一个vhd到Azure文件存储,以为我可以从它创建一个虚拟机,却发现它真的需要在Blob存储中。 我知道我可以再上传一次,但它非常大,我的上传速度非常慢。 我的问题是-我可以将文件从文件存储移动到blob存储,而无需再次下载/上传吗?也就是说,Azure门户UI中是否有任何东西可以执行此操作,甚至是PowerShell命令?
有人能指导我如何在JavaSDK中模拟Azure Blob存储。 我想模拟连接字符串、SAS令牌、endpoint、容器名称。如果所有这些都得到了模拟,那么模拟BlobClient就很容易了。 参考代码是- public BlobServiceClient BlobServiceClient(){return new BlobServiceClientBuilder().connectionStr
我正在尝试使用pyspark来分析我在数据砖笔记本上的数据。Blob 存储已装载到数据砖群集上,在分析后,希望将 csv 写回 blob 存储。由于 pyspark 以分布式方式工作,csv 文件被分解为小块并写入 Blob 存储。如何克服这个问题,并在我们使用pyspark进行分析时在blob上编写为单个csv文件。谢谢。
我在PowerShell(.NET Framework)中开发了一个函数,用于从任何给定的Azure Blob存储中检索数据:到目前为止,还不错。 不幸的是,当涉及到验证用户的输入时,我不能依赖外部模块或库,例如Azure SDK for .NET的NameValidator类。 然而,命名和引用容器、Blob和元数据这篇文章详细介绍了命名规则,因此regex模式可能会起到拯救作用。 对于容器名称
我刚刚在Azure Function中创建了一个Azure Blob触发器。我可以在“路径”属性下配置触发函数的Blob名称。我在这里看到了一些如何设置blob名称的示例 但是在我的情况下,我想触发我的AzureFunction.When模式中的文件 ABL_{时间戳}.XML 例如, ABL_07022017_000114.xml 当我改变我的道路 “路径”:“ABL_{filename}.xm