我们有一个将文件复制到Azure文件服务器的外部源。文件大小约为10GB。我想在Azure文件服务器上使用Azure Data Factory完成文件复制后,立即将此文件复制到Azure Blob存储。供应商无法将此文件复制到Blob容器。有人能帮我配置什么类型的触发器吗。我可以手动复制,但我正在寻找是否可以实现自动化。我甚至不能安排这个活动,因为来自外部源的文件副本是随机的。
谢谢
大概你可以让一个逻辑应用程序在存储器上的事件上触发,该事件将触发数据工厂管道。。复制活动可以在ADF内为您完成这项工作。。
我在 Azure 数据工厂中具有事件触发器,它在 Azure Blob 存储中创建新 Blob 时触发。但我的触发器在创建 Blob 时没有触发。 已按照以下链接进行操作,但卡在下面提到的点:Azure 数据工厂:事件未启动管道。 环境详情: 事件网格已注册,ADF为v2并将参数传递给管道。我的问题是我是否需要激活Azure存储事件订阅?如果是这样,我的事件处理程序应该是什么(在我的情况下是ADF
Azure Data Factory如何认证来自事件网格的传入消息?也就是在这幅图中,从事件网格到数据工厂的“推送消息”是如何得到认证的:https://docs . Microsoft . com/en-us/azure/Data-Factory/how-to-create-Event-trigger # storage-Event-trigger-Data-Factory-pipeline-r
我需要在数据工厂的Azure函数活动中传递头信息。如图所示,标题用红色标记。 我需要更改以下代码以接收标头。我还需要捕获标题的值。 公共静态异步任务运行([HttpTrigger(AuthorizationLevel. Function,"get", Route="{name}")]HttpRequest estMessage req,字符串名称, TraceWriter日志,[Blob("pk-
我试图使用数据工厂中的自定义活动在批处理帐户池中执行存储在Blob存储中的python批处理。 我学习了微软教程https://docs.microsoft.com/en-us/azure/batch/tutorial-run-python-batch-azure-data-factory 根据执行情况,它发生在所有ADF参考文件上,也发生在我的批处理文件上。 我是新手,不知道该怎么解决这个问题。
我是新的Azure数据工厂v2 我有一个文件夹,里面有两个文件。csv和F2。在blob存储中存储csv。 我创建了一个复制数据管道活动,用3个参数将数据从文件加载到azure DWH中的一个表中,并将其递归复制为false。 参数1:容器 参数2:目录 参数3:F1.csv 将上述参数用于复制数据活动时成功执行。 但数据是从两个文件加载的,只有一个文件作为活动的参数提供
我需要在Azure数据工厂中创建一个调度触发器(它将在3小时内每15分钟运行一次),当在Azure Blob存储容器中创建三个不同的文件时,该触发器将通过管道传输。只有在blob容器中创建了所有3个文件时,才应开始管道执行。例如,如果3个小时过去了,并且存储blob中只有两个文件,则管道将不必运行。