我无法从Databrikcs访问Azure Data Lake Storage。
我没有高级Azure Databricks服务。我正在尝试按照最新的文档直接访问ADLS Gen 2:https://learn . Microsoft . com/en-us/azure/data bricks/data/data-sources/azure/adls-Gen 2/azure-data lake-Gen 2-sp-access # access-adls-Gen 2-Directly
这是来自笔记本的错误消息:操作失败:
这是我的火花配置设置:
spark.conf.set("fs.azure.account.oauth.provider.type.<storage-account-name>.dfs.core.windows.net", "org.apache.hadoop.fs.azurebfs.oauth2.ClientCredsTokenProvider")
spark.conf.set("fs.azure.account.oauth2.client.id.<storage-account-name>.dfs.core.windows.net", "<application-id>")
spark.conf.set("fs.azure.account.oauth2.client.secret.<storage-account-name>.dfs.core.windows.net", dbutils.secrets.get(scope="<scope-name>",key="<service-credential-key-name>"))
spark.conf.set("fs.azure.account.oauth2.client.endpoint.<storage-account-name>.dfs.core.windows.net", "https://login.microsoftonline.com/<directory-id>/oauth2/token")```
正确的角色是“存储 Blob 数据参与者”而不是“参与者”。
我正在尝试将应用程序在Azure上投入生产。此应用程序由一个webapp(运行Docker容器)组成,该应用程序应该与Azure存储帐户(blob)通信。 将Web应用的所有出站IP地址添加到我的存储帐户的防火墙设置后,我仍然没有访问Blob的权限。错误如下:“此请求无权执行此操作。” 然而,当我在本地运行我的应用程序,并将我的本地IP添加到这些相同的防火墙设置中时,它可以工作。当我没有将其添加到
那么,如果仍然需要存储帐户访问密钥,服务帐户的目的是什么 还有一个主要问题-是否可以完全删除存储帐户访问密钥并仅使用服务主体?
我正在尝试使用存储帐户访问密钥通过Azure Databricks访问存储在ADLS位置的数据文件。为了访问数据文件,我在azure databricks中使用python notebook,下面的命令工作正常, 但是,当我尝试使用下面的命令列出目录时,它会抛出错误 错误: 我不确定它需要什么权限,我该如何继续。 此外,我正在使用ADLS Gen2和Azure Database ricks(试用版
我正在使用Azure数据库。使用Microsoft学习网站上指定的文档,我设法将BLOB存储(ADLS Gen2)挂载到我的数据库。 但是,当我尝试列出已装入的存储的内容时,我收到以下错误: 我已经检查了权限,我的Service主体被分配了角色“STORAGE BLOB DATA CONTRIBUTOR”,它允许对我的存储容器进行R/W访问。 任何人都知道我错过了哪个部分来使它工作?将不胜感激。
我有一个Xamarin。窗体使用Azure ADB2C身份验证的应用程序。虽然我可以在工作中进行签名,但我仍然需要以某种方式获取用户信息(如用户名和存储在AAD中的其他属性),以便在应用程序中显示它。为了实现这一目标,我找不到任何合适的留档。还有谁有类似的问题或者知道我应该找什么吗?
我有一个Azure blob存储帐户,该帐户仅对选定的网络进行防火墙保护。我想从运行在动态计划上的函数应用访问此存储帐户,我知道该动态计划的出站IP地址。问题是,我将这些出站IP添加到blob存储的防火墙和虚拟网络设置中允许的IP地址中,但我仍然继续收到以下错误: 此请求无权执行此操作。 有人能指出我哪里出错了吗? N、 B.我使用PythonSDK访问带有帐户名和帐户密钥的blob存储!