当前位置: 首页 > 知识库问答 >
问题:

Azure数据块通过服务主体访问Azure数据湖存储Gen2

充子航
2023-03-14

那么,如果仍然需要存储帐户访问密钥,服务帐户的目的是什么
还有一个主要问题-是否可以完全删除存储帐户访问密钥并仅使用服务主体?

共有1个答案

荀嘉熙
2023-03-14

这是一个文档错误,目前我正在立即修复。

应该是dbutils.secrets.get(scope="

Python:通过传递直接值来装载 Azure 数据湖存储 Gen2 文件系统

configs = {"fs.azure.account.auth.type": "OAuth",
       "fs.azure.account.oauth.provider.type": "org.apache.hadoop.fs.azurebfs.oauth2.ClientCredsTokenProvider",
       "fs.azure.account.oauth2.client.id": "0xxxxxxxxxxxxxxxxxxxxxxxxxxf", #Enter <appId> = Application ID
       "fs.azure.account.oauth2.client.secret": "Arxxxxxxxxxxxxxxxxxxxxy7].vX7bMt]*", #Enter <password> = Client Secret created in AAD
       "fs.azure.account.oauth2.client.endpoint": "https://login.microsoftonline.com/72fxxxxxxxxxxxxxxxxxxxxxxxxb47/oauth2/token", #Enter <tenant> = Tenant ID
       "fs.azure.createRemoteFileSystemDuringInitialization": "true"}

dbutils.fs.mount(
source = "abfss://filesystem@chepragen2.dfs.core.windows.net/flightdata", #Enter <container-name> = filesystem name <storage-account-name> = storage name
mount_point = "/mnt/flightdata",
extra_configs = configs)

Python:通过使用dbutils秘密在秘密范围内作为秘密传递来挂载Azure Data Lake Storage Gen2文件系统。

configs = {"fs.azure.account.auth.type": "OAuth",
           "fs.azure.account.oauth.provider.type": "org.apache.hadoop.fs.azurebfs.oauth2.ClientCredsTokenProvider",
           "fs.azure.account.oauth2.client.id": "06xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx0ef",
           "fs.azure.account.oauth2.client.secret": dbutils.secrets.get(scope = "chepra", key = "service-credential"),
           "fs.azure.account.oauth2.client.endpoint": "https://login.microsoftonline.com/72xxxxxxxxxxxxxxxxxxxx011db47/oauth2/token"}

dbutils.fs.mount(
source = "abfss://filesystem@chepragen2.dfs.core.windows.net/flightdata", 
mount_point = "/mnt/flightdata",
extra_configs = configs)

希望这有所帮助。如果您有任何疑问,请务必告诉我们。

 类似资料:
  • 我正在使用Azure数据库。使用Microsoft学习网站上指定的文档,我设法将BLOB存储(ADLS Gen2)挂载到我的数据库。 但是,当我尝试列出已装入的存储的内容时,我收到以下错误: 我已经检查了权限,我的Service主体被分配了角色“STORAGE BLOB DATA CONTRIBUTOR”,它允许对我的存储容器进行R/W访问。 任何人都知道我错过了哪个部分来使它工作?将不胜感激。

  • 我无法从Databrikcs访问Azure Data Lake Storage。 我没有高级Azure Databricks服务。我正在尝试按照最新的文档直接访问ADLS Gen 2:https://learn . Microsoft . com/en-us/azure/data bricks/data/data-sources/azure/adls-Gen 2/azure-data lake-G

  • 我正在数据砖笔记本上运行这个 我得到了这个错误 原因:存储异常:服务器无法对请求进行身份验证。确保授权头的值格式正确,包括签名。 我尝试使用 以获取 Azure Blob 存储中的任何更新,但仍收到上述错误。

  • 我正在尝试将一个blob存储从我的存储帐户映射到我的databricks集群。我正在跟踪这个链接,显然我只需要在我的笔记本上执行这段代码: 代码蟒蛇: 我被困在参数中:< code>(scope = " 在Database ricks CLI上尝试过:

  • 我可以通过azure application insight跟踪我的应用程序日志文件,还可以导出xls表http://dailydotnettips.com/2015/12/04/export-application-insights-data-to-excel-its-just-a-single-click/,但我需要将我的所有日志文件存储到azure data lake storage中,以便

  • 我有一个具有读取权限的Azure DevOps个人访问令牌。我需要通过Azure Data Factory的Web活动调用Azure DevOps服务REST API。API文档可访问https://docs.microsoft.com/en-us/rest/api/azure/devops/?view=azure-devops-rest-6.1 我没有客户ID或客户机密,但如前所述,我有个人访问