当前位置: 首页 > 知识库问答 >
问题:

如何使用Azure Blob存储挂载数据?

彭修筠
2023-03-14

我是Azure Databricks的新手,我的导师建议我在

https://aischool.microsoft.com/en-us/machine-learning/learning-paths/AI-platform-engineering-bootcamps/custom-machine-learning-bootcamp

据我所知,Azure Blob存储还没有设置,因此我运行的代码(以及以下所有步骤中的代码)找不到应该存储在Blob中的教程项。任何帮助你的好人可以提供将是非常感谢的。

共有1个答案

鲁淇
2023-03-14

在Azure Databricks中设置和挂载Blob存储确实需要几个步骤。

首先,创建一个存储帐户,然后在其中创建一个容器。

接下来,记下以下事项:

    null
storage_account_name = "Storage account name"
storage_account_key = "Storage account key"
container = "Container name"
spark.conf.set("fs.azure.account.key.{0}.blob.core.windows.net".format(storage_account_name), storage_account_key)
dbutils.fs.mount(
 source = "wasbs://{0}@{1}.blob.core.windows.net".format(container, storage_account_name),
 mount_point = "/mnt/<Mount name>",
 extra_configs = {"fs.azure.account.key.{0}.blob.core.windows.net".format(storage_account_name): storage_account_key}
)
dbutils.fs.ls("dbfs:/mnt/<Mount name>")

希望能有所帮助!

 类似资料:
  • 现在,每次运行脚本时,我都会导入一个相当大的作为数据帧。有没有一个好的解决方案可以让数据帧在运行之间不断可用,这样我就不用花那么多时间等待脚本运行了?

  • 我有一个应用程序,应该给一些USB大容量存储设备的许可。因此,阻止USB大容量存储设备的方法不应该是非常静态的!

  • 问题内容: 目前,我正在使用一项服务来执行操作,即从服务器检索数据,然后将数据存储在服务器本身上。 取而代之的是,我想将数据放入本地存储中,而不是将其存储在服务器上。我该怎么做呢? 问题答案: 这是我存储和检索到本地存储的代码的一部分。我使用广播事件来保存和恢复模型中的值。

  • 我对Hadoop(HDFS和Hbase)和Hadoop生态系统(Hive、Pig、Impala等)相当陌生。我已经很好地理解了Hadoop组件,如NamedNode、DataNode、Job Tracker、Task Tracker,以及它们如何协同工作以高效的方式存储数据。 null

  • 本文向大家介绍如何获取Android设备挂载的所有存储器,包括了如何获取Android设备挂载的所有存储器的使用技巧和注意事项,需要的朋友参考一下 android系统提供了Environment.getExternalStorageDirectory()接口获得存储器的路径,但是这个接口往往给的结果并不是我们想要的,在某些设备上它返回的是手机内部存储,某些设备它返回的手机外部存储。还有就是某些An