当前位置: 首页 > 知识库问答 >
问题:

从 Databricks Notebook 连接到 Azure SQL 数据库

元胡媚
2023-03-14

我想使用Databricks notebook将数据从Azure Blob存储加载到Azure SQL数据库。有人能帮我做这件事吗

共有1个答案

史承福
2023-03-14

我对这一点还不熟悉,所以我不能发表评论,但为什么要使用Databricks呢?使用Azure Data Factory会更容易、更便宜。

https://learn.microsoft.com/en-us/azure/data-factory/tutorial-copy-data-dot-net

如果您确实需要使用Databricks,您需要挂载Blob Storage帐户,或者直接从Databrick笔记本或JAR访问它,如文档中所述(https://docs.azuredatabricks.net/spark/latest/data-sources/azure/azure-storage.html).

然后,您可以将这些文件读入任何格式的数据帧,并使用SQL JDBC连接器创建一个连接,用于将数据写入SQL(https://docs . azuredatabricks . net/spark/latest/data-sources/SQL-databases . html)。

 类似资料:
  • 我有一个Azure云服务(辅助角色),它需要连接到我的AzureSQL数据库,还需要连接到外部数据库。 在开发过程中,外部数据库位于公共互联网上,连接不是问题。 但是,现在需要在生产环境中部署该解决方案,并且通过设置虚拟网络来限制对外部数据库的访问。 部署在虚拟网络中时,云服务会从子网获取IP,但外部世界似乎无法访问,并且不会连接到AzureSQL数据库(我也无法对其进行RDP)。 这似乎超出了我

  • 使用第一个驱动程序(db2jcc.jar和db2jcc_license_cisuz.jar) 无法使用com.ibm.db2.jcc.db2driver建立到jdbc:db2:/host:446/database的连接([jcc][t4][2057][11264][3.69.24]应用程序服务器拒绝建立连接。试图访问数据库database,该数据库找不到或不支持事务。errorcode=-4499

  • 问题内容: 我正在尝试从Amazon s3读取JSON文件以创建spark上下文并使用它来处理数据。 Spark基本上位于docker容器中。因此,将文件放在docker路径中也是PITA。因此将其推送到S3。 以下代码说明了其余内容。 我收到以下错误- 我已经清楚地提供了aswSecretAccessKey和awsAccessId。怎么了 问题答案: 我已经解决了添加到spark-submit命

  • 我正在尝试从Amazon s3读取一个JSON文件,以创建一个火花上下文并使用它来处理数据。 Spark基本上在docker容器中。所以将文件放入docker路径也是PITA。因此将其推送到S3。 下面的代码解释了其余的内容。 我得到以下错误- 我已经清楚地提供了aswSecret AccessKey和awsAccessId。出了什么问题?

  • 问题内容: 该问题重复了一些较早的问题,但此后情况可能已发生变化。 是否有官方支持从Node.js连接到SQL Server(例如,来自MS的官方库)?还是至少有一些维护良好的第三方库适合生产级应用程序? 我们通常使用ASP.NET MVC / SQL Server组合,但是目前我有一个Express / Node.js似乎更合适的任务(并且我想尝试一些新的东西),所以问题是我们是否可以依赖于No

  • 问题内容: 我正在尝试从iPhone连接到远程mysql数据库。我搜索了许多网站,但没有找到任何帮助。如果有人为此工作,请发送解决方案。 问题答案: 假设您具有服务器端编程(例如PHP或Rails)的经验,则可以仅从URL内容创建NSArray,在其中建立与MySQL服务器的连接并以ASCII或XML格式打印所需的结果。 对帮助格式化服务器页面打印的结果也很有用:http : //develope