当前位置: 首页 > 知识库问答 >
问题:

正在Azure中检查Databricks运行时的版本

印曜灿
2023-03-14

是否可以检查Azure中数据库运行时的版本?

共有3个答案

翟宏放
2023-03-14
print (spark.version)

为我工作

孔甫
2023-03-14

Databricks Runtime是在Azure Databricks管理的集群上运行的一组核心组件。它包括Apache Spark,但也添加了大量组件和更新,大大提高了大数据分析的可用性、性能和安全性。

创建群集时,可以从许多受支持的运行时版本中进行选择。

如果您想知道创建后Azure中Databricks运行时的版本:

转到Azure数据砖门户=

有关详细信息,请参阅"Azure数据库运行时版本"。

希望这能有所帮助。

左丘善
2023-03-14

在斯卡拉:

dbutils.notebook.getContext.tags("sparkVersion")

在Python中:

spark.conf.get("spark.databricks.clusterUsageTags.sparkVersion")

正在返回Databricks运行时和Scala版本,例如:5.0。x-scala2。11 .

 类似资料:
  • 问题内容: 许多第三方Python模块都有一个属性,该属性保存该模块的版本信息(通常类似或),但有些则不然。 此类模块的特定示例是libxslt和libxml2。 我需要检查这些模块在运行时是否使用了正确的版本。有没有办法做到这一点? 潜在的解决方案是在运行时读取源代码,对其进行哈希处理,然后将其与已知版本的哈希进行比较,但这很讨厌。 有更好的解决方案吗? 问题答案: 我会远离哈希。正在使用的li

  • 本文向大家介绍在运行时检查设备上的Android版本,包括了在运行时检查设备上的Android版本的使用技巧和注意事项,需要的朋友参考一下 示例 Build.VERSION_CODES 是当前已知的SDK版本代码的枚举。 为了有条件地基于设备的Android版本运行代码,请使用TargetApi注释以避免Lint错误,并在运行特定于API级别的代码之前检查生成版本。 这是在支持低于23的API级别

  • 问题内容: 如何检查正在解释脚本的版本的Python Interpreter? 问题答案: 模块的字符串中提供了此信息: 可读性: 进行进一步处理: 为了确保脚本以Python解释器的最低版本要求运行,请将其添加到你的代码中: 这将比较主要版本和次要版本信息。微(=添加0,1等等),甚至的元组只要你喜欢。但是请注意,最好总是“躲避”检查某个功能是否存在,如果没有,请采取变通方法(或纾困)。有时,某

  • 全部的 我正在学习Databricks。如果有一个正在运行作业群集的失控进程,我希望得到通知/警报,如果可能,事件终止。在SQLServer中,这通常是在查询调控器的帮助下完成的。 我使用的Azure Databricks中有类似的东西吗? 谢谢,grajee

  • 我的一个项目需要Java1.8,但有时我们没有注意到我们使用的是较旧的Java,所以我们会得到一些奇怪的错误。 我想在中添加检查功能,这样当我们运行任何任务时,它都会首先检查版本,并立即打印错误和退出。 我尝试在第一行的中直接添加检查,但它仍然在检查发生之前执行一些其他任务,例如(、),当我运行: 如何正确地去做?

  • 检查模块提供 inspect() 函数,它提供有关各种SQLAlchemy对象的运行时信息,包括核心和ORM中的这些对象。 这个 inspect() 函数是SQLAlchemy公共API的入口点,用于查看内存中对象的配置和构造。取决于传递给的对象的类型 inspect() 返回值要么是提供已知接口的相关对象,要么在许多情况下返回对象本身。 其基本原理是 inspect() 是双重的。其一是它不再需