我在azure databricks上配置了一个集群,它使用6.4版本(包括Apache Spark 2.4.5和Scala 2.11)。发现此版本已弃用。该集群配置为在启动时运行2个脚本,并且一切正常。
我需要配置同一个集群,但在另一个azure环境中,我创建了与其他正在工作的集群一样的所有内容,但由于此运行时版本已弃用,我使用“新”可用版本6.4扩展支持(包括Apache Spark 2.4.5、Scala 2.11)对其进行了配置。通过此运行时更改,我在运行初始化脚本时启动集群时收到错误。
日志初始化脚本完成
文件“dbfs:/FileStore/tables/init\u install.sh”如下所示:
apt update -y
apt-get install libav-tools libavcodec-extra -y --fix-missing
我研究了这两个运行时版本之间存在的变化,发现了以下页面:https://docs.databricks.com/release-notes/runtime/6.4x.html
帮我弄清楚我需要在这个文件中更改什么才能与这个新的运行时版本兼容?
谢谢
似乎此问题与运行时版本无关。由于您正试图在另一个azure环境中创建群集,因此相应的初始化脚本位置将不可用。DBFS位置位于工作空间级别。因此,在另一个azure环境中,相应的相同位置将不存在。这就是发生此问题的原因。这样,您就可以在预期的azure环境中创建init脚本文件,并通过集群UI连接到该集群。
如何创建初始化脚本:
dbutils.fs.put("/FileStore/tables/init_install.sh","""
apt update -y
apt-get install libav-tools libavcodec-extra -y --fix-missing""", True)
更新集群配置中的相应位置:
我完全意识到这个问题已经在这个帖子里被问过了: Cassandra:未支持的ClassVersionError 但是,我接受那里给出的答案并不能解决我的问题,因为我确实有一个当前版本的Java,详情如下: java版本“1.7.0_45”java(TM)SE运行时环境(版本1.7-0_45B18)java热点(TM)客户端虚拟机(版本24.45-b08,混合模式,共享) 知道这一点,我在启动Cas
Kubernetes是一个高度开放可扩展的架构,可以通过自定义资源类型CRD来定义自己的类型,还可以自己来扩展API服务,用户的使用方式跟Kubernetes的原生对象无异。
扩展说明 当有多个服务提供方时,将多个服务提供方组织成一个集群,并伪装成一个提供方。 扩展接口 org.apache.dubbo.rpc.cluster.Cluster 扩展配置 <dubbo:protocol cluster="xxx" /> <!-- 缺省值配置,如果<dubbo:protocol>没有配置cluster时,使用此配置 --> <dubbo:provider cluster="
使用Eclipse Juno Service Release 1,我创建了一个Google App Engine项目,然后手动将JAX-RS和JAXB jar文件复制到war/WEB-INF/lib中(因为试图在“项目方面”属性中添加JAX-RS会导致错误,即需要安装动态WEB模块,我认为这是不需要的,因为jar已经包含在GAE项目中? 当我在本地运行时,项目启动正常,我可以导航到我的虚拟rest
请参阅我能够启用HTTP/2支持jetty服务器与JDK8的用户交互界面通过排除tomcat启动器和添加jetty启动到Spring Web配置,还添加了jetty-alpn-conscrypt-server, http2-server依赖。 但是在使用Netty server的Spring Cloud API网关端,我尝试了所有步骤,但都没有弄清楚,如何在Spring Cloud API网关中启
Electron 支持 Chrome 扩展API的子集, 主要是支持 DevTools 扩展和 Chromium-internal 扩展,但它同时也支持一些其他扩展能。 注意:Electron 不支持商店中的任意 Chrome 扩展,Electron 项目的目标不是与 Chrome 的扩展实现完全兼容。 加载扩展 Electron 只支持加载未打包的扩展 (即不能使用 .crx 文件)。 插件会被