当前位置: 首页 > 知识库问答 >
问题:

如何在Databricks笔记本中导入自定义库?

陈渊
2023-03-14

在本教程之后,我在数据库中的集群上上传了一个jar库,但是我无法从数据库笔记本中导入该库或使用该库的方法。我无法找到解决此主题的论坛或留档,所以我不确定此时是否可能。

我可以在Database ricks中将jar文件作为作业运行,只是无法将jar库导入Notebook以从那里运行它。

我还尝试使用%sh魔术命令运行jar文件,但收到以下JNI错误

Error: A JNI error has occurred, please check your installation and try again
Exception in thread "main" java.lang.NoClassDefFoundError: scala/Function0

共有1个答案

颜畅
2023-03-14

此错误通常是由Scala版本引起的。我建议升级Scala版本,然后尝试导入自定义库。

错误:出现JNI错误,请检查您的安装并重试线程“main”Java . lang . noclassdeffounderror中的异常:scala/Function0

Refer -线程“main”中的Apache Spark异常Java . lang . noclassdeffounderror:Scala/collection/GenTraversableOnce $ class

 类似资料:
  • 我有一个Jupyter笔记本,我试图将一个键作为字符串从外部函数导入。在pyspark中,所有代码都可以正常工作 配置。py 在笔记本上打电话: 但是,当我尝试在Scala Spark中做同样的事情时,笔记本会给我一个未找到的错误 "未找到:value testMap" 测试图。斯卡拉 我在做同样的火花ontext.addfile: 这个导入:

  • 根据data bricks docs-https://docs . data bricks . com/data/data-sources/azure/cosmos db-connector . html,我已经下载了最新的azure-cosmosdb-spark库(azure-cosmos db-spark _ 2 . 4 . 0 _ 2.11-2 . 1 . 2-Uber . jar)并放在d

  • 我想在任何目录的任何脚本中导入自定义编写的函数,就像在任何脚本中导入请求模块一样。我正在运行Ubuntu和Python 3.9 编辑:我按照本教程完成了我的要求-https://packaging.python.org/tutorials/packaging-projects/

  • 我想将一些通用功能外包给一个模块中的多个笔记本电脑(也用于测试目的)。当前目录结构如下所示 在中,有一个简单的函数 然而,当我想导入和使用在通过使用(我认为有意义的) 我得到一个。我做错了什么?我正在使用Python 3.9。

  • C:\users\user\appdata\local\programs\python\python37\lib\site-packages\scipy__init__.py在154#中,这使得“from scipy import fft”返回scipy.fft,而不是np.fft 155 del fft-->156 from。导入fft C:\users\user\appdata\local\p

  • 问题内容: 我有一个名为imutils.py的文件,只有一个定义,即abc(),它返回2个整数的总和。 现在,我想在单独的collab文件中使用此定义,但是我无法使用。 我使用的方法是先将文件imutils.py上传到驱动器,然后将其导入并使用定义。错误提示模块’imutils’没有属性’abc’ 要上传,我首先使用2种方法:首先,我使用驱动器GUI上传,然后我也使用代码尝试了上述方法。两种情况均