我目前正在运行CentOS的服务器上配置hadoop。当运行start-dfs.sh
或stop-dfs.sh
时,会出现以下错误:
警告Util.NativeCodeLoader:无法为您的平台加载native-hadoop库...在适用的情况下使用builtin-java类
我运行的是Hadoop 2.2.0。
但是,Hadoop2.x上/native/
目录的内容似乎不同,所以我不知道该怎么办。
我还在hadoop-env.sh
中添加了这两个环境变量:
导出hadoop_opts=“$hadoop_opts-djava.library.path=/usr/local/hadoop/lib/”
导出hadoop_common_lib_native_dir=“/usr/local/hadoop/lib/native/”
有什么想法吗?
我假设您正在64位CentOS上运行Hadoop。您看到警告的原因是本机Hadoop库$hadoop_home/lib/native/libhadoop.so.1.0.0
实际上是在32位上编译的。
无论如何,这只是一个警告,不会影响Hadoop的功能。
如果您确实想消除此警告,请下载Hadoop的源代码,并在64位系统上重新编译libhadoop.so.1.0.0
,然后替换32位系统。
问题内容: 我目前正在运行 CentO 的服务器上配置hadoop 。运行或时,出现以下错误: WARN util.NativeCodeLoader:无法为您的平台加载本地hadoop库…在适当情况下使用内置java类 我正在运行 Hadoop 2.2.0。 在线进行搜索会显示以下链接:http : //balanceandbreath.blogspot.ca/2013/01/utilnative
问题内容: 我目前正在运行CentO的服务器上配置hadoop 。运行或时,出现以下错误: WARN util.NativeCodeLoader:无法为你的平台加载本地hadoop库…在适当情况下使用内置java类 我正在运行Hadoop 2.2.0。 在线进行搜索会显示以下链接:http : //balanceandbreath.blogspot.ca/2013/01/utilnativecod
我正在尝试从Spark开始。我的库中有Hadoop(3.3.1)和Spark(3.2.2)。我已经将SPARK_HOME、PATH、HADOOP_HOME和LD_LIBRARY_PATH设置为各自的路径。我还在运行JDK 17(在终端中回声和-version工作正常)。 然而,我仍然得到以下错误: 有没有办法解决这个问题?
会是什么原因呢?我不明白。 是我的输出文件。
我在用Docker-Spark。启动后,它输出: 这个的环境变量是: 它仍然不能工作,并报告相同的错误。 有人能给出一些关于这个问题的线索吗?