当前位置: 首页 > 知识库问答 >
问题:

使用beeline启动配置单元时的OutOfMemoryError

司空瑾瑜
2023-03-14

问题:

SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory]
Error: java.io.IOException: com.google.protobuf.ServiceException: java.lang.OutOfMemoryError: GC overhead limit exceeded (state=,code=0)
Beeline version 0.14.0 by Apache Hive
rm -rf *
$ hive
Error creating temp dir in java.io.tmpdir /tmp due to Read-only file system

需要查看任何特定的配置单元属性吗?

请引导我。如有任何帮助,我将不胜感激

共有1个答案

仰翔
2023-03-14

@Addy,你可以试试下面提到的解决方案。对你应该管用。

if [ "$SERVICE" = "cli" ]; then
  if [ -z "$DEBUG" ]; then
    export HADOOP_OPTS="$HADOOP_OPTS -XX:NewRatio=12 -Xmx12288m -Xms10m -XX:MaxHeapFreeRatio=40 -XX:MinHeapFreeRatio=15 -XX:+useParNewGC -XX:-useGCOverheadLimit"
  else
    export HADOOP_OPTS="$HADOOP_OPTS -XX:NewRatio=12 -Xmx12288m -Xms10m -XX:MaxHeapFreeRatio=40 -XX:MinHeapFreeRatio=15 -XX:-useGCOverheadLimit"
  fi
fi

export HADOOP_HEAPSIZE=2048

有关更多细节,您还可以访问Cloudera管理配置单元的博客。

 类似资料:
  • 错误: hive-site.xml

  • 下面是我在插入请求时遇到的错误: 拒绝权限:user=anonymous,access=write,inode=“/user/hive/warehouse/test_log/.hive-staging_hive_2017-10-07_06-54-36_347_6034469031019245441-1”:hadoop:supergroup:drwxr-xr-x

  • 我们正试图在Linux服务器上启动hive元存储,但我们面临一个问题。如果我们尝试使用以下命令启动配置单元元存储服务: sudo hive服务转移 我们会遇到很多这样的错误: 原因:java.sql。SQLException:拒绝用户“hive”@“sandbox.hortonworks的访问。com“(使用密码:YES)在com.mysql.jdbc.SQLError.createSQLExce

  • 我不知道在Ubuntu17.04的终端中启动hive时发生了什么,我在终端上出现了一些错误。我是一个新的蜂巢面临一些问题与它,谁能帮助我在这方面。 我已经(在.bashrc文件中安装并指定): Hadoop:2.8.0 SLF4J:类路径包含多个SLF4J绑定。slf4j:在[jar:file:/usr/local/src/hive-2.1.1/lib/log4j-Slf4j-impl-2.4.1

  • 我在java中开发了一个工作正常的配置单元udf,我的函数返回输入与配置单元表中列之间的最佳匹配,因此它有以下简化的伪代码: 我的问题是,如果这个函数是由Hive调用的,为什么我需要在代码中连接到Hive?我可以使用使用我的功能的用户所连接的当前连接吗?

  • 直线>!连接JDBC:hive2://hdpmaster:10000 连接到JDBC:hive2://hdpmaster:10000 输入JDBC:hive2://hdpmaster:10000:hdpsyser的用户名 输入JDBC:hive2://hdpmaster:10000:********** 输入密码:hive2://hdpmaster:10000:****** 17/05/09 01