当前位置: 首页 > 知识库问答 >
问题:

配置单元进程内存大小

葛承德
2023-03-14

请你能帮助我理解什么是512MB(粗体高亮)在蜂巢上下文?内存大小是多少?我已在hive-site.xml文件中设置了export hadoop_heapsize=4192

hadoop@master:~/hive/conf$ps-ef grep'hive'

hadoop 5587 1 0 2月14日?00:05:27/usr/lib/jvm/default-jdk/bin/java-xmx4192m-djava.net.preferipv4stack=true-dhadoop.log.dir=/home/hadoop/hadoop-2.7.3/logs-dhadoop.log.file=hadoop.log-dhadoop.home.dir=/home/hadoop/hadoop-2.7.3-dhadoop.id.str=hadoop-dhadoop.root.logger=info,console

hadoop 9903 8034 0 10:54 pts/0 00:00:00 grep--color=自动配置单元

hadoop 21646 15918 1 07:37 pts/3 00:03:02/usr/lib/jvm/default-jdk/bin/java-xmx4192m-djava.net.preferipv4stack=true-dhadoop.log.dir=/home/hadoop/hadoop-2.7.3/logs

共有1个答案

姜宏盛
2023-03-14

您编辑的变量是针对客户端的,而不是针对服务器的,并且您不会从XML文件导出任何内容

要配置HiveServer2和配置单元转移的堆大小,请将hadoop_opts变量中的-xmx参数设置为/etc/Hive/hive-env.sh中所需的最大堆大小

VS

 类似资料:
  • 我们正试图在Linux服务器上启动hive元存储,但我们面临一个问题。如果我们尝试使用以下命令启动配置单元元存储服务: sudo hive服务转移 我们会遇到很多这样的错误: 原因:java.sql。SQLException:拒绝用户“hive”@“sandbox.hortonworks的访问。com“(使用密码:YES)在com.mysql.jdbc.SQLError.createSQLExce

  • 我想了解为什么多次动态分配调用的数据比直接在代码中指定的或通过的单个调用分配的数据使用如此多的内存。 例如,我用C编写了以下两个代码: 测试1.c:int x用malloc分配 我在这里没有使用free来保持简单。当程序等待交互时,我查看另一个终端中的顶级功能,它向我显示了以下内容: test2. c: int x不是动态分配的 顶部显示: 我还编写了第三个代码,其结果与test2相同,我在tes

  • 本文向大家介绍cgroup限制mongodb进程内存大小,包括了cgroup限制mongodb进程内存大小的使用技巧和注意事项,需要的朋友参考一下 以限制mongodb的内存大小为例。 通过cgroup限制后,当内存达到限额,进程会被kill。 数据查询脚本: 数据插入脚本:

  • 如果需求构建环境没有指定最大堆内存,守护进程会使用多达1G的堆内存.它将会使用默认的JVM的最小堆内存.1G内存足够应付大多数构建.有数百个子项的构建,大量配置或者源码需求,或者要求有更好的表现,则需要更多地内存 为了提高守护进程可以使用的内存,指定相应的标志作为需求构建环境的一部分,请参见Chapter 20. The Build Environment的详细信息.

  • 我在java中开发了一个工作正常的配置单元udf,我的函数返回输入与配置单元表中列之间的最佳匹配,因此它有以下简化的伪代码: 我的问题是,如果这个函数是由Hive调用的,为什么我需要在代码中连接到Hive?我可以使用使用我的功能的用户所连接的当前连接吗?

  • 我在理解JVM进程如何分配自己的内存方面有一点差距。据我所知 其中堆外由线程堆栈、直接缓冲区、映射文件(库和JAR)和JVM代码本身组成; 目前,我正在尝试分析我的Java应用程序(Spring Boot Infinispan),RSS779M(它在docker容器中运行,所以pid 1是可以的): 换句话说,我想解释799M-(374M 89M)=316M堆外内存。 这些线程中的每一个都消耗1M