当前位置: 首页 > 知识库问答 >
问题:

OutofMemoryError:DBeaver中的Java堆空间[重复]

雍宇定
2023-03-14

我有一个.sql文件,大小1047399kb,我试图在Windows10上运行它,在DBeaver程序上使用4.00GBRAM,我得到Java.lang.outofmemoryerror:Java堆空间错误

我尝试了许多解决办法,但都不起作用。file.sql-xms128m-xmx512mfile.sql-vmargs-xmx1024mfile.sql-xmx800m-xms500m对我都不起作用。

共有1个答案

裴存
2023-03-14

我遇到了同样的问题:每次获得它时,都必须分配更多的空间,并首先使用附加标志-vmargs-xmx*m运行DBeaver本身。将*替换为20484096

在关闭脚本时,DBeaver看起来没有清除垃圾,所以我不得不多次重新启动应用程序来检查所需的内存数量。

@Timothy Jannace刚刚指出,您还可以编辑dbeaver.ini。例子。

 类似资料:
  • 我面临一些关于内存问题的问题,但我无法解决它。非常感谢您的帮助。我不熟悉Spark和pyspark功能,试图读取大约5GB大小的大型JSON文件,并使用 每次运行上述语句时,都会出现以下错误: 我需要以RDD的形式获取JSON数据,然后使用SQLSpark进行操作和分析。但是我在第一步(读取JSON)本身就出错了。我知道要读取如此大的文件,需要对Spark会话的配置进行必要的更改。我遵循了Apac

  • 我有一个Java控制台应用程序,它使用DOM处理大的xml文件,基本上它从数据库中获取的数据创建xml文件。现在,正如你所猜测的那样,它使用了大量的内存,但令我惊讶的是,它与糟糕的代码无关,而是与“Java堆空间没有缩小”有关。我尝试使用这些JVM参数从Eclipse运行我的应用程序: 我甚至添加了 正如您所看到的,我的应用程序在某一点上占用了约400 MB的堆空间,堆增长到约650 MB,但几秒

  • 当我使用spark运行一个模型训练管道时,我产生了上面的错误 oom错误由org.apache.spark.util.Collection.ExternalSorter.WritePartitionedFile(ExternalSorter.Scala:706)触发(在堆栈跟踪的底部) 日志: 任何建议都会很棒:)

  • 我在用grails跑步https://github.com/Netflix/ice但我只是无法让服务器运行,出现以下错误: |错误2014-06-06 14:52:55978[localhost-startStop-1]错误上下文。GrailsContextLoader-初始化应用程序时出错:com。谷歌。常见的util。同时发生的ExecutionError:java。lang.OutOfMem

  • 在Ubuntu中,当我运行hadoop示例时: 在日志中,我得到的错误为: 信息映射。JobClient:任务Id:尝试\u 201303251213\u 0012\u m\u000000 \u 2,状态:失败错误:Java堆空间13/03/25 15:03:43信息映射。JobClient:任务Id:trunt\u 201303251213\u 0012\u m\00000 1\u 2,状态:F

  • 突然我的应用程序无法运行并弹出此错误...这个错误有什么想法吗?努力了还是解决不了... Java堆空间绑定文件。例如,在gradle.properties文件中,以下行将最大Java堆大小设置为1,024 MB:org.gradle.jvmargs=-Xmx1024m阅读Gradle的配置指南 阅读Java的堆大小