当前位置: 首页 > 知识库问答 >
问题:

如何在纱线上的flink作业上配置java home

谷梁弘深
2023-03-14

当我没有配置java home时,我提交了如下作业错误

LogType:jobmanager.err
Log Upload Time:Fri Jan 22 17:27:25 -0800 2021
LogLength:160
Log Contents:
Unrecognized VM option 'MaxMetaspaceSize=268435456'
Error: Could not create the Java Virtual Machine.
Error: A fatal exception has occurred. Program will exit.

共有1个答案

农英杰
2023-03-14

根据您发布的输出,您的问题不是java_path(还没有!)线路

无法识别的VM选项'maxmetaspacesize=268435456'

您需要从配置中删除MaxMetaspaceSize或将其替换为:-xx:MaxMetaspaceSize

 类似资料:
  • 我们正在hadoop 2.6集群上运行Flink 1.5.0纱线会话/料仓/纱线会话。但是,这不会启动任何TaskManager。日志显示Flink JobManager以领导者id 000000开始。。。在JobManager web界面中也没有任务管理器。当我们向这个jobManager提交flink作业时,一些TaskManManager会在执行作业的web界面上生成。这是Flink1.5.

  • 我正在使用spark submit执行以下命令: spark submit script\u测试。py—主纱线—部署模式群集spark submit script\u测试。py—主纱线簇—部署模式簇 这工作做得很好。我可以在Spark History Server UI下看到它。但是,我无法在RessourceManager UI(纱线)下看到它。 我感觉我的作业没有发送到集群,但它只在一个节点上

  • 在ResourceManager节点上启动flink作业(查找配置文件) 从ResourceManager下载配置文件到本地。 我想,这两种方式都不太好。如何将作业提交到远程纱线集群。有没有合适的办法?

  • 我有一个安装了spark的docker容器,我正试图使用马拉松将作业提交给其他集群上的yarn。docker容器有yarn和hadoop conf dir的导出值,yarn文件还包含正确的emr主ip地址,但我不确定它从哪里作为本地主机? 错误:

  • 我们有一些在纱线上运行的flink作业。我们想将flink作业日志上传到ELK以简化调试/分析。目前flink任务管理器将日志写入。我们希望它写入没有嵌套结构的目录。 我试过使用env。日志目录:/mnt/flink。使用此设置时,无法正确传递配置。

  • 我有一个从配置文件读取数据的Spark作业。此文件是一个类型安全配置文件。 我要使用的外部application.conf的内容如下所示: 此application.conf文件存在于我的本地计算机文件系统中(而不是HDFS上) 我用的是Spark1.6.1和纱线 提前致谢