当前位置: 首页 > 知识库问答 >
问题:

Spark不接受log4j2.xml

夔庆
2023-03-14
<?xml version="1.0" encoding="UTF-8"?>

<!DOCTYPE log4j:configuration PUBLIC
  "-//APACHE//DTD LOG4J 1.2//EN" "http://logging.apache.org/log4j/1.2/apidocs/org/apache/log4j/xml/doc-files/log4j.dtd">

<Configuration status="WARN" name="MyApp" monitorInterval="30">

        <Properties>
            <Property name="appName">MyApp</Property>
            <Property name="appenderPatternLayout">%d{yyyy-MM-dd HH:mm:ss} %c{1} [%p] %m%n</Property>
            <Property name="fileName">/app/vodip/logs/${appName}.log</Property>
        </Properties>

        <Appenders>
            <RollingFile name="RollingFile"
                         fileName="${fileName}"
                         filePattern="a1
                         ${appName}-%d{yyyy-MM-dd-HH}-%i.log">
                <PatternLayout>
                    <Pattern>${appenderPatternLayout}</Pattern>
                </PatternLayout>
                <Policies>
                    <TimeBasedTriggeringPolicy interval="4" modulate="true"/>
                    <SizeBasedTriggeringPolicy size="250 MB"/>
                </Policies>
            </RollingFile>
        </Appenders>


      <Loggers>
          <Logger name="xyz.abcs.MyApp" level="debug" additivity="false">
              <AppenderRef ref="RollingFile"/>
          </Logger>
          <Root level="debug">
              <AppenderRef ref="RollingFile"/>
          </Root>
      </Loggers>

    </Configuration>
spark-submit --master spark://xyzzz.net:7077 \
--class abcd.myclass \
--deploy-mode cluster --executor-memory 2G --total-executor-cores 4  \
--conf spark.network.timeout=150 \
--files /app/spark/spark-1.6.1-bin-hadoop2.6/conf/log4j2.xml \
--conf "spark.executor.extraJavaOptions=-Dlog4j.configuration=log4j2.xml" \
--driver-java-options "-Dlog4j.configuration=file:/app/spark/spark-1.6.1-bin-hadoop2.6/conf/log4j2.xml" \
/app/spark/my.jar

log4j:warn可持续解析错误10和列78 log4j:warn文档根元素“configuration”必须与DOCTYPE根“null”匹配。LOG4J:WARN可持续解析错误10和列78 LOG4J:WARN文档无效:找不到语法。log4j:错误DOM元素是-不是元素。使用Spark默认的log4j配置文件:org/apache/spark/log4j-defaults.properties

有人能建议配置有什么问题吗???

共有1个答案

伯庆
2023-03-14

命令行中至少有一个错误会导致此错误

-dlog4j.configuration=。..实际上必须是-dlog4j.configurationfile=。..使用log4j2时

log4j.configuration由旧的log4j解析,它显然不理解新的配置格式并引发解析错误

 类似资料:
  • 我有一个使用log4j2的java应用程序,它连接到两个不同的mysql实例(一个存储加密数据,一个存储解密数据),每个实例使用多个模式。我正在尝试实现log4j2jdbc Appender,以便使用特定的标记将错误记录到相关的数据库模式中。 但是,我遇到了一个障碍,试图将模式名称动态分配给记录器。这是我的日志4J2。xml配置: 我已经将值添加到ThreadContext中,这种方式适用于此模板

  • 我有一个应用程序,它发送序列化的Twitter数据到一个Kafka主题。到目前为止一切都很好。 使用者应用程序应该读取数据并对其进行反序列化。现在,当我调用时,我认为我放入了正确的参数(正如您在抛出的错误中看到的那样),所以我不明白为什么它不能工作。 KafkaUtils类型中的方法createDirectStream(JavaStreamingContext,class-k-,class-v-,

  • 我正在使用tomcat v8,并试图通过RequestBody向我的REST API发送一个对象。这个REST API基本上是RequestMethod。这个API内部的逻辑是删除RequestBody中传递的对象。 这对我不起作用。我后来不得不将我的方法转换为POST,但我仍然想知道DELETE是否不接受RequestBody? 这是来自Spring框架或REST原则的限制,还是与我的Tomca

  • 下面,我有我试图使用的代码。它总是命中捕捉,返回空。月和日都是整数,它们已经过检查,以确保它们在现有日期内。不管怎样,我用“05”测试一个月,用“02”测试一天。由于某种原因, ##/## 输入不起作用吗? 编辑:我正在尝试格式化此输出,使其看起来像“May 02”。当我查看文档时,我看到页面的很大一部分专门用于格式化输出。为什么我的格式不是这样?

  • 这是我的蓝图代码。 内部消息工作。 外部消息不工作。 我在docker中运行Red Hat AMQ 7和Fuse 7。内部消息队列在服务之间正常工作。 使用AMQ 6,当在activemq中设置时,我能够向61613上的嵌入式代理发送和接收STOMP消息。xml 现在,我正在使用AMQ 7.0的默认设置,它将接受程序设置为0.0.0.0:61616和61613,这两个接受STOMP协议。 但是相同

  • 我正在将现有代码迁移到一个超类/子类的情况下。见下文。 方法在父类中: