<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE log4j:configuration PUBLIC
"-//APACHE//DTD LOG4J 1.2//EN" "http://logging.apache.org/log4j/1.2/apidocs/org/apache/log4j/xml/doc-files/log4j.dtd">
<Configuration status="WARN" name="MyApp" monitorInterval="30">
<Properties>
<Property name="appName">MyApp</Property>
<Property name="appenderPatternLayout">%d{yyyy-MM-dd HH:mm:ss} %c{1} [%p] %m%n</Property>
<Property name="fileName">/app/vodip/logs/${appName}.log</Property>
</Properties>
<Appenders>
<RollingFile name="RollingFile"
fileName="${fileName}"
filePattern="a1
${appName}-%d{yyyy-MM-dd-HH}-%i.log">
<PatternLayout>
<Pattern>${appenderPatternLayout}</Pattern>
</PatternLayout>
<Policies>
<TimeBasedTriggeringPolicy interval="4" modulate="true"/>
<SizeBasedTriggeringPolicy size="250 MB"/>
</Policies>
</RollingFile>
</Appenders>
<Loggers>
<Logger name="xyz.abcs.MyApp" level="debug" additivity="false">
<AppenderRef ref="RollingFile"/>
</Logger>
<Root level="debug">
<AppenderRef ref="RollingFile"/>
</Root>
</Loggers>
</Configuration>
spark-submit --master spark://xyzzz.net:7077 \
--class abcd.myclass \
--deploy-mode cluster --executor-memory 2G --total-executor-cores 4 \
--conf spark.network.timeout=150 \
--files /app/spark/spark-1.6.1-bin-hadoop2.6/conf/log4j2.xml \
--conf "spark.executor.extraJavaOptions=-Dlog4j.configuration=log4j2.xml" \
--driver-java-options "-Dlog4j.configuration=file:/app/spark/spark-1.6.1-bin-hadoop2.6/conf/log4j2.xml" \
/app/spark/my.jar
log4j:warn可持续解析错误10和列78 log4j:warn文档根元素“configuration”必须与DOCTYPE根“null”匹配。LOG4J:WARN可持续解析错误10和列78 LOG4J:WARN文档无效:找不到语法。log4j:错误DOM元素是-不是元素。使用Spark默认的log4j配置文件:org/apache/spark/log4j-defaults.properties
有人能建议配置有什么问题吗???
命令行中至少有一个错误会导致此错误
-dlog4j.configuration=。..
实际上必须是-dlog4j.configurationfile=。..
使用log4j2时
log4j.configuration
由旧的log4j解析,它显然不理解新的配置格式并引发解析错误
我有一个使用log4j2的java应用程序,它连接到两个不同的mysql实例(一个存储加密数据,一个存储解密数据),每个实例使用多个模式。我正在尝试实现log4j2jdbc Appender,以便使用特定的标记将错误记录到相关的数据库模式中。 但是,我遇到了一个障碍,试图将模式名称动态分配给记录器。这是我的日志4J2。xml配置: 我已经将值添加到ThreadContext中,这种方式适用于此模板
我有一个应用程序,它发送序列化的Twitter数据到一个Kafka主题。到目前为止一切都很好。 使用者应用程序应该读取数据并对其进行反序列化。现在,当我调用时,我认为我放入了正确的参数(正如您在抛出的错误中看到的那样),所以我不明白为什么它不能工作。 KafkaUtils类型中的方法createDirectStream(JavaStreamingContext,class-k-,class-v-,
我正在使用tomcat v8,并试图通过RequestBody向我的REST API发送一个对象。这个REST API基本上是RequestMethod。这个API内部的逻辑是删除RequestBody中传递的对象。 这对我不起作用。我后来不得不将我的方法转换为POST,但我仍然想知道DELETE是否不接受RequestBody? 这是来自Spring框架或REST原则的限制,还是与我的Tomca
下面,我有我试图使用的代码。它总是命中捕捉,返回空。月和日都是整数,它们已经过检查,以确保它们在现有日期内。不管怎样,我用“05”测试一个月,用“02”测试一天。由于某种原因, ##/## 输入不起作用吗? 编辑:我正在尝试格式化此输出,使其看起来像“May 02”。当我查看文档时,我看到页面的很大一部分专门用于格式化输出。为什么我的格式不是这样?
这是我的蓝图代码。 内部消息工作。 外部消息不工作。 我在docker中运行Red Hat AMQ 7和Fuse 7。内部消息队列在服务之间正常工作。 使用AMQ 6,当在activemq中设置时,我能够向61613上的嵌入式代理发送和接收STOMP消息。xml 现在,我正在使用AMQ 7.0的默认设置,它将接受程序设置为0.0.0.0:61616和61613,这两个接受STOMP协议。 但是相同
我正在将现有代码迁移到一个超类/子类的情况下。见下文。 方法在父类中: