使用log4j2的过程中,日志是安装固定格式输出的。这个格式是pattern所定义的,例如
%d{dd MMM yyyy HH:mm:ss,SSS}: %m%n
但是在有些情况下,想在输出日志时,使用不同的pattern。例如在正常输出日志时,使用系统默认的pattern,在输出spark任务的运行信息时,因为spark任务的运行结果已经使用了log4j的pattern,如果再加上多余的pattern,会显得非常冗余,因此我们只需要使用%m%n即可。 这时可以采用以下方式设置log4j2
<RollingFile name="rollingFile" fileName="${dir}/smarket-gateway.log"
filePattern="${dir}/smarket-gateway-%i.log">
<PatternLayout>
<MarkerPatternSelector defaultPattern="${pattern}">
<PatternMatch key="spark" pattern="%m%n"/>
</MarkerPatternSelector>
</PatternLayout>
<SizeBasedTriggeringPolicy size="10 MB"/>
<DefaultRolloverStrategy max="10"/>
</RollingFile>
表示输出日志时,默认使用一个默认pattern,在遇到key是spark时,使用%m%n这个pattern。 需要输出log时,可以添加marker,maker匹配后即可使用相应的pattern进行日志输出
private val SPARK_MARKER = MarkerFactory.getMarker("spark")
logger.info(SPARK_MARKER, "this is spark log")
这样spark的输出信息在我们的日志文件中出现后,显示的非常自然。