Logback配置文件这么写,还愁不会整理日志?

栏目: IT技术 · 发布时间: 3年前

内容简介:1.日志输出到文件并根据2.通过异步输出日志减少磁盘1、配置文件logback-spring.xml

摘要:

1.日志输出到文件并根据 LEVEL 级别将日志分类保存到不同文件

2.通过异步输出日志减少磁盘 IO 提高性能

3.异步输出日志的原理

1、配置文件logback-spring.xml

SpringBoot 工程自带 logback slf4j 的依赖,所以重点放在编写配置文件上,需 要引入什么依赖,日志依赖冲突 统统都不需要我们管了。

logback 框架会默认加载 classpath 下命名为 logback-spring.xml logback.xml 的配置文件。

如果将所有日志都存储在一个文件中,文件大小也随着应用的运行越来越大并且不好排查问题,正确的做法应该是将 error 日志和其他日志分开,并且不同级别的日志根据时间段进行记录存储。

配置文件:

<?xml version="1.0" encoding="UTF-8"?>
<configuration debug="true">
    <!-- 项目名称 -->
    <property name="PROJECT_NAME" value="project-api" />
    <!--定义日志文件的存储地址 勿在 LogBack 的配置中使用相对路径-->
    <property name="LOG_HOME" value="logs" />

    <!-- 控制台输出 -->
    <appender name="CONSOLE">        
        <withJansi>true</withJansi>
        <encoder>
            <!-- 格式化输出: %d: 日期; %-5level: 级别从左显示5个字符宽度; %thread: 线程名; %logger: 类名; %M: 方法名; %line: 行号; %msg: 日志消息; %n: 换行符 -->
            <pattern>[%d{yyyy-MM-dd HH:mm:ss.SSS}] [%-5level] [%thread] [%logger{50}] [%M] [%line] - %msg%n</pattern>
            <charset>UTF-8</charset>
        </encoder>
    </appender>

    <!-- ERROR日志文件,记录错误日志 -->
    <appender name="ERROR_FILE">
        <file>${LOG_HOME}/${PROJECT_NAME}/error.log</file>
        <!-- 过滤器,只打印ERROR级别的日志 -->
        <filter>
            <level>ERROR</level>
            <onMatch>ACCEPT</onMatch>
            <onMismatch>DENY</onMismatch>
        </filter>
        <rollingPolicy>
            <!--日志文件输出的文件名-->
            <FileNamePattern>${LOG_HOME}/${PROJECT_NAME}/%d{yyyy-MM-dd}/error.%i.zip</FileNamePattern>
            <!--日志文件保留天数-->
            <MaxHistory>3650</MaxHistory>
            <!--日志文件最大的大小-->
            <MaxFileSize>100MB</MaxFileSize>
        </rollingPolicy>
        <encoder>
            <!-- 格式化输出: %d: 日期; %-5level: 级别从左显示5个字符宽度; %thread: 线程名; %logger: 类名; %M: 方法名; %line: 行号; %msg: 日志消息; %n: 换行符 -->
            <pattern>[%d{yyyy-MM-dd HH:mm:ss.SSS}] [%-5level] [%thread] [%logger{50}] [%M] [%line] - %msg%n</pattern>
            <charset>UTF-8</charset>
        </encoder>
    </appender>

    <!-- INFO日志文件,用于记录重要日志信息 -->
    <appender name="INFO_FILE">
        <file>${LOG_HOME}/${PROJECT_NAME}/info.log</file>
        <!-- 过滤器,只打印INFO级别的日志 -->
        <filter>
            <level>INFO</level>
            <onMatch>ACCEPT</onMatch>
            <onMismatch>DENY</onMismatch>
        </filter>
        <rollingPolicy>
            <!--日志文件输出的文件名-->
            <FileNamePattern>${LOG_HOME}/${PROJECT_NAME}/%d{yyyy-MM-dd}/info.%i.zip</FileNamePattern>
            <!--日志文件保留天数-->
            <MaxHistory>3650</MaxHistory>
            <!--日志文件最大的大小-->
            <MaxFileSize>100MB</MaxFileSize>
        </rollingPolicy>
        <encoder>
            <!-- 格式化输出: %d: 日期; %-5level: 级别从左显示5个字符宽度; %thread: 线程名; %logger: 类名; %M: 方法名; %line: 行号; %msg: 日志消息; %n: 换行符 -->
            <pattern>[%d{yyyy-MM-dd HH:mm:ss.SSS}] [%-5level] [%thread] [%logger{50}] [%M] [%line] - %msg%n</pattern>
            <charset>UTF-8</charset>
        </encoder>
    </appender>
    
    <!-- 打印的 SQL 日志文件,用于执行的SQL语句和参数信息 -->
    <appender name="SQL_FILE">
        <file>${LOG_HOME}/${PROJECT_NAME}/sql.log</file>
           <rollingPolicy>
               <!--日志文件输出的文件名-->
               <FileNamePattern>${LOG_HOME}/${PROJECT_NAME}/%d{yyyy-MM-dd}/sql.%i.zip</FileNamePattern>
               <!--日志文件保留天数-->
              <MaxHistory>3650</MaxHistory>
               <!--日志文件最大的大小-->
               <MaxFileSize>100MB</MaxFileSize>
           </rollingPolicy>
           <encoder>
            <!-- 格式化输出: %d: 日期; %-5level: 级别从左显示5个字符宽度; %thread: 线程名; %logger: 类名; %M: 方法名; %line: 行号; %msg: 日志消息; %n: 换行符 -->
               <pattern>[%d{yyyy-MM-dd HH:mm:ss.SSS}] [%-5level] [%thread] [%logger{50}] [%M] [%line] - %msg%n</pattern>
            <charset>UTF-8</charset>
        </encoder>
    </appender>

    <!-- API请求被访问的日志文件,记录请求的URL和携带的参数 -->
    <appender name="REQUEST_FILE">
        <file>${LOG_HOME}/${PROJECT_NAME}/request.log</file>
        <rollingPolicy>
            <!--日志文件输出的文件名-->
               <FileNamePattern>${LOG_HOME}/${PROJECT_NAME}/%d{yyyy-MM-dd}/request.%i.zip</FileNamePattern>
               <!--日志文件保留天数-->
              <MaxHistory>3650</MaxHistory>
               <!--日志文件最大的大小-->
               <MaxFileSize>100MB</MaxFileSize>
        </rollingPolicy>
        <encoder>
               <!-- 格式化输出: %d: 日期; %-5level: 级别从左显示5个字符宽度; %thread: 线程名; %logger: 类名; %M: 方法名; %line: 行号; %msg: 日志消息; %n: 换行符 -->
               <pattern>[%d{yyyy-MM-dd HH:mm:ss.SSS}] [%-5level] [%thread] [%logger{50}] [%M] [%line]- %msg%n</pattern>
            <charset>UTF-8</charset>
        </encoder>
    </appender>

    <!-- 异步输出INFO_FILE -->
    <appender name="ASYNC_INFO_FILE">
        <!-- 更改默认的队列的深度,该值会影响性能.默认值为256 -->
        <queueSize>256</queueSize>
        <!-- 默认情况下,当阻塞队列的剩余容量为20%时,它将丢弃TRACE,DEBUG和INFO级别的事件,仅保留WARN和ERROR级别的事件。要保留所有事件,请将discardingThreshold设置为0。 -->
        <discardingThreshold>0</discardingThreshold>
        <!-- 添加附加的appender,使用前面定义的name,最多只能添加一个 -->
        <appender-ref ref="INFO_FILE"/>
    </appender>

    <!-- 异步输出ERROR_FILE -->
    <appender name="ASYNC_ERROR_FILE">
        <!-- 更改默认的队列的深度,该值会影响性能.默认值为256 -->
        <queueSize>256</queueSize>
        <!-- 默认情况下,当阻塞队列的剩余容量为20%时,它将丢弃TRACE,DEBUG和INFO级别的事件,仅保留WARN和ERROR级别的事件。要保留所有事件,请将discardingThreshold设置为0。 -->
        <discardingThreshold>0</discardingThreshold>
        <!-- 添加附加的appender,使用前面定义的name,最多只能添加一个 -->
        <appender-ref ref="ERROR_FILE"/>
    </appender>

    <!-- 异步输出SQL_FILE -->
    <appender name="ASYNC_SQL_FILE">
        <!-- 更改默认的队列的深度,该值会影响性能.默认值为256 -->
        <queueSize>256</queueSize>
        <!-- 默认情况下,当阻塞队列的剩余容量为20%时,它将丢弃TRACE,DEBUG和INFO级别的事件,仅保留WARN和ERROR级别的事件。要保留所有事件,请将discardingThreshold设置为0。 -->
        <discardingThreshold>0</discardingThreshold>
        <!-- 添加附加的appender,使用前面定义的name,最多只能添加一个 -->
        <appender-ref ref="SQL_FILE"/>
    </appender>

    <!-- 异步输出REQUEST_FILE -->
    <appender name="ASYNC_REQUEST_FILE">
        <!-- 更改默认的队列的深度,该值会影响性能.默认值为256 -->
        <queueSize>256</queueSize>
        <!-- 默认情况下,当阻塞队列的剩余容量为20%时,它将丢弃TRACE,DEBUG和INFO级别的事件,仅保留WARN和ERROR级别的事件。要保留所有事件,请将discardingThreshold设置为0。 -->
        <discardingThreshold>0</discardingThreshold>
        <!-- 添加附加的appender,使用前面定义的name,最多只能添加一个 -->
        <appender-ref ref="REQUEST_FILE"/>
    </appender>

    <!-- 输出error信息到文件-->
    <logger name="error" additivity="true">
        <appender-ref ref="ERROR_FILE"/>
    </logger>
    
    <!-- 输出info信息到文件-->
    <logger name="info" additivity="true">
        <appender-ref ref="INFO_FILE"/>
    </logger>
    
    <!-- 输出request信息到文件-->
    <logger name="request" level="INFO" additivity="false">
        <appender-ref ref="REQUEST_FILE" />
    </logger>

    <!-- 输出SQL到控制台和文件-->
    <logger name="org.hibernate.SQL" additivity="false">
        <level value="DEBUG" />
        <appender-ref ref="SQL_FILE" />
    </logger>

   <!-- 输出SQL的参数到控制台和文件-->
    <logger name="org.hibernate.type.descriptor.sql.BasicBinder" additivity="false" level="TRACE">
        <level value="TRACE" />
        <appender-ref ref="SQL_FILE" />
    </logger>

    <!-- 开发环境下的日志配置 -->
    <springProfile name="dev">
        <root level="INFO">
            <appender-ref ref="CONSOLE" />
            <appender-ref ref="ERROR_FILE" />
            <appender-ref ref="INFO_FILE" />
        </root>
    </springProfile>

    <!-- 测试环境下的日志配置 -->
    <springProfile name="test">
        <root level="INFO">
            <appender-ref ref="CONSOLE" />
            <appender-ref ref="ERROR_FILE" />
            <appender-ref ref="INFO_FILE" />
        </root>
    </springProfile>

    <!-- 生产环境下的日志配置 -->
    <springProfile name="prod">
        <root level="INFO">
            <appender-ref ref="CONSOLE" />
            <appender-ref ref="ERROR_FILE" />
            <appender-ref ref="INFO_FILE" />
        </root>
    </springProfile>
</configuration>

标签说明

<root> 标签,必填标签,用来指定最基础的日志输出级别

<appender-ref> 标签,添加 append

<append> 标签,通过使用该标签指定日志的收集策略

<filter> 标签,通过使用该标签指定过滤策略

<level> 标签指定过滤的类型

<encoder> 标签,使用该标签下的 <pattern> 标签指定日志输出格式

<rollingPolicy> 标签指定收集策略,比如基于时间进行收集

<fileNamePattern>

标签指定生成日志保存地址,通过这样配置已经实现了分类分日期收集日志的目标了

name 属性指定 appender 命名

class 属性指定输出策略,通常有两种, 控制台输出文件输出 ,文件输出就是将日志进行一个持久化

ConsoleAppender

将日志输出到控制台

部分截图展示:

目录:

Logback配置文件这么写,还愁不会整理日志?

error.log

Logback配置文件这么写,还愁不会整理日志?

info.log

Logback配置文件这么写,还愁不会整理日志?

sql.log

Logback配置文件这么写,还愁不会整理日志?

request.log

Logback配置文件这么写,还愁不会整理日志?

2、logback 高级特性异步输出日志

如果不配置异步输出规则,那么默认日志配置方式是基于同步的,每次日志输出到文件都会进行一次磁盘 IO

采用异步写日志的方式而不让此次写日志发生磁盘 IO ,阻塞线程从而造成不必要的性能损耗。

异步输出日志的方式很简单,添加一个基于异步写日志的 appender ,并指向原先配置的 appender 即可。

异步输出配置:

<!-- 异步输出INFO_FILE -->
    <appender name="ASYNC_INFO_FILE">
        <!-- 更改默认的队列的深度,该值会影响性能.默认值为256 -->
        <queueSize>256</queueSize>
        <!-- 默认情况下,当阻塞队列的剩余容量为20%时,它将丢弃TRACE,DEBUG和INFO级别的事件,仅保留WARN和ERROR级别的事件。要保留所有事件,请将discardingThreshold设置为0。 -->
        <discardingThreshold>0</discardingThreshold>
        <!-- 添加附加的appender,使用前面定义的name,最多只能添加一个 -->
        <appender-ref ref="INFO_FILE"/>
    </appender>

    <!-- 异步输出ERROR_FILE -->
    <appender name="ASYNC_ERROR_FILE">
        <!-- 更改默认的队列的深度,该值会影响性能.默认值为256 -->
        <queueSize>256</queueSize>
        <!-- 默认情况下,当阻塞队列的剩余容量为20%时,它将丢弃TRACE,DEBUG和INFO级别的事件,仅保留WARN和ERROR级别的事件。要保留所有事件,请将discardingThreshold设置为0。 -->
        <discardingThreshold>0</discardingThreshold>
        <!-- 添加附加的appender,使用前面定义的name,最多只能添加一个 -->
        <appender-ref ref="ERROR_FILE"/>
    </appender>

    <!-- 异步输出SQL_FILE -->
    <appender name="ASYNC_SQL_FILE">
        <!-- 更改默认的队列的深度,该值会影响性能.默认值为256 -->
        <queueSize>256</queueSize>
        <!-- 默认情况下,当阻塞队列的剩余容量为20%时,它将丢弃TRACE,DEBUG和INFO级别的事件,仅保留WARN和ERROR级别的事件。要保留所有事件,请将discardingThreshold设置为0。 -->
        <discardingThreshold>0</discardingThreshold>
        <!-- 添加附加的appender,使用前面定义的name,最多只能添加一个 -->
        <appender-ref ref="SQL_FILE"/>
    </appender>

    <!-- 异步输出REQUEST_FILE -->
    <appender name="ASYNC_REQUEST_FILE">
        <!-- 更改默认的队列的深度,该值会影响性能.默认值为256 -->
        <queueSize>256</queueSize>
        <!-- 默认情况下,当阻塞队列的剩余容量为20%时,它将丢弃TRACE,DEBUG和INFO级别的事件,仅保留WARN和ERROR级别的事件。要保留所有事件,请将discardingThreshold设置为0。 -->
        <discardingThreshold>0</discardingThreshold>
        <!-- 添加附加的appender,使用前面定义的name,最多只能添加一个 -->
        <appender-ref ref="REQUEST_FILE"/>
    </appender>

参数配置:

参数名称 参数类型 建议值 说明
queueSize int queueSize计算
example:假设IO影响30s,日志和qps比例是1:1,单容器压测值1500 qps则可以推算出queue size的值,queueSize的设置公式:30 *1500=45000。
阻塞队列的最大容量。默认情况下,queueSize设置为256。
discardingThreshold int

使用默认值20,或者设置大于0。

如果设置discardingThreshold=0,表示queue 满了,不丢弃,block线程。

默认情况下,当阻塞队列剩余20%的容量时,它将丢弃级别跟踪、调试和信息事件,只保留级别警告和错误事件。要保留所有事件,请将discardingThreshold设置为0。
neverBlock boolean true 如果为false(默认值),则追加程序将阻止追加到完整队列,而不是丢失消息。设置为true时,附加程序只会丢弃消息,不会阻止您的应用程序。

官方文档链接: http://logback.qos.ch/manual/appenders.html#AsyncAppender

3、异步日志输出原理

异步输出日志中最关键的就是配置文件中 ch.qos.logback.classic 包下 AsyncAppenderBase 类中的 append 方法,查看该方法的源码:

@Override
protected void append(E eventObject) {
    if (isQueueBelowDiscardingThreshold() && isDiscardable(eventObject)) {
        return;
    }
    preprocess(eventObject);
    put(eventObject);
}

通过队列情况判断是否需要丢弃日志,不丢弃的话将它放到阻塞队列中,通过查看代码,这个阻塞队列为 queueSize ,默认大小为256,可以通过配置文件进行修改。

/**
 * The default buffer size.
 */
public static final int DEFAULT_QUEUE_SIZE = 256;
int queueSize = DEFAULT_QUEUE_SIZE;

Logger.info(...)append(...) 就结束了,只做了将日志塞入到阻塞队列的事,然后继续执行 Logger.info(...) 下面的语句了。在 AsyncAppenderBase 类中定义了一个 Worker 线程, run() 方法中的代码如下:

Worker worker = new Worker();
class Worker extends Thread {

    public void run() {
        AsyncAppenderBase<E> parent = AsyncAppenderBase.this;
        AppenderAttachableImpl<E> aai = parent.aai;

        // loop while the parent is started
        while (parent.isStarted()) {
            try {
                E e = parent.blockingQueue.take();
                aai.appendLoopOnAppenders(e);
            } catch (InterruptedException ie) {
                break;
            }
        }

        addInfo("Worker thread will flush remaining events before exiting. ");

        for (E e : parent.blockingQueue) {
            aai.appendLoopOnAppenders(e);
            parent.blockingQueue.remove(e);
        }

        aai.detachAndStopAllAppenders();
    }
}

从阻塞队列中取出一个日志,并调用 AppenderAttachableImpl 类中的 appendLoopOnAppenders 方法维护一个 Append 列表。

Logback配置文件这么写,还愁不会整理日志?

最主要的两个方法就是 encodewrite 方法,前一个法方会根据配置文件中 encode 指定的方式转化为字节码,后一个方法将转化成的字节码写入到文件中去。

所以写文件是通过新起一个线程去完成的,主线程将日志放到阻塞队列中,然后又去执行其他任务。


以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

Web开发敏捷之道

Web开发敏捷之道

Sam Ruby、Dave Thomas、David Heineme Hansson / 慕尼黑Isar工作组、骆古道 / 机械工业出版社 / 2012-3-15 / 59.00元

本书第1版曾荣获Jolt大奖“最佳技术图书”奖。在前3版的内容架构基础上,第4版增加了关于Rails中新特性和最佳实践的内容。本书从逐步创建一个真正的应用程序开始,然后介绍Rails的内置功能。全书分为3部分,第一部分介绍Rails的安装、应用程序验证、Rails框架的体系结构,以及Ruby语言的知识;第二部分用迭代方式创建应用程序,然后依据敏捷开发模式搭建测试案例,最终用Capistrano完成......一起来看看 《Web开发敏捷之道》 这本书的介绍吧!

URL 编码/解码
URL 编码/解码

URL 编码/解码

SHA 加密
SHA 加密

SHA 加密工具

RGB HSV 转换
RGB HSV 转换

RGB HSV 互转工具