博客
关于我
springboot+logback日志使用
阅读量:768 次
发布时间:2019-03-24

本文共 1685 字,大约阅读时间需要 5 分钟。

技术日志:Spring Boot项目日志框架配置与使用

在项目开发过程中,日志功能是必不可少的组件。考虑到这一重要性, Spring Boot推荐并且默认使用logback作为日志系统,因此我们也需要在项目中构建并配置所需的日志框架。

logback是一款功能强大的日志框架,它支持多种日志级别和输出格式,默认配置文件的名字为logback-spring.xml。因此,我们需要在项目的resource目录下创建一个logback-spring.xml文件。

<配置文件结构概述>

  • logback配置文件的基础结构
  • ${CONSOLE_LOG_PATTERN}
    UTF-8
    ${LOG_PATH}/mybatis.log
    %d{yyyy-MM-dd HH:mm:ss.SSS} [%thread] %-5level %logger{50} - %msg%n
    UTF-8
    <
    1. 日志级别设置与日志文件管理
    2. <服务测试与日志输出验证>

      在进行服务测试时,确保正确设置控制台输出方式。例如,在TestService.java中使用以下代码进行调试:

      public class TestService {    private static final Logger log = LoggerFactory.getLogger(TestService.class);        @Autowired    private Test1Mapper test1Mapper;    @Autowired    private Test2Mapper test2Mapper;    public void getStudents() {        List
      test1 = test1Mapper.getAll(); List
      test2 = test2Mapper.getAll(); log.info("数据源DB1: {}", test1); log.info("数据源DB2: {}", test2); }}

      启动项目,访问http://localhost:8080/test,控制台将显示如下彩色日志格式化输出:

      2019-12-24 10:52:32 INFO [TestService] 数据源DB1: {"id":1,"name":"张三"}2019-12-24 10:52:33 INFO [TestService] 数据源DB2: {"id":2,"name":"李四"}

      注意:请确保logback-spring.xml文件已正确加载,且项目根目录下的application.properties文件包含以下内容:

      logging.level.com.example.mybatis.mapper=debug

      <日志存储目录>

      日志文件将存储在C:\log\mybatis目录下,每天生成新的日志文件,并根据文件大小和日期进行存储管理。

      欢迎在以上基础上进行个性化配置,根据项目需求调整日志输出级别和文件存储策略。

    转载地址:http://odvkk.baihongyu.com/

    你可能感兴趣的文章
    Nhibernate的第一个实例
    查看>>
    NHibernate示例
    查看>>
    nid修改oracle11gR2数据库名
    查看>>
    NIFI1.21.0/NIFI1.22.0/NIFI1.24.0/NIFI1.26.0_2024-06-11最新版本安装_采用HTTP方式_搭建集群_实际操作---大数据之Nifi工作笔记0050
    查看>>
    NIFI1.21.0_java.net.SocketException:_Too many open files 打开的文件太多_实际操作---大数据之Nifi工作笔记0051
    查看>>
    NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
    查看>>
    NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_插入时如果目标表中已存在该数据则自动改为更新数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0058
    查看>>
    NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_更新时如果目标表中不存在记录就改为插入数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0059
    查看>>
    NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
    查看>>
    NIFI1.21.0_Postgresql和Mysql同时指定库_指定多表_全量同步到Mysql数据库以及Hbase数据库中---大数据之Nifi工作笔记0060
    查看>>
    NIFI1.21.0最新版本安装_连接phoenix_单机版_Https登录_什么都没改换了最新版本的NIFI可以连接了_气人_实现插入数据到Hbase_实际操作---大数据之Nifi工作笔记0050
    查看>>
    NIFI1.21.0最新版本安装_配置使用HTTP登录_默认是用HTTPS登录的_Https登录需要输入用户名密码_HTTP不需要---大数据之Nifi工作笔记0051
    查看>>
    NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
    查看>>
    NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增加修改实时同步_使用JsonPath及自定义Python脚本_03---大数据之Nifi工作笔记0055
    查看>>
    NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_插入修改删除增量数据实时同步_通过分页解决变更记录过大问题_01----大数据之Nifi工作笔记0053
    查看>>
    NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表或全表增量同步_实现指定整库同步_或指定数据表同步配置_04---大数据之Nifi工作笔记0056
    查看>>
    NIFI1.23.2_最新版_性能优化通用_技巧积累_使用NIFI表达式过滤表_随时更新---大数据之Nifi工作笔记0063
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现update数据实时同步_实际操作05---大数据之Nifi工作笔记0044
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
    查看>>