Druid是阿里巴巴开发的号称为监控而生的数据库连接池,在功能、性能、扩展性方面,都超过其他数据库连接池,包括DBCP、C3P0、BoneCP、Proxool、JBoss DataSource等,秒杀一切。
Druid 可以很好的监控 DB 池连接和 SQL 的执行情况,天生就是针对监控而生的 DB 连接池。
Druid 是一个 JDBC 组件,它包括三部分:?
DruidDriver 代理 Driver,能够提供基于 Filter-Chain 模式的插件体系。?
DruidDataSource 高效可管理的数据库连接池。?
SQLParser?
Druid 可以做什么??
? ? ? ? 可以监控数据库访问性能,Druid 内置提供了一个功能强大的 StatFilter 插件,能够详细统计 SQL 的执行性能,这对于线上分析数据库访问性能有帮助。?
? ? ? ? 替换?DBCP?和?C3P0。Druid 提供了一个高效、功能强大、可扩展性好的数据库连接池。?
? ? ? ? 数据库密码加密。直接把数据库密码写在配置文件中,这是不好的行为,容易导致安全问题。DruidDruiver 和 DruidDataSource 都支持 PasswordCallback。?
? ? ? ?SQL 执行日志,Druid 提供了不同的 LogFilter,能够支持?Common-Logging、Log4j?和 JdkLog,你可以按需要选择相应的 LogFilter,监控你应用的数据库访问情况。?
? ? ? ? 扩展 JDBC,如果你要对 JDBC 层有编程的需求,可以通过 Druid 提供的 Filter-Chain 机制,很方便编写 JDBC 层的扩展插件。?
? ? ? ? 今天在对大批量数据(万级别)插入做性能优化时,需要用到Druid的SQL监控功能,在此记录一下。
我们都知道jpa提供saveAll处理批量插入,代码如下
重代码上看似乎是一个一个的save,其实不然,查看源码(这里不细说了),jpa每次save都会先添加到action queue,在flush的时候,再通过insert action构造statement的batch操作,然后到达一个批量的时候才perform,达到一个batch的时候会调用executeBatch()。
也就是说,最终还是使用了jdbc statement的executeBatch的调用模式
如何使用批量处理,添加如下配置
spring.datasource.url = jdbc:postgresql://xxxx:5432/juslink_warehouse_order_ubnt?reWriteBatchedInserts=true
#Jpa批量更新配置
spring.jpa.properties.hibernate.jdbc.batch_size = 200
spring.jpa.properties.hibernate.jdbc.batch_versioned_data = true
spring.jpa.properties.hibernate.order_inserts = true
使用Druid需要添加依赖
<dependency>
<groupId>com.alibaba</groupId>
<artifactId>druid-spring-boot-starter</artifactId>
</dependency>
加入配置:
spring.datasource.druid.stat-view-servlet.enabled=true
spring.datasource.druid.filter.stat.enabled=true
Druid的监控界面如图:
下面来看看开启批处理和未开启时1万条数据插入的情况:
未开启测试结果
开启测试结果
结论:从上面两张实验图中可以看出,未开启批量处理,插入1万条数据用时在3.5s;开启批量处理后,耗时为0.45s,开启之后整体效率提升了大约7~8倍
批量操作的数量需要经过多次测试取最优值