前言
本篇文章主要讲述的是SpringBoot整合Mybatis、Druid和PageHelper 并实现多数据源和分页。重点是讲述在多数据源下的如何配置使用Druid和PageHelper。
http://www.cnblogs.com/xuwujing/p/8260935.html
Druid介绍和使用
在使用Druid之前,先来简单的了解下Druid。
Druid是一个数据库连接池。Druid可以说是目前最好的数据库连接池!因其优秀的功能、性能和扩展性方面,深受开发人员的青睐。
Druid已经在阿里巴巴部署了超过600个应用,经过一年多生产环境大规模部署的严苛考验。Druid是阿里巴巴开发的号称为监控而生的数据库连接池!
同时Druid不仅仅是一个数据库连接池,Druid 核心主要包括三部分:
- 基于Filter-Chain模式的插件体系。
- DruidDataSource 高效可管理的数据库连接池。
- SQLParser
Druid的主要功能如下:
- 是一个高效、功能强大、可扩展性好的数据库连接池。
- 可以监控数据库访问性能。
- 数据库密码加密
- 获得SQL执行日志
- 扩展JDBC
介绍方面这块就不再多说,具体的可以看官方文档。那么开始介绍Druid如何使用。
首先是Maven依赖,只需要添加druid这一个jar就行了。
<dependency> | |
<groupId>com.alibaba</groupId> | |
<artifactId>druid</artifactId> | |
<version>1.1.8</version> | |
</dependency> |
配置方面,主要的只需要在application.properties或application.yml添加如下就可以了。
说明:因为这里我是用来两个数据源,所以稍微有些不同而已。Druid 配置的说明在下面中已经说的很详细了,这里我就不在说明了。
## 默认的数据源 | |
master.datasource.url=jdbc:mysql://localhost:3306/springBoot?useUnicode=true&characterEncoding=utf8&allowMultiQueries=true | |
master.datasource.username=root | |
master.datasource.password= | |
master.datasource.driverClassName=com.mysql.jdbc.Driver | |
## 另一个的数据源 | |
cluster.datasource.url=jdbc:mysql://localhost:3306/springBoot_test?useUnicode=true&characterEncoding=utf8 | |
cluster.datasource.username=root | |
cluster.datasource.password= | |
cluster.datasource.driverClassName=com.mysql.jdbc.Driver | |
# 连接池的配置信息 | |
# 初始化大小,最小,最大 | |
spring.datasource.type=com.alibaba.druid.pool.DruidDataSource | |
spring.datasource.initialSize= | |
spring.datasource.minIdle= | |
spring.datasource.maxActive= | |
# 配置获取连接等待超时的时间 | |
spring.datasource.maxWait= | |
# 配置间隔多久才进行一次检测,检测需要关闭的空闲连接,单位是毫秒 | |
spring.datasource.timeBetweenEvictionRunsMillis= | |
# 配置一个连接在池中最小生存的时间,单位是毫秒 | |
spring.datasource.minEvictableIdleTimeMillis= | |
spring.datasource.validationQuery=SELECT FROM DUAL | |
spring.datasource.testWhileIdle=true | |
spring.datasource.testOnBorrow=false | |
spring.datasource.testOnReturn=false | |
# 打开PSCache,并且指定每个连接上PSCache的大小 | |
spring.datasource.poolPreparedStatements=true | |
spring.datasource.maxPoolPreparedStatementPerConnectionSize= | |
# 配置监控统计拦截的filters,去掉后监控界面sql无法统计,'wall'用于防火墙 | |
spring.datasource.filters=stat,wall,log4j | |
# 通过connectProperties属性来打开mergeSql功能;慢SQL记录 | |
spring.datasource.connectionProperties=druid.stat.mergeSql=true;druid.stat.slowSqlMillis= |
成功添加了配置文件之后,我们再来编写Druid相关的类。
首先是MasterDataSourceConfig.java这个类,这个是默认的数据源配置类。
public class MasterDataSourceConfig { | |
static final String PACKAGE = "com.pancm.dao.master"; | |
static final String MAPPER_LOCATION = "classpath:mapper/master/*.xml"; | |
private String url; | |
private String username; | |
private String password; | |
private String driverClassName; | |
private int initialSize; | |
private int minIdle; | |
private int maxActive; | |
private int maxWait; | |
private int timeBetweenEvictionRunsMillis; | |
private int minEvictableIdleTimeMillis; | |
private String validationQuery; | |
private boolean testWhileIdle; | |
private boolean testOnBorrow; | |
private boolean testOnReturn; | |
private boolean poolPreparedStatements; | |
private int maxPoolPreparedStatementPerConnectionSize; | |
private String filters; | |
private String connectionProperties; | |
public DataSource masterDataSource() { | |
DruidDataSource dataSource = new DruidDataSource(); | |
dataSource.setUrl(url); | |
dataSource.setUsername(username); | |
dataSource.setPassword(password); | |
dataSource.setDriverClassName(driverClassName); | |
//具体配置 | |
dataSource.setInitialSize(initialSize); | |
dataSource.setMinIdle(minIdle); | |
dataSource.setMaxActive(maxActive); | |
dataSource.setMaxWait(maxWait); | |
dataSource.setTimeBetweenEvictionRunsMillis(timeBetweenEvictionRunsMillis); | |
dataSource.setMinEvictableIdleTimeMillis(minEvictableIdleTimeMillis); | |
dataSource.setValidationQuery(validationQuery); | |
dataSource.setTestWhileIdle(testWhileIdle); | |
dataSource.setTestOnBorrow(testOnBorrow); | |
dataSource.setTestOnReturn(testOnReturn); | |
dataSource.setPoolPreparedStatements(poolPreparedStatements); | |
dataSource.setMaxPoolPreparedStatementPerConnectionSize(maxPoolPreparedStatementPerConnectionSize); | |
try { | |
dataSource.setFilters(filters); | |
} catch (SQLException e) { | |
e.printStackTrace(); | |
} | |
dataSource.setConnectionProperties(connectionProperties); | |
return dataSource; | |
} | |
public DataSourceTransactionManager masterTransactionManager() { | |
return new DataSourceTransactionManager(masterDataSource()); | |
} | |
public SqlSessionFactory masterSqlSessionFactory( DataSource masterDataSource) | |
throws Exception { | |
final SqlSessionFactoryBean sessionFactory = new SqlSessionFactoryBean(); | |
sessionFactory.setDataSource(masterDataSource); | |
sessionFactory.setMapperLocations(new PathMatchingResourcePatternResolver() | |
.getResources(MasterDataSourceConfig.MAPPER_LOCATION)); | |
return sessionFactory.getObject(); | |
} | |
} |
其中这两个注解说明下:
- @Primary :标志这个 Bean 如果在多个同类 Bean 候选时,该 Bean 优先被考虑。多数据源配置的时候注意,必须要有一个主数据源,用 @Primary 标志该 Bean。
- @MapperScan: 扫描 Mapper 接口并容器管理。
需要注意的是sqlSessionFactoryRef 表示定义一个唯一 SqlSessionFactory 实例。
上面的配置完之后,就可以将Druid作为连接池使用了。但是Druid并不简简单单的是个连接池,它也可以说是一个监控应用,它自带了web监控界面,可以很清晰的看到SQL相关信息。
在SpringBoot中运用Druid的监控作用,只需要编写StatViewServlet和WebStatFilter类,实现注册服务和过滤规则。这里我们可以将这两个写在一起,使用@Configuration和@Bean。
为了方便理解,相关的配置说明也写在代码中了,这里就不再过多赘述了。
代码如下:
public class DruidConfiguration { | |
public ServletRegistrationBean druidStatViewServle() { | |
//注册服务 | |
ServletRegistrationBean servletRegistrationBean = new ServletRegistrationBean( | |
new StatViewServlet(), "/druid/*"); | |
// 白名单(为空表示,所有的都可以访问,多个IP的时候用逗号隔开) | |
servletRegistrationBean.addInitParameter("allow", "127.0.0.1"); | |
// IP黑名单 (存在共同时,deny优先于allow) | |
servletRegistrationBean.addInitParameter("deny", "127.0.0.2"); | |
// 设置登录的用户名和密码 | |
servletRegistrationBean.addInitParameter("loginUsername", "pancm"); | |
servletRegistrationBean.addInitParameter("loginPassword", "123456"); | |
// 是否能够重置数据. | |
servletRegistrationBean.addInitParameter("resetEnable", "false"); | |
return servletRegistrationBean; | |
} | |
public FilterRegistrationBean druidStatFilter() { | |
FilterRegistrationBean filterRegistrationBean = new FilterRegistrationBean( | |
new WebStatFilter()); | |
// 添加过滤规则 | |
filterRegistrationBean.addUrlPatterns("/*"); | |
// 添加不需要忽略的格式信息 | |
filterRegistrationBean.addInitParameter("exclusions", | |
"*.js,*.gif,*.jpg,*.png,*.css,*.ico,/druid/*"); | |
System.out.println("druid初始化成功!"); | |
return filterRegistrationBean; | |
} | |
} |
编写完之后,启动程序,在浏览器输入:http://127.0.0.1:8084/druid/index.html ,然后输入设置的用户名和密码,便可以访问Web界面了。
多数据源配置
在进行多数据源配置之前,先分别在springBoot和springBoot_test的mysql数据库中执行如下脚本。
-- springBoot库的脚本 | |
CREATE TABLE `t_user` ( | |
`id` int() NOT NULL AUTO_INCREMENT COMMENT '自增id', | |
`name` varchar() DEFAULT NULL COMMENT '姓名', | |
`age` int() DEFAULT NULL COMMENT '年龄', | |
PRIMARY KEY (`id`) | |
) ENGINE=InnoDB AUTO_INCREMENT= DEFAULT CHARSET=utf8 | |
-- springBoot_test库的脚本 | |
CREATE TABLE `t_student` ( | |
`id` int() NOT NULL AUTO_INCREMENT, | |
`name` varchar() DEFAULT NULL, | |
`age` int() DEFAULT NULL, | |
PRIMARY KEY (`id`) | |
) ENGINE=InnoDB AUTO_INCREMENT= DEFAULT CHARSET=utf8 |
注:为了偷懒,将两张表的结构弄成一样了!不过不影响测试!
在application.properties中已经配置这两个数据源的信息,上面已经贴出了一次配置,这里就不再贴了。
这里重点说下 第二个数据源的配置。和上面的MasterDataSourceConfig.java差不多,区别在与没有使用@Primary 注解和名称不同而已。需要注意的是MasterDataSourceConfig.java对package和mapper的扫描是精确到目录的,这里的第二个数据源也是如此。
那么代码如下:
public class ClusterDataSourceConfig { | |
static final String PACKAGE = "com.pancm.dao.cluster"; | |
static final String MAPPER_LOCATION = "classpath:mapper/cluster/*.xml"; | |
private String url; | |
private String username; | |
private String password; | |
private String driverClass; | |
// 和MasterDataSourceConfig一样,这里略 | |
public DataSource clusterDataSource() { | |
DruidDataSource dataSource = new DruidDataSource(); | |
dataSource.setUrl(url); | |
dataSource.setUsername(username); | |
dataSource.setPassword(password); | |
dataSource.setDriverClassName(driverClass); | |
// 和MasterDataSourceConfig一样,这里略 ... | |
return dataSource; | |
} | |
public DataSourceTransactionManager clusterTransactionManager() { | |
return new DataSourceTransactionManager(clusterDataSource()); | |
} | |
public SqlSessionFactory clusterSqlSessionFactory( DataSource clusterDataSource) | |
throws Exception { | |
final SqlSessionFactoryBean sessionFactory = new SqlSessionFactoryBean(); | |
sessionFactory.setDataSource(clusterDataSource); | |
sessionFactory.setMapperLocations(new PathMatchingResourcePatternResolver().getResources(ClusterDataSourceConfig.MAPPER_LOCATION)); | |
return sessionFactory.getObject(); | |
} | |
} |
成功写完配置之后,启动程序,进行测试。
分别在springBoot和springBoot_test库中使用接口进行添加数据。
t_user
POST http://localhost:8084/api/user | |
{"name":"张三","age":} | |
{"name":"李四","age":} | |
{"name":"王五","age":} |
t_student
POST http://localhost:8084/api/student | |
{"name":"学生A","age":} | |
{"name":"学生B","age":} | |
{"name":"学生C","age":} |
成功添加数据之后,然后进行调用不同的接口进行查询。
请求:
GET http://localhost:8084/api/user?name=李四
返回:
{ | |
"id": , | |
"name": "李四", | |
"age": | |
} |
请求:
GET http://localhost:8084/api/student?name=学生C
返回:
{ | |
"id": , | |
"name": "学生C", | |
"age": | |
} |
通过数据可以看出,成功配置了多数据源了。
PageHelper 分页实现
PageHelper是Mybatis的一个分页插件,非常的好用!这里强烈推荐!!!
PageHelper的使用很简单,只需要在Maven中添加pagehelper这个依赖就可以了。
Maven的依赖如下:
<dependency> | |
<groupId>com.github.pagehelper</groupId> | |
<artifactId>pagehelper-spring-boot-starter</artifactId> | |
<version>1.2.3</version> | |
</dependency> |
注:这里我是用springBoot版的!也可以使用其它版本的。
添加依赖之后,只需要添加如下配置或代码就可以了。
第一种,在application.properties或application.yml添加
pagehelper: | |
helperDialect: mysql | |
offsetAsPageNum: true | |
rowBoundsWithCount: true | |
reasonable: false |
第二种,在mybatis.xml配置中添加
<bean id="sqlSessionFactory" class="org.mybatis.spring.SqlSessionFactoryBean"> | |
<property name="dataSource" ref="dataSource" /> | |
<!-- 扫描mapping.xml文件 --> | |
<property name="mapperLocations" value="classpath:mapper/*.xml"></property> | |
<!-- 配置分页插件 --> | |
<property name="plugins"> | |
<array> | |
<bean class="com.github.pagehelper.PageHelper"> | |
<property name="properties"> | |
<value> | |
helperDialect=mysql | |
offsetAsPageNum=true | |
rowBoundsWithCount=true | |
reasonable=false | |
</value> | |
</property> | |
</bean> | |
</array> | |
</property> | |
</bean> |
第三种,在代码中添加,使用@Bean注解在启动程序的时候初始化。
public PageHelper pageHelper(){ | |
PageHelper pageHelper = new PageHelper(); | |
Properties properties = new Properties(); | |
//数据库 | |
properties.setProperty("helperDialect", "mysql"); | |
//是否将参数offset作为PageNum使用 | |
properties.setProperty("offsetAsPageNum", "true"); | |
//是否进行count查询 | |
properties.setProperty("rowBoundsWithCount", "true"); | |
//是否分页合理化 | |
properties.setProperty("reasonable", "false"); | |
pageHelper.setProperties(properties); | |
} |
因为这里我们使用的是多数据源,所以这里的配置稍微有些不同。我们需要在sessionFactory这里配置。这里就对MasterDataSourceConfig.java进行相应的修改。
在masterSqlSessionFactory方法中,添加如下代码。
public SqlSessionFactory masterSqlSessionFactory( DataSource masterDataSource) | |
throws Exception { | |
final SqlSessionFactoryBean sessionFactory = new SqlSessionFactoryBean(); | |
sessionFactory.setDataSource(masterDataSource); | |
sessionFactory.setMapperLocations(new PathMatchingResourcePatternResolver() | |
.getResources(MasterDataSourceConfig.MAPPER_LOCATION)); | |
//分页插件 | |
Interceptor interceptor = new PageInterceptor(); | |
Properties properties = new Properties(); | |
//数据库 | |
properties.setProperty("helperDialect", "mysql"); | |
//是否将参数offset作为PageNum使用 | |
properties.setProperty("offsetAsPageNum", "true"); | |
//是否进行count查询 | |
properties.setProperty("rowBoundsWithCount", "true"); | |
//是否分页合理化 | |
properties.setProperty("reasonable", "false"); | |
interceptor.setProperties(properties); | |
sessionFactory.setPlugins(new Interceptor[] {interceptor}); | |
return sessionFactory.getObject(); | |
} |
注:其它的数据源也想进行分页的时候,参照上面的代码即可。
这里需要注意的是reasonable参数,表示分页合理化,默认值为false。如果该参数设置为 true 时,pageNum<=0 时会查询第一页,pageNum>pages(超过总数时),会查询最后一页。默认false 时,直接根据参数进行查询。
设置完PageHelper 之后,使用的话,只需要在查询的sql前面添加PageHelper.startPage(pageNum,pageSize);,如果是想知道总数的话,在查询的sql语句后买呢添加 page.getTotal()就可以了。
代码示例:
public List<T> findByListEntity(T entity) { | |
List<T> list = null; | |
try { | |
Page<?> page =PageHelper.startPage(,); | |
System.out.println(getClassName(entity)+"设置第一页两条数据!"); | |
list = getMapper().findByListEntity(entity); | |
System.out.println("总共有:"+page.getTotal()+"条数据,实际返回:"+list.size()+"两条数据!"); | |
} catch (Exception e) { | |
logger.error("查询"+getClassName(entity)+"失败!原因是:",e); | |
} | |
return list; | |
} |
代码编写完毕之后,开始进行最后的测试。
查询t_user表的所有的数据,并进行分页。
请求:
GET http://localhost:8084/api/user
返回:
[ | |
{ | |
"id": , | |
"name": "张三", | |
"age": | |
}, | |
{ | |
"id": , | |
"name": "李四", | |
"age": | |
} | |
] |
控制台打印:
开始查询... | |
User设置第一页两条数据! | |
-- ::50.769 DEBUG --- [io--exec-] c.p.d.m.UserDao.findByListEntity_COUNT : ==> Preparing: SELECT count() FROM t_user WHERE = | |
-- ::50.770 DEBUG --- [io--exec-] c.p.d.m.UserDao.findByListEntity_COUNT : ==> Parameters: | |
-- ::50.771 DEBUG --- [io--exec-] c.p.d.m.UserDao.findByListEntity_COUNT : <== Total: | |
-- ::50.772 DEBUG --- [io--exec-] c.p.dao.master.UserDao.findByListEntity : ==> Preparing: select id, name, age from t_user where = LIMIT ? | |
-- ::50.773 DEBUG --- [io--exec-] c.p.dao.master.UserDao.findByListEntity : ==> Parameters: (Integer) | |
-- ::50.774 DEBUG --- [io--exec-] c.p.dao.master.UserDao.findByListEntity : <== Total: | |
总共有:条数据,实际返回:两条数据! |
查询t_student表的所有的数据,并进行分页。
请求:
GET http://localhost:8084/api/student
返回:
[ | |
{ | |
"id": , | |
"name": "学生A", | |
"age": | |
}, | |
{ | |
"id": , | |
"name": "学生B", | |
"age": | |
} | |
] |
控制台打印:
开始查询... | |
Studnet设置第一页两条数据! | |
-- ::56.155 DEBUG --- [nio--exec-] c.p.d.c.S.findByListEntity_COUNT : ==> Preparing: SELECT count() FROM t_student WHERE = | |
-- ::56.155 DEBUG --- [nio--exec-] c.p.d.c.S.findByListEntity_COUNT : ==> Parameters: | |
-- ::56.156 DEBUG --- [nio--exec-] c.p.d.c.S.findByListEntity_COUNT : <== Total: | |
-- ::56.157 DEBUG --- [nio--exec-] c.p.d.c.StudentDao.findByListEntity : ==> Preparing: select id, name, age from t_student where = LIMIT ? | |
-- ::56.157 DEBUG --- [nio--exec-] c.p.d.c.StudentDao.findByListEntity : ==> Parameters: (Integer) | |
-- ::56.157 DEBUG --- [nio--exec-] c.p.d.c.StudentDao.findByListEntity : <== Total: | |
总共有:条数据,实际返回:两条数据! |
查询完毕之后,我们再来看Druid 的监控界面。
在浏览器输入:http://127.0.0.1:8084/druid/index.html
可以很清晰的看到操作记录!
如果想知道更多的Druid相关知识,可以查看官方文档!
结语
这篇终于写完了,在进行代码编写的时候,碰到过很多问题,然后慢慢的尝试和找资料解决了。本篇文章只是很浅的介绍了这些相关的使用,在实际的应用可能会更复杂。如果有有更好的想法和建议,欢迎留言进行讨论!