Sharding-Jdbc 實現讀寫分離 + 分庫分表,寫得太好了!
1、概覽
ShardingSphere-Jdbc定位為輕量級Java框架,在Java的Jdbc層提供的額外服務。它使用客戶端直連數據庫,以jar包形式提供服務,可理解為增強版的Jdbc驅動,完全兼容Jdbc和各種ORM框架
2、MySQL主從復制
1)、docker配置mysql主從復制
1)創建主服務器所需目錄
- mkdir -p /usr/local/mysqlData/master/cnf
- mkdir -p /usr/local/mysqlData/master/data
2)定義主服務器配置文件
- vim /usr/local/mysqlData/master/cnf/mysql.cnf
- [mysqld]
- ## 設置server_id,注意要唯一
- server-id=1
- ## 開啟binlog
- log-bin=mysql-bin
- ## binlog緩存
- binlog_cache_size=1M
- ## binlog格式(mixed、statement、row,默認格式是statement)
- binlog_format=mixed
3)創建并啟動mysql主服務
docker run -itd -p 3306:3306 --name master -v /usr/local/mysqlData/master/cnf:/etc/mysql/conf.d -v /usr/local/mysqlData/master/data:/var/lib/mysql -e MYSQL_ROOT_PASSWORD=123456 mysql:5.7
4)添加復制master數據的用戶reader,供從服務器使用
- [root@aliyun /]# docker ps
- CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
- 6af1df686fff mysql:5.7 "docker-entrypoint..." 5 seconds ago Up 4 seconds 0.0.0.0:3306->3306/tcp, 33060/tcp master
- [root@aliyun /]# docker exec -it master /bin/bash
- root@41d795785db1:/# mysql -u root -p123456
- mysql> GRANT REPLICATION SLAVE ON *.* to 'reader'@'%' identified by 'reader';
- Query OK, 0 rows affected, 1 warning (0.00 sec)
- mysql> FLUSH PRIVILEGES;
- Query OK, 0 rows affected (0.00 sec)
5)創建從服務器所需目錄,編輯配置文件
- mkdir /usr/local/mysqlData/slave/cnf -p
- mkdir /usr/local/mysqlData/slave/cnf -p
- vim /usr/local/mysqlData/slave/cnf/mysql.cnf
- [mysqld]
- ## 設置server_id,注意要唯一
- server-id=2
- ## 開啟binlog,以備Slave作為其它Slave的Master時使用
- log-bin=mysql-slave-bin
- ## relay_log配置中繼日志
- relay_log=edu-mysql-relay-bin
- ## 如果需要同步函數或者存儲過程
- log_bin_trust_function_creators=true
- ## binlog緩存
- binlog_cache_size=1M
- ## binlog格式(mixed、statement、row,默認格式是statement)
- binlog_format=mixed
- ## 跳過主從復制中遇到的所有錯誤或指定類型的錯誤,避免slave端復制中斷
- ## 如:1062錯誤是指一些主鍵重復,1032錯誤是因為主從數據庫數據不一致
- slave_skip_errors=1062
6)創建并運行mysql從服務器
- docker run -itd -p 3307:3306 --name slaver -v /usr/local/mysqlData/slave/cnf:/etc/mysql/conf.d -v /usr/local/mysqlData/slave/data:/var/lib/mysql -e MYSQL_ROOT_PASSWORD=123456 mysql:5.7
7)在從服務器上配置連接主服務器的信息
首先主服務器上查看master_log_file、master_log_pos兩個參數,然后切換到從服務器上進行主服務器的連接信息的設置。
另外,MySQL 系列面試題和答案全部整理好了,微信搜索Java技術棧,在后臺發送:面試,可以在線閱讀。
主服務上執行:
- root@6af1df686fff:/# mysql -u root -p123456
- mysql> show master status;
- +------------------+----------+--------------+------------------+-------------------+
- | File | Position | Binlog_Do_DB | Binlog_Ignore_DB | Executed_Gtid_Set |
- +------------------+----------+--------------+------------------+-------------------+
- | mysql-bin.000003 | 591 | | | |
- +------------------+----------+--------------+------------------+-------------------+
- 1 row in set (0.00 sec)
docker查看主服務器容器的ip地
- [root@aliyun /]# docker inspect --format='{{.NetworkSettings.IPAddress}}' master
- 172.17.0.2
從服務器上執行:
- [root@aliyun /]# docker exec -it slaver /bin/bash
- root@fe8b6fc2f1ca:/# mysql -u root -p123456
- mysql> change master to master_host='172.17.0.2',master_user='reader',master_password='reader',master_log_file='mysql-bin.000003',master_log_pos=591;
8)從服務器啟動I/O 線程和SQL線程
- mysql> start slave;
- Query OK, 0 rows affected, 1 warning (0.00 sec)
- mysql> show slave status\G
- *************************** 1. row ***************************
- Slave_IO_State: Waiting for master to send event
- Master_Host: 172.17.0.2
- Master_User: reader
- Master_Port: 3306
- Connect_Retry: 60
- Master_Log_File: mysql-bin.000003
- Read_Master_Log_Pos: 591
- Relay_Log_File: edu-mysql-relay-bin.000002
- Relay_Log_Pos: 320
- Relay_Master_Log_File: mysql-bin.000003
- Slave_IO_Running: Yes
- Slave_SQL_Running: Yes
Slave_IO_Running: Yes,Slave_SQL_Running: Yes即表示啟動成功
2)、binlog和redo log回顧
1)redo log(重做日志)
InnoDB首先將redo log放入到redo log buffer,然后按一定頻率將其刷新到redo log file
下列三種情況下會將redo log buffer刷新到redo log file:
- Master Thread每一秒將redo log buffer刷新到redo log file
- 每個事務提交時會將redo log buffer刷新到redo log file
- 當redo log緩沖池剩余空間小于1/2時,會將redo log buffer刷新到redo log file
MySQL里常說的WAL技術,全稱是Write Ahead Log,即當事務提交時,先寫redo log,再修改頁。也就是說,當有一條記錄需要更新的時候,InnoDB會先把記錄寫到redo log里面,并更新Buffer Pool的page,這個時候更新操作就算完成了
Buffer Pool是物理頁的緩存,對InnoDB的任何修改操作都會首先在Buffer Pool的page上進行,然后這樣的頁將被標記為臟頁并被放到專門的Flush List上,后續將由專門的刷臟線程階段性的將這些頁面寫入磁盤
InnoDB的redo log是固定大小的,比如可以配置為一組4個文件,每個文件的大小是1GB,循環使用,從頭開始寫,寫到末尾就又回到開頭循環寫(順序寫,節省了隨機寫磁盤的IO消耗)
Write Pos是當前記錄的位置,一邊寫一邊后移,寫到第3號文件末尾后就回到0號文件開頭。Check Point是當前要擦除的位置,也是往后推移并且循環的,擦除記錄前要把記錄更新到數據文件
Write Pos和Check Point之間空著的部分,可以用來記錄新的操作。如果Write Pos追上Check Point,這時候不能再執行新的更新,需要停下來擦掉一些記錄,把Check Point推進一下
當數據庫發生宕機時,數據庫不需要重做所有的日志,因為Check Point之前的頁都已經刷新回磁盤,只需對Check Point后的redo log進行恢復,從而縮短了恢復的時間
當緩沖池不夠用時,根據LRU算法會溢出最近最少使用的頁,若此頁為臟頁,那么需要強制執行Check Point,將臟頁刷新回磁盤。最新面試題整理好了,點擊Java面試庫小程序在線刷題。
2)binlog(歸檔日志)
MySQL整體來看就有兩塊:一塊是Server層,主要做的是MySQL功能層面的事情;還有一塊是引擎層,負責存儲相關的具體事宜。redo log是InnoDB引擎特有的日志,而Server層也有自己的日志,稱為binlog
binlog記錄了對MySQL數據庫執行更改的所有操作,不包括SELECT和SHOW這類操作,主要作用是用于數據庫的主從復制及數據的增量恢復
使用mysqldump備份時,只是對一段時間的數據進行全備,但是如果備份后突然發現數據庫服務器故障,這個時候就要用到binlog的日志了
binlog格式有三種:STATEMENT,ROW,MIXED
- STATEMENT模式:binlog里面記錄的就是SQL語句的原文。優點是并不需要記錄每一行的數據變化,減少了binlog日志量,節約IO,提高性能。缺點是在某些情況下會導致master-slave中的數據不一致
- ROW模式:不記錄每條SQL語句的上下文信息,僅需記錄哪條數據被修改了,修改成什么樣了,解決了STATEMENT模式下出現master-slave中的數據不一致。缺點是會產生大量的日志,尤其是alter table的時候會讓日志暴漲
- MIXED模式:以上兩種模式的混合使用,一般的復制使用STATEMENT模式保存binlog,對于STATEMENT模式無法復制的操作使用ROW模式保存binlog,MySQL會根據執行的SQL語句選擇日志保存方式
3)redo log和binlog日志的不同
- redo log是InnoDB引擎特有的;binlog是MySQL的Server層實現的,所有引擎都可以使用
- redo log是物理日志,記錄的是在某個數據也上做了什么修改;binlog是邏輯日志,記錄的是這個語句的原始邏輯,比如給ID=2這一行的c字段加1
- redo log是循環寫的,空間固定會用完;binlog是可以追加寫入的,binlog文件寫到一定大小后會切換到下一個,并不會覆蓋以前的日志
4)兩階段提交
- create table T(ID int primary key, c int);
- update T set cc=c+1 where ID=2;
執行器和InnoDB引擎在執行這個update語句時的內部流程:
- 執行器先找到引擎取ID=2這一行。ID是主鍵,引擎直接用樹搜索找到這一行。如果ID=2這一行所在的數據也本來就在內存中,就直接返回給執行器;否則,需要先從磁盤讀入內存,然后再返回
- 執行器拿到引擎給的行數據,把這個值加上1,得到新的一行數據,再調用引擎接口寫入這行新數據
- 引擎將這行新數據更新到內存中,同時將這個更新操作記錄到redo log里面,此時redo log處于prepare狀態。然后告知執行器執行完成了,隨時可以提交事務
- 執行器生成這個操作的binlog,并把binlog寫入磁盤
- 執行器調用引擎的提交事務接口,引擎把剛剛寫入的redo log改成提交狀態,更新完成
update語句的執行流程圖如下,圖中淺色框表示在InnoDB內部執行的,深色框表示是在執行器中執行的
將redo log的寫入拆成了兩個步驟:prepare和commit,這就是兩階段提交
3)、MySQL主從復制原理
從庫B和主庫A之間維持了一個長連接。主庫A內部有一個線程,專門用于服務從庫B的這個長連接。一個事務日志同步的完整過程如下:
- 在從庫B上通過change master命令,設置主庫A的IP、端口、用戶名、密碼,以及要從哪個位置開始請求binlog,這個位置包含文件名和日志偏移量
- 在從庫B上執行start slave命令,這時從庫會啟動兩個線程,就是圖中的I/O線程和SQL線程。其中I/O線程負責與主庫建立連接
- 主庫A校驗完用戶名、密碼后,開始按照從庫B傳過來的位置,從本地讀取binlog,發給B
- 從庫B拿到binlog后,寫到本地文件,稱為中繼日志
- SQL線程讀取中繼日志,解析出日志里的命令,并執行
由于多線程復制方案的引入,SQL線程演化成了多個線程
主從復制不是完全實時地進行同步,而是異步實時。這中間存在主從服務之間的執行延時,如果主服務器的壓力很大,則可能導致主從服務器延時較大。
點擊關注公眾號,Java干貨及時送達圖片
3、Sharding-Jdbc實現讀寫分離
1)、新建Springboot工程,引入相關依賴,Spring Boot 基礎就不介紹了,推薦下這個實戰教程:https://www.javastack.cn/categories/Spring-Boot/
- <dependencies>
- <dependency>
- <groupId>org.springframework.boot</groupId>
- <artifactId>spring-boot-starter-web</artifactId>
- </dependency>
- <dependency>
- <groupId>org.mybatis.spring.boot</groupId>
- <artifactId>mybatis-spring-boot-starter</artifactId>
- <version>2.1.4</version>
- </dependency>
- <dependency>
- <groupId>mysql</groupId>
- <artifactId>mysql-connector-java</artifactId>
- <scope>runtime</scope>
- </dependency>
- <dependency>
- <groupId>com.alibaba</groupId>
- <artifactId>druid-spring-boot-starter</artifactId>
- <version>1.1.21</version>
- </dependency>
- <dependency>
- <groupId>org.apache.shardingsphere</groupId>
- <artifactId>sharding-jdbc-spring-boot-starter</artifactId>
- <version>4.0.0-RC1</version>
- </dependency>
- <dependency>
- <groupId>org.projectlombok</groupId>
- <artifactId>lombok</artifactId>
- <optional>true</optional>
- </dependency>
- <dependency>
- <groupId>org.springframework.boot</groupId>
- <artifactId>spring-boot-starter-test</artifactId>
- <scope>test</scope>
- </dependency>
- </dependencies>
2)、application.properties配置文件
- spring.main.allow-bean-definition-overriding=true
- #顯示sql
- spring.shardingsphere.props.sql.show=true
- #配置數據源
- spring.shardingsphere.datasource.names=ds1,ds2,ds3
- #master-ds1數據庫連接信息
- spring.shardingsphere.datasource.ds1.type=com.alibaba.druid.pool.DruidDataSource
- spring.shardingsphere.datasource.ds1.driver-class-name=com.mysql.cj.jdbc.Driver
- spring.shardingsphere.datasource.ds1.url=jdbc:mysql://47.101.58.187:3306/sharding-jdbc-db?useUnicode=true&useSSL=false&serverTimezone=Asia/Shanghai
- spring.shardingsphere.datasource.ds1.username=root
- spring.shardingsphere.datasource.ds1.password=123456
- spring.shardingsphere.datasource.ds1.maxPoolSize=100
- spring.shardingsphere.datasource.ds1.minPoolSize=5
- #slave-ds2數據庫連接信息
- spring.shardingsphere.datasource.ds2.type=com.alibaba.druid.pool.DruidDataSource
- spring.shardingsphere.datasource.ds2.driver-class-name=com.mysql.cj.jdbc.Driver
- spring.shardingsphere.datasource.ds2.url=jdbc:mysql://47.101.58.187:3307/sharding-jdbc-db?useUnicode=true&useSSL=false&serverTimezone=Asia/Shanghai
- spring.shardingsphere.datasource.ds2.username=root
- spring.shardingsphere.datasource.ds2.password=123456
- spring.shardingsphere.datasource.ds2.maxPoolSize=100
- spring.shardingsphere.datasource.ds2.minPoolSize=5
- #slave-ds3數據庫連接信息
- spring.shardingsphere.datasource.ds3.type=com.alibaba.druid.pool.DruidDataSource
- spring.shardingsphere.datasource.ds3.driver-class-name=com.mysql.cj.jdbc.Driver
- spring.shardingsphere.datasource.ds3.url=jdbc:mysql://47.101.58.187:3307/sharding-jdbc-db?useUnicode=true&useSSL=false&serverTimezone=Asia/Shanghai
- spring.shardingsphere.datasource.ds3.username=root
- spring.shardingsphere.datasource.ds3.password=123456
- spring.shardingsphere.datasource.ds.maxPoolSize=100
- spring.shardingsphere.datasource.ds3.minPoolSize=5
- #配置默認數據源ds1 默認數據源,主要用于寫
- spring.shardingsphere.sharding.default-data-source-name=ds1
- #配置主從名稱
- spring.shardingsphere.masterslave.name=ms
- #置主庫master,負責數據的寫入
- spring.shardingsphere.masterslave.master-data-source-name=ds1
- #配置從庫slave節點
- spring.shardingsphere.masterslave.slave-data-source-names=ds2,ds3
- #配置slave節點的負載均衡均衡策略,采用輪詢機制
- spring.shardingsphere.masterslave.load-balance-algorithm-type=round_robin
- #整合mybatis的配置
- mybatis.type-aliases-package=com.ppdai.shardingjdbc.entity
3)、創建t_user表
- CREATE TABLE `t_user` (
- `id` int(11) NOT NULL AUTO_INCREMENT,
- `nickname` varchar(100) DEFAULT NULL,
- `password` varchar(100) DEFAULT NULL,
- `sex` int(11) DEFAULT NULL,
- `birthday` varchar(50) DEFAULT NULL,
- PRIMARY KEY (`id`)
- ) ENGINE=InnoDB AUTO_INCREMENT=4 DEFAULT CHARSET=utf8mb4;
4)、定義Controller、Mapper、Entity
- @Data
- public class User {
- private Integer id;
- private String nickname;
- private String password;
- private Integer sex;
- private String birthday;}
- @RestController
- @RequestMapping("/api/user")
- public class UserController {
- @Autowired
- private UserMapper userMapper;
- @PostMapping("/save")
- public String addUser() {
- User user = new User();
- user.setNickname("zhangsan" + new Random().nextInt());
- user.setPassword("123456");
- user.setSex(1);
- user.setBirthday("1997-12-03");
- userMapper.addUser(user);
- return "success";
- }
- @GetMapping("/findUsers")
- public List<User> findUsers() {
- return userMapper.findUsers();
- }
- }
- public interface UserMapper {
- @Insert("insert into t_user(nickname,password,sex,birthday) values(#{nickname},#{password},#{sex},#{birthday})")
- void addUser(User user);
- @Select("select * from t_user")
- List<User> findUsers();
- }
5)、驗證
啟動日志中三個數據源初始化成功:
調用http://localhost:8080/api/user/save一直進入到ds1主節點
調用http://localhost:8080/api/user/findUsers一直進入到ds2、ds3節點,并且輪詢進入
4、MySQL分庫分表原理
1)、分庫分表
水平拆分:同一個表的數據拆到不同的庫不同的表中。可以根據時間、地區或某個業務鍵維度,也可以通過hash進行拆分,最后通過路由訪問到具體的數據。拆分后的每個表結構保持一致
垂直拆分:就是把一個有很多字段的表給拆分成多個表,或者是多個庫上去。每個庫表的結構都不一樣,每個庫表都包含部分字段。一般來說,可以根據業務維度進行拆分,如訂單表可以拆分為訂單、訂單支持、訂單地址、訂單商品、訂單擴展等表;也可以,根據數據冷熱程度拆分,20%的熱點字段拆到一個表,80%的冷字段拆到另外一個表。
最新分庫分表面試題整理好了,點擊Java面試庫小程序在線刷題。
2)、不停機分庫分表數據遷移
一般數據庫的拆分也是有一個過程的,一開始是單表,后面慢慢拆成多表。那么我們就看下如何平滑的從MySQL單表過度到MySQL的分庫分表架構
- 利用MySQL+Canal做增量數據同步,利用分庫分表中間件,將數據路由到對應的新表中
- 利用分庫分表中間件,全量數據導入到對應的新表中
- 通過單表數據和分庫分表數據兩兩比較,更新不匹配的數據到新表中
- 數據穩定后,將單表的配置切換到分庫分表配置上
5、Sharding-Jdbc實現分庫分表
1)、邏輯表
用戶數據根據訂單id%2拆分為2個表,分別是:t_order0和t_order1。他們的邏輯表名是:t_order
多數據源相同表:
- #多數據源$->{0..N}.邏輯表名$->{0..N} 相同表
- spring.shardingsphere.sharding.tables.t_order.actual-data-nodes=ds$->{0..1}.t_order$->{0..1}
多數據源不同表:
- #多數據源$->{0..N}.邏輯表名$->{0..N} 不同表
- spring.shardingsphere.sharding.tables.t_order.actual-data-nodes=ds0.t_order$->{0..1},ds1.t_order$->{2..4}
單庫分表:
- #單數據源的配置方式
- spring.shardingsphere.sharding.tables.t_order.actual-data-nodes=ds0.t_order$->{0..4}
全部手動指定:
- spring.shardingsphere.sharding.tables.t_order.actual-data-nodes=ds0.t_order0,ds1.t_order0,ds0.t_order1,ds1.t_order1
2)、inline分片策略
- spring.shardingsphere.sharding.tables.t_order.actual-data-nodes=ds$->{0..1}.t_order$->{0..1}
- #數據源分片策略
- spring.shardingsphere.sharding.tables.t_order.database-strategy.inline.sharding-column=user_id
- #數據源分片算法
- spring.shardingsphere.sharding.tables.t_order.database-strategy.inline.algorithm-expression=ds$->{user_id%2}
- #表分片策略
- spring.shardingsphere.sharding.tables.t_order.table-strategy.inline.sharding-column=order_id
- #表分片算法
- spring.shardingsphere.sharding.tables.t_order.table-strategy.inline.algorithm-expression=t_order$->{order_id%2}
上面的配置通過user_id%2來決定具體數據源,通過order_id%2來決定具體表
insert into t_order(user_id,order_id) values(2,3),user_id%2 = 0使用數據源ds0,order_id%2 = 1使用t_order1,insert語句最終操作的是數據源ds0的t_order1表。
3)、分布式主鍵配置
Sharding-Jdbc可以配置分布式主鍵生成策略。默認使用雪花算法(snowflake),生成64bit的長整型數據,也支持UUID的方式
- #主鍵的列名
- spring.shardingsphere.sharding.tables.t_order.key-generator.column=id
- #主鍵生成策略
- spring.shardingsphere.sharding.tables.t_order.key-generator.type=SNOWFLAKE
4)、inline分片策略實現分庫分表
需求:
對1000w的用戶數據進行分庫分表,對用戶表的數據進行分表和分庫的操作。根據年齡奇數存儲在t_user1,偶數t_user0,同時性別奇數存儲在ds1,偶數ds0。
另外,MySQL 系列面試題和答案全部整理好了,微信搜索Java技術棧,在后臺發送:面試,可以在線閱讀。
表結構:
- CREATE TABLE `t_user0` (
- `id` bigint(20) DEFAULT NULL,
- `nickname` varchar(200) DEFAULT NULL,
- `password` varchar(200) DEFAULT NULL,
- `age` int(11) DEFAULT NULL,
- `sex` int(11) DEFAULT NULL,
- `birthday` varchar(100) DEFAULT NULL
- ) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4;
- CREATE TABLE `t_user1` (
- `id` bigint(20) DEFAULT NULL,
- `nickname` varchar(200) DEFAULT NULL,
- `password` varchar(200) DEFAULT NULL,
- `age` int(11) DEFAULT NULL,
- `sex` int(11) DEFAULT NULL,
- `birthday` varchar(100) DEFAULT NULL
- ) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4;
兩個數據庫中都包含t_user0和t_user1兩張表。Spring Boot 基礎就不介紹了,推薦下這個實戰教程:https://www.javastack.cn/categories/Spring-Boot/
application.properties:
- spring.main.allow-bean-definition-overriding=true
- #顯示sql
- spring.shardingsphere.props.sql.show=true
- #配置數據源
- spring.shardingsphere.datasource.names=ds0,ds1
- #ds0數據庫連接信息
- spring.shardingsphere.datasource.ds0.type=com.alibaba.druid.pool.DruidDataSource
- spring.shardingsphere.datasource.ds0.driver-class-name=com.mysql.cj.jdbc.Driver
- spring.shardingsphere.datasource.ds0.url=jdbc:mysql://47.101.58.187:3306/t_user_db0?useUnicode=true&useSSL=false&serverTimezone=Asia/Shanghai
- spring.shardingsphere.datasource.ds0.username=root
- spring.shardingsphere.datasource.ds0.password=123456
- spring.shardingsphere.datasource.ds0.maxPoolSize=100
- spring.shardingsphere.datasource.ds0.minPoolSize=5
- #ds1數據庫連接信息
- spring.shardingsphere.datasource.ds1.type=com.alibaba.druid.pool.DruidDataSource
- spring.shardingsphere.datasource.ds1.driver-class-name=com.mysql.cj.jdbc.Driver
- spring.shardingsphere.datasource.ds1.url=jdbc:mysql://47.101.58.187:3306/t_user_db1?useUnicode=true&useSSL=false&serverTimezone=Asia/Shanghai
- spring.shardingsphere.datasource.ds1.username=root
- spring.shardingsphere.datasource.ds1.password=123456
- spring.shardingsphere.datasource.ds1.maxPoolSize=100
- spring.shardingsphere.datasource.ds1.minPoolSize=5
- #整合mybatis的配置
- mybatis.type-aliases-package=com.ppdai.shardingjdbc.entity
- spring.shardingsphere.sharding.tables.t_user.actual-data-nodes=ds$->{0..1}.t_user$->{0..1}
- #數據源分片策略
- spring.shardingsphere.sharding.tables.t_user.database-strategy.inline.sharding-column=sex
- #數據源分片算法
- spring.shardingsphere.sharding.tables.t_user.database-strategy.inline.algorithm-expression=ds$->{sex%2}
- #表分片策略
- spring.shardingsphere.sharding.tables.t_user.table-strategy.inline.sharding-column=age
- #表分片算法
- spring.shardingsphere.sharding.tables.t_user.table-strategy.inline.algorithm-expression=t_user$->{age%2}
- #主鍵的列名
- spring.shardingsphere.sharding.tables.t_user.key-generator.column=id
- spring.shardingsphere.sharding.tables.t_user.key-generator.type=SNOWFLAKE
測試類:
- @SpringBootTest
- class ShardingJdbcApplicationTests {
- @Autowired
- private UserMapper userMapper;
- /**
- * sex:奇數
- * age:奇數
- * ds1.t_user1
- */
- @Test
- public void test01() {
- User user = new User();
- user.setNickname("zhangsan" + new Random().nextInt());
- user.setPassword("123456");
- user.setAge(17);
- user.setSex(1);
- user.setBirthday("1997-12-03");
- userMapper.addUser(user);
- }
- /**
- * sex:奇數
- * age:偶數
- * ds1.t_user0
- */
- @Test
- public void test02() {
- User user = new User();
- user.setNickname("zhangsan" + new Random().nextInt());
- user.setPassword("123456");
- user.setAge(18);
- user.setSex(1);
- user.setBirthday("1997-12-03");
- userMapper.addUser(user);
- }
- /**
- * sex:偶數
- * age:奇數
- * ds0.t_user1
- */
- @Test
- public void test03() {
- User user = new User();
- user.setNickname("zhangsan" + new Random().nextInt());
- user.setPassword("123456");
- user.setAge(17);
- user.setSex(2);
- user.setBirthday("1997-12-03");
- userMapper.addUser(user);
- }
- /**
- * sex:偶數
- * age:偶數
- * ds0.t_user0
- */
- @Test
- public void test04() {
- User user = new User();
- user.setNickname("zhangsan" + new Random().nextInt());
- user.setPassword("123456");
- user.setAge(18);
- user.setSex(2);
- user.setBirthday("1997-12-03");
- userMapper.addUser(user);
- }
- }