摘要:ShardingSphere 是目前最好用的数据库中间件之一,用于实现分库分表、读写分离,分布式事务、数据库治理。
目录
[TOC]
ShardingSphere
官方文档:
Apache ShardingSphere 是一款分布式的数据库生态系统。
ShardingSphere 是目前最好用的数据库中间件之一,用于实现分库分表、读写分离。
当然,它不仅仅能够提供上述两个功能,也能提供分布式事务、数据库治理。
分类
包含两大产品:
Sharding-JDBC 采用无中心化架构,适用于 Java 开发的高性能的轻量级 OLTP 应用。
Sharding-Proxy 提供静态入口以及异构语言的支持,适用于 OLAP 应用以及对分片数据库进行管理和运维的场景。
ShardingSphere-Proxy
ShardingSphere-Proxy 服务端分库分表:通过 JDBC 驱动层透明代理实现读写分离。被定位为透明化的数据库代理端,提供封装了数据库二进制协议的服务端版本,用于完成对异构语言的支持。
- 代理层介于应用程序与数据库间,每次请求都需要做一次转发,请求会存在额外的时延。
- 这种方式对于应用非常友好,应用基本零改动,和语言无关,可以通过连接共享减少连接数消耗。
- 对应用程序完全透明,可直接当做 MySQL/PostgreSQL 使用;
- 适用于任何兼容 MySQL/PostgreSQL 协议的的客户端,如:MySQL Command Client, MySQL Workbench,Navicat 等。
- 可以搭建一个 Sharding-Proxy 服务,然后使用 Navicat 等 MySQL GUI 工具连接该服务,方便查询数据。
- 兼容 MariaDB 等基于 MySQL 协议的数据库,以及 openGauss 等基于 PostgreSQL 协议的数据库;
ShardingSphere-JDBC
ShardingSphere-JDBC 客户端分库分表:经常简称之为 sharding-jdbc 。定位为轻量级 Java 框架,在 Java 的 JDBC 层提供的额外服务。使用客户端直连数据库,以 jar 包形式提供服务,无需额外部署和依赖,可理解为增强版的 JDBC 驱动,完全兼容 JDBC 和各种 ORM 框架。
- 适用于任何基于 JDBC 的 ORM 框架,如:JPA, Hibernate, Mybatis, Spring JDBC Template 或直接使用JDBC;
- 支持任何第三方的数据库连接池,如:DBCP, C3P0, BoneCP, HikariCP 等;
- 支持任意实现 JDBC 规范的数据库,目前支持 MySQL,PostgreSQL,Oracle,SQLServer 以及任何可使用JDBC访问的数据库。
- 相比 Sharding-Proxy 来说,是基于 client 模式,无需经过 proxy 一层的性能损耗,也不用考虑 proxy 的高可用,所以对于 Java 项目来说,更加被推荐。
- 目前,阿里、京东、美团等公司,都采用 client 模式的分库分表中间件。


对比
当在 Proxy 和 JDBC 两种模式选择时,可以参考下表对照:
| JDBC | Proxy | |
|---|---|---|
| 数据库 | 任意 | MySQL/PostgreSQL |
| 连接消耗数 | 高 | 低 |
| 异构语言 | 仅Java | 任意 |
| 性能 | 损耗低 | 损耗略高 |
| 中心化 | 无中心化 | 中心化 |
| 静态入口 | 无 | 有 |
越来越多的公司都在生产环境使用了 sharding-jdbc ,最核心的原因就是:简单(原理简单,易于实现,方便运维)。
混合部署架构
另外,在产品图中,Governance Center也是其中重要的部分。作用有点类似于微服务架构中的配置中心,可以使用第三方服务统一管理分库分表的配置信息,当前建议使用的第三方服务是Zookeeper,同时也支持Nacos,Etcd等其他第三方产品。
由于ShardingJDBC和ShardingProxy都支持通过Governance Center,将配置信息交个第三方服务管理,因此,也就自然支持了通过Governance Center进行整合的混合部署架构。

功能
- SQL 路由:根据 SQL 类型(SELECT/WRITE)自动路由到主库或从库。
- 负载均衡:支持轮询、随机、权重等算法分配读请求到多个从库。
- 主从同步:依赖 MySQL 原生主从复制机制保障数据一致性。
- 故障转移:配置心跳检测实现从库故障自动剔除。

基本原理
在后端开发中,JDBC 编程是最基本的操作。不管 ORM 框架是 Mybatis 还是 Hibernate ,亦或是 spring-jpa ,他们的底层实现是 JDBC 的模型。
sharding-jdbc 的本质上就是实现 JDBC 的核心接口。


| 接口 | 实现类 |
|---|---|
| DataSource | ShardingDataSource |
| Connection | ShardingConnection |
| Statement | ShardingStatement |
| PreparedStatement | ShardingPreparedStatement |
| ResultSet | ShardingResultSet |
下图展示了 Prxoy 和 JDBC 两种模式的核心流程。

-
SQL 解析:分为词法解析和语法解析。 先通过词法解析器将 SQL 拆分为一个个不可再分的单词。再使用语法解析器对 SQL 进行理解,并最终提炼出解析上下文。解析上下文包括表、选择项、排序项、分组项、聚合函数、分页信息、查询条件以及可能需要修改的占位符的标记。
-
执行器优化:合并和优化分片条件,如 OR 等。
-
SQL 路由:根据解析上下文匹配用户配置的分片策略,并生成路由路径。目前支持分片路由和广播路由。
-
SQL 改写:将 SQL 改写为在真实数据库中可以正确执行的语句。SQL 改写分为正确性改写和优化改写。
-
SQL 执行:通过多线程执行器异步执行。
-
结果归并:将多个执行结果集归并以便于通过统一的 JDBC 接口输出。结果归并包括流式归并、内存归并和使用装饰者模式的追加归并这几种方式。
核心概念
- 虚拟库: ShardingSphere的核心就是提供一个具备分库分表功能的虚拟库,他是一个ShardingSphereDatasource实例。应用程序只需要像操作单数据源一样访问这个实例即可。
- 真实库: 实际保存数据的数据库。都被包含在ShardingSphereDatasource实例当中,由ShardingSphere决定未来需要使用哪个真实库。
- 逻辑表: 应用程序直接操作的逻辑表。
- 真实表: 实际保存数据的表。与逻辑表表名不需要一致,但是需要有相同的表结构,可以分布在不同的真实库中。应用可以维护一个逻辑表与真实表的对应关系,所有的真实表默认也会映射成为ShardingSphere的虚拟表。
- 分布式主键生成算法: 给逻辑表生成唯一主键。由于逻辑表的数据是分布在多个真实表当中的,所有,单表的索引就无法保证逻辑表的ID唯一性。
- ShardingSphere集成了几种常见的基于单机生成的分布式主键生成器。比如SNOWFLAKE,COSID_SNOWFLAKE雪花算法可以生成单调递增的long类型的数字主键,还有UUID,NANOID可以生成字符串类型的主键。
- 当然,ShardingSphere也支持应用自行扩展主键生成算法。比如基于Redis,Zookeeper等第三方服务,自行生成主键。
- 分片策略: 表示逻辑表要如何分配到真实库和真实表当中,分为分库策略和分表策略两个部分。
- 分片策略由分片键和分片算法组成。
- 分片键:是进行数据水平拆分的关键字段。如果没有分片键,ShardingSphere将只能进行全路由,SQL执行的性能会非常差。
- 分片算法:则表示根据分片键如何寻找对应的真实库和真实表。简单的分片策略可以使用Groovy表达式直接配置,当然,ShardingSphere也支持自行扩展更为复杂的分片算法。
- 分片策略由分片键和分片算法组成。
分片算法
实现分布式主键直接路由到对应分片,则需要使用基因法 & 自定义复合分片算法 。
分片算法和阿里开源的数据库中间件 cobar 路由算法非常类似的。
假设现在需要将订单表平均拆分到4个分库 shard0 ,shard1 ,shard2 ,shard3 。
首先将 [0-1023] 平均分为4个区段:[0-255],[256-511],[512-767],[768-1023],然后对字符串(或子串,由用户自定义)做 hash, hash 结果对 1024 取模,最终得出的结果 slot 落入哪个区段,便路由到哪个分库。

看起来分片算法很简单,但我们需要按照订单 ID 查询订单信息时依然需要路由四个分片,效率不高,那么如何优化呢 ?
答案是:基因法 & 自定义复合分片算法。
基因法
基因法:是指在订单 ID 中携带企业用户编号信息,可以在创建订单 order_id 时使用雪花算法,然后将 slot 的值保存在 10位工作机器 ID 里。
路由算法 ,可以和 雪花算法 天然融合在一起, 订单 order_id 使用雪花算法,我们可以将 slot 的值保存在 10位工作机器ID 里。

通过订单 order_id 可以反查出 slot , 就可以定位该用户的订单数据存储在哪个分片里。
1 | |
ID 生成器
- 查询本地内存,判定是否可以从本地队列中获取 currentTime , seq 两个参数 ,若存在,直接组装;
- 若不存在,调用 redis 的 INCRBY 命令 ,这里需要传递一个步长值,便于放一篇数据到本地内存里;
- 将数据回写到本地内存 ;
- 重新查询本地内存,本地队列中获取 currentTime , seq 两个参数 ,组装最后的结果,返回给生成器 。

下图展示了订单 ID 使用雪花算法的生成过程,生成的编号会携带企业用户 ID 信息。

自定义复合分片算法
解决了分布式 ID 问题,接下来的一个问题:sharding-jdbc 可否支持按照订单 ID ,企业用户 ID 两个字段来决定分片路由吗?
答案是:自定义复合分片算法。只需要实现 ComplexKeysShardingAlgorithm 类即可。

复合分片的算法流程非常简单:
-
分片键中有主键值,则直接通过主键解析出路由分片;
-
分片键中不存在主键值 ,则按照其他分片字段值解析出路由分片。
分库分表扩容
平滑扩容的核心是全量同步和实时双向同步,工程上有不少细节。
既然做了分库分表,如何实现平滑扩容也是一个非常有趣的话题。
当前分库分表情况
通过运维管理平台分析数据库实例使用情况(一般和运维一起),分析核心属性:表空间大小,表空间占比 ,数据容量,数据碎片率,表行数,平均行长。
数据库的瓶颈主要体现在:磁盘、CPU、内存、网络、连接数,而连接数主要是受 CPU 和 内存影响。
-
CPU 和内存可以通过升级配置来提升 , 磁盘可以使用 SSD 提升写入速度 ,可以运维同学解决;
- 磁盘 IO 在大量写入的情况下,写入性能会急剧下降 ,考虑分库;
- 考虑到 MySQL InnoDB 存储引擎 B+ tree 的特性 ,单表存储一般超过 1000万 ,IO 速度会下降,分表可以提升读取和写入速度;
归根到底,分库分表需要业务增长以及成本(服务器,人力投入)。
数据迁移内容
见下图,假设原来订单数据有 4 个实例 ,每个实例一个数据库,每个数据库上包含 16 张表,现在需要把 4 个实例迁移到8个实例上,每个实例上一个数据库,每个数据库包含 64 张表 。

整个数据迁移工作包括 :
-
前期准备
-
数据同步环节( 历史数据全量同步、增量数据实时同步、rehash )
-
数据校验环节( 全量校验、实时校验、校验规则配置 )
-
数据修复工具
前期准备
在数据同步之前,需要梳理迁移范围。
-
业务唯一主键
在进行数据同步前,需要先梳理所有表的唯一业务 ID,只有确定了唯一业务 ID 才能实现数据的同步操作。
需要注意的是:
业务中是否有使用数据库自增 ID 做为业务 ID 使用的,如果有需要业务先进行改造 。另外确保每个表是否都有唯一索引,
一旦表中没有唯一索引,就会在数据同步过程中造成数据重复的风险,所以我们先将没有唯一索引的表根据业务场景增加唯一索引(有可能是联合唯一索引)。
-
迁移哪些表,迁移后的分库分表规则
分表规则不同决定着 rehash 和数据校验的不同。需逐个表梳理是用户ID纬度分表还是非用户ID纬度分表、是否只分库不分表、是否不分库不分表等等。
数据同步
数据同步整体方案见下图,数据同步基于 binlog ,独立的中间服务做同步,对业务代码无侵入。

历史数据全量同步
也就是将旧库( 4个实例,每个实例 16 张表)迁移到新库( 8 个实例,每个实例 64 张表)。
通常的做法是:单独一个服务,使用游标的方式从旧库分片 select 语句,经过 rehash 后批量插入 (batch insert)到新库,需要配置jdbc 连接串参数 rewriteBatchedStatements=true 才能使批处理操作生效。
另外特别需要注意的是,历史数据也会存在不断的更新,如果先开启历史数据全量同步,则刚同步完成的数据有可能不是最新的。
- 所以这里的做法是,先开启增量数据单向同步(从旧库到新库),此时只是开启积压 kafka 消息并不会真正消费;
- 然后在开始历史数据全量同步,当历史全量数据同步完成后,在开启消费 kafka 消息进行增量数据同步(提高全量同步效率减少积压也是关键的一环),这样来保证迁移数据过程中的数据一致。
增量数据单向同步
增量数据同步考虑到灰度切流稳定性、容灾 和 可回滚能力 ,采用实时双向同步方案,切流过程中一旦新库出现稳定性问题或者新库出现数据一致问题,可快速回滚切回旧库,保证数据库的稳定和数据可靠。

增量数据实时同步的大体思路 :
- 过滤循环消息:需要过滤掉循环同步的 binlog 消息 ;
- 数据合并:同一条记录的多条操作只保留最后一条。为了提高性能,数据同步组件接到 kafka 消息后不会立刻进行数据流转,而是先存到本地阻塞队列,然后由本地定时任务每X秒将本地队列中的N条数据进行数据流转操作。此时N条数据有可能是对同一张表同一条记录的操作,所以此处只需要保留最后一条(类似于 redis aof 重写);
- update 转 insert :数据合并时,如果数据中有 insert + update 只保留最后一条 update ,会执行失败,所以此处需要将update转为 insert 语句 ;
- 按新表合并 :将最终要提交的 N 条数据,按照新表进行拆分合并,这样可以直接按照新表纬度进行数据库批量操作,提高插入效率;
整个过程中有几个问题需要注意:
问题 1 :怎么防止因异步消息无顺序而导致的数据一致问题 ?
首先 kafka 异步消息是存在顺序问题的,但是要知道的是 binlog 是顺序的,所以数据传输服务在对 kafka 消息投递时也是顺序的,此处要做的就是一个库保证只有一个消费者就能保障数据的顺序问题、不会出现数据状态覆盖,从而解决数据一致问题。
问题 2 :是否会有丢消息问题,比如消费者服务重启等情况下 ?
这里没有采用自动提交 offset ,而是每次消费数据最终入库完成后,将 offset 异步存到一个 mysql 表中,如果消费者服务重启宕机等,重启后从 mysql 拿到最新的offset开始消费。这样唯一的一个问题可能会出现瞬间部分消息重复消费,但是因为上面介绍的binlog是顺序的, 所以能保证数据的最终一致。
问题3:update 转 insert 会不会丢字段 ?
binlog 是全字段发送,不会存在丢字段情况。
双向同步时的 binlog 循环消费问题
想象一下,业务写一条数据到旧实例的一张表,于是产生了一条 binlog ; 数据同步中间件接到 binlog 后,将该记录写入到新实例,于是在新实例也产生了一条 binlog ;此时 数据同步中间件又接到了该 binlog ……不断循环,消息越来越多,数据顺序也被打乱。
怎么解决该问题呢? 我们采用数据染色方案,只要能够标识写入到数据库中的数据使数据同步中间件写入而非业务写入,当下次接收到该 binlog 数据的时候就不需要进行再次消息流转。
所以 数据同步中间件要求,每个数据库实例创建一个事务表,该事务表 tb_transaction 只有 id、tablename、status、create_time、update_time 几个字段,status 默认为 0。
再回到上面的问题,业务写一条数据到旧实例的一张表,于是产生了一条 binlog ; 数据同步中间件接到 binlog 后,如下操作:
# 开启事务,用事务保证一下sql的原子性和一致性
start transaction;
set autocommit = 0;
# 更新事务表status=1,标识后面的业务数据开始染色
update tb_transaction set status = 1 where tablename = ${tableName};
# 以下是业务产生binlog
insert xxx;
update xxx;
update xxx;
# 更新事务表status=0,标识后面的业务数据失去染色
update tb_transaction set status = 0 where tablename = ${tableName};
commit;
此时数据同步中间件将上面这些语句打包一起提交到新实例,新实例更新数据后也会生产对应上面语句的 binlog ;当数据同步中间件再次接收到 binlog 时,只要判断遇到 tb_transaction 表 status=1 的数据开始,后面的数据都直接丢弃不要,直到遇到status=0时,再继续接收数据,以此来保证数据同步中间件只会流转业务产生的消息。

数据校验环节
数据校验模块由数据校验服务data-check模块来实现,主要是基于数据库层面的数据对比,逐条核对每一个数据字段是否一致,不一致的话会经过配置的校验规则来进行重试或者报警。
全量校验
以旧库为基准,查询每一条数据在新库是否存在,以及个字段是否一致。
以新库为基准,查询每一条数据在旧库是否存在,以及个字段是否一致。
实时校验
定时任务每5分钟校验,查询最近5+1分钟旧库和新库更新的数据,做diff。
差异数据进行二次、三次校验(由于并发和数据延迟存在),三次校验都不同则报警。

数据修复工具
经过数据校验,一旦发现数据不一致,则需要对数据进行修复操作。
数据修复有两种方案,一种是适用于大范围的数据不一致,采用重置kafka offset的方式,重新消费数据消息,将有问题的数据进行覆盖。

第二种是适用于小范围的数据不一致,数据修复模块自动拉取数据校验data-check模块记录的sls日志,进行日志解析,生成同步语句,更新到目标库。

灰度切换数据源
整体灰度切流方案
整体灰度方案:SP+用户纬度来实现,SP纬度:依靠灰度环境切量来做,用户纬度:依赖用户ID后四位百分比切流。
灰度切量的过程一定要配合停写(秒级),为什么要停写,因为数据同步存在一定延迟(正常毫秒级),而所有业务操作一定要保障都在一个实例上,否则在旧库中业务刚刚修改了一条数据,此时切换到新库如果数据还没有同步过来就是旧数据会有数据一致问题。所以步骤应该是:
- 先停写
- 观察数据全部同步完
- 在切换数据源
- 最后关闭停写,开始正常业务写入
切流前准备——ABC验证
虽然在切流之前,在测试环境进过了大量的测试,但是测试环境毕竟和生产环境不一样,生产环境数据库一旦出问题就可能是灭顶之灾,虽然上面介绍了数据校验和数据修复流程,但是把问题拦截在发生之前是做服务稳定性最重要的工作。
因此我们提出了ABC验证的概念,灰度环境ABC验证准备:
- 新购买两套数据库实例,当前订单库为A,新买的两套为分别为B、C
- 配置DTS从A单项同步到B(dts支持同构不需要rehash的数据同步),B做为旧库的验证库,C库做为新库
- 用B和C作为生产演练验证
- 当B和C演练完成之后,在将A和C配置为正式的双向同步

灰度切流步骤
具体灰度方案和数据源切换流程:
- 代码提前配置好两套数据库分库分表规则。
- 通过ACM配置灰度比例。
- 代码拦截mybatis请求,根据用户id后四位取模,和ACM设置中设置的灰度比例比较,将新库标识通过ThreadLocal传递到分库分表组件。
- 判断当前是否有灰度白名单,如命中将新库标识通过ThreadLocal传递到分库分表组件。
- 分库分表组件根据ACM配置拿到新分库的分表规则,进行数据库读写操作。
- 切量时会配合ACM配置灰度比例命中的用户进行停写。
实战案例
实战过程中,需要配置数据源信息,逻辑表对应的真实节点和分库分表策略(分片字段和分片算法)
创建数据库
当企业用户创建一条采购订单 , 会生成如下记录:
- 订单基础表 : t_ent_order 表 , 1条记录 ;
- 订单详情表: t_ent_order_detail ,1条记录;
- 订单明细表: t_ent_order_item , 多条记录 。
订单每年预估生成记录 1 亿条,数据量不大也不小,笔者参考原来神州专车的分库分表方式,订单数据采用了如下的分库分表策略:
- 订单基础表按照 ent_id (企业用户编号) 分库(四个分库),订单详情表保持一致。
- 订单明细表按照 ent_id (企业用户编号) 分库 (四个分库),同时也要按照 ent_id (企业编号) 分表(八个分表)。
首先创建 4 个库,分别是:ds_0、ds_1、ds_2、ds_3 。
- 这四个分库,每个分库都包含 订单基础表 , 订单详情表 ,订单明细表 。但是因为明细表需要分表,所以包含多张表。
- 在 doc 中 ,分别在 4个库里执行 init.sql 语句 ,执行后效果见图 。

使用shardingsphere jdbc
springboot 项目中配置依赖 :
- 重点强调, 原来分库分表之前, 很多 springboot 工程依赖 druid ,必须要删除
1 | |
配置文件中配置如下:
1 | |
配置很简单,需要配置如下几点:
- 配置数据源,上面配置数据源是: ds0、ds1、ds2、ds3 ;
- 配置打印日志,也就是:sql.show ,在测试环境建议打开 ,便于调试;
- 配置哪些表需要分库分表 ,在
shardingsphere.datasource.sharding.tables节点下面配置:

标红的是分库算法 ,下面的分表算法也是一样的。
上图中看到配置分片规则包含如下两点:
- 真实节点
对于应用来讲,查询的逻辑表是:t_ent_order_item 。
它们在数据库中的真实形态是:t_ent_order_item_0 到 t_ent_order_item_7。
真实数据节点是指数据分片的最小单元,由数据源名称和数据表组成。
订单明细表的真实节点是:ds$->{0..3}.t_ent_order_item_$->{0..7} 。
- 分库分表算法
配置分库策略和分表策略 , 每种策略都需要配置分片字段( sharding-columns )和分片算法。
实现分库分表
使用 Sharding-JDBC 实现分库分表
设计思路
将 orders 订单表,拆分到 2 个库,每个库 4 个订单表,一共 8 个表。
- 偶数后缀的表,在
lab18_orders_0库下。- 部分不需要分库分表的,例如说
order_config订单配置表。
- 部分不需要分库分表的,例如说
- 奇数后缀的表,在
lab18_orders_1库下。
1 | |
使用订单表上的 user_id 用户编号,进行分库分表的规则:
- 首先,按照
index = user_id % 2计算,将记录路由到lab18_orders_${index}库。 - 然后,按照
index = user_id % 8计算,将记录路由到orders_${index}表。
举个例子:
| 用户编号 | 库 | 表 |
|---|---|---|
| 1 | lab18_orders_1 |
orders_1 |
| 2 | lab18_orders_0 |
orders_2 |
| 3 | lab18_orders_1 |
orders_3 |
| 4 | lab18_orders_0 |
orders_4 |
| 5 | lab18_orders_1 |
orders_5 |
| 6 | lab18_orders_0 |
orders_6 |
| 7 | lab18_orders_1 |
orders_7 |
| 8 | lab18_orders_0 |
orders_8 |
| 9 | lab18_orders_1 |
orders_1 |
应用配置文件
逻辑表 :水平拆分的数据库(表)的相同逻辑和数据结构表的总称。例:订单数据根据主键尾数拆分为 10 张表,分别是
t_order_0到t_order_9(真实表),他们的逻辑表名为t_order。真实表 :在分片的数据库中真实存在的物理表。即上个示例中的
t_order_0到t_order_9。数据节点 :数据分片的最小单元。由数据源名称和数据表组成,例:
ds_0.t_order_0。
在 resources 目录下,创建 application.yaml 配置文件。
- 在
mybatis配置项下,设置mybatis-spring-boot-starter自动化配置 MyBatis 需要的参数。 - 在
spring.shardingsphere配置项下,设置sharding-jdbc-spring-boot-starter自动化配置 Sharding-JDBC 需要的参数。datasource配置项:配置了ds-orders-0和ds-orders-1两个数据源,分别对应lab18_orders_0和lab18_orders_1两个数据库。sharding配置项:配置了orders和order_config逻辑表 。orders配置项:设置orders逻辑表,使用分库分表的规则。actualDataNodes:对应的数据节点,使用的是行表达式 。这里的意思是,ds-orders-0.orders_0,ds-orders-0.orders_2,ds-orders-0.orders_4,ds-orders-0.orders_6,ds-orders-1.orders_1,ds-orders-1.orders_3,ds-orders-1.orders_5,ds-orders-1.orders_7。key-generator:主键生成策略。这里采用分布式主键 SNOWFLAKE 方案。更多可以看 《 ShardingSphere > 概念 & 功能 > 数据分片 > 其他功能 > 分布式主键》 文档。database-strategy:按照index = user_id % 2分库,路由到ds-orders-${index}数据源(库)。table-strategy:index = user_id % 8分表,路由到orders_${index}数据表。
order_config配置项:设置order_config逻辑表,不使用分库分表。actualDataNodes:对应的数据节点,只对应数据源(库)为ds-orders-0的order_config表。
props配置项:设置拓展属性配置。sql.show:设置打印 SQL 。因为我们编写的 SQL 会被 Sharding-JDBC 进行处理,实际执行的可能不是我们编写的,通过打印,方便观察和理解。
1 | |
实体类
创建 OrderDO.java 类,对应逻辑表。
- 在
lab18_orders_0数据库下,创建orders_0、orders_2、orders_4、orders_6数据表。 - 在
lab18_orders_1数据库下,创建orders_1、orders_3、orders_5、orders_7数据表。
创建 OrderConfigDO.java 类。
执行日志
- Logic SQL :逻辑 SQL 日志,就是我们编写的。
- Actual SQL :物理 SQL 日志,实际 Sharding-JDBC 向数据库真正发起的日志。
- 在这里,可以看到
ds-orders-0,表明该物理 SQL ,是路由到ds-orders-0数据源执行。 - 同时,查询的是
order_config表。 - 符合配置的
order_config逻辑表,不使用分库分表,对应的数据节点仅有ds-orders-0.order_config。
- 在这里,可以看到
数量不对应问题
明明只有一条 Logic SQL 操作,却发起了 8 条 Actual SQL 操作。这是为什么呢?
-
使用
id = ?作为查询条件,因为 Sharding-JDBC 解析不到配置的user_id片键(分库分表字段),作为查询字段,所以只好 全库表路由 ,查询所有对应的数据节点,也就是配置的所有数据库的数据表。这样,在获得所有查询结果后,通过 归并引擎 合并返回最终结果。通过将 Actual SQL 在每个数据库的数据表执行,返回的结果都是符合条件的。
这样,和使用 Logic SQL 在逻辑表中执行的结果,实际是一致的。
-
那么,一次性发起这么多条 Actual SQL 是不是会顺序执行,导致很慢呢?
对 Sharding-JDBC 性能感兴趣的胖友,可以看看 《Sharding-JDBC 性能测试报告》 。
实现读写分离
见多数据源文档。
测试接口
修改配置文件 application-test.yml ,配置好 MySQL 数据库 和 Redis 服务 。
启动 Main 函数:

启动过程中,会打印 shardingsphere jdbc 日志 。

启动成功之后,访问 swagger ui 地址:
http://localhost:9793/shardingsphere-jdbc-server/doc.html#/home
接下来,我们进行两个测试:新增订单和按照订单 ID 查询
1、测试存储订单

点击发送按钮,接口响应成功。

我们插入1 条订单记录、1 条订单详情表进入 ds3 分片,并且 2 条订单条目表进入 ds3 分片的 t_ent_order_item_7 表。
2、测试存储订单

参数名称是 orderId , 参数值:609335823493160961 ,点击发送按钮,接口响应成功 , 返回订单信息。
