帖子中心,是互联网业务中,一类典型的“1 对多”业务,即:一个用户能发布多个帖子,一个帖子只有一个发布者。
随着数据量的逐步增大,并发量的逐步增大,帖子中心这种“1 对多”业务,架构应该如何设计,有哪些因素需要考虑,是本文将要系统性讨论的问题。
什么是 x 对 x?
所谓的“1 对 1”,“1 对多”,“多对多”,来自数据库设计中的“实体-关系”ER 模型,用来描述实体之间的映射关系。
什么是“1 对 1”业务?
用户中心,一个用户只有一个登录名,一个登录名只对应一个用户,这是典型的 1 对 1 业务。
什么是“1 对多”业务?
帖子中心,一个用户可以发多条微博,一条微博只有一个发送者,这是典型的 1 对多业务。
什么是“多对多”业务?
feed 关注,一个用户可以关注多个用户,一个用户也可以被多个用户关注,这是典型的多对多业务。
帖子中心是个什么业务,有什么典型的业务需求?
帖子中心是一个典型的 1 对多业务。
一个用户可以发布多个帖子,一个帖子只对应一个发布者。
任何脱离业务的架构设计都是耍流氓,先来看看帖子中心对应的业务需求。
帖子中心,是一个提供帖子发布,修改,删除,查看,搜索的服务。
帖子中心,有什么写操作?
(1)发布(insert)帖子;
(2)修改(update)帖子;
(3)删除(delete)帖子;
帖子中心,有什么读操作?
(1)通过 tid 查询(select)帖子实体,单行查询;
(2)通过 uid 查询(select)用户发布过的帖子,列表查询;
(3)帖子检索(search),例如通过时间、标题、内容搜索符合条件的帖子;
在数据量较大,并发量较大的时候,架构如何设计?
典型的,通常通过元数据与索引数据分离的架构设计方法。
架构中的几个关键点,如上图所示:
(1)tiezi-center:帖子服务;
(2)tiezi-db:提供元数据存储;
(3)tiezi-search:帖子搜索服务;
(4)tiezi-index:提供索引数据存储;
(5)MQ:tiezi-center 与 tiezi-search 通讯媒介,一般不直接使用 RPC 调用,而是通过 MQ 对两个子系统解耦。
此时,读需求怎么满足?
tiezi-center 和 tiezi-search 分别满足两类不同的读需求。
如上图所示:
(1)tid 和 uid 上的查询需求,可以由 tiezi-center 从元数据读取并返回;
(2)其他类检索需求,可以由 tiezi-search 从索引数据检索并返回;
写需求怎么办呢?
至于写需求,如上图所示:
(1)增加,修改,删除的操作都会从 tiezi-center 发起;
(2)tiezi-center 修改元数据;
(3)tiezi-center 将信息修改通知发送给 MQ;
(4)tiezi-search 从 MQ 接受修改信息;
(5)tiezi-search 修改索引数据;
tiezi-search,搜索架构不是本文的重点,不再展开,后文将重点描述帖子中心元数据水平切分设计。
帖子中心,数据库元数据如何设计?
帖子中心业务,很容易了解到,其核心元数据为:
t_tiezi(tid, uid, time, title, content, …);
其中:
(1)tid 为帖子 ID,主键;
(2)uid 为用户 ID,发帖人;
(3)time, title, content …等为帖子属性;
数据库设计上,在业务初期,单库就能满足元数据存储要求。
(1)tiezi-center:帖子中心服务,对调用者提供友好的 RPC 接口;
(2)tiezi-db:对帖子数据进行存储;
在相关字段上建立索引,就能满足相关业务需求。
(1)帖子记录查询,通过 tid 查询,约占读请求量 90%;
select * from t_tiezi where tid=$tid
(2)帖子列表查询,通过 uid 查询其发布的所有帖子,约占读请求量 10%;
select * from t_tiezi where uid=$uid
随着数据量越来越大,如何进行水平切分,对存储容量进行线性扩展呢?
方案一:帖子 ID 切分法
既然是帖子中心,并且帖子记录查询量占了总请求的 90%,很容易想到通过 tid 字段取模来进行水平切分。
这个方法简单直接,优点:
(1)100% 写请求可以直接定位到库;
(2)90% 的读请求可以直接定位到库;
缺点也很明显:
(1)一个用户发布的所有帖子可能会落到不同的库上,10% 的请求通过 uid 来查询会比较麻烦;
如上图,一个 uid 访问需要遍历所有库。
有没有一种切分方法,确保同一个用户发布的所有帖子都落在同一个库上,而在查询一个用户发布的所有帖子时,不需要去遍历所有的库呢?
方案二:用户 ID 切分法
使用 uid 来分库可以解决这个问题。
新的问题出现了:如果使用 uid 来分库,确保了一个用户的帖子数据落在同一个库上,那通过 tid 来查询,就不知道这个帖子落在哪个库上了,岂不是还需要遍历全库,需要怎么优化呢?
tid 的查询是单行记录查询,只要在数据库(或者缓存)记录 tid 到 uid 的映射关系,就能解决这个问题。
新增一个索引库:
t_mapping(tid, uid);
(1)这个库只有两列,可以承载很多数据;
(2)即使数据量过大,索引库可以利用 tid 水平切分;
(3)这类 kv 形式的索引结构,可以很好的利用 cache 优化查询性能;
(4)一旦帖子发布,tid 和 uid 的映射关系就不会发生变化,cache 的命中率会非常高;
使用 uid 分库,并增加索引库记录 tid 到 uid 的映射关系之后,每当有 uid 上的查询,可以通过 uid 直接定位到库。
每当有 tid 上的查询,可以先查 mapping 表得到 uid,再通过 uid 定位到库。
这个方法的优点是:
(1)一个用户发布的所以帖子落在同一个库上;
(2)10% 的请求过过 uid 来查询列表,可以直接定位到库;
(3)索引表 cache 命中率非常高,因为 tid 与 uid 的映射关系不会变;
缺点也很明显:
(1)90% 的 tid 请求,以及 100% 的修改请求,不能直接定位到库,需要先进行一次索引表的查询,当然这个查询非常块,通常在 5ms 内可以返回;
(2)数据插入时需要操作元数据与索引表,可能引发潜在的一致性问题;
有没有一种方法,既能够通过 uid 定位到库,又不需要建立索引表来进行二次查询呢,使得 uid 和 tid 都能够直接一次命中的方案呢?
方案三:基因法
什么是分库基因?
通过 uid 分库,假设分为 16 个库,采用 uid%16 的方式来进行数据库路由,这里的 uid%16,其本质是 uid 的最后 4 个 bit 决定这行数据落在哪个库上,这 4 个 bit,就是分库基因。
什么是基因法分库?
在“1 对多”的业务场景,使用“1”分库,在“多”的数据 id 生成时,id 末端加入分库基因,就能同时满足“1”和“多”的分库查询需求。
如上图所示,uid=666 的用户发布了一条帖子(666 的二进制表示为:1010011010):
(1)使用 uid%16 分库,决定这行数据要插入到哪个库中;
(2)分库基因是 uid 的最后 4 个 bit,即 1010;
(3)在生成 tid 时,先使用一种分布式 ID 生成算法生成前 60bit(上图中绿色部分);
(4)将分库基因加入到 tid 的最后 4 个 bit(上图中粉色部分);
(5)拼装成最终的 64bit 帖子 tid(上图中蓝色部分);
这般,保证了同一个用户发布的所有帖子的 tid,都落在同一个库上,tid 的最后 4 个 bit 都相同,于是:
(1)通过 uid%16 能够定位到库;
(2)通过 tid%16 也能定位到库;
有人要问了,同一个 uid 发布的 tid 落在同一个库上,会不会出现数据不均衡?
只要 uid 是均衡的,每个用户发布的平均帖子数是均衡的,每个库的数据就是均衡的。
又有人要问了,最开始分 16 库,分库基因是 4bit,未来要扩充成 32 库,分库基因变成了 5bit,那怎么办?
需要提前做好容量预估,例如事先规划好 5 年内数据增长 256 库足够,就提前预留 8bit 基因。
总结
将以“帖子中心”为典型的“1 对多”类业务,在架构上,采用元数据与索引数据分离的架构设计方法:
(1)帖子服务,元数据满足 uid 和 tid 的查询需求;
(2)搜索服务,索引数据满足复杂搜索寻求;
对于元数据的存储,在数据量较大的情况下,有三种常见的切分方法:
(1)tid 切分法,按照 tid 分库,同一个用户发布的帖子落在不同的库上,通过 uid 来查询要遍历所有库;
(2)uid 切分法,按照 uid 分库,同一个用户发布的帖子落在同一个库上,需要通过索引表或者缓存来记录 tid 与 uid 的映射关系,通过 tid 来查询时,先查到 uid,再通过 uid 定位库;
(3)基因法,按照 uid 分库,在生成 tid 里加入 uid 上的分库基因,保证通过 uid 和 tid 都能直接定位到库;
原文:https://mp.weixin.qq.com/s/40uJBsgFWhcrJ3Xvkraulg
推荐:用户中心过亿数据如何处理呢?点击->https://mp.weixin.qq.com/s/8KTK_Bz8netP6R5MNSKeFw
🐶 你走,我不送你。你来,风雨无阻,我去接你。