一致性哈希-数据迁移

losetowin 发布于:2016-12-12 19:02 分类:技术  有 7256 人浏览,获得评论 0 条 标签: 一致性哈希 

本文地址:http://www.dutycode.com/yizhixing_hash_shujuqianyi.html
除非注明,文章均为 www.dutycode.com 原创,欢迎转载!转载请注明本文地址,谢谢。
当缓存集群增加节点之后,如果直接将流量迁移到新节点,此时新节点上没有数据,这时候落到新节点上的数据读请求便会出现数据读取不到的情况,假若缓存的数据逻辑复杂,则可能会出现短暂性的服务响应慢的情况(因为需要重新计算数据,写入缓存),所以这种情况下,适合对数据做迁移之后再将读取流量迁移到新节点。
那该如何做到平滑的迁移呢?
以下方案,未经过实际操作,仅是自己思路,仅供参考。
数据迁移过程中需要关注的点:
1、迁移过程数据不丢失
2、迁移过程中不影响线上服务,不能存在数据不一致的情况。

基本的步骤如下:
1、数据首先双写,新数据同时写到新旧节点上,但读取依旧只从旧节点读取,新节点只提供写入,不提供读取操作,所以一段时间内,旧节点的数据量不会变小。
2、线上双写之后,开始做离线数据迁移,此时在某个时间节点上开始做,仅做截止到某个时间节点的数据迁移,迁移到新节点,比如,假如10点整开始离线数据迁移,可以只迁移截止到10点整的数据,10点之后的数据暂不做离线迁移。(其实10点后的数据已经没必要迁移,因为之前已做双写操作,新数据已经在新节点上存在)
3、离线迁移完成之后,将线上双写下掉,同时将读操作切换到新节点即可。
4、补充步骤,读写操作都切换到新节点之后,旧节点数据可做部分的删除操作,释放下空间。


PS:1步骤和2步骤可做调换,但如果2步骤在前的话,还需要再做一步数据回放的操作,因为离线迁移需要的数据截至时间点和上线双写操作的时间点是存在时间差的,这段时间的数据需要做数据回放,重新写入到新节点。

写在后面:
常见的场景下,新增节点的时候是无需做数据迁移的,我们在使用缓存服务的时候,一般会有缓存无值从DB取值的业务保证,同时缓存的数据的计算量一般不会太大,所以增加节点之后带来的数据迁移的必要性不是很高。但如果计算量大,且没有后端DB做数据补充的时候,数据迁移就很有必要了。  

版权所有:《攀爬蜗牛》 => 《一致性哈希-数据迁移
本文地址:https://www.dutycode.com/yizhixing_hash_shujuqianyi.html
除非注明,文章均为 《攀爬蜗牛》 原创,欢迎转载!转载请注明本文地址,谢谢。