首页
导航
博客
电子书
算法
众创
代码
随贴
关于我们
您好,欢迎来到码863代码分享网! 请
[登录]
/
[注册]
搜 索
标题:
*
140
字
TAG标签:
(用空格隔开)
30
字
恢复历史版本:
请选择分类
html
python
javascript
php
sql
c
c++
c#
java
plain
所有人可见
仅自己可见
编辑器:UEditor
编辑器:TinyMCE
编辑器:Editor.md
HTML转MD
HTML转MD2
<p>来源:<a href="https://www.jianshu.com/nb/33854864">https://www.jianshu.com/nb/33854864</a></p><p><br/></p><p>canal是阿里巴巴旗下的一款开源项目,纯Java开发。基于数据库增量日志解析,提供增量数据订阅&消费,目前主要支持了MySQL(也支持mariaDB)。</p><h1>背景</h1><p>早期,阿里巴巴B2B公司因为存在杭州和美国双机房部署,存在跨机房同步的业务需求。不过早期的数据库同步业务,主要是基于trigger的方式获取增量变更,不过从2010年开始,阿里系公司开始逐步的尝试基于数据库的日志解析,获取增量变更进行同步,由此衍生出了增量订阅&消费的业务,从此开启了一段新纪元。ps. 目前内部使用的同步,已经支持mysql5.x和oracle部分版本的日志解析</p><p>基于日志增量订阅&消费支持的业务:</p><ol class=" list-paddingleft-2"><li><p>数据库镜像</p></li><li><p>数据库实时备份</p></li><li><p>多级索引 (卖家和买家各自分库索引)</p></li><li><p>search build</p></li><li><p>业务cache刷新</p></li><li><p>价格变化等重要业务消息</p></li></ol><h1><a href="https://github.com/alibaba/canal/wiki/Introduction#%E9%A1%B9%E7%9B%AE%E4%BB%8B%E7%BB%8D" target="_blank" rel="nofollow"></a>项目介绍</h1><p>名称:canal [kə'næl]</p><p>译意: 水道/管道/沟渠</p><p>语言: 纯java开发</p><p>定位: 基于数据库增量日志解析,提供增量数据订阅&消费,目前主要支持了mysql</p><p>关键词: mysql binlog parser / real-time / queue&topic</p><h2>工作原理</h2><h3>mysql主备复制实现</h3><p><img data-original-src="//upload-images.jianshu.io/upload_images/9190482-47f990a390eb333d" data-original-width="506" data-original-height="339" data-original-format="image/jpeg" data-original-filesize="21676" class="" data-image-index="0" style="cursor: zoom-in;" src="//upload-images.jianshu.io/upload_images/9190482-47f990a390eb333d?imageMogr2/auto-orient/strip|imageView2/2/w/506/format/webp"/></p><p>从上层来看,复制分成三步:</p><ol class=" list-paddingleft-2"><li><p>master将改变记录到二进制日志(binary log)中(这些记录叫做二进制日志事件,binary log events,可以通过show binlog events进行查看);</p></li><li><p>slave将master的binary log events拷贝到它的中继日志(relay log);</p></li><li><p>slave重做中继日志中的事件,将改变反映它自己的数据。</p></li></ol><h3>canal的工作原理:</h3><p><img data-original-src="//upload-images.jianshu.io/upload_images/9190482-b404401ca0b6a1b3" data-original-width="894" data-original-height="414" data-original-format="image/jpeg" data-original-filesize="23778" class="" data-image-index="1" style="cursor: zoom-in;" src="//upload-images.jianshu.io/upload_images/9190482-b404401ca0b6a1b3?imageMogr2/auto-orient/strip|imageView2/2/w/894/format/webp"/></p><p>原理相对比较简单:</p><ol class=" list-paddingleft-2"><li><p>canal模拟mysql slave的交互协议,伪装自己为mysql slave,向mysql master发送dump协议</p></li><li><p>mysql master收到dump请求,开始推送binary log给slave(也就是canal)</p></li><li><p>canal解析binary log对象(原始为byte流)</p></li></ol><h1>架构</h1><p><img data-original-src="//upload-images.jianshu.io/upload_images/9190482-da6ee9204d5d0f12" data-original-width="880" data-original-height="382" data-original-format="image/jpeg" data-original-filesize="28773" class="" data-image-index="2" style="cursor: zoom-in;" src="//upload-images.jianshu.io/upload_images/9190482-da6ee9204d5d0f12?imageMogr2/auto-orient/strip|imageView2/2/w/880/format/webp"/></p><p>说明:</p><ul class=" list-paddingleft-2"><li><p>server代表一个canal运行实例,对应于一个jvm</p></li><li><p>instance对应于一个数据队列 (1个server对应1..n个instance)</p></li></ul><p>instance模块:</p><ul class=" list-paddingleft-2"><li><p>eventParser (数据源接入,模拟slave协议和master进行交互,协议解析)</p></li><li><p>eventSink (Parser和Store链接器,进行数据过滤,加工,分发的工作)</p></li><li><p>eventStore (数据存储)</p></li><li><p>metaManager (增量订阅&消费信息管理器)</p></li></ul><h2>知识科普</h2><p>mysql的Binlay Log介绍</p><ul class=" list-paddingleft-2"><li><p>(<a href="http://dev.mysql.com/doc/refman/5.5/en/binary-log.html" target="_blank" rel="nofollow">http://dev.mysql.com/doc/refman/5.5/en/binary-log.html</a>)</p></li><li><p>(<a href="http://www.taobaodba.com/html/474_mysqls-binary-log_details.html" target="_blank" rel="nofollow">http://www.taobaodba.com/html/474_mysqls-binary-log_details.html</a>)</p></li></ul><p>简单点说:</p><ul class=" list-paddingleft-2"><li><p>mysql的binlog是多文件存储,定位一个LogEvent需要通过binlog filename + binlog position,进行定位</p></li><li><p>mysql的binlog数据格式,按照生成的方式,主要分为:statement-based、row-based、mixed。</p></li></ul><pre class="line-numbers language-ruby">mysql> show variables like 'binlog_format'; +---------------+-------+ | Variable_name | Value | +---------------+-------+ | binlog_format | ROW | +---------------+-------+ 1 row in set (0.00 sec)</pre><p>目前canal支持所有模式的增量订阅(但配合同步时,因为statement只有sql,没有数据,无法获取原始的变更日志,所以一般建议为ROW模式)</p><h2>EventParser设计</h2><p>大致过程:</p><p><img data-original-src="//upload-images.jianshu.io/upload_images/9190482-3c3cef45e5aff435.png" data-original-width="1113" data-original-height="639" data-original-format="image/png" data-original-filesize="175768" class="" data-image-index="3" style="cursor: zoom-in;" src="//upload-images.jianshu.io/upload_images/9190482-3c3cef45e5aff435.png?imageMogr2/auto-orient/strip|imageView2/2/w/1113/format/webp"/></p><p>整个parser过程大致可分为几步:</p><ol class=" list-paddingleft-2"><li><p>Connection获取上一次解析成功的位置 (如果第一次启动,则获取初始指定的位置或者是当前数据库的binlog位点)</p></li><li><p>Connection建立链接,发送BINLOG_DUMP指令<br/>// 0. write command number<br/>// 1. write 4 bytes bin-log position to start at<br/>// 2. write 2 bytes bin-log flags<br/>// 3. write 4 bytes server id of the slave<br/>// 4. write bin-log file name</p></li><li><p>Mysql开始推送Binaly Log</p></li><li><p>接收到的Binaly Log的通过Binlog parser进行协议解析,补充一些特定信息<br/>// 补充字段名字,字段类型,主键信息,unsigned类型处理</p></li><li><p>传递给EventSink模块进行数据存储,是一个阻塞操作,直到存储成功</p></li><li><p>存储成功后,定时记录Binaly Log位置</p></li></ol><h2>EventSink设计</h2><p><img data-original-src="//upload-images.jianshu.io/upload_images/9190482-4a5eba6748e72256" data-original-width="965" data-original-height="358" data-original-format="image/jpeg" data-original-filesize="26570" class="" data-image-index="4" style="cursor: zoom-in;" src="//upload-images.jianshu.io/upload_images/9190482-4a5eba6748e72256?imageMogr2/auto-orient/strip|imageView2/2/w/965/format/webp"/></p><p>说明:</p><ul class=" list-paddingleft-2"><li><p>数据过滤:支持通配符的过滤模式,表名,字段内容等</p></li><li><p>数据路由/分发:解决1:n (1个parser对应多个store的模式)</p></li><li><p>数据归并:解决n:1 (多个parser对应1个store)</p></li><li><p>数据加工:在进入store之前进行额外的处理,比如join</p></li></ul><h3>数据1:n业务</h3><p>为了合理的利用数据库资源, 一般常见的业务都是按照schema进行隔离,然后在mysql上层或者dao这一层面上,进行一个数据源路由,屏蔽数据库物理位置对开发的影响,阿里系主要是通过cobar/tddl来解决数据源路由问题。</p><p>所以,一般一个数据库实例上,会部署多个schema,每个schema会有由1个或者多个业务方关注</p><h3>数据n:1业务</h3><p>同样,当一个业务的数据规模达到一定的量级后,必然会涉及到水平拆分和垂直拆分的问题,针对这些拆分的数据需要处理时,就需要链接多个store进行处理,消费的位点就会变成多份,而且数据消费的进度无法得到尽可能有序的保证。</p><p>所以,在一定业务场景下,需要将拆分后的增量数据进行归并处理,比如按照时间戳/全局id进行排序归并.</p><h2>EventStore设计</h2><ul class=" list-paddingleft-2"><li><p>1. 目前仅实现了Memory内存模式,后续计划增加本地file存储,mixed混合模式</p></li><li><p>2. 借鉴了Disruptor的RingBuffer的实现思路</p></li></ul><p>RingBuffer设计:</p><p><img data-original-src="//upload-images.jianshu.io/upload_images/9190482-95a9bedfa60a9204" data-original-width="576" data-original-height="529" data-original-format="image/jpeg" data-original-filesize="17461" class="" data-image-index="5" style="cursor: zoom-in;" src="//upload-images.jianshu.io/upload_images/9190482-95a9bedfa60a9204?imageMogr2/auto-orient/strip|imageView2/2/w/576/format/webp"/></p><p>定义了3个cursor</p><ul class=" list-paddingleft-2"><li><p>Put : Sink模块进行数据存储的最后一次写入位置</p></li><li><p>Get : 数据订阅获取的最后一次提取位置</p></li><li><p>Ack : 数据消费成功的最后一次消费位置</p></li></ul><p>借鉴Disruptor的RingBuffer的实现,将RingBuffer拉直来看:</p><p><br/></p><p><img data-original-src="//upload-images.jianshu.io/upload_images/9190482-7f9aff233d8ccf76.png" data-original-width="1021" data-original-height="272" data-original-format="image/png" data-original-filesize="55592" class="" data-image-index="6" style="cursor: zoom-in;" src="//upload-images.jianshu.io/upload_images/9190482-7f9aff233d8ccf76.png?imageMogr2/auto-orient/strip|imageView2/2/w/1021/format/webp"/></p><p>image.png</p><p>实现说明:</p><ul class=" list-paddingleft-2"><li><p>Put/Get/Ack cursor用于递增,采用long型存储</p></li><li><p>buffer的get操作,通过取余或者与操作。(与操作: cusor & (size - 1) , size需要为2的指数,效率比较高)</p></li></ul><h2>Instance设计</h2><p><img data-original-src="//upload-images.jianshu.io/upload_images/9190482-58d7459fa4a0e8bb" data-original-width="865" data-original-height="603" data-original-format="image/jpeg" data-original-filesize="39187" class="" data-image-index="7" style="cursor: zoom-in;" src="//upload-images.jianshu.io/upload_images/9190482-58d7459fa4a0e8bb?imageMogr2/auto-orient/strip|imageView2/2/w/865/format/webp"/></p><p>instance代表了一个实际运行的数据队列,包括了EventPaser,EventSink,EventStore等组件。</p><p>抽象了CanalInstanceGenerator,主要是考虑配置的管理方式:</p><ul class=" list-paddingleft-2"><li><p>manager方式: 和你自己的内部web console/manager系统进行对接。(目前主要是公司内部使用)</p></li><li><p>spring方式:基于spring xml + properties进行定义,构建spring配置.</p></li></ul><h2>Server设计</h2><p><img data-original-src="//upload-images.jianshu.io/upload_images/9190482-b39a838ade14a647" data-original-width="778" data-original-height="397" data-original-format="image/jpeg" data-original-filesize="18149" class="" data-image-index="8" style="cursor: zoom-in;" src="//upload-images.jianshu.io/upload_images/9190482-b39a838ade14a647?imageMogr2/auto-orient/strip|imageView2/2/w/778/format/webp"/></p><p>server代表了一个canal的运行实例,为了方便组件化使用,特意抽象了Embeded(嵌入式) / Netty(网络访问)的两种实现</p><ul class=" list-paddingleft-2"><li><p>Embeded : 对latency和可用性都有比较高的要求,自己又能hold住分布式的相关技术(比如failover)</p></li><li><p>Netty : 基于netty封装了一层网络协议,由canal server保证其可用性,采用的pull模型,当然latency会稍微打点折扣,不过这个也视情况而定。(阿里系的notify和metaq,典型的push/pull模型,目前也逐步的在向pull模型靠拢,push在数据量大的时候会有一些问题)</p></li></ul><h2>增量订阅/消费设计</h2><p><img data-original-src="//upload-images.jianshu.io/upload_images/9190482-432359b93829d4eb.png" data-original-width="589" data-original-height="826" data-original-format="image/png" data-original-filesize="117920" class="" data-image-index="9" style="cursor: zoom-in;" src="//upload-images.jianshu.io/upload_images/9190482-432359b93829d4eb.png?imageMogr2/auto-orient/strip|imageView2/2/w/589/format/webp"/></p><p>具体的协议格式,可参见:<a href="https://github.com/alibaba/canal/blob/master/protocol/src/main/java/com/alibaba/otter/canal/protocol/CanalProtocol.proto" target="_blank" rel="nofollow">CanalProtocol.proto</a></p><p>get/ack/rollback协议介绍:</p><ul class=" list-paddingleft-2"><li><p>Message getWithoutAck(int batchSize),允许指定batchSize,一次可以获取多条,每次返回的对象为Message,包含的内容为:<br/>a. batch id 唯一标识<br/>b. entries 具体的数据对象,对应的数据对象格式:<a href="https://github.com/alibaba/canal/blob/master/protocol/src/main/java/com/alibaba/otter/canal/protocol/EntryProtocol.proto" target="_blank" rel="nofollow">EntryProtocol.proto</a></p></li><li><p>void rollback(long batchId),顾命思议,回滚上次的get请求,重新获取数据。基于get获取的batchId进行提交,避免误操作</p></li><li><p>void ack(long batchId),顾命思议,确认已经消费成功,通知server删除数据。基于get获取的batchId进行提交,避免误操作</p></li></ul><p>canal的get/ack/rollback协议和常规的jms协议有所不同,允许get/ack异步处理,比如可以连续调用get多次,后续异步按顺序提交ack/rollback,项目中称之为流式api.</p><p>流式api设计的好处:</p><ul class=" list-paddingleft-2"><li><p>get/ack异步化,减少因ack带来的网络延迟和操作成本 (99%的状态都是处于正常状态,异常的rollback属于个别情况,没必要为个别的case牺牲整个性能)</p></li><li><p>get获取数据后,业务消费存在瓶颈或者需要多进程/多线程消费时,可以不停的轮询get数据,不停的往后发送任务,提高并行化. (作者在实际业务中的一个case:业务数据消费需要跨中美网络,所以一次操作基本在200ms以上,为了减少延迟,所以需要实施并行化)</p></li></ul><p>流式api设计:</p><p><img data-original-src="//upload-images.jianshu.io/upload_images/9190482-4332a69db2c83863" data-original-width="626" data-original-height="393" data-original-format="image/jpeg" data-original-filesize="12992" class="" data-image-index="10" style="cursor: zoom-in;" src="//upload-images.jianshu.io/upload_images/9190482-4332a69db2c83863?imageMogr2/auto-orient/strip|imageView2/2/w/626/format/webp"/></p><ul class=" list-paddingleft-2"><li><p>每次get操作都会在meta中产生一个mark,mark标记会递增,保证运行过程中mark的唯一性</p></li><li><p>每次的get操作,都会在上一次的mark操作记录的cursor继续往后取,如果mark不存在,则在last ack cursor继续往后取</p></li><li><p>进行ack时,需要按照mark的顺序进行数序ack,不能跳跃ack. ack会删除当前的mark标记,并将对应的mark位置更新为last ack cusor</p></li><li><p>一旦出现异常情况,客户端可发起rollback情况,重新置位:删除所有的mark, 清理get请求位置,下次请求会从last ack cursor继续往后取</p></li></ul><h3>数据对象格式:<a href="https://github.com/alibaba/canal/blob/master/protocol/src/main/java/com/alibaba/otter/canal/protocol/EntryProtocol.proto" target="_blank" rel="nofollow">EntryProtocol.proto</a></h3><pre class="line-numbers language-css">Entry Header logfileName [binlog文件名] logfileOffset [binlog position] executeTime [binlog里记录变更发生的时间戳] schemaName [数据库实例] tableName [表名] eventType [insert/update/delete类型] entryType [事务头BEGIN/事务尾END/数据ROWDATA] storeValue [byte数据,可展开,对应的类型为RowChange] RowChange isDdl [是否是ddl变更操作,比如create table/drop table] sql [具体的ddl sql] rowDatas [具体insert/update/delete的变更数据,可为多条,1个binlog event事件可对应多条变更,比如批处理] beforeColumns [Column类型的数组] afterColumns [Column类型的数组] Column index [column序号] sqlType [jdbc type] name [column name] isKey [是否为主键] updated [是否发生过变更] isNull [值是否为null] value [具体的内容,注意为文本]</pre><p>说明:</p><ul class=" list-paddingleft-2"><li><p>可以提供数据库变更前和变更后的字段内容,针对binlog中没有的name,isKey等信息进行补全</p></li><li><p>可以提供ddl的变更语句</p></li></ul><h2>HA机制设计</h2><p>canal的ha分为两部分,canal server和canal client分别有对应的ha实现</p><ul class=" list-paddingleft-2"><li><p>canal server: 为了减少对mysql dump的请求,不同server上的instance要求同一时间只能有一个处于running,其他的处于standby状态.</p></li><li><p>canal client: 为了保证有序性,一份instance同一时间只能由一个canal client进行get/ack/rollback操作,否则客户端接收无法保证有序。</p></li></ul><p>整个HA机制的控制主要是依赖了zookeeper的几个特性,watcher和EPHEMERAL节点(和session生命周期绑定),可以看下我之前zookeeper的相关文章。</p><p>Canal Server:</p><p><img data-original-src="//upload-images.jianshu.io/upload_images/9190482-b1f112e00307416e.png" data-original-width="937" data-original-height="512" data-original-format="image/png" data-original-filesize="178941" class="" data-image-index="11" style="cursor: zoom-in;" src="//upload-images.jianshu.io/upload_images/9190482-b1f112e00307416e.png?imageMogr2/auto-orient/strip|imageView2/2/w/937/format/webp"/></p><p>image.png</p><p>大致步骤:</p><ol class=" list-paddingleft-2"><li><p>canal server要启动某个canal instance时都先向zookeeper进行一次尝试启动判断 (实现:创建EPHEMERAL节点,谁创建成功就允许谁启动)</p></li><li><p>创建zookeeper节点成功后,对应的canal server就启动对应的canal instance,没有创建成功的canal instance就会处于standby状态</p></li><li><p>一旦zookeeper发现canal server A创建的节点消失后,立即通知其他的canal server再次进行步骤1的操作,重新选出一个canal server启动instance.</p></li><li><p>canal client每次进行connect时,会首先向zookeeper询问当前是谁启动了canal instance,然后和其建立链接,一旦链接不可用,会重新尝试connect.</p></li></ol><p>Canal Client的方式和canal server方式类似,也是利用zookeeper的抢占EPHEMERAL节点的方式进行控制.</p><p><br/><br/><br/><br/></p>
CopyRight 2002~2023 精通2100网 联系邮箱:qqtxt@163.com
版权所有:精通2100网
湘ICP备2023018646号-1
MYSQl共执行 4 个查询,用时 0.0020530223846436 秒,PHP脚本用时 0.004922 秒,占用内存 0.640 MB,Gzip 已启用