Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >大数据数据库增量日志采集之Canal

大数据数据库增量日志采集之Canal

作者头像
鱼找水需要时间
发布于 2023-02-16 12:26:19
发布于 2023-02-16 12:26:19
93500
代码可运行
举报
文章被收录于专栏:SpringBoot教程SpringBoot教程
运行总次数:0
代码可运行

文章目录

1. Canal 入门

1.1 什么是 Canal

Canal 是用 Java 开发的基于数据库增量日志解析,提供增量数据订阅&消费的中间件。 目前。Canal 主要支持了 MySQL 的 Binlog 解析,解析完成后才利用 Canal Client 来处理获得 的相关数据

1.2 MySQL 的 Binlog

1.2.1 什么是 Binlog

MySQL 的二进制日志可以说 MySQL 最重要的日志了,它记录了所有的 DDL 和 DML(除了数据查询语句)语句,以事件形式记录,还包含语句所执行的消耗的时间,MySQL 的二进制日志是事务安全型的。

一般来说开启二进制日志大概会有 1%的性能损耗。二进制有两个最重要的使用场景:

其一:MySQL Replication 在 Master 端开启 Binlog,Master 把它的二进制日志传递给 Slaves来达到 Master-Slave 数据一致的目的。

其二:自然就是数据恢复了,通过使用 MySQL Binlog 工具来使恢复数据。

二进制日志包括两类文件:二进制日志索引文件(文件名后缀为.index)用于记录所有的二进制文件,二进制日志文件文件名后缀为.00000*)记录数据库所有的 DDL 和 DML(除了数据查询语句)语句事件。

1.2.2 Binlog 的分类

MySQL Binlog 的格式有三种,分别是 STATEMENTMIXEDROW。在配置文件中可以选择配置 binlog_format= statement|mixed|row。三种格式的区别:

1)statement:语句级,binlog 会记录每次一执行写操作的语句。相对 row 模式节省空间,但是可能产生不一致性,比如“update tt set create_date=now()”,如果用 binlog 日志进行恢复,由于执行时间不同可能产生的数据就不同。

优点:节省空间。 缺点:有可能造成数据不一致。

2)row:行级, binlog 会记录每次操作后每行记录的变化。

优点:保持数据的绝对一致性。因为不管 sql 是什么,引用了什么函数,他只记录执行后的效果。 缺点:占用较大空间。

3)mixed:statement 的升级版,一定程度上解决了,因为一些情况而造成的 statement模式不一致问题,默认还是 statement,在某些情况下譬如:当函数中包含 UUID() 时;包含AUTO_INCREMENT 字段的表被更新时;执行 INSERT DELAYED 语句时;用 UDF 时;会按照ROW 的方式进行处理。

优点:节省空间,同时兼顾了一定的一致性。 缺点:还有些极个别情况依旧会造成不一致,另外 statement 和 mixed 对于需要对binlog 的监控的情况都不方便。

综合上面对比,Canal 想做监控分析,选择 row 格式比较合适。

1.3 Canal 的工作原理

1.3.1 MySQL 主从复制过程

1) Master 主库将改变记录,写到二进制日志(Binary Log)中; 2) Slave 从库向 MySQL Master 发送 dump 协议,将 Master 主库的 binary log events 拷贝 到它的中继日志(relay log); 3) Slave 从库读取并重做中继日志中的事件,将改变的数据同步到自己的数据库。

1.3.2 Canal 的工作原理
  • canal 模拟 MySQL slave 的交互协议,伪装自己为 MySQL slave ,向 MySQL master 发送dump 协议
  • MySQL master 收到 dump 请求,开始推送 binary log 给 slave (即 canal )
  • canal 解析 binary log 对象(原始为 byte 流)

2. 环境准备

2.1 创建数据库

2.2 创建数据表

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
CREATE TABLE user_info(
    `id` VARCHAR(255),
    `name` VARCHAR(255),
    `sex` VARCHAR(255)
);

2.3 修改配置文件开启 Binlog

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
$:sudo vim /etc/my.cnf
server-id=1
log-bin=mysql-bin
binlog_format=row
binlog-do-db=gmall-2021

注意:binlog-do-db 根据自己的情况进行修改,指定具体要同步的数据库,如果不配置则表示所有数据库均开启 Binlog

2.4 重启 MySQL 使配置生效

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
sudo systemctl restart mysqld

/var/lib/mysql 目录下查看初始文件大小 154

2.5 测试 Binlog 是否开启

1) 插入数据

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
INSERT INTO user_info VALUES('1001','zhangsan','male');

2)再次到/var/lib/mysql 目录下,查看 index 文件的大小

2.6 创建账户

在 MySQL 中执行

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
set global validate_password_length=4;
set global validate_password_policy=0;
GRANT SELECT, REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO 'canal'@'%' IDENTIFIED BY 'canal' ;

3. Canal 的下载和安装

3.1 下载并解压 Jar 包

下载地址

将安装包拷贝到/opt/sortware 目录下,然后解压到/opt/module/canal包下

注意:canal 解压后是分散的,我们在指定解压目录的时候需要将 canal 指定上

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
mkdir /opt/module/canal
tar -zxvf canal.deployer-1.1.2.tar.gz -C /opt/module/canal

3.2 修改 canal.properties 的配置

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
$ pwd
/opt/module/canal/conf
$ vim canal.properties
#################################################
######### common argument ############# 
#################################################
canal.id = 1
canal.ip =
canal.port = 11111
canal.metrics.pull.port = 11112
canal.zkServers =
# flush data to zk
canal.zookeeper.flush.period = 1000
canal.withoutNetty = false
# tcp, kafka, RocketMQ
canal.serverMode = tcp
# flush meta cursor/parse position to file

说明: 这个文件是 canal 的基本通用配置,canal 端口号默认就是 11111,修改 canal 的输出 model,默认 tcp,改为输出到 kafka。  多实例配置如果创建多个实例,通过前面 canal 架构,我们可以知道,一个 canal 服务中可以有多个 instance,conf/下的每一个 example 即是一个实例,每个实例下面都有独立的配置文件。默认只有一个实例 example,如果需要多个实例处理不同的 MySQL 数据的话,直接拷贝出多个 example,并对其重新命名,命名和配置文件中指定的名称一致,然后修改canal.properties 中的 canal.destinations=实例 1,实例 2,实例 3。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
#################################################
######### destinations ############# 
#################################################
canal.destinations = example

3.3 修改 instance.properties

我们只读取一个 MySQL 数据,所以只有一个实例,这个实例的配置文件在conf/example 目录下

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
$ pwd
/opt/module/canal/conf/example
$ vim instance.properties

1) 配置 MySQL 服务器地址

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
#################################################
## mysql serverId , v1.0.26+ will autoGen 
## slaveId不要与my.cnf中server-id和其他节点重复
canal.instance.mysql.slaveId=20
# enable gtid use true/false
canal.instance.gtidon=false
# position info
canal.instance.master.address=127.0.0.1:3306

2)配置连接 MySQL 的用户名和密码,默认就是我们前面授权的 canal

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# username/password
canal.instance.dbUsername=canal
canal.instance.dbPassword=canal
canal.instance.connectionCharset = UTF-8
canal.instance.defaultDatabaseName =test
# enable druid Decrypt database password
canal.instance.enableDruid=false

4. 实时监控测试

4.1 TCP 模式测试

4.1.1 创建 maven 项目
4.1.2 在 gmall-canal 模块中配置 pom.xml
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
<dependencies>
  <dependency>
    <groupId>com.alibaba.otter</groupId>
    <artifactId>canal.client</artifactId>
    <version>1.1.2</version>
  </dependency>
  <dependency>
    <groupId>org.apache.kafka</groupId>
    <artifactId>kafka-clients</artifactId>
    <version>2.4.1</version>
  </dependency>
</dependencies>
4.1.3 通用监视类 –CanalClient

1)Canal 封装的数据结构

2)在项目模块下创建 com.example.app 包,并在包下创建 CanalClient(java 代码)

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
import com.alibaba.fastjson.JSONObject;
import com.alibaba.otter.canal.client.CanalConnector;
import com.alibaba.otter.canal.client.CanalConnectors;
import com.alibaba.otter.canal.protocol.CanalEntry;
import com.alibaba.otter.canal.protocol.Message;
import com.google.protobuf.ByteString;
import com.google.protobuf.InvalidProtocolBufferException;

import java.net.InetSocketAddress;
import java.util.List;

public class CanalClient {

    public static void main(String[] args) throws InterruptedException, InvalidProtocolBufferException {

        //TODO 获取连接
        CanalConnector canalConnector = CanalConnectors.newSingleConnector(new InetSocketAddress("192.168.1.1", 11111), "example", "", "");

        while (true) {

            //连接
            canalConnector.connect();

            //订阅数据库
            canalConnector.subscribe("gmall-2021.*");

            //获取数据
            Message message = canalConnector.get(100);

            //获取Entry集合
            List<CanalEntry.Entry> entries = message.getEntries();

            //判断集合是否为空,如果为空,则等待一会继续拉取数据
            if (entries.size() <= 0) {
                System.out.println("当次抓取没有数据,休息一会。。。。。。");
                Thread.sleep(1000);
            } else {

                //遍历entries,单条解析
                for (CanalEntry.Entry entry : entries) {

                    //1.获取表名
                    String tableName = entry.getHeader().getTableName();

                    //2.获取类型
                    CanalEntry.EntryType entryType = entry.getEntryType();

                    //3.获取序列化后的数据
                    ByteString storeValue = entry.getStoreValue();

                    //4.判断当前entryType类型是否为ROWDATA
                    if (CanalEntry.EntryType.ROWDATA.equals(entryType)) {

                        //5.反序列化数据
                        CanalEntry.RowChange rowChange = CanalEntry.RowChange.parseFrom(storeValue);

                        //6.获取当前事件的操作类型
                        CanalEntry.EventType eventType = rowChange.getEventType();

                        //7.获取数据集
                        List<CanalEntry.RowData> rowDataList = rowChange.getRowDatasList();

                        //8.遍历rowDataList,并打印数据集
                        for (CanalEntry.RowData rowData : rowDataList) {

                            JSONObject beforeData = new JSONObject();
                            List<CanalEntry.Column> beforeColumnsList = rowData.getBeforeColumnsList();
                            for (CanalEntry.Column column : beforeColumnsList) {
                                beforeData.put(column.getName(), column.getValue());
                            }

                            JSONObject afterData = new JSONObject();
                            List<CanalEntry.Column> afterColumnsList = rowData.getAfterColumnsList();
                            for (CanalEntry.Column column : afterColumnsList) {
                                afterData.put(column.getName(), column.getValue());
                            }

                            //数据打印
                            System.out.println("Table:" + tableName +
                                    ",EventType:" + eventType +
                                    ",Before:" + beforeData +
                                    ",After:" + afterData);
                        }
                    } else {
                        System.out.println("当前操作类型为:" + entryType);
                    }
                }
            }
        }
    }
}

4.2 Kafka 模式测试

1)修改 canal.properties 中 canal 的输出 model,默认 tcp,改为输出到 kafka

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
canal.serverMode = kafka

2)修改 Kafka 集群的地址

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
canal.mq.servers = 192.168.1.1:9092,192.168.1.2:9092,192.168.1.3:9092

3)修改 instance.properties 输出到 Kafka 的主题以及分区数

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# mq config
canal.mq.topic=canal_test
canal.mq.partitionsNum=1
# hash partition config
#canal.mq.partition=0
#canal.mq.partitionHash=mytest.person:id,mytest.role:id

注意:默认还是输出到指定 Kafka 主题的一个 kafka 分区,因为多个分区并行可能会打乱 binlog 的顺序,如果要提高并行度,首先设置 kafka的分区数 >1, 然后设置canal.mq.partitionHash 属性。

4)启动 canal

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
$ cd /opt/module/canal/
$ bin/startup.sh

5)看到 CanalLauncher 你表示启动成功,同时会创建 canal_test 主题

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
$ jps
2269 Jps
2253 CanalLauncher

6)启动 Kafka 消费客户端测试,查看消费情况

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
$ bin/kafka-console-consumer.sh --bootstrap-server 192.168.1.1:9092 --topic canal_test

7)向 MySQL 中插入数据后查看消费者控制台

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
插入数据
INSERT INTO user_info VALUES('1001','zhangsan','male'),('1002','lisi','female');
Kafka 消费者控制台
{"data":[{"id":"1001","name":"zhangsan","sex":"male"},{"id":"1002","name":"lisi","sex":"female"}],"database":"gmall-2021","es":1639360729000,"id":1,"isDdl":false,"mysqlType":{"id":"varchar(255)","name":"varchar(255)","sex":"varchar(255)"},"old":n
ull,"sql":"","sqlType":{"id":12,"name":12,"sex":12},"table":"user_info","ts":1639361038454,"type":"INSERT"}
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2023-02-13,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
docker安装canal数据同步工具
假设一个场景:编写一个博客系统,需要引入elasticsearch搜索引擎实现对文章内容的检索。则需要解决MySQL与elasticsearch数据同步的问题。
猫老师的叶同学
2023/03/01
1.5K0
Canal原理及其使用
  canal是用java开发的基于数据库增量日志解析,提供增量数据订阅&消费的中间件。目前,canal主要支持了MySQL的binlog解析,解析完成后才利用canal client 用来处理获得的相关数据。(数据库同步需要阿里的otter中间件,基于canal)
用户4283147
2022/10/27
1.6K0
Canal原理及其使用
数据中间件如何与MySQL数据同步?
先前介绍了ElasticSearch,以及ES配合MySQL的问题,这种方案是让ES上的数据根据MySQL的数据做对照从而形成对应的索引,再将数据通过处理和封装存放在ES当中。(可回顾:技术分析 | 浅析MySQL与ElasticSearch的组合使用)回到生产环境,我们如何保证MySQL中与ES对照的数据发生更新的时候ES也进行更新呢?就以ES为例。
GreatSQL社区
2023/02/24
1.4K0
Canal 原理与实践
canal [kə'næl],译意为水道/管道/沟渠,主要用途是基于 MySQL 数据库增量日志解析,提供增量数据订阅和消费,不支持全量已有数据同步。由于采用了 binlog 机制,Mysql 中的新增、更新、删除操作,对应的 Elasticsearch都能实时新增、更新、删除。
Se7en258
2021/05/18
1.1K0
Canal 原理与实践
一文带你快速入门Canal,看这篇就够了!
我们在做实时数仓时数据往往都是保存到数据库中例如MySQL,当有一条数据新增或修改需要马上将数据同步到kafka中或其他的数据库中,这时候我们需要借助阿里开源出来的Canal,来实现我们功能。
大数据老哥
2021/02/04
1.2K0
一文带你快速入门Canal,看这篇就够了!
使用canal增量订阅MySQL binlog
【转载请注明出处】:https://cloud.tencent.com/developer/article/1634327
后端老鸟
2020/05/28
3K0
使用canal增量订阅MySQL binlog
Docker安装canal、mysql进行简单测试与实现redis和mysql缓存一致性
canal [kə'næl],译意为水道/管道/沟渠,主要用途是基于 MySQL 数据库增量日志解析,提供增量数据订阅和消费。 早期阿里巴巴因为杭州和美国双机房部署,存在跨机房同步的业务需求,实现方式主要是基于业务 trigger 获取增量变更。从 2010 年开始,业务逐步尝试数据库日志解析获取增量变更进行同步,由此衍生出了大量的数据库增量订阅和消费业务。
掉发的小王
2022/07/11
9530
Docker安装canal、mysql进行简单测试与实现redis和mysql缓存一致性
使用TCP方式拉取Canal数据
canal.mq.dynamicTopic 是 Canal 的 MQ 动态 Topic 配置项:
JavaEdge
2023/09/12
3820
使用TCP方式拉取Canal数据
原来Canal也可以做HA?
在做实时数仓时,数据量往往比较大的,如果使用Canal来监听MySQL的状态当Canal 是单节服务时,服务器挂掉是就会造成数据丢失,这时Canal恰好可以配置HA这样就能解决单点问题,但是依赖于zookeeper,那我们就来配置一下Canal的HA。
大数据老哥
2021/02/04
8230
原来Canal也可以做HA?
手摸手实现Canal如何接入MySQL实现数据写操作监听
🍁 作者:知识浅谈,CSDN签约讲师,CSDN原力作者,后端领域优质创作者,热爱分享创作 💒 公众号:知识浅谈 📌 擅长领域:全栈工程师、爬虫、ACM算法 Canal的使用分为两部分: 上部分为canal接入Mysql数据库进行操作监听。 下部分为Canal如何接入消息队列、Redis、Canal的高可用HA。 这次拿上部分来做正菜🛴🛴🛴 环境:linux 数据库主机(192.168.31.230) Canal server主机(192.168.31.231) 🎈安装MySQL
知识浅谈
2022/11/13
1.2K0
手摸手实现Canal如何接入MySQL实现数据写操作监听
Mysql binlog 之阿里canal 1、What is Canal?2、工作原理3、Canal使用场景代码集成方式:
canal [kə'næl],中文翻译为 水道/管道/沟渠/运河,主要用途是用于 MySQL 数据库增量日志数据的订阅、消费和解析,是阿里巴巴开发并开源的,采用Java语言开发;
用户5927264
2020/12/01
1.2K0
Mysql binlog 之阿里canal 1、What is Canal?2、工作原理3、Canal使用场景代码集成方式:
Canal实现MySQL数据实时同步
canal [kə’næl],译意为水道/管道/沟渠,主要用途是基于 MySQL 数据库增量日志解析,提供增量数据订阅和消费
别团等shy哥发育
2023/02/25
3.3K0
Canal实现MySQL数据实时同步
阿里Canal框架(数据同步中间件)初步实践
早期,阿里巴巴B2B公司因为存在杭州和美国双机房部署,存在跨机房同步的业务需求。不过早期的数据库同步业务,主要是基于trigger的方式获取增量变更,不过从2010年开始,阿里系公司开始逐步的尝试基于数据库的日志解析,获取增量变更进行同步,由此衍生出了增量订阅&消费的业务,从此开启了一段新纪元。
java架构师
2019/05/15
1.2K0
Canal入门
早期,阿里巴巴B2B公司因为存在杭州和美国双机房部署,存在跨机房同步的业务需求。不过早期的数据库同步业务,主要是基于trigger的方式获取增量变更,不过从2010年开始,阿里系公司开始逐步的尝试基于数据库的日志解析,获取增量变更进行同步,由此衍生出了增量订阅&消费的业务,从此开启了一段新纪元。
王知无-import_bigdata
2019/10/15
1.2K0
Canal入门
【Canal】数据同步的终极解决方案,阿里巴巴开源的Canal框架当之无愧!!
作者个人研发的在高并发场景下,提供的简单、稳定、可扩展的延迟消息队列框架,具有精准的定时任务和延迟队列处理功能。自开源半年多以来,已成功为十几家中小型企业提供了精准定时调度方案,经受住了生产环境的考验。为使更多童鞋受益,现给出开源框架地址:
冰河
2020/10/29
1.4K0
【Canal】数据同步的终极解决方案,阿里巴巴开源的Canal框架当之无愧!!
Canal 实战 : 异步实践缓存最终一致性
Canal[ka'næl,译意为水道/管道/沟渠,canal是阿里巴巴旗下的一款开源项目,基于|ava开发。基于数据库增量日志解析,提供增量数据订阅&消费。GitHub的地址:https://github.com/alibaba/canal .
小草飞上天
2024/12/30
4070
Canal 实战 : 异步实践缓存最终一致性
2 监听mysql表内容变化,使用canal
mysql本身是支持主从的(master slave),原理就是master产生的binlog日志记录了所有的增删改语句,将binlog发送到slave节点进行执行即可完成数据的同步。
天涯泪小武
2019/01/17
6.8K0
数据库增量数据同步,用Canal组件好使吗?
大家好,我是小义,今天来讲一下Canal。Canal是阿里巴巴开源的一款基于MySQL数据库binlog的增量订阅和消费组件,它的主要工作原理是伪装成MySQL slave,模拟MySQL slave的交互协议向MySQL Master发送dump协议。当MySQL master收到canal发送过来的dump请求后,开始推送binary log给canal,然后canal解析binary log,再发送到存储目的地,如MySQL,Kafka等。
程序员小义
2024/04/10
2670
数据库增量数据同步,用Canal组件好使吗?
canal,真香!
在当今互联网行业尤其是现在分布式、微服务开发环境下,为了提高搜索效率,以及搜索的精准度,会大量使用Redis、Memcached等NoSQL数据库,也会使用大量的Solr、Elasticsearch等全文检索服务和搜索引擎。
苏三说技术
2025/02/10
800
canal,真香!
SpringBoot系列之集成阿里canal监听MySQL Binlog
canal是阿里开源的, 对数据库增量日志解析,提供增量数据订阅和消费的组件。引用官网的图片,canal的工作原理主要是模拟 MySQL slave 的交互协议,伪装自己为 MySQL slave,向master发送dump 协议,获取到数据后,解析 binary log 对象数据。
SmileNicky
2022/01/04
1.6K0
SpringBoot系列之集成阿里canal监听MySQL Binlog
相关推荐
docker安装canal数据同步工具
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验