Canal 实战 : 异步实践缓存最终一致性

引言

Canal[ka’næl,译意为水道/管道/沟渠,canal是阿里巴巴旗下的一款开源项目,基于|ava开发。基于数据库增量日志解析,提供增量数据订阅&消费。GitHub的地址:https://github.com/alibaba/canal .

Canal 可以订阅数据库的binlog日志,对数据库数据进行数据消费以实现数据的有序化和一致性。

Canal就是把自己伪装成MVSOL的一个slave节点,从而监听master的binarylog变化。再把得到的变化信息通知给Canal的客户端,进而完成对其它数据库的同步。

数据库主从同步基础原理

Canal是基于mysql的主从同步来实现的,MySQL主从同步的原理如下:

  1. MySQL master 将数据变更写入二进制日志( binary log) 其中记录的数据叫做binary log events
  2. MySOLslave 将master 的 binary log events拷贝到它的中继日志(relay log)
  3. MySQL slave 重放 relay log 中事件,将数据变更反映它自己的数据。

前提:使用canal需要mysql开启binlog模式

通过以下命令在mysql命令端查看是否开启。

SHOW VARIABLES LIKE 'log_bin';

如果没有开启则增加开启配置:

[mysqld]
# 打开binlog
log-bin=mysql-bin
# 选择ROW(行)模式
binlog-format=ROW
# 配置MySQL replaction需要定义,不要和canal的slaveId重复
server_id=1

Canal服务端实现

下载canal服务端

https://github.com/alibaba/canal/releases/tag/canal-1.1.6

解压

解压后整体放入/mycanal路径下

修改/mycanal/conf/example路径下instance.properties文件

#数据库地址
canal.instance.master.address=127.0.0.1:3306
#用户名:这里canal是自己在数据库里添加的用户和密码
canal.instance.dbUsername=canal
canal.instance.dbPassword=canal
#这里在canal进行同步时会对应的指定
canal.destinations=demo

执行

进入 /opt/mycanal/bin
执行: ./startup.sh

确保执行成功

进入: /mycanal/logs/canal
查看日志:cat canal.log
是否有成功状态 : the canal server is runing now ......

按上面的操作流程,canal就成功启动了。接下来我们在java项目中引入canal进行数据同步。

Canal客户端实现

Canal提供了各种语言的客户端,当Canal监听到binlog变化时,会通知Canal的客户端。

本次我们使用使用GitHub上的第三方开源的canal-starter。地址:https://github.com/NormanGyllenhaal/canal-client 来进行数据同步测试

引入依赖

<dependency>
    <groupId>top.javatool</groupId>
    <artifactId>canal-spring-boot-starter</artifactId>
    <version>1.2.1-RELEASE</version>
</dependency>

编写配置

canal:
    destination:demo #canal实例名称,要跟canal-server运行时设置的destination一致
    server:192.168.150.101:11111 #canal服务端地址

创建需要同步的实体

@Data
@Table(name = "t_item")
public class Item {

    @Id
    private Long id;
    private String name;
}

增加cannel监听组件

可以在insert、update中开发同步缓存逻辑。

@CanalTable("t_item")
@Component
public class ItemHandler implements EntryHandler<Item>{

    @Override
    public void insert(Item item) {
       //插入数据
    }

    @Override
    public void update(Item before, Item after) {
        //更新数据
    }

    @Override
    public void delete(Item item) {
        //删除数据
    }
}

扩展

我们扩展的了解一下通过canal.client的同步代码。

依赖

<dependency>
     <groupId>com.alibaba.otter</groupId>
     <artifactId>canal.client</artifactId>
 </dependency>

具体代码

import com.alibaba.otter.canal.client.CanalConnector;
import com.alibaba.otter.canal.client.CanalConnectors;
import com.alibaba.otter.canal.protocol.CanalEntry.*;
import com.alibaba.otter.canal.protocol.Message;
import com.google.protobuf.InvalidProtocolBufferException;
import org.apache.commons.dbutils.DbUtils;
import org.apache.commons.dbutils.QueryRunner;
import org.springframework.stereotype.Component;

import javax.annotation.Resource;
import javax.sql.DataSource;
import java.net.InetSocketAddress;
import java.sql.Connection;
import java.sql.SQLException;
import java.util.Iterator;
import java.util.List;
import java.util.Queue;
import java.util.concurrent.ConcurrentLinkedQueue;

@Component
public class CanalClient {

    //sql队列
    private Queue<String> SQL_QUEUE = new ConcurrentLinkedQueue<>();

    @Resource
    private DataSource dataSource;

    /**
     * canal入库方法
     */
    public void run() {
        //这里需要的是canal服务端的:ip 、端口、账号密码、实例名称
        CanalConnector connector = CanalConnectors.newSingleConnector(new InetSocketAddress("127.0.0.1",
                11111), "example", "", "");
        int batchSize = 1000;
        try {
            connector.connect();
            connector.subscribe(".*\\..*");
            connector.rollback();
            try {
                while (true) {
                    //尝试从master那边拉去数据batchSize条记录,有多少取多少
                    // 从connector对象中获取一批消息,但不立即确认(acknowledge)它们
                    Message message = connector.getWithoutAck(batchSize);

                    // 获取这批消息的ID
                    long batchId = message.getId();

                    // 获取这批消息中的条目数量
                    int size = message.getEntries().size();

                    // 如果这批消息的ID为-1,或者这批消息中没有条目,则等待1秒钟
                    if (batchId == -1 || size == 0) {
                        Thread.sleep(1000);
                    } else {
                        // 如果这批消息中有条目,则调用dataHandle方法来处理这些条目
                        dataHandle(message.getEntries());
                    }

                    // 处理完这批消息后,调用connector的ack方法来确认(acknowledge)这批消息
                    // 这样消息队列就知道这些消息已经被处理,可以进行后续的操作,比如删除这些消息
                    connector.ack(batchId);

                    //当队列里面堆积的sql大于一定数值的时候就模拟执行
                    if (SQL_QUEUE.size() >= 1) {
                        executeQueueSql();
                    }
                }
            } catch (InterruptedException e) {
                e.printStackTrace();
            } catch (InvalidProtocolBufferException e) {
                e.printStackTrace();
            }
        } finally {
            connector.disconnect();
        }
    }

    /**
     * 模拟执行队列里面的sql语句
     */
    public void executeQueueSql() {
        int size = SQL_QUEUE.size();
        for (int i = 0; i < size; i++) {
            String sql = SQL_QUEUE.poll();
            System.out.println("[sql]----> " + sql);

            this.execute(sql.toString());
        }
    }

    /**
     * 数据处理
     *
     * @param entrys
     */
    private void dataHandle(List<Entry> entrys) throws InvalidProtocolBufferException {
        for (Entry entry : entrys) {
            if (EntryType.ROWDATA == entry.getEntryType()) {
                RowChange rowChange = RowChange.parseFrom(entry.getStoreValue());
                EventType eventType = rowChange.getEventType();
                if (eventType == EventType.DELETE) {
                    saveDeleteSql(entry);
                } else if (eventType == EventType.UPDATE) {
                    saveUpdateSql(entry);
                } else if (eventType == EventType.INSERT) {
                    saveInsertSql(entry);
                }
            }
        }
    }

    /**
     * 保存更新语句
     *
     * @param entry
     */
    private void saveUpdateSql(Entry entry) {
        try {
            RowChange rowChange = RowChange.parseFrom(entry.getStoreValue());
            List<RowData> rowDatasList = rowChange.getRowDatasList();
            for (RowData rowData : rowDatasList) {
                List<Column> newColumnList = rowData.getAfterColumnsList();
                StringBuffer sql = new StringBuffer("update " + entry.getHeader().getTableName() + " set ");
                for (int i = 0; i < newColumnList.size(); i++) {
                    sql.append(" " + newColumnList.get(i).getName()
                            + " = '" + newColumnList.get(i).getValue() + "'");
                    if (i != newColumnList.size() - 1) {
                        sql.append(",");
                    }
                }
                sql.append(" where ");
                List<Column> oldColumnList = rowData.getBeforeColumnsList();
                for (Column column : oldColumnList) {
                    if (column.getIsKey()) {
                        //暂时只支持单一主键
                        sql.append(column.getName() + "=" + column.getValue());
                        break;
                    }
                }
                SQL_QUEUE.add(sql.toString());
            }
        } catch (InvalidProtocolBufferException e) {
            e.printStackTrace();
        }
    }

    /**
     * 保存删除语句
     *
     * @param entry
     */
    private void saveDeleteSql(Entry entry) {
        try {
            RowChange rowChange = RowChange.parseFrom(entry.getStoreValue());
            List<RowData> rowDatasList = rowChange.getRowDatasList();
            for (RowData rowData : rowDatasList) {
                List<Column> columnList = rowData.getBeforeColumnsList();
                StringBuffer sql = new StringBuffer("delete from " + entry.getHeader().getTableName() + " where ");
                for (Column column : columnList) {
                    if (column.getIsKey()) {
                        //暂时只支持单一主键
                        sql.append(column.getName() + "=" + column.getValue());
                        break;
                    }
                }
                SQL_QUEUE.add(sql.toString());
            }
        } catch (InvalidProtocolBufferException e) {
            e.printStackTrace();
        }
    }

    /**
     * 保存插入语句
     *
     * @param entry
     */
    private void saveInsertSql(Entry entry) {
        try {
            RowChange rowChange = RowChange.parseFrom(entry.getStoreValue());
            List<RowData> rowDatasList = rowChange.getRowDatasList();
            for (RowData rowData : rowDatasList) {
                List<Column> columnList = rowData.getAfterColumnsList();
                StringBuffer sql = new StringBuffer("insert into " + entry.getHeader().getTableName() + " (");
                for (int i = 0; i < columnList.size(); i++) {
                    sql.append(columnList.get(i).getName());
                    if (i != columnList.size() - 1) {
                        sql.append(",");
                    }
                }
                sql.append(") VALUES (");
                for (int i = 0; i < columnList.size(); i++) {
                    sql.append("'" + columnList.get(i).getValue() + "'");
                    if (i != columnList.size() - 1) {
                        sql.append(",");
                    }
                }
                sql.append(")");
                SQL_QUEUE.add(sql.toString());
            }
        } catch (InvalidProtocolBufferException e) {
            e.printStackTrace();
        }
    }

    /**
     * 入库
     *
     * @param sql
     */
    public void execute(String sql) {
        Connection con = null;
        try {
            if (null == sql) return;
            con = dataSource.getConnection();
            QueryRunner qr = new QueryRunner();
            int row = qr.execute(con, sql);
            System.out.println("update: " + row);
        } catch (SQLException e) {
            e.printStackTrace();
        } finally {
            DbUtils.closeQuietly(con);
        }
    }
}

总结

使用canal的好处在于,独立于业务代码,对现有的业务代码没有影响。核心是基于监听binlog日志去进行同步数据的。实时性也能做到准实时,是一种比较常见的数据同步的方案。

当然,这里我们是通过canal直接消费,在实际的业务中,还需要增加mq。防止大量的写入后,canal同步阻塞的问题。

原文阅读