引言
Canal[ka’næl,译意为水道/管道/沟渠,canal是阿里巴巴旗下的一款开源项目,基于|ava开发。基于数据库增量日志解析,提供增量数据订阅&消费。GitHub的地址:https://github.com/alibaba/canal .
Canal 可以订阅数据库的binlog日志,对数据库数据进行数据消费以实现数据的有序化和一致性。
Canal就是把自己伪装成MVSOL的一个slave节点,从而监听master的binarylog变化。再把得到的变化信息通知给Canal的客户端,进而完成对其它数据库的同步。
数据库主从同步基础原理
Canal是基于mysql的主从同步来实现的,MySQL主从同步的原理如下:
- MySQL master 将数据变更写入二进制日志( binary log) 其中记录的数据叫做binary log events
- MySOLslave 将master 的 binary log events拷贝到它的中继日志(relay log)
- MySQL slave 重放 relay log 中事件,将数据变更反映它自己的数据。
前提:使用canal需要mysql开启binlog模式
通过以下命令在mysql命令端查看是否开启。
SHOW VARIABLES LIKE 'log_bin';
如果没有开启则增加开启配置:
[mysqld]
# 打开binlog
log-bin=mysql-bin
# 选择ROW(行)模式
binlog-format=ROW
# 配置MySQL replaction需要定义,不要和canal的slaveId重复
server_id=1
Canal服务端实现
下载canal服务端
https://github.com/alibaba/canal/releases/tag/canal-1.1.6
解压
解压后整体放入/mycanal路径下
修改/mycanal/conf/example路径下instance.properties文件
#数据库地址
canal.instance.master.address=127.0.0.1:3306
#用户名:这里canal是自己在数据库里添加的用户和密码
canal.instance.dbUsername=canal
canal.instance.dbPassword=canal
#这里在canal进行同步时会对应的指定
canal.destinations=demo
执行
进入 /opt/mycanal/bin
执行: ./startup.sh
确保执行成功
进入: /mycanal/logs/canal
查看日志:cat canal.log
是否有成功状态 : the canal server is runing now ......
按上面的操作流程,canal就成功启动了。接下来我们在java项目中引入canal进行数据同步。
Canal客户端实现
Canal提供了各种语言的客户端,当Canal监听到binlog变化时,会通知Canal的客户端。
本次我们使用使用GitHub上的第三方开源的canal-starter。地址:https://github.com/NormanGyllenhaal/canal-client 来进行数据同步测试
引入依赖
<dependency>
<groupId>top.javatool</groupId>
<artifactId>canal-spring-boot-starter</artifactId>
<version>1.2.1-RELEASE</version>
</dependency>
编写配置
canal:
destination:demo #canal实例名称,要跟canal-server运行时设置的destination一致
server:192.168.150.101:11111 #canal服务端地址
创建需要同步的实体
@Data
@Table(name = "t_item")
public class Item {
@Id
private Long id;
private String name;
}
增加cannel监听组件
可以在insert、update中开发同步缓存逻辑。
@CanalTable("t_item")
@Component
public class ItemHandler implements EntryHandler<Item>{
@Override
public void insert(Item item) {
//插入数据
}
@Override
public void update(Item before, Item after) {
//更新数据
}
@Override
public void delete(Item item) {
//删除数据
}
}
扩展
我们扩展的了解一下通过canal.client的同步代码。
依赖
<dependency>
<groupId>com.alibaba.otter</groupId>
<artifactId>canal.client</artifactId>
</dependency>
具体代码
import com.alibaba.otter.canal.client.CanalConnector;
import com.alibaba.otter.canal.client.CanalConnectors;
import com.alibaba.otter.canal.protocol.CanalEntry.*;
import com.alibaba.otter.canal.protocol.Message;
import com.google.protobuf.InvalidProtocolBufferException;
import org.apache.commons.dbutils.DbUtils;
import org.apache.commons.dbutils.QueryRunner;
import org.springframework.stereotype.Component;
import javax.annotation.Resource;
import javax.sql.DataSource;
import java.net.InetSocketAddress;
import java.sql.Connection;
import java.sql.SQLException;
import java.util.Iterator;
import java.util.List;
import java.util.Queue;
import java.util.concurrent.ConcurrentLinkedQueue;
@Component
public class CanalClient {
//sql队列
private Queue<String> SQL_QUEUE = new ConcurrentLinkedQueue<>();
@Resource
private DataSource dataSource;
/**
* canal入库方法
*/
public void run() {
//这里需要的是canal服务端的:ip 、端口、账号密码、实例名称
CanalConnector connector = CanalConnectors.newSingleConnector(new InetSocketAddress("127.0.0.1",
11111), "example", "", "");
int batchSize = 1000;
try {
connector.connect();
connector.subscribe(".*\\..*");
connector.rollback();
try {
while (true) {
//尝试从master那边拉去数据batchSize条记录,有多少取多少
// 从connector对象中获取一批消息,但不立即确认(acknowledge)它们
Message message = connector.getWithoutAck(batchSize);
// 获取这批消息的ID
long batchId = message.getId();
// 获取这批消息中的条目数量
int size = message.getEntries().size();
// 如果这批消息的ID为-1,或者这批消息中没有条目,则等待1秒钟
if (batchId == -1 || size == 0) {
Thread.sleep(1000);
} else {
// 如果这批消息中有条目,则调用dataHandle方法来处理这些条目
dataHandle(message.getEntries());
}
// 处理完这批消息后,调用connector的ack方法来确认(acknowledge)这批消息
// 这样消息队列就知道这些消息已经被处理,可以进行后续的操作,比如删除这些消息
connector.ack(batchId);
//当队列里面堆积的sql大于一定数值的时候就模拟执行
if (SQL_QUEUE.size() >= 1) {
executeQueueSql();
}
}
} catch (InterruptedException e) {
e.printStackTrace();
} catch (InvalidProtocolBufferException e) {
e.printStackTrace();
}
} finally {
connector.disconnect();
}
}
/**
* 模拟执行队列里面的sql语句
*/
public void executeQueueSql() {
int size = SQL_QUEUE.size();
for (int i = 0; i < size; i++) {
String sql = SQL_QUEUE.poll();
System.out.println("[sql]----> " + sql);
this.execute(sql.toString());
}
}
/**
* 数据处理
*
* @param entrys
*/
private void dataHandle(List<Entry> entrys) throws InvalidProtocolBufferException {
for (Entry entry : entrys) {
if (EntryType.ROWDATA == entry.getEntryType()) {
RowChange rowChange = RowChange.parseFrom(entry.getStoreValue());
EventType eventType = rowChange.getEventType();
if (eventType == EventType.DELETE) {
saveDeleteSql(entry);
} else if (eventType == EventType.UPDATE) {
saveUpdateSql(entry);
} else if (eventType == EventType.INSERT) {
saveInsertSql(entry);
}
}
}
}
/**
* 保存更新语句
*
* @param entry
*/
private void saveUpdateSql(Entry entry) {
try {
RowChange rowChange = RowChange.parseFrom(entry.getStoreValue());
List<RowData> rowDatasList = rowChange.getRowDatasList();
for (RowData rowData : rowDatasList) {
List<Column> newColumnList = rowData.getAfterColumnsList();
StringBuffer sql = new StringBuffer("update " + entry.getHeader().getTableName() + " set ");
for (int i = 0; i < newColumnList.size(); i++) {
sql.append(" " + newColumnList.get(i).getName()
+ " = '" + newColumnList.get(i).getValue() + "'");
if (i != newColumnList.size() - 1) {
sql.append(",");
}
}
sql.append(" where ");
List<Column> oldColumnList = rowData.getBeforeColumnsList();
for (Column column : oldColumnList) {
if (column.getIsKey()) {
//暂时只支持单一主键
sql.append(column.getName() + "=" + column.getValue());
break;
}
}
SQL_QUEUE.add(sql.toString());
}
} catch (InvalidProtocolBufferException e) {
e.printStackTrace();
}
}
/**
* 保存删除语句
*
* @param entry
*/
private void saveDeleteSql(Entry entry) {
try {
RowChange rowChange = RowChange.parseFrom(entry.getStoreValue());
List<RowData> rowDatasList = rowChange.getRowDatasList();
for (RowData rowData : rowDatasList) {
List<Column> columnList = rowData.getBeforeColumnsList();
StringBuffer sql = new StringBuffer("delete from " + entry.getHeader().getTableName() + " where ");
for (Column column : columnList) {
if (column.getIsKey()) {
//暂时只支持单一主键
sql.append(column.getName() + "=" + column.getValue());
break;
}
}
SQL_QUEUE.add(sql.toString());
}
} catch (InvalidProtocolBufferException e) {
e.printStackTrace();
}
}
/**
* 保存插入语句
*
* @param entry
*/
private void saveInsertSql(Entry entry) {
try {
RowChange rowChange = RowChange.parseFrom(entry.getStoreValue());
List<RowData> rowDatasList = rowChange.getRowDatasList();
for (RowData rowData : rowDatasList) {
List<Column> columnList = rowData.getAfterColumnsList();
StringBuffer sql = new StringBuffer("insert into " + entry.getHeader().getTableName() + " (");
for (int i = 0; i < columnList.size(); i++) {
sql.append(columnList.get(i).getName());
if (i != columnList.size() - 1) {
sql.append(",");
}
}
sql.append(") VALUES (");
for (int i = 0; i < columnList.size(); i++) {
sql.append("'" + columnList.get(i).getValue() + "'");
if (i != columnList.size() - 1) {
sql.append(",");
}
}
sql.append(")");
SQL_QUEUE.add(sql.toString());
}
} catch (InvalidProtocolBufferException e) {
e.printStackTrace();
}
}
/**
* 入库
*
* @param sql
*/
public void execute(String sql) {
Connection con = null;
try {
if (null == sql) return;
con = dataSource.getConnection();
QueryRunner qr = new QueryRunner();
int row = qr.execute(con, sql);
System.out.println("update: " + row);
} catch (SQLException e) {
e.printStackTrace();
} finally {
DbUtils.closeQuietly(con);
}
}
}
总结
使用canal的好处在于,独立于业务代码,对现有的业务代码没有影响。核心是基于监听binlog日志去进行同步数据的。实时性也能做到准实时,是一种比较常见的数据同步的方案。
当然,这里我们是通过canal直接消费,在实际的业务中,还需要增加mq。防止大量的写入后,canal同步阻塞的问题。