考虑方案: 1.使用数据库备份工具 mydumper,loader,syncer.但是就没办法区分里面数据,等于全量复制,需要迁移后再删除那些不需要的数据; 2.写程序贝查询插入到新数据库,这里面的网络开销和时长恐怕是很大的,不符合速度要求和数据一致性(旧数据不能停机,期间会一致有数据写入)
大家有啥方法推荐呢
1 xhcnb 2019-10-23 10:57:43 +08:00 100G 而已, 建议使用 binlog 全量复制后再删除 |
2 liyer 2019-10-23 11:02:03 +08:00 Ctrl-x, Ctrl-v Kettle |
3 DsuineGP 2019-10-23 11:04:43 +08:00 binlog 订阅吧 从头开始同步 binlog,只抽取你需要的表,或者抽取了一定数据量数据后就停止订阅 比如 ali 的 canal 这类工具 |
![]() | 4 lenmore 2019-10-23 11:27:23 +08:00 搭从库 用参数 replicate-do-table 或 replicate-wild-do-table 限制要同步的表 在从库把不需要的表删掉 切换时先停掉应用,断开同步,改应用的数据库 IP |
![]() | 5 CivAx 2019-10-23 11:31:39 +08:00 mysqldump 可以只抽取单张表,innobackupex 应该也可以(不确定) 阿里云有 DTS,可以从非阿里云的数据库迁移到非阿里云的数据库,迁移过程可以自选迁移的表,但是无法迁移事件。 |
![]() | 6 EastLord 2019-10-23 11:32:40 +08:00 logstash |
8 caiem OP @lenmore 表是全部都要同步的,表里有字段区分哪些数据需要同步,这是难点 |
9 DsuineGP 2019-10-23 11:48:28 +08:00 @caiem 支持增量同步必然会支持全量备份嘛,无非是 binlog position 从 0 开始还是从最新开始的区别. 我觉得你可以先离线备份恢复,然后从备份的最后一个 position 开始增量同步 |
10 laminux29 2019-10-23 15:34:57 +08:00 楼上所有人都在胡说八道。 而且楼主这种需求根本不合理,因为这种需求,等于要把整个架构全部推翻重新设计。 |
![]() | 11 tomczhen 2019-10-23 15:51:59 +08:00 via Android 订阅 binlog 数据一致性是可以保证的,但是要求按条件过滤掉一些数据,那么这个一致性应该是属于业务上的要求。逻辑复制虽然可以做到差异复制,但是业务数据的一致性如何处理还是需要干预,理解没有偏差的话,单纯依靠同步类工具应该是无法实现的。 感觉更像是 ETL 需求。 |