
看了官方文档,官方文档提成反规范化设计,并且提供了 4 种方式,最简单不影响性能的就是把有关系的数据掰成扁平化,目前我们系统做了一个自定义字段,考虑数据量大而且前端要做复杂筛选条件,上了 es,存数据时同时操作了 es 和 mysql,查询全部采用 es
插入的时候把自定义和系统字段全部掰成了一份文档储存,那么字段数据更新的时候该怎么办呢,或者有什么更雅的方案嘛,有做个的大佬麻烦给点意见,第一次使用 es
1 theOneMe 2021-09-10 11:40:02 +08:00 binlog |
3 kidlj 2021-09-10 12:15:01 +08:00 via iPhone cdc debezium kafka |
4 strawberryBug 2021-09-10 12:48:38 +08:00 看你 es 和 mysql 存储的数据结构是否一致? es 不好做 join 查询,多表写入一个索引这种需求的话还是选用传统的方式更好扩展些,即推送更新到 mq,消费 mq 写入 es(全更新 or 部分更新)。 单表对单索引这种,canal,logstash 都行 |
5 jabari 2021-09-10 12:54:29 +08:00 Change Data Capture (CDC) canal kafka |
6 gBurnX 2021-09-10 13:18:04 +08:00 你都没说你的业务需求,一上来就问怎么用工具? |
7 misaka19000 2021-09-10 13:50:06 +08:00 这不简单,插入和更新都走同一套数据格式处理逻辑不就行了 |
8 ElmerZhang 2021-09-10 13:57:51 +08:00 https://github.com/alibaba/canal 要保证数据一致性,这基本是最优解 |
9 swcat 2021-09-10 14:31:12 +08:00 go-mysql-transfer -> 使用 lua 写同步逻辑 |
10 wangxin13g 2021-09-10 17:41:05 +08:00 想说 canal 的 然后看了下发现有人发了 |
11 changdy 2021-09-10 19:18:45 +08:00 debezium |
12 WriteCloser 2021-09-11 01:52:29 +08:00 1. 阿里云 DTS 订阅 binlog 同步 2. 实时性要求不高并且数据量不大可以每天跑下全量 |