
1 Raymon111111 2019-01-07 19:33:57 +08:00 比如读大量数据到 buffer pool 中把要用的热点数据挤出去了, 导致其它查询变慢 |
2 jrient 2019-01-07 20:20:30 +08:00 为什么不考虑解决 2 亿数据的问题 |
3 likuku 2019-01-07 20:26:16 +08:00 via iPhone 数据分析用 db 和业务用 db 分开在不同物理机器上,不同需求求得不同的机器配置来满足,至少先这样。 |
4 zzzzzzZ 2019-01-07 20:28:16 +08:00 via Android 9012 年了居然还有 table 能有两亿数据的吗 |
5 t6attack 2019-01-07 20:30:36 +08:00 就算它不崩,也查不完啊。这种实际扫描全表的次数,不是做加法,而是做乘法。 关键词:mysql join 成本 |
7 chenxytw 2019-01-07 20:44:21 +08:00 崩掉是指..... mysqld 进程 crash 么? |
8 byteli 2019-01-07 23:03:25 +08:00 via Android 原因各种,但都离不开数据量大&机器配置捉急这个根源。建议 explain 看看执行计划,到底是哪一步量太大,想办法分步查询,或者提前 limit 大小。 |
10 Linxing 2019-01-08 10:18:44 +08:00 via iPhone 拖慢其它查询就已经够呛了 |
11 Rush9999 2019-01-08 10:36:30 +08:00 有可能会遍历整表,导致临时文件巨大,然后就。。。。。。。。。。 |