1 renmu 2023-05-07 16:26:08 +08:00 via Android 就这点数据直接都拿出来放到内存处理应该也没啥问题,全量导出也不是啥频繁操作的东西 |
2 iOCZ 2023-05-07 16:26:41 +08:00 联表查询不是一般操作么? |
3 aru 2023-05-07 16:29:09 +08:00 直接 join 就行了,有性能问题再说 |
4 yinmin 2023-05-07 17:27:31 +08:00 via iPhone 2 次 join 是正解。 |
5 taotaodaddy 2023-05-07 19:09:50 +08:00 join |
![]() | 6 itechify PRO 做好覆盖索引(手机号+姓名),不回表,这点数据量没问题 |
7 qIssac 2023-05-07 19:31:57 +08:00 这数据量太小了,mysql 两次 join 一点问题没有 |
8 ql562482472 2023-05-07 19:51:33 +08:00 内存处理 这点东西。。 |
9 xwayway 2023-05-07 20:11:26 +08:00 via iPhone 这点数据量,直接 join 不会有任何问题…… |
![]() | 10 xuanbg 2023-05-07 20:26:21 +08:00 就这点数据还不直接 join 么?而且你这个 join 都不会产生笛卡尔积的,怕什么。 |
11 user9121 2023-05-07 20:54:43 +08:00 把用户表全部读入到内存,然后轮询休假表?个人想法。 |
![]() | 12 azui999 2023-05-08 10:13:37 +08:00 就这点东西,量级再乘以 100,单机也足够操作 |
13 humbass 2023-05-08 14:15:21 +08:00 又不是几个亿的数据,速度没要求直接 join ,有要求的话通过 redis 处理 |
14 jwh199588 OP 这个任务的数据量确实不大,我只是想通过这个做一个延伸,如果在后面遇到了大数据量,该如何处理 |