![]() | 1 usernametoolong 2015-08-12 12:33:59 +08:00 划分几十G内存出来当硬盘用,前提做好热备份。 其他的表以及结构和参数的优化,坐等楼下的大拿来说。 |
![]() | 2 ning1022 2015-08-12 16:25:02 +08:00 这么大的数据,没有接触过!!!把经常需要在where 后的字段加索引,用explain 查查看为啥慢,或者用第三方工具测试下。 |
3 johnnyR 2015-08-12 21:55:26 +08:00 key_buffer_size = 20G !?超算麽? |
![]() | 4 choury 2015-08-12 23:51:39 +08:00 什么版本的mysql?请换innodb,然后将innodb的缓存开到50G |
![]() | 5 kxjhlele OP @choury 因为经常算 Count() 所以没有采用innodb,并且是导入数据用innodb速度太慢。目前我想利用触发器插入数据的时候直接分表,但我发现分表数据可以插入成功,但是总表也有数据,每次都2倍的数据量。 |
![]() | 6 kxjhlele OP @johnnyR 反正没报错,不过利用率也不高,无所谓的,反正也是我自己用,配置大点内存也够用,现在主要是不知道调整那些参数可以比较明显的提升数据库性能,感觉现在电脑io受限, |
![]() | 7 F281M6Dh8DXpD1g2 2015-08-13 11:58:49 +08:00 这种需求请用hive |