文章详情页
group-by - mysql group by 优化的问题
问题描述
我有一张接近八千万条数据的彩虹表,然后里面有二十多万条的重复数据,我想使用GROUP BY 进行分组,但是使用了GROUP BY语句以后,mysql会生出一张零时表,而零时表,把我的硬盘全部沾满了,所以,求个办法,能帮去去处这重复的数据?
我的sql:
sql:
SELECT COUNT(id) FROM password WHERE length = 4 GROUP BY ciphertext
问题解答
回答1:不赞成用一条SQL语句来搞定这类问题,因为数据库耗不起。可以用程序来实现(比如写个Python脚本),步骤是这样的:
把表A(8千万行)复制一个表结构,产生一张空表B;
对B的ciphertext列做唯一索引;
遍历表A的每一行,插入到表B,可以用REPLACE或INSERT INTO ... ON DUPLICATE KEY UPDATE ...
校验表B的数据,如果结果正确,则删除表A,把表B重命名为表A。
相关文章:
1. python - 一个域名可以绑定多台服务器吗?2. javascript - 百度地图自己的产品可以精确定位,为什么我调用他的公开API却必须经过用户同意才能获取精确定位,而且还慢?3. 网页爬虫 - Python爬虫入门知识4. mysql - 数据库建字段,默认值空和empty string有什么区别 1105. 怎么学好php6. 后台系统的左侧导航窗格如何修改7. javascript - echart+百度地图8. Windows环境开俩个CMD窗口操作MySQL测试加锁的疑问9. mybatis - Java关于Mysql的随机id生成10. python - import里的dot是以哪个路径作为根目录的?
排行榜