全球主机交流论坛

 找回密码
 注册

QQ登录

只需一步,快速开始

CeraNetworks网络延迟测速工具IP归属甄别会员请立即修改密码
查看: 1205|回复: 15

[Windows VPS] Mysql百万数据去重

[复制链接]
发表于 2019-7-19 10:13:18 | 显示全部楼层 |阅读模式
采集了200W条数据,字段有id,title等,入库时title没设置唯一,怎么能快速基于title去重,去重后我要设置title唯一,才敢再采集入库
发表于 2019-7-19 10:14:46 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
发表于 2019-7-19 10:15:30 | 显示全部楼层
用个redis做缓存,一边读,一边判断,再写到一个新库里得了。200万,用不了多久。

点评

大神哥  发表于 2019-7-19 12:29
发表于 2019-7-19 10:15:55 来自手机 | 显示全部楼层
才200万,导出来设置唯一索引再导入进去就行了
发表于 2019-7-19 10:20:32 来自手机 | 显示全部楼层
h2o 发表于 2019-7-19 10:14
新建一个表,加主键,导过去,忽略失败。

简单粗暴有效的做法
发表于 2019-7-19 10:21:51 | 显示全部楼层
h2o 发表于 2019-7-19 10:14
新建一个表,加主键,导过去,忽略失败。

给跪了,,,但是不做好备份,出错就gg
发表于 2019-7-19 10:31:53 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
发表于 2019-7-19 10:34:21 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
发表于 2019-7-19 10:37:27 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
发表于 2019-7-19 11:06:45 | 显示全部楼层


命令要写全啊。
  1. use database;
  2. drop table  tablename;
  3. commit;

  4. # run away
复制代码
您需要登录后才可以回帖 登录 | 注册

本版积分规则

Archiver|手机版|小黑屋|全球主机交流论坛

GMT+8, 2024-4-23 17:46 , Processed in 0.064871 second(s), 12 queries , Gzip On, MemCache On.

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表