mysql,sqlserver数据库去重

mysql,sqlserver数据库去重,第1张

b. 方法:

☆根据dname分组,查找出deptno最小的。然后再查找deptno不包含刚才查出来的。这样就查询出了所有的重复数据(除了deptno最小的那行)

方法2

删除重复的行

单个字段的如果会了,多个字段也非常简单。就是将group by 的字段增加为你想要的即可。

此处只写一个,其他方法请仿照一个字段的写即可。

查询结果不含指定字段重复

2.表需要删除重复的记录(重复记录保留1条),

3.查询重复

4.1、查找表中多余的重复记录,重复记录是根据单个字段(peopleId)来判断

4.2、删除表中多余的重复记录,重复记录是根据单个字段(peopleId)来判断,只留有rowid最小的记录

4.3、查找表中多余的重复记录(多个字段)

4.4、删除表中多余的重复记录(多个字段),只留有rowid最小的记录

4.5、查找表中多余的重复记录(多个字段),不包含rowid最小的记录

4.6.消除一个字段的左边的第一位:

4.7.消除一个字段的右边的第一位:

4.8.假删除表中多余的重复记录(多个字段),不包含rowid最小的记录

查询重复

以前的小应用没有注意这个问题,现在遇到了mysql表中删除了100W数据,但是体检只有一点点变小,删除前是4.7G,删除后是4.6G。优化以后2.2G,哼哼哼哼。。。

查资料知道原因是mysql默认是不自动收缩的,所以删除数据体积不会变小。

我们需要手动优化来收缩数据。

方法一:使用Navicat的最优化功能

因为我是使用Navicat作为工具,所以推荐使用这个功能。选中需要优化的表,最优化即可。

方法二:运行命令优化

optimizetable数据表名称

方法三:自动批处理。说白了,还是运行命令

建议一个自动运行任务,每隔一段时间自动运行一下。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/8361014.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-04-15
下一篇 2023-04-15

发表评论

登录后才能评论

评论列表(0条)

保存