1、查出表中重复列的数据:
select a,count() from table group by a having count()>1
2、查重复次数最多的列:
select a,num from (
select a,count() num from table group by a having count()>1
)
order by num desc
此外,还有
1、查询一个表中所有字段都相同的记录
比如现在有一人员表 (表名:peosons)
若想将姓名、编号、住址这三个字段完全相同的记录查询出来:
select p1 from persons p1,persons p2 where p1name=p2name and p1id = p2id and p1address=p2address group by p1name,p1id,p1address having count() >1;
或者:
select p1 from persons p1,persons p2 where p1name=p2name
and p1id=p2id and p1address=p2address and p1rowid<>p2rowid;
或者:(下面这条语句执行效率更高)
select from (select p,row_number() over (partition by name,
id,address order by name) rn from persons p) where rn>1;
2、 查询一个表中某字段相同的记录
语法:select p1 from 表名 p1,(select 字段 from 表名 group by 字段 having count()>1) p2 where p1字段=p2字段;
select p1 from persons p1,(select address from persons group by address having count()>1) p2
where p1address=p2address;
3、查询一个表中某字段相同的记录,其它字段不用查询出来
select name,count() from persons group by name having count() >1;
oracle重复数据可用聚合函数和having语句来实现。
如test表中有如下数据:
现在要求查询name中有重复的数据,可用如下语句:
select name from test group by name having count()>1;结果如图:
在平时的开发中,我们经常遇到数据表中出现重复的数据,那么该如何解决呢?这里介绍两种情况下的数据去重方法,一、完全重复数据去重;二、部分字段数据重复去重。
一、完全重复数据去重方法
对于表中完全重复数据去重,可以采用以下SQL语句。
Code
CREATETABLE"#temp"AS (SELECTDISTINCT FROM 表名);--创建临时表,并把DISTINCT 去重后的数据插入到临时表中
truncateTABLE 表名;--清空原表数据
INSERTINTO 表名(SELECT FROM"#temp");--将临时表数据插入到原表中
DROPTABLE"#temp";--删除临时表
具体思路是,首先创建一个临时表,然后将DISTINCT之后的表数据插入到这个临时表中;然后清空原表数据;再讲临时表中的数据插入到原表中;最后删除临时表。
二、部分数据去重方法
首先查找重复数据
select 字段1,字段2,count() from 表名 groupby 字段1,字段2 havingcount() > 1
将上面的>号改为=号就可以查询出没有重复的数据了。
想要删除这些重复的数据,可以使用下面语句进行删除:
deletefrom 表名 a where 字段1,字段2 in
(select 字段1,字段2,count() from 表名 groupby 字段1,字段2 havingcount() > 1)
上面的语句非常简单,就是将查询到的数据删除掉。不过这种删除执行的效率非常低,对于大数据量来说,可能会将数据库卡死。
基于上述情况,可以先将查询到的重复的数据插入到一个临时表中,然后对进行删除,这样,执行删除的时候就不用再进行一次查询了。如下:
CREATETABLE 临时表 AS
(select 字段1,字段2,count() from 表名 groupby 字段1,字段2 havingcount() > 1)
下面就可以进行这样的删除 *** 作了:
deletefrom 表名 a where 字段1,字段2 in (select 字段1,字段2 from 临时表);
先建临时表再进行删除的 *** 作要比直接用一条语句进行删除要高效得多。
上面的语句会把所有重复的全都删除,在oracle中,有个隐藏了自动rowid,里面给每条记录一个唯一的rowid,我们如果想保留最新的一条记录,我们就可以利用这个字段,保留重复数据中rowid最大的一条记录就可以了。
下面是查询重复数据的一个例子:
select arowid,a from 表名 a
where arowid !=
(
selectmax(browid) from 表名 b
where a字段1 = b字段1 and
a字段2 = b字段2
)
上面括号中的语句是查询出重复数据中rowid最大的一条记录。而外面就是查询出除了rowid最大之外的其他重复的数据了。
由此,我们要删除重复数据,只保留最新的一条数据,就可以这样写了:
deletefrom 表名 a
where arowid !=
(
selectmax(browid) from 表名 b
where a字段1 = b字段1 and
a字段2 = b字段2
)
同理,上述代码的执行效率毕竟低,所以我们可以考虑建立临时表,将需要判断重复的字段、rowid插入临时表中,然后删除的时候在进行比较。
createtable 临时表 as
select a字段1,a字段2,MAX(aROWID) dataid from 正式表 a GROUPBY a字段1,a字段2;
deletefrom 表名 a
where arowid !=
(
select bdataid from 临时表 b
where a字段1 = b字段1 and
a字段2 = b字段2
);
commit;
select testid,count(1) from testtable group by testid having count(1)>1
count(1)就是重复在数量
如何查询重复的数据
select 字段1,字段2,count() from 表名 group by 字段1,字段2 having count() > 1
PS:将上面的>号改为=号就可以查询出没有重复的数据了。
Oracle删除重复数据的SQL(删除所有):
删除重复数据的基本结构写法:
想要删除这些重复的数据,可以使用下面语句进行删除
delete from 表名 a where 字段1,字段2 in
(select 字段1,字段2,count() from 表名 group by 字段1,字段2 having count() > 1)
上面的SQL注意:语句非常简单,就是将查询到的数据删除掉。不过这种删除执行的效率非常低,对于大数据量来说,可能会将数据库吊死。
建议先将查询到的重复的数据插入到一个临时表中,然后对进行删除,这样,执行删除的时候就不用再进行一次查询了。如下:
CREATE TABLE 临时表 AS (select 字段1,字段2,count() from 表名 group by 字段1,字段2 having count() > 1)
上面这句话就是建立了临时表,并将查询到的数据插入其中。
下面就可以进行这样的删除 *** 作了:
delete from 表名 a where 字段1,字段2 in (select 字段1,字段2 from 临时表);
查单个字段:
Sql代码
SELECT TEST_NAME,COUNT() FROM T_TEST GROUP BY TEST_NAME HAVING COUNT() >1
查组合字段:
Sql代码
SELECT TEST_NAME1,TEST_NAME2,COUNT() FROM T_TEST GROUP BY TEST_NAME1,TEST_NAME2 HAVING COUNT() > 1
其实可以用很简单SQL语句将其查询出来。如果想查询数据表中某一个字段重复(这里假设这个字段名是ID1),可以使用以下SQL语句。select Table1 from Table1 right join (select ID1 From Table1 Group by ID1 having Count(ID1) > 1 ) T on Table1id1 = Tid1如果想查询数据表某两个字段重复,则可以使用如下语句查询。select Table1from Table1 right join (select ID1, ID2 From Table1 Group by ID1, ID2 having Count(ID1) > 1 and Count(ID2) > 1 ) T注:上面代码中出现的ID1和ID2字段均不是数据表主键。
以上就是关于oracle怎样查出表中重复列的数据全部的内容,包括:oracle怎样查出表中重复列的数据、ORACLE查询重复数据、如何解决Oracle数据库中重复数据的方法步骤等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)