目前很少有手机文件管理软件能做到查看到手机上重复的文件,并删除这些手机重复文件,所以我们得借助别的软件来进行 *** 作,首先下载新版ES文件浏览器,打开浏览器,点击右上角菜单,其次选择工具,找到磁盘分析器,点击即可进入工具使用界面,等待扫描完成之后,就可以看到查找到的重复文件,最后进入详情,将重新的文件保留一个,其他的点击删除。
ES文件浏览器是一款多功能的手机文件或程序或进程管理器,可以在手机,电脑,远程和蓝牙间浏览管理文件,是一个功能强大的免费的本地和网络文件管理器和应用程序管理器。
,代码主要逻辑如下:// 读取要导入数据的文件
BufferedReader br = new BufferedReader(new FileReader(
"D:\\test\\test.txt"))
String json = null
int count = 0
// 开启批量插入
BulkRequestBuilder bulkRequest = client.prepareBulk()
while ((json = br.readLine()) != null) {
bulkRequest.add(client.prepareIndex("test", "all")
.setSource(json))
// 每一千条提交一次
if (count % 1000 == 0) {
bulkRequest.execute().actionGet()
System.out.println("提交了:" + count)
}
count++
}
bulkRequest.execute().actionGet()
System.out.println("插入完毕")
br.close()
登录后复制
运行后发现一个问题,我100多万条的数据,导入到es中怎么生成了1000多万条,而且还是在没有完全导入的情况下
然后用小批量数据导入到es,再把这些数据导出来,发现有好多重复的数据
为什么会重复呢,原因是在每一千条提交一次代码这块,第一次一千条提交了,并没有把bulkRequest置空,所以第二次提交的时候,会提交两千条,包括第一次已经提交的一千条,然后我们自己也没有设置_id,所以es会自动给数据生成一个_id,即使是重复的数据,搞清楚了原因,下面来说解决方法,主要有两种:
第一种就是在提交了一千条后,对bulkRequest进行重置,因为bulkRequest并没有重置的方法,所以可以新建一个bulkRequest,类似于重置,具体代码如下:
// 读取要导入数据的文件
BufferedReader br = new BufferedReader(new FileReader(
"D:\\test\\test.txt"))
String json = null
int count = 0
// 开启批量插入
BulkRequestBuilder bulkRequest = client.prepareBulk()
while ((json = br.readLine()) != null) {
bulkRequest.add(client.prepareIndex("test", "all")
.setSource(json))
// 每一千条提交一次
if (count % 1000 == 0) {
bulkRequest.execute().actionGet()
//此处新建一个bulkRequest,类似于重置效果
bulkRequest = client.prepareBulk()
System.out.println("提交了:" + count)
}
count++
}
bulkRequest.execute().actionGet()
System.out.println("插入完毕")
br.close()
登录后复制
第二种就是自己设置_id,确保每一条数据只有一个_id,这样的话,即使数据重复了,因为_id是一样的,所以es会进行更新,这样的话并没有从根源上解决数据重复的问题,只是重复数据会更新,这样的话效率会慢,具体代码如下:
// 读取要导入数据的文件
BufferedReader br = new BufferedReader(new FileReader(
"D:\\test\\test.txt"))
String json = null
int count = 0
// 开启批量插入
BulkRequestBuilder bulkRequest = client.prepareBulk()
while ((json = br.readLine()) != null) {
//设置_id为count
bulkRequest.add(client.prepareIndex("test", "all",
String.valueOf(count)).setSource(json))
// 每一千条提交一次
if (count % 1000 == 0) {
bulkRequest.execute().actionGet()
//此处新建一个bulkRequest,类似于重置效果
System.out.println("提交了:" + count)
}
count++
}
bulkRequest.execute().actionGet()
System.out.println("插入完毕")
br.close()
登录后复制
建议使用第一种方法,效率会快很多。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)