linux系统下大文件的分割搜索导出

linux系统下大文件的分割搜索导出,第1张

在linux系统下用vim打开大小几个G、甚至几十个G的文件时,是非常慢的。

这时,我们可以利用下面的方法分割文件,然后再打开。

1、查看/导出文件的前多少行

上面命令的意思是:把big.log文件前10000行的数据写入到temp.log文件中。

2 、查看文件的后多少行

上面命令的意思是:把big.log文件后10000行的数据写入到temp.log文件中。

3 、查看文件的几行到几行

上面命令的意思是:把big.log文件第10到10000行的数据写入到temp.log文件中。

4 、根据查询条件导出

5、 实时监控文件输出(查看日志时经常会用到)

nohup.out日志文件太大了,且一直增长,命令查看日志受阻

切割大文件变成多个小文件

②每天定时保存前一天的日志,重新记录当天日志

1.利用split命令切割

①按文件大小切割大文件:

切割文件:将ohup.out文件每500M切割一个文件放到/home/nginx/logs/newlog/目录下

②按文件行数切割大文件:

查询文件行数:

wc -l b.log

2038711 b.log

按50W行切割一个文件:

split -l 500000 -d -a 4 /home/nginx/logs/b.log /home/nginx/logs/newlog/

2.定时备份前一天日志,重新记录当天日志splitlog.sh

3.定时执行

查看定时任务:

crontab -l

编辑定时任务:

crontab -e

重启定时任务:

删除10天以前的日志文件,此日期为文件本身的时间,非日志内容时间


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/yw/8513810.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-04-17
下一篇 2023-04-17

发表评论

登录后才能评论

评论列表(0条)

保存