1
以百度浏览器的安装文件为例,可以从下图信息中看到,该文件大小为16.6MB。
2
下面我们用RAR把它分割成若干个小文件。
3
4
右键该文件,从d出的菜单中选择 添加到压缩文件...
5
此时d出压缩文件设置对话框,选择压缩分卷大小,字节下面的下拉选择选项。
6
7
这个地方我们可以手工输入,也可以进行选择
我们选择2M进行演示点击确定
8
此时RAR软件会把该文件分割成N个2M大小的小文件。
9
10
此时,我们随便打开一个分割后的压缩包文件,就可以打开该文件。
11
12
现在就可以依次把这些小一点的文件发送到需要的地方,从而突破了文件大小的限制。
END
方法二 用Knife for File软件实现
1
打开软件,我们可以看到如下界面:
2
3
选择文件菜单,我们可以看到有文件切割和整合复原两个功能选项。
4
5
我们选择文件切割,选择要切割的文件,我们这里以一个视频文件为例,如下图:
6
7
选择文件后d出设置窗口,如下图
8
9
根据个人需要填写相关参数,如下图:
设置完成后点击开始切割
10
11
*** 作完成,d出成功提示,如下图:
12
13
我们到目标文件夹下,可以看到切割成的若干个小的文件
14
切割成功
文件复原
如果要使用切割过的文件,我们需要提前对切割过的文件进行整合复原 *** 作,具体 *** 作方法如下:
选择文件菜单中整合复原菜单选项
从d出的整合复原对话框中设置相关参数
如下图设置相关参数,点击开始整合
整合成功,d出提示:
我们可以从目标目录中看到整合后的文件信息
打开该文件,该文件正常运行
25
整合 *** 作成功
nohup.out日志文件太大了,且一直增长,命令查看日志受阻
①切割大文件变成多个小文件
②每天定时保存前一天的日志,重新记录当天日志
1.利用split命令切割
①按文件大小切割大文件:
切割文件:将ohup.out文件每500M切割一个文件放到/home/nginx/logs/newlog/目录下
②按文件行数切割大文件:
查询文件行数:
wc -l b.log
2038711 b.log
按50W行切割一个文件:
split -l 500000 -d -a 4 /home/nginx/logs/b.log /home/nginx/logs/newlog/
2.定时备份前一天日志,重新记录当天日志splitlog.sh
3.定时执行
查看定时任务:
crontab -l
编辑定时任务:
crontab -e
重启定时任务:
删除10天以前的日志文件,此日期为文件本身的时间,非日志内容时间
1、Linux里切割大文件的命令如下:split [OPTION] [INPUT [PREFIX]]
选项如下:
-a : 指定后缀长度
-b : 每个文件多少字节
-d : 使用数字后缀而不是字母
-l : 指定每个文件的行数
2、比如我想让后缀长度为 2,即 -a 2。用数字后缀 -d。每个文件 10M,即 -b 10m。命令可以设计如下:
1 split -a 2 -d -b 10m /var/lib/mysql/general.log nowamagic
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)