怎样将大文件分割成小文件

怎样将大文件分割成小文件,第1张

方法一 用RAR压缩软件实现

1

以百度浏览器的安装文件为例,可以从下图信息中看到,该文件大小为16.6MB。

2

下面我们用RAR把它分割成若干个小文件。

3

4

右键该文件,从d出的菜单中选择 添加到压缩文件...

5

此时d出压缩文件设置对话框,选择压缩分卷大小,字节下面的下拉选择选项。

6

7

这个地方我们可以手工输入,也可以进行选择

我们选择2M进行演示点击确定

8

此时RAR软件会把该文件分割成N个2M大小的小文件。

9

10

此时,我们随便打开一个分割后的压缩包文件,就可以打开该文件。

11

12

现在就可以依次把这些小一点的文件发送到需要的地方,从而突破了文件大小的限制。

END

方法二 用Knife for File软件实现

1

打开软件,我们可以看到如下界面:

2

3

选择文件菜单,我们可以看到有文件切割和整合复原两个功能选项。

4

5

我们选择文件切割,选择要切割的文件,我们这里以一个视频文件为例,如下图:

6

7

选择文件后d出设置窗口,如下图

8

9

根据个人需要填写相关参数,如下图:

设置完成后点击开始切割

10

11

*** 作完成,d出成功提示,如下图:

12

13

我们到目标文件夹下,可以看到切割成的若干个小的文件

14

切割成功

文件复原

如果要使用切割过的文件,我们需要提前对切割过的文件进行整合复原 *** 作,具体 *** 作方法如下:

选择文件菜单中整合复原菜单选项

从d出的整合复原对话框中设置相关参数

如下图设置相关参数,点击开始整合

整合成功,d出提示:

我们可以从目标目录中看到整合后的文件信息

打开该文件,该文件正常运行

25

整合 *** 作成功

nohup.out日志文件太大了,且一直增长,命令查看日志受阻

①切割大文件变成多个小文件

②每天定时保存前一天的日志,重新记录当天日志

1.利用split命令切割

①按文件大小切割大文件:

切割文件:将ohup.out文件每500M切割一个文件放到/home/nginx/logs/newlog/目录下

②按文件行数切割大文件:

查询文件行数:

wc -l b.log

2038711 b.log

按50W行切割一个文件:

split -l 500000 -d -a 4 /home/nginx/logs/b.log /home/nginx/logs/newlog/

2.定时备份前一天日志,重新记录当天日志splitlog.sh

3.定时执行

查看定时任务:

crontab -l

编辑定时任务:

crontab -e

重启定时任务:

删除10天以前的日志文件,此日期为文件本身的时间,非日志内容时间

1、Linux里切割大文件的命令如下:

split [OPTION] [INPUT [PREFIX]]

选项如下:

-a : 指定后缀长度

-b : 每个文件多少字节

-d : 使用数字后缀而不是字母

-l : 指定每个文件的行数

2、比如我想让后缀长度为 2,即 -a 2。用数字后缀 -d。每个文件 10M,即 -b 10m。命令可以设计如下:

1 split -a 2 -d -b 10m /var/lib/mysql/general.log nowamagic


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/tougao/6048291.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-03-12
下一篇 2023-03-12

发表评论

登录后才能评论

评论列表(0条)

保存