git 项目工程过大问题解决

git 项目工程过大问题解决,第1张

注意 :清理完之后,其他人一定要删掉之前拉取的项目,重新从 git 上拉项目,不要使用之前的项目了,之前的项目中的.git 文件会将已将删除的文件重新加进来,甚至变的更大

查询/清理文件的时候若是想提速,可以关掉 360/电脑管家等这样的软件,这些软件会监控文件,拖慢速度...我之前提示 8 小时的处理,关掉 360 之后 2 小时就完成了.

默认情况下,git 项目是有一个保护分支

当项目过大时,git clone时会出现error: RPC failedHTTP curl The requested URL returned error: Gateway Time-out的问题

解决方法很简单,在git clone时加上--depth=1即可解决

克隆的项目只包含最近的一次commit的一个分支,体积很小,即可解决文章开头提到的项目过大导致Timeout的问题,但会产生另外一个问题,他只会把默认分支clone下来,其他远程分支并不在本地,所以这种情况下,需要用如下方法拉取其他分支:

$ git clone --depth=1  https://github.com/dogescript/xxxxxxx.git

$ git remote set-branches origin 'remote_branch_name'

$ git fetch --depth=1  origin remote_branch_name

$ git checkout remote_branch_name

1 git add . 2 git commit -m 3 git pull 4 git push

拉闸,不小心commit了超过10M的文件,拉闸。 出现了一个错误。

这时候不小心将一个很大的文件添加到库中,即使删除,记录中还是保存了这个文件。以后不管是拷贝,还是push/pull都比较麻烦,尤其是在做CI时的耗时很痛苦。

1、若知道你的大文件是什么类型的,比如.gz或者.jar等,可以删除匹配xxx的所有文件:比如我很明显就提示我是xxx.jar 太大了。 因为我打了整个项目的jar包,接近100MB肯定大

2、若不知道,想查看下目前git库中有哪些大文件,可以用底层命令verify-pack识别出大对象:

3、释放空间

4、把修改强制推送到远端

搞定


欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/tougao/11511849.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-16
下一篇 2023-05-16

发表评论

登录后才能评论

评论列表(0条)

保存