注意 :清理完之后,其他人一定要删掉之前拉取的项目,重新从 git 上拉项目,不要使用之前的项目了,之前的项目中的.git 文件会将已将删除的文件重新加进来,甚至变的更大
查询/清理文件的时候若是想提速,可以关掉 360/电脑管家等这样的软件,这些软件会监控文件,拖慢速度...我之前提示 8 小时的处理,关掉 360 之后 2 小时就完成了.
默认情况下,git 项目是有一个保护分支的
当项目过大时,git clone时会出现error: RPC failedHTTP curl The requested URL returned error: Gateway Time-out的问题解决方法很简单,在git clone时加上--depth=1即可解决
克隆的项目只包含最近的一次commit的一个分支,体积很小,即可解决文章开头提到的项目过大导致Timeout的问题,但会产生另外一个问题,他只会把默认分支clone下来,其他远程分支并不在本地,所以这种情况下,需要用如下方法拉取其他分支:
$ git clone --depth=1 https://github.com/dogescript/xxxxxxx.git
$ git remote set-branches origin 'remote_branch_name'
$ git fetch --depth=1 origin remote_branch_name
$ git checkout remote_branch_name
1 git add . 2 git commit -m 3 git pull 4 git push拉闸,不小心commit了超过10M的文件,拉闸。 出现了一个错误。
这时候不小心将一个很大的文件添加到库中,即使删除,记录中还是保存了这个文件。以后不管是拷贝,还是push/pull都比较麻烦,尤其是在做CI时的耗时很痛苦。
1、若知道你的大文件是什么类型的,比如.gz或者.jar等,可以删除匹配xxx的所有文件:比如我很明显就提示我是xxx.jar 太大了。 因为我打了整个项目的jar包,接近100MB肯定大
2、若不知道,想查看下目前git库中有哪些大文件,可以用底层命令verify-pack识别出大对象:
3、释放空间
4、把修改强制推送到远端
搞定
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)