复现 S2ANet RTX 2080Ti

复现 S2ANet RTX 2080Ti,第1张

0.租服务器GPU 1.INSTALL.MD
conda create -n s2anet python=3.7 -y
source activate s2anet
conda install pytorch=1.3 torchvision cudatoolkit=10.1 -c pytorch
git clone https://github.com/csuhan/s2anet.git
cd s2anet
pip install -r requirements.txt

python setup.py develop

安装requirements.txt卡住了,可能是pytorch版本太低的原因。


下午手动装的。


conda install swig
cd DOTA_devkit/polyiou
swig -c++ -python csrc/polyiou.i
python setup.py build_ext --inplace
2.准备数据集

然后准备数据集,
在/root/s2anet/data/HRSC2016
吃饭

3.测试test.py

回来测试,建文件夹work_dirs,放进去他预训练的模型
2022年4月9日18点42分
回来改路径和学习率

data = dict(
    imgs_per_gpu=2,
    workers_per_gpu=2,
    train=dict(
        type=dataset_type,
        ann_file=data_root + 'ImageSets/train.txt',
        img_prefix=data_root + 'Train/',
        pipeline=train_pipeline),
    val=dict(
        type=dataset_type,
        ann_file=data_root + 'ImageSets/test.txt',
        img_prefix=data_root + 'Test/',
        pipeline=test_pipeline),
    test=dict(
        type=dataset_type,
        ann_file=data_root + 'ImageSets/test.txt',
        img_prefix=data_root + 'Test/',
        pipeline=test_pipeline))
evaluation = dict(
    gt_dir='data/HRSC2016/Test/Annotations/',
    imagesetfile='data/HRSC2016/ImageSets/test.txt')


lr=0.0025


好的,可以测试了。


python tools/test.py configs/hrsc2016/s2anet_r101_fpn_3x_hrsc2016.py work_dirs/s2anet_r101_fpn_3x_hrsc2016_converted-4a4548e1.pth --out work_dirs/res.pkl --data hrsc2016

他应该是在测试的时候直接显示精度了

(s2anet) root@container-da72119aac-dde8cdf7:~/s2anet# python tools/test.py configs/hrsc2016/s2anet_r101_fpn_3x_hrsc2016.py work_dirs/s2anet_r101_fpn_3x_hrsc2016_converted-4a4548e1.pth --out work_dirs/res.pkl --data hrsc2016
[>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>] 444/444, 18.2 task/s, elapsed: 24s, ETA:     0s
writing results to work_dirs/res.pkl
Saving results to work_dirs/results_txt
ship.txt
check fp: [0. 0. 0. ... 1. 1. 1.]
check tp [1. 1. 1. ... 0. 0. 0.]
npos num: 1188
ship :  0.8999578141958532
map: 0.8999578141958532
classaps:  [89.99578142]
4.训练train.py
python tools/train.py configs/hrsc2016/s2anet_r101_fpn_3x_hrsc2016.py 

eta显示剩余50分钟左右。



挂起来跑‘

nohup python tools/train.py configs/hrsc2016/s2anet_r101_fpn_3x_hrsc2016.py >xcbtrain1920.log 2>&1 & 

内存剩余很多,改改config文件

我是RTX 2080Ti,显卡是12GB内存,这样改就占用6GB左右,别的我也不会调了。


line117 line118 imgs_per_gpu=4, # 每个gpu计算的图像数量 workers_per_gpu=2, # 每个gpu分配的线程数

5.结果对比

自己训练的结果,40mins完成了,测试一下

(s2anet) root@container-da72119aac-dde8cdf7:~/s2anet# python tools/test.py configs/hrsc2016/s2anet_r101_fpn_3x_hrsc2016.py work_dirs/s2anet_r101_fpn_3x_hrsc2016/epoch_36.pth --out work_dirs/xcbres.pkl --data hrsc2016
[>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>] 444/444, 18.0 task/s, elapsed: 25s, ETA:     0s
writing results to work_dirs/xcbres.pkl
Saving results to work_dirs/results_txt
ship.txt
check fp: [0. 0. 0. ... 1. 1. 1.]
check tp [1. 1. 1. ... 0. 0. 0.]
npos num: 1188
ship :  0.8954782495977331
map: 0.8954782495977331
classaps:  [89.54782496]
总结

这篇文章虽然没登上顶会,被TGRS接收了,但是点还是很高的,89.5%
这文章我没看论文直接复现的,也不知道内容和创新点在哪里,等我去研究研究文章再说吧。


这段时间复现完成这三篇
ReDet、Oriented R-CNN 、S2ANet。



在HRSC2016上的map分别是:
90.46%、90.5%、89.5%。


毕设的复现工作就算完成了,接下来就是研读文章、翻阅代码、寻找创新点、实验实验再实验了。


睡大觉。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/langs/589722.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-04-13
下一篇 2022-04-13

发表评论

登录后才能评论

评论列表(0条)

保存