conda create -n s2anet python=3.7 -y
source activate s2anet
conda install pytorch=1.3 torchvision cudatoolkit=10.1 -c pytorch
git clone https://github.com/csuhan/s2anet.git
cd s2anet
pip install -r requirements.txt
python setup.py develop
安装requirements.txt卡住了,可能是pytorch版本太低的原因。
下午手动装的。
conda install swig
cd DOTA_devkit/polyiou
swig -c++ -python csrc/polyiou.i
python setup.py build_ext --inplace
2.准备数据集
然后准备数据集,
在/root/s2anet/data/HRSC2016
吃饭
回来测试,建文件夹work_dirs,放进去他预训练的模型
2022年4月9日18点42分
回来改路径和学习率
data = dict(
imgs_per_gpu=2,
workers_per_gpu=2,
train=dict(
type=dataset_type,
ann_file=data_root + 'ImageSets/train.txt',
img_prefix=data_root + 'Train/',
pipeline=train_pipeline),
val=dict(
type=dataset_type,
ann_file=data_root + 'ImageSets/test.txt',
img_prefix=data_root + 'Test/',
pipeline=test_pipeline),
test=dict(
type=dataset_type,
ann_file=data_root + 'ImageSets/test.txt',
img_prefix=data_root + 'Test/',
pipeline=test_pipeline))
evaluation = dict(
gt_dir='data/HRSC2016/Test/Annotations/',
imagesetfile='data/HRSC2016/ImageSets/test.txt')
lr=0.0025
好的,可以测试了。
python tools/test.py configs/hrsc2016/s2anet_r101_fpn_3x_hrsc2016.py work_dirs/s2anet_r101_fpn_3x_hrsc2016_converted-4a4548e1.pth --out work_dirs/res.pkl --data hrsc2016
他应该是在测试的时候直接显示精度了
(s2anet) root@container-da72119aac-dde8cdf7:~/s2anet# python tools/test.py configs/hrsc2016/s2anet_r101_fpn_3x_hrsc2016.py work_dirs/s2anet_r101_fpn_3x_hrsc2016_converted-4a4548e1.pth --out work_dirs/res.pkl --data hrsc2016
[>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>] 444/444, 18.2 task/s, elapsed: 24s, ETA: 0s
writing results to work_dirs/res.pkl
Saving results to work_dirs/results_txt
ship.txt
check fp: [0. 0. 0. ... 1. 1. 1.]
check tp [1. 1. 1. ... 0. 0. 0.]
npos num: 1188
ship : 0.8999578141958532
map: 0.8999578141958532
classaps: [89.99578142]
4.训练train.py
python tools/train.py configs/hrsc2016/s2anet_r101_fpn_3x_hrsc2016.py
eta显示剩余50分钟左右。
挂起来跑‘
nohup python tools/train.py configs/hrsc2016/s2anet_r101_fpn_3x_hrsc2016.py >xcbtrain1920.log 2>&1 &
内存剩余很多,改改config文件
我是RTX 2080Ti,显卡是12GB内存,这样改就占用6GB左右,别的我也不会调了。
line117
line118
imgs_per_gpu=4, # 每个gpu计算的图像数量
workers_per_gpu=2, # 每个gpu分配的线程数
5.结果对比
自己训练的结果,40mins完成了,测试一下
(s2anet) root@container-da72119aac-dde8cdf7:~/s2anet# python tools/test.py configs/hrsc2016/s2anet_r101_fpn_3x_hrsc2016.py work_dirs/s2anet_r101_fpn_3x_hrsc2016/epoch_36.pth --out work_dirs/xcbres.pkl --data hrsc2016
[>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>] 444/444, 18.0 task/s, elapsed: 25s, ETA: 0s
writing results to work_dirs/xcbres.pkl
Saving results to work_dirs/results_txt
ship.txt
check fp: [0. 0. 0. ... 1. 1. 1.]
check tp [1. 1. 1. ... 0. 0. 0.]
npos num: 1188
ship : 0.8954782495977331
map: 0.8954782495977331
classaps: [89.54782496]
总结
这篇文章虽然没登上顶会,被TGRS接收了,但是点还是很高的,89.5%
这文章我没看论文直接复现的,也不知道内容和创新点在哪里,等我去研究研究文章再说吧。
这段时间复现完成这三篇
ReDet、Oriented R-CNN 、S2ANet。
在HRSC2016上的map分别是:
90.46%、90.5%、89.5%。
毕设的复现工作就算完成了,接下来就是研读文章、翻阅代码、寻找创新点、实验实验再实验了。
睡大觉。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)