作者|open-mmlab 编译|Flin 来源|Github
我们使用AWS作为托管model zoo的主要站点,并在阿里云上维护镜像。 你可以在模型网址中把https://s3.ap-northeast-2.amazonaws.com/open-mmlab替换为https://open-mmlab.oss-cn-beijing.aliyuncs.com。
coco_2017_train
上训练以及在coco_2017_val
测试。torch.cuda.max_memory_allocated()
为所有8个GPU 的最大值。请注意,此值通常小于nvidia-smi
显示的值。具有不同主干的更多模型将添加到model zoo。
注意s:
注意:
Backbone | Size | Style | Lr schd | 内存 (GB) | 训练时间 (s/iter) | 最短时间 (fps) | box AP | Download |
---|---|---|---|---|---|---|---|---|
VGG16 | 300 | caffe | 120e | 3.5 | 0.256 | 25.9 / 34.6 | 25.7 | model(https://s3.ap-northeast-2.amazonaws.com/open-mmlab/mmdetection/models/ssd300_coco_vgg16_caffe_120e_20181221-84d7110b.pth) |
VGG16 | 512 | caffe | 120e | 7.6 | 0.412 | 20.7 / 25.4 | 29.3 | model(https://s3.ap-northeast-2.amazonaws.com/open-mmlab/mmdetection/models/ssd512_coco_vgg16_caffe_120e_20181221-d48b0be8.pth) |
注意:
cudnn.benchmark
设置为True
用于SSD训练和测试。有关详细信息,请参考组规范化(https://github.com/open-mmlab/mmdetection/blob/master/configs/gn)。
有关详细信息,请参考权重标准化(https://github.com/open-mmlab/mmdetection/blob/master/configs/gn+ws)。
有关详细信息,请参阅可变形卷积网络(https://github.com/open-mmlab/mmdetection/blob/master/configs/dcn)。
有关详细信息,请参考CARAFE(https://github.com/open-mmlab/mmdetection/blob/master/configs/carafe)。
有关详细信息,请参考Instaboost(https://github.com/open-mmlab/mmdetection/blob/master/configs/instaboost)。
有关详细信息,请参考Libra R-CNN(https://github.com/open-mmlab/mmdetection/blob/master/configs/libra_rcnn)。
有关详细信息,请参阅Guided Anchoring(https://github.com/open-mmlab/mmdetection/blob/master/configs/guided_anchoring)。
有关详细信息,请参阅FCOS(https://github.com/open-mmlab/mmdetection/blob/master/configs/fcos)。
有关详细信息,请参考FoveaBox(https://github.com/open-mmlab/mmdetection/blob/master/configs/foveabox)。
有关详细信息,请参考RepPoints(https://github.com/open-mmlab/mmdetection/blob/master/configs/reppoints)。
有关详细信息,请参考FreeAnchor(https://github.com/open-mmlab/mmdetection/blob/master/configs/free_anchor)。
有关详细信息,请参考Grid R-CNN(https://github.com/open-mmlab/mmdetection/blob/master/configs/grid_rcnn)。
有关详细信息,请参阅GHM(https://github.com/open-mmlab/mmdetection/blob/master/configs/ghm)。
有关详细信息,请参考GCNet(https://github.com/open-mmlab/mmdetection/blob/master/configs/gcnet)。
有关详细信息,请参考HRNet(https://github.com/open-mmlab/mmdetection/blob/master/configs/hrnet)。
有关详细信息,请参考Mask Scoring R-CNN(https://github.com/open-mmlab/mmdetection/blob/master/configs/ms_rcnn)。
有关详细信息,请参考 重新思考ImageNet预训练(https://github.com/open-mmlab/mmdetection/blob/master/configs/scratch)。
有关详细信息,请参阅NAS-FPN(https://github.com/open-mmlab/mmdetection/blob/master/configs/nas_fpn)。
有关详细信息,请参考ATSS(https://github.com/open-mmlab/mmdetection/blob/master/configs/atss)。
我们还对PASCAL VOC(https://github.com/open-mmlab/mmdetection/blob/master/configs/pascal_voc),Cityscapes(https://github.com/open-mmlab/ mmdetection / blob / master / configs / cityscapes)和WIDER FACE(https://github.com/open-mmlab/mmdetection/blob/master/configs/wider_face)的一些方法进行了基准测试。
我们将mmdetection与Detectron(https://github.com/facebookresearch/Detectron) 和maskrcnn-benchmark(https://github.com/facebookresearch/maskrcnn-benchmark)进行比较。使用的主干是R-50-FPN。
通常来说,mmdetection与Detectron相比具有3个优势。
Detectron和maskrcnn-benchmark使用Caffe风格的ResNet作为主干。我们使用caffe样式(权重从(https://github.com/facebookresearch/Detectron/blob/master/MODEL_ZOO.md#imagenet-pretrained-models) 和pytorch样式(权重来自官方model zoo)ResNet主干报告结果,表示为pytorch样式结果 / caffe样式结果。
我们发现,pytorch风格的ResNet通常比caffe风格的ResNet收敛慢,因此在1倍进度中导致结果略低,但2倍进度的最终结果则较高。
类型 | Lr schd | Detectron | maskrcnn-benchmark | mmdetection |
---|---|---|---|---|
RPN | 1x | 57.2 | - | 57.1 / 58.2 |
2x | - | - | 57.6 / - | |
Faster R-CNN | 1x | 36.7 | 36.8 | 36.4 / 36.6 |
2x | 37.9 | - | 37.7 / - | |
Mask R-CNN | 1x | 37.7 & 33.9 | 37.8 & 34.2 | 37.3 & 34.2 / 37.4 & 34.3 |
2x | 38.6 & 34.5 | - | 38.5 & 35.1 / - | |
Fast R-CNN | 1x | 36.4 | - | 35.8 / 36.6 |
2x | 36.8 | - | 37.1 / - | |
Fast R-CNN (w/mask) | 1x | 37.3 & 33.7 | - | 36.8 & 34.1 / 37.3 & 34.5 |
2x | 37.7 & 34.0 | - | 37.9 & 34.8 / - |
训练速度以s/iter为单位。越低越好。
类型 | Detectron (P1001) | maskrcnn-benchmark (V100) | mmdetection (V1002) |
---|---|---|---|
RPN | 0.416 | - | 0.253 |
Faster R-CNN | 0.544 | 0.353 | 0.333 |
Mask R-CNN | 0.889 | 0.454 | 0.430 |
Fast R-CNN | 0.285 | - | 0.242 |
Fast R-CNN (w/mask) | 0.377 | - | 0.328 |
1。Facebook的Big Basin服务器(P100 / V100)比我们使用的服务器稍快。mmdetection在FB的服务器上也可以稍快一些地运行。
2。为了公平比较,我们在此处列出了caffe的结果。
推理速度在单个GPU上以fps(img / s)进行测量。越高越好。
类型 | Detectron (P100) | maskrcnn-benchmark (V100) | mmdetection (V100) |
---|---|---|---|
RPN | 12.5 | - | 16.9 |
Faster R-CNN | 10.3 | 7.9 | 13.5 |
Mask R-CNN | 8.5 | 7.7 | 10.2 |
Fast R-CNN | 12.5 | - | 18.4 |
Fast R-CNN (w/mask) | 9.9 | - | 12.8 |
类型 | Detectron | maskrcnn-benchmark | mmdetection |
---|---|---|---|
RPN | 6.4 | - | 3.3 |
Faster R-CNN | 7.2 | 4.4 | 3.6 |
Mask R-CNN | 8.6 | 5.2 | 3.8 |
Fast R-CNN | 6.0 | - | 3.3 |
Fast R-CNN (w/mask) | 7.9 | - | 3.4 |
毫无疑问,maskrcnn基准测试和mmdetection比Detectron的存储效率更高,而主要优点是PyTorch本身。我们还执行一些内存优化来推动它向前发展。
请注意,Caffe2和PyTorch具有不同的API,以通过不同的实现获取内存使用情况。对于所有代码库,nvidia-smi
显示的内存使用量均大于上表中报告的数字。
原文链接:https://mmdetection.readthedocs.io/en/latest/MODEL_ZOO.html
欢迎关注磐创AI博客站: http://panchuang.net/
sklearn机器学习中文官方文档: http://sklearn123.com/
欢迎关注磐创博客资源汇总站: http://docs.panchuang.net/