0%

本篇论文中,作者提出在one stage目标检测中影响网络精度的一个原因在于优化的目标与inference设置的不一致性(misalignment between the optimization target and inference configurations),解释来说就是,现在流行的目标检测方法,一般会有两个分支,一个分类,一个坐标框回归,而这两个分支往往是独立的,都是对原始anchor进行处理,这就会带来一个问题,我们在进行分类的时候,使用的是原始的anchor,而在坐标框回归后,很可能回归后的anchor与原始anchor已经产生了不同,这样使用原始anchor的分类结果作为回归后的anchor的分类得分就不准确了,本篇论文就是围绕着解决这个问题来进行的。乍一看本篇文章,感觉与Cascade RCNN有点像,采用的方法同样是对网络输出的结果进行refine,来达到提升网络精度的效果,但是其出发点是不同的,Cascade R-CNN的出发点是解决IOU阈值的设置带来的噪声问题,而consistent optimization的出发点是解决分类anchor与回归后的anchor不一致的问题。并且consistent optimization方法只是修改了RetinaNet网络的loss,改动不大,整体上时间消耗也没有增加,原则上说,其也不算是cascade方法,只是思想相近而已,但是本方法的实用性还是很强的。

阅读全文 »

自己使用时候总结的MXNet一些基本操作及介绍,深度学习训练框架MXNet的基本操作都在这里了

一、基础篇

NDArray介绍篇

在mxnet中,NDArray是所有运算的核心数据结构,mxnet中的所有数据均使用NDArray进行表示,NDarray有点类似于numpy中的ndarray,操作上面也与numpy很相似,但是NDArray提供了numpy.ndarray所不具备的操作,比如:GPU,CPU的切换,自动求梯度的运算等等,这也是为什么mxnet要重新封装一个NDArray的原因。

阅读全文 »

mobilenet-v3是Google继mobilenet-v2之后的又一力作,作为mobilenet系列的新成员,自然效果会提升,mobilenet-v3提供了两个版本,分别为mobilenet-v3 large 以及mobilenet-v3 small,分别适用于对资源不同要求的情况,论文中提到,mobilenet-v3 small在imagenet分类任务上,较mobilenet-v2,精度提高了大约3.2%,时间却减少了15%,mobilenet-v3 large在imagenet分类任务上,较mobilenet-v2,精度提高了大约4.6%,时间减少了5%,mobilenet-v3 large 与v2相比,在COCO上达到相同的精度,速度快了25%,同时在分割算法上也有一定的提高。本文还有一个亮点在于,网络的设计利用了NAS(network architecture search)算法以及NetAdapt algorithm算法。并且,本文还介绍了一些提升网络效果的trick,这些trick也提升了不少的精度以及速度。

阅读全文 »

git基本操作总结

git更新操作(最经常使用 )

1
2
3
4
5
6
7
git status           #查看git当前状态
git diff server.py #查看server.py 在git当中
git add . #将当前修改提交到 git
git commit -m “change threshold for higher precision”
git branch
git push origin master
git push --set-upstream origin vulgar #设置上传的分支
阅读全文 »

在程序开发过程中,经常需要我们去配置各种开发环境,而本地与线上还可能存在环境依赖的不同,导致出现一些不知名的bug,这个时候不要抓头,是时候使用docker来帮你排忧解难了,下面我通过下面几个篇章来介绍Docker.

原理介绍篇

Docker是什么

docker是linux容器的一种封装,提供简单易用的容器使用接口。它是最流行的Linux容器解决方案。

阅读全文 »

目标检测中的小目标的检测一直是一个难题,同样也有很多方法被提出来优化小目标的识别,使用图像金字塔进行多尺度检测是一个比较常用的方法,但是使用图像金字塔往往会带来巨大的资源消耗,本篇文章就针对这个问题,提出了一个解决利用图像金字塔进行多尺度训练时间长、资源消耗大的方法,其在SNIP的方法上发展而来,通过采样多个chips,并将chips缩放到相同的尺度(这点有点像RCNN)进行训练,不仅仅实现了多尺度,还提高了3倍的速度,并且保证了精度。

阅读全文 »

本篇文章是一篇优化目标检测精度的文章,在two stage方法上进行模型优化的,文章的主要关注点在于目标尺度(Scale)。基于作者对目标尺度的实验与分析,设计了SNIP方法,该方法实验证明,可以有效提高目标检测的精度


论文名称:An Analysis of Scale Invariance in Object Detection – SNIP

阅读全文 »

本篇论文是CVPR2019的一篇anchor free的目标检测论文,借鉴了CornerNet的思想,又对其进行了进一步的改进,取得了还不错的效果,不同于CornerNet,本文提出网络ExtremeNet,不再检测目标的左上角点与右下角点,而是检测目标的4个极值点(即最上点,最下点,最左点,最右点),框出目标,极值点示例如下图所示,方法比较新颖,同时也取得了比较不错的效果,在COCO测试集上,取得了43.7%的精度,速度其实没有特别大的优势,大约300ms处理一张图像,下面我们详细介绍一下本篇论文。

阅读全文 »

论文链接:https://arxiv.org/abs/1506.01497

如出现图像显示不完整,或者公式显示不完整,可访问如下博客

CSDN博客地址:https://blog.csdn.net/chunfengyanyulove/article/details/80037396


创新点

  • 目前object detection的成功主要在于region proposal方法以及region-based CNN网络方法。
  • region proposal耗时成为object detection的瓶颈。
  • 作者设计提出RPN网络,替代region proposal方法的同时,实现end-to-end网络。
  • rpn网络利用特征图实现region proposal,使得时间降低到10ms/张。
  • rpn利用“anchor”实现多尺度,多方向的变换。(论文中同时介绍了其他的方法,比如图像金字塔,但是感觉还是anchor比较实用)
  • 为了保证rpn与fast rcnn的一致,作者提出了一种交替训练的方法。
阅读全文 »

Fast R-CNN是RBG大神于2015年发表的目标检测网络,其在SPP-Net的基础上,通过进一步的改进,使得目标检测精度以及检测速度有了进一步的提升,下面详细介绍Fast R-CNN的创新点。主要创新点在于:1. Fast R-CNN设计了multi-loss方式进行目标分类以及位置回归,不需要进行特征存储到disk,使得效率有了大大的提升,2. 不需要multi-pipeline。3. CNN参数全更新。4. 单个ROI-pooling不再是SPP-Net的多级pooling,ROI pooling可以理解为SPP-Net的特殊形式。5. 使用mini-batch SGD方式进行训练。6. 利用SVD方式进行速度的提升。

阅读全文 »