目标检测精辟61条

目标检测

1、目标检测map指标

(1)、早期的proposal检测方法遵循自底向上的检测理念,深受视觉显著性检测的影响。后来,研究人员开始转向low-levelvision(如边缘检测)和更精细的手工技能,以改进候选框的定位。2014年以后,随着CNN在视觉识别领域的普及,自上而下、基于学习的方法开始在这个问题上显示出更多的优势,目标proposal检测已经从自底向上的视觉发展到“对一组特定目标类的过度拟合”,检测器和proposal生成器之间的区别变得越来越模糊。

(2)、(15)“数据引领飞粤云端”2019广东工业智造创新大赛-决赛答辩直播-《布匹疵点智能识别赛道》:https://tianchi.aliyun.com/course/video?liveId=41117

(3)、RCNN系列模型(FasterRCNN,MaskRCNN,CascadeRCNN等)在PaddleDetection进行训练,比mmDetection和Detectron2在更短的时间获得更高的精度!

(4)、项目地址:https://github.com/DengPingFan/SINet/

(5)、要想发现自己的兴趣点,就需要对备选的方向做一个全面的了解,包括不同方向所需要的科研基础、科研场景和行业应用场景等。

(6)、OverFeat提出后不久,加州大学伯克利分校的RossGirshick及其同事就发表了ReginswithCNNfeatures,简称R-CNN的方法,该方法在物体识别挑战中有50%的效果提升。

(7)、AnchorFree方法已经不新鲜了,相信这些问题早已经让一些一线工作的研究人员头疼很久了。那么为什么难?

(8)、① 在线检测快速移动的目标物,获取形状和对比度

(9)、目标检测:需要在识别出图片中目标类别的基础上,还要精确定位到目标的具体位置,并用外接矩形框标出。

(10)、(3)contextinteractives

(11)、论文链接:https://arxiv.org/pdf/19013300vpdf

(12)、在无人机捕获的图像中,大覆盖区域总是包含令人困惑的地理元素。使用CBAM可以提取注意区域,以帮助TPH-YOLOv5抵制令人困惑的信息,并关注有用的目标对象。

(13)、数据增强的意义主要是扩展数据集,使模型对不同环境下获得的图像具有较高的鲁棒性。

(14)、YOLOv1虽然检测速度快,但在定位方面不够准确,并且召回率较低。为了提升定位准确度,改良召回率,YOLOv2在YOLOv1的基础上提出了几种改进策略

(15)、如果本科期间没有过科研经历,同时对于自身的能力特点也没有比较清晰的认知,那么就可以基于自己的兴趣来选择主攻方向,毕竟兴趣是一个很强的驱动力。

(16)、(2)detectionwithglobalcontext

(17)、YOLOv1的核心思想在于将目标检测视为回归问题,其将图片划分成SxS个网格,如果目标中心落入某网格单元,则该网格就负责检测该目标。每个网格单元预测B个边界框(bbox)和类别信息。此外,每个bbox需要预测(x,y,w,h)和置信度共5个值。因此,终每个网格应预测B个bbox和C个类别,终输出SxSx(5*B+C)的tensor。

(18)、以下是面对尺度变化范围过大导致精度降低的几种常见策略。

(19)、(3)阿里天池大赛项目:天池新品实验室-淘宝直播商品识别:https://mp.weixin.qq.com/s/06Ywh1YHROgyfomZ2836pg

(20)、YOLOv3借鉴了FPN的思想,从不同尺度提取特征。相比YOLOvYOLOv3提取后3层特征图,不仅在每个特征图上分别独立做预测,同时通过将小特征图上采样到与大的特征图相同大小,然后与大的特征图拼接做进一步预测。用维度聚类的思想聚类出9种尺度的anchorbox,将9种尺度的anchorbox均匀的分配给3种尺度的特征图.

2、目标检测

(1)、 Info  2024-20目标检测,21/2358

(2)、https://github.com/rbgirshick/fast-rcnn?source=post_page

(3)、2前人工作总结1DataAugmentation

(4)、在读研期间我一直强调要基于自身的能力特点来选择方向,而能力特点往往就体现在自身的科研基础上,所以对于本科期间有一定的科研经历的同学来说,到读研期间会有更明确的方向,也更容易找到与自身能力特点相契合的课题方向。

(5)、用生成对抗网络(GAN)来做小目标检测:PerceptualGenerativeAdversarialNetworksforSmallObjectDetection。

(6)、基于无人机拍摄图片的检测目前也是个热门研究点(难点是目标小,密度大)。相关论文:TheUnmannedAerialVehicleBenchmark:ObjectDetectionandTracking(数据集)Drone-basedObjectCountingbySpatiallyRegularizedRegionalProposalNetworkSimultaneouslyDetectingandCountingDenseVehiclesfromDroneImagesVisionMeetsDrones:AChallenge(数据集)

(7)、读到这里,你应该对我们面临的挑战和对解决它们的办法有了一定的了解,接下来我们将概述一下在过去的几年深度学习方法的发展历程。

(8)、打开./configs/_base_/schedules/schedule_1x.py:

(9)、如同其他的机器视觉问题一样,目标检测目前为止还没有公认好的解决方法。在了解目标检测之前,让我们先快速地了解一下这个领域里普遍存在的一些问题。

(10)、针对不同的目标检测模型,有3种不同的ensembleboxes方法:非大抑制(NMS)、Soft-NMS、WeightedBoxesFusion(WBF)。

(11)、勾选所需比对的人脸识别库,以及设置好各关联人脸库所对应的相似度(默认80%);

(12)、(17)BodlaN,SinghB,ChellappaR,etal.Soft-NMS—ImprovingObjectDetectionwithOneLineofCode(J).20

(13)、无需再纠结YOLOvYOLOvScaledYOLOvYOLOv5到底选哪个了,选PPYOLOv2就对了!

(14)、传送门:https://github.com/PaddlePaddle/PaddleDetection

(15)、(2)Two-Stage目标检测算法,这类检测算法将检测问题划分为两个阶段,第一个阶段首先产生候选区域(RegionProposals),包含目标大概的位置信息,然后第二个阶段对候选区域进行分类和位置精修,这类算法的典型代表有R-CNN,FastR-CNN,FasterR-CNN等。

(16)、在目标检测任务中,关于IOU的计算贯穿整个模型的训练测试和评价过程,是重要的一个概念,其目的是用来衡量两个目标框的重叠程度。

(17)、那么这个网络的深度应定为25层,还是50层,亦或是37层呢?定25层则对小目标的检测效果好而大目标检测能力差;定50层则反之;定37层则两类目标的检测能力较为均衡但都不在好的检测状态。而这就是“多尺度”目标检测问题的根源所在。

(18)、实现方法:Oversampling:我们通过在训练期间对这些图像进行过采样来解决包含小对象的相对较少图像的问题(多用这类图片)。在实验中,我们改变了过采样率和研究不仅对小物体检测而且对检测中大物体的过采样效果

(19)、运算规则1:通过侧向连接取左侧Bottom-uppathway的顶层输出C5(size=7x7),经由1x1的卷积调整通道数(论文中将此通道数调整为256以便FasterRCNN后续计算)后,所得的结果即为Top-downpathwayandlateralconnections结构的顶层,可标记为M5(size=7x7)。

(20)、在FastR-CNN被提出过后不久,JosephRedmon(与Girshick等人合著)发表了YouOnlyLookOnce:Unified,Real-TimeObjectDetection(YOLO)这篇论文。

3、目标检测常用方法有哪些

(1)、全局上下文利用场景作为目标检测的附加信息源。对于早期的目标检测器,集成全局上下文的一种常见方法是集成组成场景的元素的统计和,比如Gist。对于现代的基于深度学习的检测器,有两种方法来集成全局上下文。第一种方法是利用大的感受野(甚至比输入图像更大)或CNN特征的全局池化;第二种方法是把全局上下文看作是一种序列信息,然后用递归神经网络来学习它

(2)、任何图像任务的训练数据都要包括两项,图片和真实标签信息,通常叫做GT。

(3)、https://arxiv.org/abs/1502325?source=post_page

(4)、函数find_intersectionfind_intersection(set_1,set_2)是求形状为(n1,4)和(n2,4)的boxes的交集的面积。set_1(:,:2)的形状为(n1,2),后面加上.unsqueeze形状变为(n1,1,2)。同理set_2(:,:2).unsqueeze(0),形状为(1,n2,2)。

(5)、YOLOv1利用全连接层直接对边界框进行预测,导致丢失较多空间信息,定位不准。YOLOv2去掉了YOLOv1中的全连接层,使用AnchorBoxes预测边界框,同时为了得到更高分辨率的特征图,YOLOv2还去掉了一个池化层。由于图片中的物体都倾向于出现在图片的中心位置,若特征图恰好有一个中心位置,利用这个中心位置预测中心点落入该位置的物体,对这些物体的检测会更容易。所以总希望得到的特征图的宽高都为奇数。YOLOv2通过缩减网络,使用416x416的输入,模型下采样的总步长为后得到13x13的特征图,然后对13x13的特征图的每个cell预测5个anchorboxes,对每个anchorbox预测边界框的位置信息、置信度和一套分类概率值。使用anchorboxes之后,YOLOv2可以预测13x13x5=845个边界框,模型的召回率由原来的81%提升到88%,mAP由原来的5%降低到2%.召回率提升了7%,准确率下降了0.3%。

(6)、局部上下文是指要检测的目标周围区域的视觉信息。长期以来,人们一直认为局部上下文有助于改进目标检测。在21世纪初,Sinha和Torralba发现,包含局部上下文区域(如面部边界轮廓)可以显著提高人脸检测性能。Dalal和Triggs还发现,加入少量的背景信息可以提高行人检测的准确性。近的基于深度学习的检测器也可以通过简单地扩大网络的感受野或目标proposal的大小来根据局部上下文进行改进。

(7)、Feature-FusedSSD:FastDetectionforSmallObjects,DetectingSmallObjectsUsingaChannel-AwareDeconvolutionalNetwork也是在多尺度上做文章的论文。

(8)、然而,图像分类问题有许多挑战,相伴随着的是许多如何解决这些问题的文献以及对还未被解决的问题的探讨。 

(9)、由于小目标面积太小,可以放大图片后再做检测,也就是在尺度上做文章,如FPN(FeaturePyramidNetworksforObjectDetection),SNIP(AnAnalysisofScaleInvarianceinObjectDetection–SNIP)。

(10)、让我们回到边界框的本质。所有的边界框其实都是一种无限制前景物体像素召回率的标注方式,它会尽可能贴着外轮廓,因此会导致背景像素大量进入框内。然而,真实世界的物体可以随意转动,不同的机位拍一个3D物体出现的结果可以大不相同,因此用框作为一个表征工具来把东西框起来,本身就不稳健。而且,框的标注本身也带有一定的随机性,毕竟要遵守标注规则把框标得好可能花的成本也会很高。

(11)、目标检测即找出图像中所有感兴趣的物体,包含物体定位和物体分类两个子任务,同时确定物体的类别和位置。

(12)、论文:https://arxiv.org/abs/21010419

(13)、想象一下,如果我们想为盲人设计一款导盲产品,盲人过马路时系统摄像机拍到了如下的图像,那么需要完成那些视觉任务呢?

(14)、一些检测器是专门为无人机捕获的图像设计的,如RRNet、PENet、CenterNet等。但从组件的角度来看,它们通常由2部分组成,一是基于CNN的主干,用于图像特征提取,另一部分是检测头,用于预测目标的类和Box。

(15)、为了解决上述2个问题,本文提出了TPH-YOLOvTPH-YOLOv5在YOLOv5的基础上增加了一个predictionheads来检测不同尺度的目标。然后通过探索Self-Attention的预测潜力使用了TransformerPredictionHeads(TPH)代替原来的predictionheads。同时作者还集成了卷积块Attention模型(CBAM)来寻找密集场景下的注意力区域。

(16)、Head一般分为2种:One-Stage检测器和Two-Stage检测器。

(17)、成组:成组目标会误导检测框的回归。成组目标容易出现检测框不准的问题,比如,漂移、整组一个检测框

(18)、适配Linux、Windows、NVJetson等多系统多平台,同时提供Python预测和C++预测,额外适配TensorRT,支持TensorRT动态尺寸输入及TensorRTINT8量化预测,模型预测加速性能满分!

(19)、打开./configs/_base_/models/faster_rcnn_r50_fpn.py:

(20)、图像分类是把一幅图片分成多种类别中的一类。 

4、目标检测算法

(1)、目标检测算法主要分为两个子任务,分别为物体分类和物体定位。损失主要包括分类损失(ClsLoss)和定位损失(LocLoss),常见的损失组合主要有如下两种ClsLoss+LocLoss(SSD系列算法)、ClsLoss+ObjLoss+LocLoss(YOLO系列算法),其中YOLO系列算法相比于SSD系列算法多了ObjectLoss,即判断对应区域是否为物体的损失。除此之外,One-Stage目标检测算法的正负样本不均衡的问题比较严重,对于设计损失函数还会有一些针对创新。

转载请注明出处阿文说说网 » 目标检测精辟61条