最新
kl-loss Verilog
Fork 0 关注 0

***kl-loss***是一种用于精确目标检测的不确定边界框回归模型,该模型提出了一种新颖的计算边界框损失代价的方法。 在MS-COCO数据集上,该模型将VGG-16 Faster R-CNN的平均精度(AP)从23.6%提高到29.1%;对于ResNet-50-FPN Mask R-CNN,该模型将AP和AP90分别提高了1.8%和6.2%,远优于目前的最好边界框优化方法。

原始仓库地址:https://github.com/yihui-he/kl-loss.git

浏览量:26 下载量:0 项目类别: 目标检测
18 days前更新
refinedet Jupyter Notebook
Fork 0 关注 0

我们提出了一种新颖的基于单发的检测器,称为RefineDet,该检测器比两阶段方法具有更高的准确性,并且可以保持与一阶段方法相当的效率。 您可以使用代码来训练/评估用于对象检测的RefineDet方法。 有关更多详细信息,请参阅我们的论文。

原始仓库地址:https://github.com/sfzhang15/refinedet.git

浏览量:12 下载量:0 项目类别: 目标检测
21 days前更新

CenterNet is a framework for object detection with deep convolutional neural networks. You can use the code to train and evaluate a network for object detection on the MS-COCO dataset. It achieves state-of-the-art performance (an AP of 47.0%) on one of the most challenging dataset: MS-COCO. Our code is written in Python, based on CornerNet. More detailed descriptions of our approach and code will be made available soon. If you encounter any problems in using our code, please contact Kaiwen Duan: kaiwen.duan@vipl.ict.ac.cn.

原始仓库地址:https://github.com/duankaiwen/centernet.git

浏览量:35 下载量:1 项目类别: 目标检测
about 1 month前更新
luminoth Python
Fork 0 关注 0

**Luminoth**是一个用于计算机视觉的开源工具包。目前,我们支持对象检测,但我们的目标更多。它是用Python构建的,使用了TensorFlow和Sonnet。

原始仓库地址:https://github.com/tryolabs/luminoth.git

浏览量:46 下载量:0 项目类别: 目标检测
3 months前更新
MMCV Python
Fork 0 关注 0

**MMCV**是一个用于计算机视觉研究的基础python库,支持MMLAB中的许多研究项目,如MMDetection和MMAction。 它提供了以下功能: - 通用IO api - 图像处理 - 视频处理 - 图像和注释可视化 - 有用的工具(进度条,计时器,…) - 各种各样的CNN架构

原始仓库地址:https://github.com/open-mmlab/mmcv.git

浏览量:1713 下载量:98 项目类别: 目标检测
3 months前更新
Fork 0 关注 0

**tf-faster-rcnn**是一个由Xinlei Chen (xinleic@cs.cmu.edu)实现的更快的RCNN检测框架的Tensorflow实现。这个存储库基于python Caffe实现,这里提供了更快的RCNN。

原始仓库地址:https://github.com/endernewton/tf-faster-rcnn.git

浏览量:1103 下载量:677 项目类别: 目标检测
5 months前更新

如何在Windows 10上使用TensorFlow (GPU)训练多个对象的对象检测分类器? 本指南的韩语翻译位于翻译文件夹中(谢谢@cocopambag!)。如果你想贡献另一种语言的翻译,请放心!你可以把它添加为一个pull请求,我一有机会就合并它。这个存储库是一个教程,介绍如何使用TensorFlow的对象检测API来训练针对Windows 10、8或7上的多个对象的对象检测分类器。(它也可以在基于linux的操作系统上运行,只是做了一些小改动。)它最初是使用TensorFlow 1.5版编写的,但也适用于更新版本的TensorFlow。我还制作了一个YouTube视频来讲解本教程。本教程和视频之间的任何差异都是由于使用更新版本的TensorFlow所需要的更新。如果编写的教程和视频之间有不同之处,请遵循编写的教程。

原始仓库地址:https://github.com/EdjeElectronics/TensorFlow-Object-Detection-API-Tutorial-Train-Multiple-Objects-Windows-10

浏览量:1538 下载量:732 项目类别: 目标检测
5 months前更新
Fork 0 关注 0

本项目是Siraj Raval在Youtube上为“YOLO对象检测”编写的代码。 代码是关于实时目标检测与分类。可点击下方具体论文链接阅读更多: https://arxiv.org/pdf/1506.02640.pdf

原始仓库地址:https://github.com/llSourcell/YOLO_Object_Detection.git

浏览量:1668 下载量:272 项目类别: 目标检测
5 months前更新
FreeAnchor Python
Fork 0 关注 1

中国科学院大学联合厦门大学和鹏城实验室,提出一种自由锚框匹配的单阶段(One-stage)物体检测方法**FreeAnchor**。 通过目标与特征的自由匹配,该方法突破了“Object as Box”, 与“Objectas Point”的建模思路,探索了**Object as Distribution**的新思路。 FreeAnchor在MS-COCO数据集上显著超越了双阶段(Two-stage)检测方法FPN,成果被 NeurIPS 2019 接收。 论文地址:https://arxiv.org/pdf/1909.02466 **摘要** 过去几年中,卷积神经网络(CNN)在视觉物体检测中取得了巨大成功。为了使用有限卷积特征表示具有各种外观,纵横比和空间布局的物体,大多数基于CNN的检测器利用具有多尺度和多长宽比的锚框作为物体定位的参考点。通过将每个物体分配给单个或多个锚框,可以确定特征并进行物体分类和定位。有锚框的物体检测器利用空间关系,即**物体和锚框的交并比(IoU)**,作为锚框划分的唯一标准。基于与物体边界框(Box)空间对齐的锚框(Anchor)最适合于对物体进行分类和定位的直觉,网络在每个锚框处的损失独立地监督下进行学习。然而,在下文中,**我们认为这种直觉是不准确的,手工设计IoU匹配物体与特征的方法不是最佳选择。** 一方面,对于“偏心”的物体,其最有判别力的特征并不靠近物体中心。空间对齐的锚框可能对应于较少的代表性特征,这会限制目标分类和定位能力。另一方面,当多个物体聚集在一起时,使用IoU标准匹配具有适当锚框/特征的物体是不可行的。亟待解决的问题是如何将锚框/特征与物体完美匹配。 本研究提出了一种**学习匹配锚框的物体检测方法,目标是丢弃手工设计的锚框划分,同时优化以下三个视觉物体检测学习目标**。首先,为了实现高召回率,检测器需要保证对于每个物体,至少一个锚框的预测足够准确。其次,为了实现高检测精度,检测器需要将具有较差定位(边界框回归误差大)的锚框分类为背景。第三,锚框的预测应该与非极大抑制(NMS)程序兼容,即分类得分越高,定位越准确。否则,在使用NMS过程时,可能抑制具有精确定位但是低分类分数的锚框预测。 FreeAnchor的本质是通过目标与特征的自由匹配,实现为每个物体选择适合的锚框,其本质为每个物体选择合适的CNN特征。FreeAnchor突破了“Object as Box”, 与“Object as Point”的建模思路,通过极大似然估计对物体范围内的特征分配不同的置信度建立起一个无参数的分布,探索了“Object as Distribution”的新思路。

浏览量:1867 下载量:228 项目类别: 目标检测
5 months前更新
Fork 0 关注 0

**deep_learning_object_detection**是一篇利用深度学习进行目标检测的论文。我参照这篇调查论文写了这一页。论文地址是:https://arxiv.org/pdf/1809.02165v1.pdf

原始仓库地址:https://github.com/hoya012/deep_learning_object_detection.git

浏览量:1834 下载量:294 项目类别: 目标检测
5 months前更新

ihub@pcl.ac.cn 鹏城实验室人工智能研究中心

版权所有:鹏城实验室    粤ICP备18066427号-6    Powerd by 国防科技大学Trustie