复杂背景下的自动驾驶目标检测数据集

您所在的位置:网站首页 reside数据集 复杂背景下的自动驾驶目标检测数据集

复杂背景下的自动驾驶目标检测数据集

2023-09-08 02:45| 来源: 网络整理| 查看: 265

2017年Li等提出第 1 个端到端的去雾网络 AODNet, 并且讨论了图像去雾对目标检测任务的影响. 其选取目标检测网络 Faster R-CNN与AODNet 进行联合优化训练, 并进行目标检测的评估, 这是第 1 个涉及合成有雾场景下目标检测的研究.

2018年 UFDD(unconstrained face detection dataset)有雾场景下的人脸数据集发布,该数据集包含 6 种恶劣环境下的人脸。

2019年Li该课题组发布了大型的合成有雾图像数据集 RESIDE,该数据集包括真实世界有雾场景下的目标检测数据集(annotated realworld task-driven testing set, RTTS)和合成世界目标检测数据集, 这是目前唯一带多类检测标签的真实有雾场景的目标检测数据集。该数据集格式与VOC2007相同格式标志 5类目标, 分别是汽车、自行车、摩托车、人和公共汽车. 该数据集分为5个子集,每个子集都可以用来训练和评估。

2019年UG2+有雾场景数据集提出,同样使用VOC2007 的格式标注与 RTTS 相同的 5 类目标, 但该测试集仅公布其中的 100 幅图像标签.

2021年论文《真实有雾场景下的目标检测》中在目标检测数据集 MS COCO 上合成有雾场景下的目标检测数据集S-COCO进行训练,并在RTTS 数据集以及 UG2+ 数据集上验证测试。本文提出了基于知识引导的目标检测框架(knowledge-guided object detection, KODNet)和基于图像去雾和目标检测的联合学习框架(joint learning in dehazing and object detection, DONet). KODNet 通过统计先验学习, 设计了深度检测模型中锚框面比, 以此指导真实有雾场景下的目标检测. DONet 将去雾模型与目标检测模型级联并进行联合学习, 使网络同时完成图像去雾任务和目标检测任务。 数据集的合成:首先, 对每幅图像进行深度估计并生成深度图像. 接着, 采用导向滤波方法对深度图像进行平滑, 生成具有真实感的深度图像. 最后, 采用大气散射模型, 将滤波后的深度图像和清晰图像合成有雾图像. 最终建立了有雾场景下的目标检测数据集 (synthetic Microsoft common objects in context, S-COCO).探讨了知识引导和模型联合优化对真实有雾场景下目标检测的促进作用.

论文《雾霾天气下的车牌识别算法研究》对有雾场景下的车牌进行检测。首先训练数据集来自RESIDE数据集中的ITS和OTS子集数据集合成有雾图像,最后采用RESIDE数据集中的子集数据集测试验证。

论文《面向交通场景理解的除雾算法研究与分析》对雾天交通场景进行除雾。首先,对当前具有代表性的3种除雾算法进行对比测试,并在合成测试集以及真实雾天测试集上对不同除雾网络的除雾效果进行分析评价,测试结果表明现有除雾算法在合成测试集上表现较好,而对真实雾天图像适应性较差。其次,为改善现有除雾网络在真实雾天图像上适应性较差的现象,在现有网络基础上进行除雾网络改进。选择生成式对抗除雾网络作为本文除雾网络的主要结构,并引入多尺度密集特征融合模块,减少图像特征提取过程中空间信息的丢失。实验证明所改进的除雾网络在SOTS室外合成雾天测试集和RTTS4322真实雾天测试集上都有良好的除雾效果。



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3