首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    Cross-Domain Car Detection Using UnsupervisedImage-to-Image Translation: From Day to Night

    深度学习技术使最先进的模型得以出现,以解决对象检测任务。然而,这些技术是数据驱动的,将准确性委托给训练数据集,训练数据集必须与目标任务中的图像相似。数据集的获取涉及注释图像,这是一个艰巨而昂贵的过程,通常需要时间和手动操作。因此,当应用程序的目标域没有可用的注释数据集时,就会出现一个具有挑战性的场景,使得在这种情况下的任务依赖于不同域的训练数据集。共享这个问题,物体检测是自动驾驶汽车的一项重要任务,在自动驾驶汽车中,大量的驾驶场景产生了几个应用领域,需要为训练过程提供注释数据。在这项工作中,提出了一种使用来自源域(白天图像)的注释数据训练汽车检测系统的方法,而不需要目标域(夜间图像)的图像注释。 为此,探索了一个基于生成对抗网络(GANs)的模型,以实现生成具有相应注释的人工数据集。人工数据集(假数据集)是将图像从白天时域转换到晚上时域而创建的。伪数据集仅包括目标域的注释图像(夜间图像),然后用于训练汽车检测器模型。实验结果表明,所提出的方法实现了显著和一致的改进,包括与仅使用可用注释数据(即日图像)的训练相比,检测性能提高了10%以上。

    02

    小振科技孙克振:赋能机器之眼,构建智慧大脑,真正实现“科技兴安” | 镁客请讲

    2022年半导体大会正式开启,点击图片立刻参与! 智能辅助驾驶,未来可期。 作者 | 来自镁客星球的王饱饱 智能辅助驾驶,正处于产业“爆发”的前夜。 镁客网注意到,近年来,随着中国基建工程的大力推进,交通运输网络的日益发达,在带来客运、物流货运产业兴旺的同时,一些隐患也随之浮出水面。像“两客一危一重货”(“两客”指班线客车及旅游包车,“一危”指危化品运输车,“一重货”指重型货车),由于客观上存在体型庞大、盲区多、载人或载物量大、司机疲劳驾驶问题等特点,交通事故的发生率有逐年上升的势头。 记者发现,面对这些

    05

    Let There Be Light: Improved Traffic Surveillancevia Detail Preserving Night-to-Day Transfer

    近年来,在深度卷积神经网络(CNNs)的帮助下,图像和视频监控在智能交通系统(ITS)方面取得了长足的进步。作为最先进的感知方法之一,检测视频监控每帧中感兴趣的目标是ITS广泛期望的。目前,在具有良好照明条件的日间场景等标准场景中,物体检测显示出显著的效率和可靠性。然而,在夜间等不利条件下,物体检测的准确性会显著下降。该问题的主要原因之一是缺乏足够的夜间场景注释检测数据集。在本文中,我们提出了一个框架,通过使用图像翻译方法来缓解在不利条件下进行目标检测时精度下降的情况。 为了缓解生成对抗性网络(GANs)造成的细节破坏,我们建议利用基于核预测网络(KPN)的方法来重新定义夜间到日间的图像翻译。KPN网络与目标检测任务一起训练,以使训练的日间模型直接适应夜间车辆检测。车辆检测实验验证了该方法的准确性和有效性。

    02

    Improved Traffic Surveillance via Detail Preserving

    近年来,在深度卷积神经网络(CNNs)的帮助下,图像和视频监控在智能交通系统(ITS)中取得了长足的进展。 作为一种先进的感知方法,智能交通系统对视频监控中每一帧感兴趣的目标进行检测是其广泛的研究方向。 目前,在照明条件良好的白天场景等标准场景中,目标检测显示出了显著的效率和可靠性。 然而,在夜间等不利条件下,目标检测的准确性明显下降。 造成这一问题的主要原因之一是缺乏足够的夜间场景标注检测数据集。 本文提出了一种基于图像平移的目标检测框架,以解决在不利条件下目标检测精度下降的问题。 我们提出利用基于风格翻译的StyleMix方法获取白天图像和夜间图像对,作为夜间图像到日间图像转换的训练数据。 为了减少生成对抗网络(GANs)带来的细节破坏,我们提出了基于核预测网络(KPN)的方法来细化夜间到白天的图像翻译。 KPN网络与目标检测任务一起训练,使训练好的白天模型直接适应夜间车辆检测。 车辆检测实验验证了该方法的准确性和有效性。

    01

    GAN-Based Day-to-Night Image Style Transfer forNighttime Vehicle Detection

    数据增强在训练基于CNN的检测器中起着至关重要的作用。以前的大多数方法都是基于使用通用图像处理操作的组合,并且只能产生有限的看似合理的图像变化。最近,基于生成对抗性网络的方法已经显示出令人信服的视觉结果。然而,当面临大而复杂的领域变化时,例如从白天到晚上,它们很容易在保留图像对象和保持翻译一致性方面失败。在本文中,我们提出了AugGAN,这是一种基于GAN的数据增强器,它可以将道路行驶图像转换到所需的域,同时可以很好地保留图像对象。这项工作的贡献有三个方面:(1)我们设计了一个结构感知的未配对图像到图像的翻译网络,该网络学习跨不同域的潜在数据转换,同时大大减少了转换图像中的伪影; 2) 我们定量地证明了车辆检测器的域自适应能力不受其训练数据的限制;(3) 在车辆检测方面,我们的目标保护网络在日夜困难的情况下提供了显著的性能增益。与跨领域的不同道路图像翻译任务的竞争方法相比,AugGAN可以生成更具视觉合理性的图像。此外,我们通过使用转换结果生成的数据集训练Faster R-CNN和YOLO来定量评估不同的方法,并通过使用所提出的AugGAN模型证明了目标检测精度的显著提高。

    02

    PNAS:睡眠时间预测大学生的第一年的成绩

    大学第一年的学业成就对于让学生走上通往长期学业和人生成功的道路至关重要,但人们对塑造大学早期学业成就的因素知之甚少。鉴于睡眠在学习和记忆中发挥的重要作用,我们在此扩展了这项工作,以评估夜间睡眠时长是否可以预测期末平均绩点(GPA)的变化。来自三所独立大学的一年级学生在他们的五项研究中提供了在冬春季学期前一个月的睡眠活动记录仪。研究结果表明,较长的早期夜间总睡眠时间预示着较高的期末GPA,即使在控制了上学期的GPA和日间睡眠后,这种效应仍然存在。具体来说,在学期初期每晚平均睡眠时间每增加一个小时,期末GPA就会增加0.07。使用睡眠阈值进行的敏感性分析也显示,与前一学期的GPA相比,每晚睡眠不足6 h是睡眠对期末GPA从有益转变为有害的时间段。值得注意的是,与GPA之间的预测性关系仅针对夜间总睡眠时长,而非睡眠的其他标志物,如学生夜间睡眠时间窗口的中点或就寝时间变异性。这些来自五项研究的发现确立了夜间睡眠时间是学业成功的一个重要因素,并强调了在大学第一年的形成期测试早期学期总睡眠时间干预的潜在价值。

    02

    Cycle-object consistency for image-to-image domain adaptation

    生成对抗性网络(GANs)的最新进展已被证明可以通过数据扩充有效地执行目标检测器的域自适应。虽然GANs非常成功,但那些能够在图像到图像的翻译任务中很好地保存目标的方法通常需要辅助任务,例如语义分割,以防止图像内容过于失真。然而,在实践中很难获得像素级注释。或者,实例感知图像转换模型分别处理对象实例和背景。然而,它在测试时需要目标检测器,假设现成的检测器在这两个领域都能很好地工作。在这项工作中,我们介绍了AugGAN Det,它引入了循环目标一致性(CoCo)损失,以生成跨复杂域的实例感知翻译图像。 目标域的目标检测器直接用于生成器训练,并引导翻译图像中保留的目标携带目标域外观。与之前的模型(例如,需要像素级语义分割来强制潜在分布保持对象)相比,这项工作只需要更容易获取的边界框注释。接下来,对于感知实例的GAN模型,我们的模型AugGAN-Det在没有明确对齐实例特征的情况下内化了全局和对象样式转移。最重要的是,在测试时不需要检测器。实验结果表明,我们的模型优于最近的目标保持和实例级模型,并实现了最先进的检测精度和视觉感知质量。

    01

    ManiFest: manifold deformationfor few-shot image translation

    大多数图像到图像的翻译方法都需要大量的训练图像,这限制了它们的适用性。相反,我们提出了ManiFest:一个用于少样本图像翻译的框架,它只从少数图像中学习目标域的上下文感知表示。为了增强特征一致性,我们的框架学习源域和附加锚域(假设由大量图像组成)之间的风格流形。通过基于patch的对抗性和特征统计对准损失,将学习到的流形插值并朝着少样本目标域变形。所有这些组件都是在单个端到端循环中同时训练的。除了一般的少样本翻译任务外,我们的方法还可以以单个样例图像为条件来再现其特定风格。大量实验证明了ManiFest在多项任务上的有效性,在所有指标上都优于最先进的技术。

    02
    领券