想要时刻关注家中安全却没有足够的钱或者DIY技能去安装一个摄像头,怎么办? 现在,只要你有一个多余的智能手机或者平板电脑,甚至是一个长期占据抽屉一角的旧设备就行了。赶快忘掉资金短缺的不愉快,准备着手在家里钻个洞吧! 有一系列安卓系统应用可以将他们的设备变成安全摄像头,能够及时为身处别地的人提供家庭入侵者的第一手信息。 旧手机化身摄像头:绝不是个新鲜事物 此前,有过如何利用一个旧智能手机创建一个安全监控网络的演示,无论你的旧设备运行的是Android、iOS、Windows系统或是黑莓手机,都有大量的应用
1、Stereo R-CNN based 3D Object Detection for Autonomous Driving 作者:Peiliang Li, Xiaozhi Chen, Shaojie Shen 论文链接:https://arxiv.org/abs/1902.09738
在传统年代,人们能想到最精准的抠图方法,大概是 Photoshop 之类的专业图像处理软件,显然这种处理方式会很繁琐。随着人工智能技术的发展,从业者开始尝试将最先进的机器学习技术融入到图像处理工作之中。这些开源算法最终变成了各种各样的在线抠图程序,最重要的是——它们的操作方法非常简单且完全免费。
【导读】专知内容组整理了最近七篇目标检测(Object Detection)相关文章,为大家进行介绍,欢迎查看! 1. Self Paced Deep Learning for Weakly Supervised Object Detection(基于Self Paced深度学习的弱监督目标检测) ---- ---- 作者:Enver Sangineto,Moin Nabi,Dubravko Culibrk,Nicu Sebe 摘要:In a weakly-supervised scenario objec
【导读】专知内容组整理了最近六篇目标检测(Object Detection)相关文章,为大家进行介绍,欢迎查看! 1. Rotation-Sensitive Regression for Oriented Scene Text Detection(面向场景文本检测的旋转敏感型回归) ---- ---- 作者:Minghui Liao,Zhen Zhu,Baoguang Shi,Gui-song Xia,Xiang Bai 机构:Huazhong University of Science and Techn
程明明,1985年生。2012年博士毕业于清华大学,之后在英国牛津从事计算机视觉研究,并于2014年回国任教,2016年起任南开大学教授,国家“万人计划”青年拔尖人才。其主要研究方向包括:计算机图形学、计算机视觉、图像处理等。已在IEEE PAMI, ACM TOG等CCF-A类国际会议及期刊发表论文30余篇。相关研究成果论文他引10,000余次。其中,显著性物体检测技术被华为Mate 10等旗舰手机作为亮点特性。其研究工作曾被英国《BBC》、德国《明镜周刊》、美国《赫芬顿邮报》等权威国际媒体撰文报道。
【导读】近日,大连理工大学的学生ArcherFMY针对近几年深度学习在计算机视觉领域的应用提供了一个非常详细的阅读清单。如果你在深度学习领域是一个新手,你可以会想知道如何从哪篇论文开始阅读学习,如果你是从事计算机视觉领域,这一份详细的paper list,包括显著目标检测、视觉目标跟踪、目标检测、目标定位、语义分割和场景解析、边缘检测、姿态估计、超分辨率、图像分类,建议你收藏,仔细学习。本文转载已得到作者授权。 Github 地址: https://github.com/ArcherFMY/Paper_Re
本文探讨了四种显著性检测算法及其在图像处理中的应用。首先介绍了显著性检测的背景和意义,然后详细阐述了基于高斯差分(OGD)、全局统计(GS)、局部自适应(LOA)和自适应阈值(AT)四种显著性检测算法的原理和实现。文章还对各种算法的优缺点进行了分析,并通过实验对四种算法的性能进行了评估。
近期Vision Transformer(ViT)在各个垂直任务上均表现出非常不错的性能。这些模型基于multi-head自注意力机制,该机制可以灵活地处理一系列图像patches以对上下文cues进行编码。
这里的弱监督信息为image-level的类别信息,即没有像素级的语义分割标签,而仅有图像级的类别标签,即知道每张图里有哪些类别。
2005.09007:U2-Net: Going Deeper with Nested U-Structure for Salient Object Detection
【导读】专知内容组整理了最近目标检测相关文章,为大家进行介绍,欢迎查看! 1. MSDNN: Multi-Scale Deep Neural Network for Salient Object Detection(MSDNN: 基于多尺度深度神经网络的显著目标检测) ---- 作者:Fen Xiao,Wenzheng Deng,Liangchan Peng,Chunhong Cao,Kai Hu,Xieping Gao 摘要:Salient object detection is a fundamenta
人类的视觉感知中,可以非常容易的聚焦于场景的显著性目标,在计算机视觉的很多问题中,也需要类似的机制,可以让计算机更好地理解场景。尤其是人类目的明确的应用场景。
ECCV 2020 刚刚公布获奖结果!先恭喜各位论文被收录的同学。ECCV 2020 有效投稿数为5025,最终收录1361篇论文,录取率是27%。其中104篇 Oral、161篇 Spotlights,剩下皆为Poster。
计算机视觉顶级会议CVPR2019 accepted list已经公布,极市已将目前收集到的公开论文总结到github上(目前已收集546篇),后续会不断更新,欢迎关注,也欢迎大家提交自己的论文:
Face Alignment by Explicit Shape Regression CVPR2012 https://github.com/soundsilence/FaceAlignment
感谢52CV群友“一块钱”盘点了CVPR 2019 所有有关目标检测的文章,并简单做了分类。
微软亚洲研究院 2021 CVPR 论文分享会已完美结束。今日起,CV君将根据不同类别的分享主题进行逐一分享,欢迎查收!
LiDAR-Based Online 3D Video Object Detection With Graph-Based Message Passing and Spatiotemporal Transformer Attention
【导读】专知内容组整理了最近七篇目标检测(Object Detection)相关文章,为大家进行介绍,欢迎查看! 1.Single-Shot Object Detection with Enriched Semantics(具有丰富语义的单次物体检测) ---- ---- 作者:Zhishuai Zhang,Siyuan Qiao,Cihang Xie,Wei Shen,Bo Wang,Alan L. Yuille 机构:Johns Hopkins University,Shanghai Universit
论文地址: http://arxiv.org/pdf/2008.11048v1.pdf
Conversations about Large Language Models (LLMs) were once confined to the domain of speech techies, but now it’s gone mainstream.
论文地址: http://arxiv.org/pdf/2008.12134v1.pdf
作者:Deng-Ping Fan,Zheng Lin,Jia-Xing Zhao,Yun Liu,Zhao Zhang,Qibin Hou,Menglong Zhu,Ming-Ming Cheng
-Salient Object Detection benchmark 南开大学显著性检测算法
我们提出了一种数字货币方法,该方法将允许没有银行业务关系的人进行电子和私人交易,包括互联网交易和无现金交易的销售点交易。我们的提案引入了由政府支持的私有数字货币基础架构,以确保每笔交易都由银行或货币服务公司进行注册,并且依赖于由非隐私钱包提供的隐私增强技术(例如零知识证明)确保不披露交易对手。我们还提出了一种数字货币方法,该方法将使系统风险的清算,结算和管理更加有效和透明。我们认为我们的系统可以保留现金的重要特征,包括隐私,所有者保管,可替代性和可及性,同时还保留了部分储备银行和现有的两层银行系统。我们还表明,有可能引入涉及非托管钱包的数字货币交易监管,同时仍然允许非托管钱包保护最终用户的隐私。
CV codes代码分类整理合集(http://www.sigvc.org/bbs/thread-72-1-1.html)
Dilated Residual Networks CVPR2017 http://vladlen.info/publications/dilated-residual-networks/
目标检测是计算机视觉里面十分重要的任务。 作为计算机视觉中众多基础问题中的一个,目标检测成为了许多其他计算机视觉任务的基础,比如:实例分割,目标跟踪和姿态估计等。 深度学习的飞速发展使得目标检测重获新生,以至于其获得了重大突破,并使其成为了研究的热点。目标检测如今已经广泛的应用于现实生活中的各种应用之中:无人驾驶、机器人视觉、视频监控等。 本文就为大家推荐其中8篇最新的目标检测论文。 [1] 通过语义对齐匹配加速 DETR 收敛 Accelerating DETR Convergence via Se
这项新应用名叫ObjectCut,在Reddit上一经发布,12小时就获得700+的热度。
CV君汇总了过去一周计算机视觉领域新出的开源代码,涉及到图像增广、医学图像分割、图像恢复、目标检测、语义分割、超分辨率、显著目标检测、轻量级网络结构设计、网络规范化、标注工具等,其中有多篇来自CVPR 2019与ICML 2019的论文代码。
导读:在CVPR 2022上,新加坡南洋理工大学和商汤研究院的科研团队提出了SAM-DETR —— 利用语义对齐匹配加速DETR检测器收敛。它仅引入一个简单的即插即用的模块,通过采样“目标显著点”的特征使object query和图像特征的语义对齐,使DETR能够在MS-COCO数据集上迅速收敛。由于此方法即插即用的特性,SAM-DETR可以轻易地与现有的其他加速收敛的方法结合,实现更好的结果。根据作者已开源的代码,在MS-COCO数据集上,仅用ResNet-50,所提出的方法能在12 epoch内达到42.8% AP的检测精度,并能在50 epoch内达到47.1% AP的检测精度。
9家专利持有者准备离开MPEG LA HEVC,转而选择了HEVC Advance。尽管对于那些已经和MPEG LA HEVC签注授权协议的企业而言,他们的协议依然可以包含这9家所拥有的专利,但不可否认,两大专利组织的平衡正在发生倾斜。MPEG LA HEVC的专利授权量超过HEVC Advance的两倍多,而且MPEG LA HEVC控制着一些重大的专利。这是从2014年9月MPEG LA HEVC成立之后,首次发布专利成员离开的消息。
欢迎关注并置顶本公众号一起学习深度学习! ---- 我们先看看两段对此论文的解读,然后是论文翻译 二 from:http://www.jianshu.com/p/db87c51de510 InfoGAN (code). Peter Chen 和同时给出了 InfoGAN —— 一个对 GAN 的扩展,学习图像的去纠缠的和可解释的表示. 正常的 GAN 通过用模型重新产生数据分布达到这个目的,但是代码空间的 layout 和组织是 underspecified —— 存在很多可能的解可以将单位 Gaussia
AC算法同样是计算每个像素的显著值,但却不是基于全局对比度,而是基于一定尺度的感知单元的。而且整个AC算法是融合了多个不同尺度的感知单元计算的显著值得到的最终显著图。
在AllenNLP的主页上有个单独的菜单(http://allennlp.org/elmo),一直不太了解为何将它单列出来,主要在AllenNLP的许多任务中如文本蕴含里面等已经用到了这个模型所产生的词向量。
HC仅仅是考虑了颜色特征,而RC考虑了空间特征。我们上一篇文章介绍的LC算法就是仅考虑了颜色特征。
LEARNING ACTIONABLE REPRESENTATIONS WITH GOAL-CONDITIONED POLICIES
Many people have recommended me the infoGAN paper, but I hadn't taken the time to read it until recently. It is actually quite cool:
图像在频率域可以分成低频部分和高频部分。低频部分反映了图像的整体信息,如物体的轮廓,基本的组成区域。高频部分反映了图像的细节信息,如物体的纹理。显著性区域检测用到的更多的是低频部分的信息。
目前大部分的显著性目标检测模型是通过对卷积神经网络中提取的多级特征进行聚类来实现的。然而,由于不同卷积层的接受域不同,这些层产生的特征存在较大差异。常见的特征融合策略(加法或拼接)忽略了这些差异,可能导致次优解。为了解决上述问题,本文提出了F3Net,它主要由交叉特征模块(cross featuremodule, CFM)和通过最小化新像素位置感知损失(PPA)训练的级联反馈解码器(CFD)组成。具体地来说,CFM旨在有选择地聚合多级特性。与加法和拼接不同,CFM能够自适应地在融合前从输入特征中选择互补成分,有效地避免了引入过多的冗余信息而破坏原有特征。CFD采用多级反馈机制,对前一层的输出引入不受监督的特征,对其进行补充,消除特征之间的差异。在生成最终的显著性映射之前,这些细化的特性将经过多次类似的迭代。此外,与binary cross entropy不同的是,PPA loss对像素的处理并不平均,它可以综合像素的局部结构信息,进而引导网络更加关注局部细节。来自边界或易出错部分的硬像素将得到更多的关注,从而强调其重要性。F3Net能够准确地分割出突出的目标区域,并提供清晰的局部细节。在5个基准数据集上进行的综合实验表明,F3Net在6个评估指标上的性能优于最先进的方法。
CVPR2022论文和代码整理:https://github.com/DWCTOD/CVPR2022-Papers-with-Code-Demo
作为计算机视觉中众多基础问题中的一个,目标检测成为了许多其他计算机视觉任务的基础,比如:实例分割,目标跟踪和姿态估计等。
提出语义区域自适应归一化(SEAN),它是条件生成对抗网络的简单但有效的构建块(条件是描述输出图像中的语义区域的分割mask)。基于SEAN,可以构建单独控制每个语义区域风格的网络结构,例如可为每个区域指定一个风格参考图像。代码:https://github.com/ZPdesu/SEAN
CVPR 2019 即将在美国长滩召开。今年有超过 5165 篇的大会论文投稿,最终录取 1299 篇,其中 Oral 论文近 300 篇。为了方便社区开发者和学术青年查找和阅读高价值论文,AI 研习社从入选的 Oral 论文中,按应用方向挑选了部分精华论文,贴在本文。
本文主要介绍了在计算机视觉领域中的语义分割和目标检测相关的研究和代码,包括 DeepLab, DeconvNet, PSPNet, ICNet, SegNet, U-Net, DeepLabv3+ 等。同时,文章还介绍了基于单张训练样本的视频运动物体分割、图像语义匹配、目标候选区域分割、基于增广卷积网络的语义分割、同时检测和分割不同尺度的语义信息、基于空间传播网络的精细分割、基于多尺度学习的语义分割、图像分割的代码实现等多个方面的内容。
今天将分享Unet的改进模型U2-Net,改进模型来自2020年的论文《U2-Net: Going Deeper with Nested U-Structure for Salient Object Detection》,通过理解该模型思想,在VNet基础上可以做同样的改进。
机器之心原创 参与:李亚洲、路雪、李泽南 深度学习界的「春晚」CVPR 2017 已在夏威夷火奴鲁鲁 Hawaii Convention Center 开幕,在本次大会接收的众多论文当中,有华人参与的接近半数。这七百余篇论文中有哪些亮点?众多参会的中国研究机构又贡献了多少?我们为你整理了一篇观看指南。 不久之前,谷歌发布了 2017 版学术指标。从这次公布的数据来看,只有少数学术会议的影响因子超过了热门的预印版论文发布平台 arXiv。 其中可以看到,在计算机视觉与模式识别
领取专属 10元无门槛券
手把手带您无忧上云