CV - 计算机视觉 | ML - 机器学习 | RL - 强化学习 | NLP 自然语言处理
Power by Kimi&苏神 编辑丨AiCharm
Subjects: cs.CV
1.ChatGarment: Garment Estimation, Generation and Editing via Large Lan
标题:ChatGarment: Garment Estimation, Generation and Editing via Large Language Models
作者:Siyuan Bian, Chenghao Xu, Yuliang Xiu, Artur Grigorev, Zhen Liu, Cewu Lu, Michael J. Black, Yao Feng
文章链接:https://arxiv.org/abs/2412.17811
项目代码:https://chatgarment.github.io/
摘要:
我们推出 ChatGarment,这是一种利用大型视觉语言模型 (VLM) 自动根据图像或文本描述估计、生成和编辑 3D 服装的新颖方法。与之前在现实场景中举步维艰或缺乏交互式编辑功能的方法不同,ChatGarment 可以根据野外图像或草图估计缝纫图案,根据文本描述生成它们,并根据用户指令编辑服装,所有这些都在交互式对话中进行。然后可以将这些缝纫图案叠加到 3D 服装中,这些服装很容易制作动画和模拟。这是通过微调 VLM 以直接生成 JSON 文件来实现的,该文件包括服装类型和款式的文本描述以及连续的数字属性。然后使用该 JSON 文件通过编程参数模型创建缝纫图案。为了支持这一点,我们通过扩展其服装类型覆盖范围并简化其结构来完善现有的编程模型 GarmentCode,以实现高效的 VLM 微调。此外,我们通过自动化数据管道构建了图像到缝纫图案和文本到缝纫图案对的大规模数据集。广泛的评估表明 ChatGarment 能够根据多模式输入准确重建、生成和编辑服装,突显其彻底改变时尚和游戏应用程序工作流程的潜力。代码和数据将在此 https URL中提供。
这篇论文试图解决什么问题?
这篇论文提出了一个名为FaceLift的方法,旨在解决从单张人脸图像快速、高质量地重建360度头部三维模型的问题。具体来说,这项工作试图解决以下几个挑战:
- 高保真度重建:传统的3D头合成方法通常使用参数化纹理网格模型,这些模型虽然能够生成基本的头部图像,但渲染出来的图像常常缺乏细节,限制了其感知真实性和表现力。
- 视角一致性:人类视觉系统对面部细节非常敏感,因此即使细微的渲染瑕疵也会非常明显。这要求重建的3D头部模型在不同视角下都能保持一致性。
- 身份特征保留:在从单张图像生成3D头部模型时,需要保留原始图像中的人物身份特征,如面部细节和表情。
- 数据获取限制:获取高质量的真实人类头部3D数据需要控制的工作室环境和昂贵的摄影设备,这限制了数据的获取和模型的训练。
- 合成数据训练与真实图像泛化:仅使用合成数据训练的模型在生成真实图像时可能会损失感知身份特征,FaceLift旨在通过结合合成数据和大型图像生成基础模型来提高对真实世界图像的泛化能力。
- 实时性能:传统的3D重建方法需要进行预场景优化,这些方法通常速度较慢。FaceLift使用前馈方法,能够在短时间内从稀疏图像中预测高质量的3D表示。
FaceLift通过一个两阶段的流程来解决这些问题:首先使用多视图潜在扩散模型生成一致的侧面和背面视图,然后将这些视图输入到GS-LRM重建器中,以高斯splats的形式产生全面的3D表示。这种方法不仅能够从单张图像中重建出具有高细节度的3D头部模型,而且还能够生成新视角下的高质量图像。
论文如何解决这个问题?
论文通过提出一个名为FaceLift的两阶段框架来解决单张图像到高质量3D头部重建的问题。以下是该方法的详细解决方案:
第一阶段:单图像到多视图生成
- 多视图潜在扩散模型:
- 使用基于扩散的多视图生成方法,利用一个图像条件扩散模型作为核心视图生成骨干网络。
- 通过在合成的人类头部数据上微调此模型,实现了两个关键优势:(1) 通过多视图一致训练数据获得的强先验来实现稳健的视图一致性,(2) 从大型基础模型继承的增强泛化能力,确保在推理过程中准确保留身份特征。
- 生成多视图图像:
- 给定一个单个人的近正面视图面部图像,多视图扩散模型将生成六个视图,覆盖人头的360度。
- 生成的视图包括与输入图像匹配的重建正面视图,左右侧面视图捕获头部的侧面,背面视图基于正面输入和学习到的先验合成头发结构和颜色。
第二阶段:多视图到3D高斯头部重建
- GS-LRM重建器:
- 使用GS-LRM(Gaussian Splats Large Reconstruction Model),这是一个最新的重建模型,擅长从有限视点生成详细的3D模型。
- GS-LRM使用3D高斯作为其底层表示,特别适用于捕捉人头的复杂细节,如头发丝。
- 其前馈架构支持快速重建,适合实际应用。
- 重建3D高斯splats:
- 利用第一阶段生成的六个视图,GS-LRM重建器将这些视图融合成一个全面的3D高斯表示。
- 每个2D像素对应一个3D高斯,高斯由3通道RGB、3通道尺度、4通道旋转四元数、1通道不透明度和1通道射线距离参数化。
训练和评估
- 合成人类头部数据集:
- 为了训练网络,作者使用合成的3D人类头部资产渲染图像,这些图像在不同的光照条件下渲染,以训练多视图扩散模型和微调GS-LRM。
- 评估:
- 通过使用多个公开的多视图头部数据集评估新视角合成性能,FaceLift在多个评估指标上超越了先前的方法,显示出在重建精度和身份保留方面的优越性能。
总结来说,FaceLift通过结合合成数据训练和大型图像生成基础模型的丰富先验,实现了从单张图像到高质量3D头部重建的高效解决方案,并在真实世界图像上展示了显著的泛化能力。
论文做了哪些实验?
论文中进行了一系列实验来评估FaceLift方法的性能,包括定量和定性分析。以下是实验的具体内容:
1. 实验设置
- 评估数据集:
- 使用两个多视图数据集:合成的Cafca数据集和真实的Ava-256数据集。
- 还包括对野外收集的人脸图像进行定性评估。
- 基线比较:
- 与三种最近的工作进行比较:PanoHead、Era3D和LGM。
- 评估指标:
- 使用PSNR、SSIM、LPIPS和DreamSim等标准指标评估重建质量。
- 使用ArcFace进行面部验证以评估身份保留。
2. Cafca数据集上的结果
- 在Cafca数据集上,FaceLift在所有评估指标上均优于基线方法,特别是在DreamSim和ArcFace指标上表现更好,表明其在身份保留方面的优势。
3. Ava-256数据集上的结果
- 在Ava-256数据集上,FaceLift在所有评估指标上均优于其他基线方法,显示出更好的重建质量和身份保留能力。
4. 野外图像上的结果
- FaceLift在野外图像上展现出强大的泛化能力和鲁棒性,能够生成逼真的新视角渲染结果。
5. 视频输入用于4D NVS的应用
- FaceLift能够处理视频输入,实现4D新视角合成,证明了其高保真结果和鲁棒性。
6. 消融研究
- 不同光照条件下的数据训练:
- 展示了使用不同光照条件训练的模型在处理阴影和强光时的性能差异。
- GS-LRM重建的输入视图数量:
- 分析了不同数量的输入视图对GS-LRM重建质量的影响。
- GS-LRM微调的有效性:
- 比较了在Objaverse上训练的GS-LRM和在合成人头数据上微调后的GS-LRM的渲染结果,展示了微调对于提高面部几何理解的重要性。
这些实验全面评估了FaceLift在单图像3D头部重建任务中的性能,并与现有技术进行了比较,证明了其在重建精度、身份保留和泛化能力方面的优势。
论文的主要内容:
这篇论文的主要内容包括以下几个方面:
- 问题定义:
- 论文提出了一个名为FaceLift的方法,旨在从单张人脸图像中快速、高质量地重建出360度的3D头部模型。
- 方法论:
- 第一阶段:使用多视图潜在扩散模型从单张人脸图像生成一致的侧面和背面视图。
- 第二阶段:将生成的视图输入到GS-LRM(Gaussian Splats Large Reconstruction Model)重建器中,以产生全面的3D高斯表示,从而实现高质量的新视角合成。
- FaceLift采用了一个两阶段的流程:
- 数据集和训练:
- 为了训练系统,作者开发了一个多视图渲染数据集,使用合成的3D人类头部资产。
- 扩散模型仅在合成头部图像上训练,而GS-LRM重建器则在Objaverse数据集上进行初始训练,然后在合成头部数据上进行微调。
- 实验和评估:
- 通过定量和定性的方式,在多个数据集上评估FaceLift,包括合成数据集和真实世界图像。
- FaceLift在3D头重建任务中表现出色,特别是在身份保留和跨视角一致性方面。
- 结果:
- FaceLift在多个评估指标上超越了现有的最先进方法,证明了其在重建精度和身份保留方面的优越性能。
- 尽管仅在合成数据上训练,FaceLift展示了对真实世界图像的显著泛化能力。
- 应用:
- 除了单图像重建,FaceLift还支持视频输入,实现4D新视角合成,并能与2D重动画技术无缝集成,以实现3D面部动画。
- 贡献:
- 提出了FaceLift这一两阶段框架,用于从单图像重建高保真的3D头部。
- 结合了合成人头数据进行视角一致训练和大型图像生成基础模型的丰富先验,实现了强大的泛化能力。
- 通过广泛的评估,证明了FaceLift在重建精度和身份保留方面的最先进性能。
- 未来工作:
- 论文提出了一些潜在的改进方向,包括增强模型的时间一致性、处理更多样化的输入,以及提高模型的计算效率等。
总的来说,FaceLift通过结合多视图生成和大型重建模型,在单图像3D头部重建领域提供了一个创新的解决方案,并在多个方面展示了其优越的性能和广泛的应用潜力。
2.FaceLift: Single Image to 3D Head with View Generation and GS-LRM
标题:FaceLift:使用视图生成和 GS-LRM 将单图像转为 3D 头部
作者:Weijie Lyu, Yi Zhou, Ming-Hsuan Yang, Zhixin Shu
文章链接:https://arxiv.org/abs/2412.17812
项目代码:https://weijielyu.github.io/FaceLift
摘要:
我们提出 FaceLift,这是一种前馈方法,可从单个图像快速、高质量、360 度头部重建。我们的流程首先采用多视图潜在扩散模型,该模型从单个面部输入生成一致的头部侧视图和后视图。然后,这些生成的视图作为 GS-LRM 重建器的输入,该重建器使用高斯图生成全面的 3D 表示。为了训练我们的系统,我们使用合成 3D 人体头部资产开发了多视图渲染数据集。基于扩散的多视图生成器仅在合成头部图像上进行训练,而 GS-LRM 重建器则在 Objaverse 上进行初始训练,然后对合成头部数据进行微调。 FaceLift 擅长保留身份并保持视图之间的视图一致性。尽管仅接受合成数据的训练,FaceLift 仍表现出对现实世界图像的出色泛化能力。通过广泛的定性和定量评估,我们表明 FaceLift 在 3D 头部重建方面优于最先进的方法,突出了其在现实世界图像上的实际适用性和稳健性能。除了单图像重建之外,FaceLift 还支持用于 4D 新颖视图合成的视频输入,并与 2D 动画技术无缝集成以实现 3D 面部动画。项目页面:此 https URL 。
这篇论文试图解决什么问题?
这篇论文介绍了一个名为ChatGarment的新方法,旨在通过利用大型视觉-语言模型(VLMs)来自动化从图像或文本描述中估计、生成和编辑3D服装。具体来说,该方法试图解决以下几个问题:
- 从图像或草图估计服装缝纫图(sewing patterns):传统方法在现实世界场景中挣扎或缺乏交互式编辑能力,而ChatGarment能够从野外图像或草图中估计出缝纫图。
- 从文本描述生成服装:用户可以提供文本描述来生成相应的服装缝纫图,这在以往的方法中并不常见。
- 基于用户指令编辑服装:ChatGarment支持根据用户的文本指令对服装进行编辑,例如改变袖子长度或修改领口设计,这为3D艺术家简化了后期处理工作。
- 多模态输入的服装重建、生成和编辑:ChatGarment能够处理包含图像和文本的多模态输入,以重建、生成和编辑服装,这在以往的研究中较少涉及。
- 提高服装表示的自然性和实用性:与使用3D网格、点云或隐式表示(如UDFs和SDFs)的方法不同,ChatGarment使用缝纫图作为3D服装的表示,这种表示更自然,并且可以方便地导入现有的服装设计流程中进行动画制作或制造。
- 创建和编辑3D服装的新工作流程:ChatGarment通过提供一个统一的模型来估计、生成和编辑缝纫图,从而革新了服装设计和游戏应用中的工作流程。
总的来说,ChatGarment的目标是简化服装设计和制造的工作流程,通过大型语言模型的能力,实现从图像和文本输入到3D服装设计的自动化转换,并支持交互式编辑,以提高效率和灵活性。
论文如何解决这个问题?
论文通过以下几个关键步骤解决自动化估计、生成和编辑3D服装的问题:
- 利用大型视觉-语言模型(VLMs):
- 论文介绍了ChatGarment,这是一个基于大型视觉-语言模型的方法,可以处理图像和文本输入,输出用于服装创建的JSON文件。
- 生成JSON文件:
- VLM被微调以直接生成一个JSON文件,该文件既包含服装类型和风格的文本描述,也包含连续的数值属性。这个JSON文件随后被用来通过编程参数模型(如GarmentCode)创建缝纫图。
- 改进GarmentCode模型:
- 为了使VLM更有效地进行微调,作者对现有的GarmentCode模型进行了改进,扩展了其覆盖的服装类型,并简化了结构。
- 自动化数据构建管道:
- 作者开发了一个自动化的数据构建管道,利用现有工具生成图像到缝纫图和文本到缝纫图的数据对,支持服装创建和编辑。
- 多模态输入处理:
- ChatGarment能够处理包括图像和文本的多模态输入,进行服装重建、生成和编辑。
- 微调和训练策略:
- 使用LoRA技术微调语言模型,并训练MLP投影层以提高数值预测的准确性。
- 多轮对话能力:
- 经过训练的模型能够在多轮对话中处理服装的重建、生成和编辑,使用户能够从图像或文本描述开始创建服装,并在同一交互中进行细化。
- 评估和测试:
- 作者在多个数据集上评估了ChatGarment的性能,包括CloSe和Dress4D,并与现有方法进行了比较,证明了其在从单图像估计服装方面的优越性能。
通过这些步骤,ChatGarment实现了一个统一的框架,用于从多模态输入估计、生成和编辑服装,这在时尚和游戏应用中具有革命性的潜力,因为它简化了传统上由艺术家或服装设计师通过劳动密集型过程完成的服装设计和制造工作。
论文做了哪些实验?
论文中进行了一系列实验来评估ChatGarment模型的性能,包括以下几个方面:
- 图像基础服装重建(Image-based Reconstruction):
- 使用CloSe和Dress4D数据集进行实验,与现有方法(SewFormer、DressCode、GarmentRecovery)进行比较。
- 采用量化指标,包括平均Chamfer距离(CD)、平均F-Score(τ=0.001)和缝纫失败率,来评估重建的准确性。
- 服装编辑(Garment Editing):
- 构建了一个额外的评估数据集,包含135对服装,每对服装都有相应的图像和文本描述。
- 评估指标包括Chamfer Distance和F-score,比较了SewFormer、DressCode和ChatGarment的性能。
- 基于文本的服装生成(Text-based Generation):
- 使用GPT-4o从野外图像生成150个多样化的文本标签,然后渲染生成的3D服装,并计算CLIP分数来评估模型。
- 与DressCode进行比较,ChatGarment获得了更高的CLIP分数,显示了更好的文本输入对齐能力。
- 消融研究(Ablation Study):
- 评估了多模态LLM背景和不同训练数据集对ChatGarment性能的影响。
- 训练了一个仅在一般服装描述数据集上训练的模型(ChatGarment*),并比较了其与完整ChatGarment模型的性能差异。
这些实验旨在全面评估ChatGarment在服装估计、生成和编辑方面的能力,并与现有技术进行比较。通过这些实验,论文展示了ChatGarment在处理多模态输入和执行复杂服装设计任务方面的优越性能。
论文的主要内容:
这篇论文介绍了ChatGarment,一个基于大型视觉-语言模型(VLMs)的系统,用于自动化估计、生成和编辑3D服装。以下是论文的主要内容总结:
- 动机与目标:
- 论文旨在简化从图像或文本描述中创建3D服装的过程,提供一种新的方法来估计服装的缝纫图,生成服装,以及基于用户指令编辑服装。
- 方法:
- ChatGarment利用大型视觉-语言模型(VLMs)来理解和处理图像和文本输入,并输出一个JSON文件,该文件包含服装的文本描述和数值属性。
- 通过微调VLM,使其能够直接生成用于服装创建的JSON文件,这些文件随后被用于通过GarmentCode等编程参数模型创建缝纫图。
- 技术贡献:
- 提出了一种新的方法,利用VLMs直接生成JSON文件,用于服装创建。
- 改进了现有的编程参数缝纫图模型GarmentCode,扩展了其服装类型的覆盖范围,并简化了结构,以提高VLM训练的效率。
- 开发了一个自动化数据构建管道,用于生成图像到缝纫图和文本到缝纫图的数据对,支持服装的创建和编辑。
- 实验:
- 在CloSe和Dress4D数据集上进行了图像基础服装重建实验,并与现有方法进行了比较,显示出ChatGarment在重建准确性上的优越性。
- 构建了一个额外的评估数据集来评估服装编辑性能,并证明了ChatGarment在精确编辑服装方面的能力。
- 进行了基于文本的服装生成实验,并使用CLIP分数评估了生成的服装与文本输入的对齐程度。
- 结论与未来工作:
- 论文总结了ChatGarment的主要贡献,并提出了未来可能的研究方向,包括提高服装编辑的精确性、扩展到服装制造设计、改进服装模拟等。
总的来说,ChatGarment通过结合大型语言模型的能力和编程参数模型,为服装设计师和3D艺术家提供了一个强大的工具,以简化和革新服装设计和编辑的工作流程。
3.Cross-View Referring Multi-Object Tracking
标题:跨视图参考多目标跟踪
作者:Sijia Chen, En Yu, Wenbing Tao
文章链接:https://arxiv.org/abs/2412.17807
项目代码:https://github.com/chen-si-jia/CRMOT
摘要:
参考多目标跟踪(RMOT)是当前跟踪领域的一个重要课题。它的任务形式是引导跟踪器跟踪与语言描述相匹配的对象。目前的研究主要集中在单视图下的多目标跟踪,即一个视图序列或多个不相关的视图序列。然而,在单视图中,某些对象的外观很容易被看不见,从而导致对象与语言描述的匹配不正确。在这项工作中,我们提出了一项新任务,称为跨视图引用多对象跟踪(CRMOT)。它引入了跨视图从多个视图获取对象的外观,避免了RMOT任务中对象外观不可见的问题。 CRMOT是一项更具挑战性的任务,需要准确跟踪与语言描述相匹配的对象,并保持每个交叉视图中对象的身份一致性。为了推进CRMOT任务,我们基于CAMPUS和DIVOTrack数据集构建了一个跨视图引用的多目标跟踪基准,命名为CRTrack。具体来说,它提供了13种不同的场景和221种语言描述。此外,我们提出了一种端到端的跨视图参考多目标跟踪方法,称为CRTracker。 CRTrack 基准上的大量实验验证了我们方法的有效性。数据集和代码可在此 https URL获取。
这篇论文试图解决什么问题?
这篇论文提出了一个新的任务,名为跨视图指代表达多对象跟踪(Cross-view Referring Multi-Object Tracking, CRMOT),旨在解决以下几个问题:
- 单视图多对象跟踪(RMOT)中的遮挡问题:在单视图场景下,由于遮挡等原因,某些对象的外观特征容易被遮挡,导致网络难以正确匹配对象与细粒度的语言描述。
- 对象身份一致性维护问题:在多视图场景下,需要准确跟踪与语言描述匹配的对象,并保持每个视图中对象的身份(ID)一致性,这在技术上更具挑战性。
- 提高跟踪精度和泛化能力:通过引入跨视图信息,论文旨在提高对细粒度语言描述的跟踪精度,并增强模型在未见场景下的泛化能力。
具体来说,论文的主要贡献包括:
- 提出了CRMOT任务,这是一个挑战性的任务,需要准确跟踪与语言描述匹配的对象,并在每个视图中保持对象的身份一致性。
- 构建了一个跨视图指代多对象跟踪基准(CRTrack),包含13个不同场景、82K帧、344个对象和221个语言描述。
- 提出了一个端到端的跨视图指代多对象跟踪方法(CRTracker),并在CRTrack基准上验证了该方法的有效性。
论文如何解决这个问题?
论文通过以下几个步骤来解决提出的问题:
- 提出新任务(CRMOT):
- 论文提出了跨视图指代表达多对象跟踪(CRMOT)任务,该任务通过引入多个视图来获取对象的外观信息,避免单视图中对象外观不可见的问题。
- 构建基准数据集(CRTrack):
- 为了推动CRMOT任务的研究,作者构建了一个基于CAMPUS和DIVOTrack数据集的跨视图指代多对象跟踪基准,名为CRTrack。该基准包括13个不同场景、82K帧、344个对象和221个语言描述。
- 提出新的注释方法:
- 基于对象在整个序列中的不变属性(如服装、手持物品和交通工具)进行注释,使用大型语言模型GPT-4o生成基于对象注释属性的语言描述,并进行人工检查和校正以确保语言描述的准确性。
- 提出评估指标:
- 论文提出了针对CRMOT任务的评估指标CVRIDF1和CVRMA,这些指标可以全面评估每种语言描述的性能。
- 提出端到端跟踪方法(CRTracker):
- 为了解决CRMOT任务的挑战,作者提出了一个端到端的跨视图指代多对象跟踪方法CRTracker。CRTracker结合了CrossMOT的准确多对象跟踪能力和APTM的多模态能力,并设计了一个预测模块,将网络的帧到帧关联结果作为检测结果,融合分数作为置信度,并由预测模块扮演跟踪器的角色。
- 训练和推理框架:
- 论文详细描述了CRTracker的训练和推理框架,包括使用CenterNet作为骨干网络,以及APTM框架进行联合属性提示学习和文本匹配学习。
- 损失函数和优化:
- 论文定义了跨视图多对象跟踪损失Lcmot和指代损失Lr,并结合这些损失来优化模型。
- 实验验证:
- 在CRTrack基准上对CRTracker进行了广泛的实验验证,包括在域内和跨域测试集上评估CRTracker的性能,并与其他方法进行比较。
通过这些步骤,论文不仅提出了一个新的跟踪任务,而且还提供了一个基准数据集、一套评估指标和一个有效的跟踪方法,为跨视图指代表达多对象跟踪领域的发展提供了基础。
论文做了哪些实验?
论文中进行了以下实验来验证所提出方法CRTracker的有效性:
- 数据集划分:
- 将CRTrack基准分为训练集、域内测试集和跨域测试集。
- 量化结果:
- 在CRTrack基准上,将CRTracker与其他方法(TransRMOT和TempRMOT)进行了比较。
- 进行了域内评估和跨域评估,所有方法均使用相同的模型和参数设置。
- 域内评估:在训练集上训练,并在域内测试集上测试。
- 跨域评估:在训练集上训练,并在跨域测试集上测试。
- 性能比较:
- 展示了CRTracker在不同场景下的性能,并与其他方法进行了比较。
- 显示了CRTracker在所有场景中以及特定场景(如“Gate2”)中的CVRIDF1和CVRMA得分。
- 定性结果:
- 展示了CRTracker与其他方法在域内和跨域评估中的可视化结果。
- 结果显示CRTracker能够在多种挑战性场景中准确检测和跟踪与语言描述匹配的对象,并在每个视图中保持同一对象的身份一致性。
- 消融研究:
- 对CRTracker的不同部分进行了消融实验,以研究预测模块的作用。
- 比较了有无预测模块的CRTracker的性能,以展示预测模块对提高跟踪性能的贡献。
- 评估指标验证:
- 使用新提出的评估指标CVRIDF1和CVRMA对CRMOT任务进行了评估。
这些实验全面验证了CRTracker在新提出的CRMOT任务上的有效性和泛化能力,展示了其在不同场景下的性能,并与其他现有方法进行了比较。通过这些实验,论文证明了CRTracker作为一种新的端到端跨视图指代表达多对象跟踪方法的优越性。
论文的主要内容:
这篇论文的主要内容可以总结如下:
- 问题定义:
- 论文提出了一个新的任务,即跨视图指代表达多对象跟踪(CRMOT),旨在解决单视图场景下对象外观信息不可见和对象身份一致性难以维护的问题。
- 数据集构建:
- 作者构建了一个名为CRTrack的跨视图指代多对象跟踪基准数据集,该数据集基于CAMPUS和DIVOTrack数据集,包含13个场景、82K帧、344个对象和221个语言描述。
- 注释方法:
- 提出了一种新的基于对象不变属性的注释方法,利用大型语言模型GPT-4o生成语言描述,并进行人工检查和校正。
- 评估指标:
- 定义了针对CRMOT任务的评估指标CVRIDF1和CVRMA,以全面评估模型性能。
- 方法论:
- 提出了一个端到端的跨视图指代多对象跟踪方法CRTracker,结合了CrossMOT的跟踪能力和APTM的多模态能力,并设计了一个预测模块。
- 实验验证:
- 在CRTrack基准上对CRTracker进行了广泛的实验验证,包括域内和跨域测试,并与其他方法进行了比较。
- 结果分析:
- 实验结果显示CRTracker在CRMOT任务上取得了最先进的性能,并具有良好的泛化能力。
- 贡献总结:
- 论文的主要贡献包括提出了CRMOT任务、构建了CRTrack基准数据集、提出了CRTracker方法,并在新任务上验证了其有效性。
- 未来工作:
- 论文还提出了一些未来可能的研究方向,包括更深层次的语言描述理解、增强模型泛化能力、多模态融合技术、实时跟踪性能优化等。
整体而言,这篇论文为跨视图指代表达多对象跟踪领域提供了新的视角、数据集和方法,推动了该领域的研究进展。