Touch100k数据集是北京交通大学联合腾讯微信AI团队及北京邮电大学构建的一个大规模触觉-语言-视觉多模态数据集。该数据集包含了10万个与触觉、视觉和语言描述相关联的样本,这些样本描述了不同粒度的触觉感受,比如句子级别的自然表达和短语级别的关键特征描述。研究人员首先从公开的触觉数据集中收集和整理了视觉-触觉观察结果,然后使用GPT-4V生成了多粒度的文本描述,并通过多步骤的质量增强过程确保了数据的准确性和实用性。Touch100k数据集以其丰富的触觉感知描述,为机器人学和人工智能领域提供了宝贵的资源。
详情请参见五号雷达:https://www.5radar.com/dataset?id=1799010657012625409
领取专属 10元无门槛券
私享最新 技术干货