ICML 2023

您所在的位置:网站首页 encoder和decoder的区别 ICML 2023

ICML 2023

2023-06-17 23:49| 来源: 网络整理| 查看: 265

本文首发于微信公众号 CVHub,严禁私自转载或售卖到其他平台,违者必究。

Title: Contrast with Reconstruct: Contrastive 3D Representation Learning Guided by Generative Pretraining Paper:arxiv.org/abs/2302.02… Code:github.com/qizekun/ReC…

导读

本文介绍一下在 3D 表征学习上的新工作,ReCon: Contrast with Reconstruct,通过生成式学习指导对比学习实现高效的3D表征,在ScanObjectNN上实现91.26%的OA,在ModelNet40实现66.8%的Zero-Shot精度,以及多项SOTA,代码已开源。

引言

我们知道,3D点云长期遭受着严重的数据缺乏问题,常用的ModelNet40、ShapeNet数据集仅包含14k与51k的数据,这与2D或图文多模态上动辄14M、300M甚至5B的超大规模数据形成巨大对比。因此,如何在有限的数据上高效的提取3D表征成为我们的研究动机,我们从Generative和Contrastive两大主流的自监督框架入手进行分析。

我们首先研究了MPM(Masked Point Modeling)、CMC(Cross-modal Contrastive)和SMC(Single-modal Contrastive)等预训练方法对Pretrain数据的依赖性,我们在ShapeNet上进行预训练,并在ScanObjectNN上测试迁移性能,结果在图(a)中展示。我们发现:

Contrastive方法具有Over-fitting问题

当缺乏预训练数据(



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3