ICML 2023 |
您所在的位置:网站首页 › encoder和decoder的区别 › ICML 2023 |
本文首发于微信公众号 CVHub,严禁私自转载或售卖到其他平台,违者必究。 Title: Contrast with Reconstruct: Contrastive 3D Representation Learning Guided by Generative Pretraining Paper:arxiv.org/abs/2302.02… Code:github.com/qizekun/ReC… 导读本文介绍一下在 3D 表征学习上的新工作,ReCon: Contrast with Reconstruct,通过生成式学习指导对比学习实现高效的3D表征,在ScanObjectNN上实现91.26%的OA,在ModelNet40实现66.8%的Zero-Shot精度,以及多项SOTA,代码已开源。 我们知道,3D点云长期遭受着严重的数据缺乏问题,常用的ModelNet40、ShapeNet数据集仅包含14k与51k的数据,这与2D或图文多模态上动辄14M、300M甚至5B的超大规模数据形成巨大对比。因此,如何在有限的数据上高效的提取3D表征成为我们的研究动机,我们从Generative和Contrastive两大主流的自监督框架入手进行分析。 我们首先研究了MPM(Masked Point Modeling)、CMC(Cross-modal Contrastive)和SMC(Single-modal Contrastive)等预训练方法对Pretrain数据的依赖性,我们在ShapeNet上进行预训练,并在ScanObjectNN上测试迁移性能,结果在图(a)中展示。我们发现: Contrastive方法具有Over-fitting问题当缺乏预训练数据( |
今日新闻 |
推荐新闻 |
CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3 |