对比学习领域近期必读的 5 篇论文 | 本周值得读 Vol.01
关于 #本周值得读
这是「AI 学术前沿」旗下的一档栏目。在碎片化阅读充斥眼球的时代,越来越少的人会去关注每篇论文背后的探索和思考。在这个栏目里,你会快速 get 每篇精选论文的亮点和痛点,时刻紧跟 AI 前沿成果。接下来,「本周值得读」将会每周不定期发布。
Vol.01 对比学习
论文速览
- CLINE:如何利用对比学习提高模型的鲁棒性
- CLSA:对比学习如何高效利用数据增强
- SG-BERT:利用对比学习来改进预训练模型的句子表示
- Survey:对比自监督学习综述文章
SCCL:基于对比学习的端到端无监督聚类方法
CLINE
如何利用对比学习提高模型的鲁棒性
论文标题:
https://www.paperweekly.site/papers/5496
代码链接:
https://github.com/kandorm/CLINE
CLSA
论文标题:
Contrastive Learning with Stronger Augmentations
本文是关于对比学习如何高效利用数据增强的一个工作。对比学习中非常核心的一个观点就是如何做正负采样,现有正采样的方法是通过一个数据增强的方法进行,例如图像中的旋转,缩放,裁剪等,负采样一般是使用同一批次中的其他样本。
在本文中,作者对正采样进行了深入研究,作者认为现有的正采样数据增强方法都是 weakly augmentations,即弱增强。不仅理论上,监督和半监督学习已经证明更强的数据增强方式能够提升模型效果,而且能够帮助模型学习的新的模式。但是直接将强增强放到对比学习中,反而会造成模型效果的下降。通过深入研究,作者发现,强增强在一定程度上会改变图像的原有结构和一些信息,这些不一致性会导致模型效果的下降,为了解决这个问题,作者设计了一个全新的分布离散度 loss。
首先,作者将对比损失改写,变成了正例的分布离散度和负例的分布离散度与理想的正负例离散度的交叉熵损失。但事实上理想的正负例分布离散度是无法获取的,目前的对比损失是直接将正例的定为 1,负例为 0,但这种明显会丢失很多信息。而作者另辟蹊径,既然理想的无法获得,那么就不用理想的正负例分布离散度,而是用弱增强的分布离散度去监督强增强的分布离散度,通过这种方式实现对强数据增强的充分利用,进而提升模型的效果。这点还是很有意思的,值得深入研究。
SG-BERT
论文标题:
https://www.paperweekly.site/papers/5425
Survey
论文标题:
https://www.paperweekly.site/papers/5005
SCCL
基于对比学习的端到端无监督聚类方法
论文标题:
https://www.paperweekly.site/papers/5175
代码链接:
https://github.com/amazon-research/sccl
关键词
方法
预训练
监督学习
对比学习
聚类
最新评论
推荐文章
作者最新文章
你可能感兴趣的文章
Copyright Disclaimer: The copyright of contents (including texts, images, videos and audios) posted above belong to the User who shared or the third-party website which the User shared from. If you found your copyright have been infringed, please send a DMCA takedown notice to [email protected]. For more detail of the source, please click on the button "Read Original Post" below. For other communications, please send to [email protected].
版权声明:以上内容为用户推荐收藏至CareerEngine平台,其内容(含文字、图片、视频、音频等)及知识版权均属用户或用户转发自的第三方网站,如涉嫌侵权,请通知[email protected]进行信息删除。如需查看信息来源,请点击“查看原文”。如需洽谈其它事宜,请联系[email protected]。
版权声明:以上内容为用户推荐收藏至CareerEngine平台,其内容(含文字、图片、视频、音频等)及知识版权均属用户或用户转发自的第三方网站,如涉嫌侵权,请通知[email protected]进行信息删除。如需查看信息来源,请点击“查看原文”。如需洽谈其它事宜,请联系[email protected]。