来自:机器之心
编辑:陈萍
今年整体接收率为 31.8%,你的论文出现在列表中了吗?
深度学习顶级学术会议 ICLR 2023 录用结果已经公布!论文接收的完整列表已经在 OpenReview 平台上公开
点击这里进群—>加入NLP交流群
ICLR 2022 完整论文列表:https://openreview.net/group?id=ICLR.cc/2023/Conference#notable-top-5-
ICLR 全称为国际学习表征会议(International Conference on Learning Representations),今年将举办的是第十一届,预计将于 5 月 1 日至 5 日在卢旺达首都基加利线下举办。
在机器学习社区中,ICLR 是较为「年轻」的学术会议,它由深度学习巨头、图灵奖获得者 Yoshua Bengio 和 Yann LeCun 牵头举办,2013 年才刚刚举办第一届。不过 ICLR 很快就获得了学术研究者们的广泛认可,被认为是深度学习的顶级会议。在 Google Scholar 的学术会议 / 杂志排名中,ICLR 目前排名第十位,要高于 NeurIPS。
在今年的接收统计中, ICLR 共接收近 5000 篇投稿,整体接收率为 31.8%,接近于去年的 32.26%。今年还有一个变化是接收论文的 tag 会有两个,一个是论文类型(oral、spotlight、poster),另一个是 presentation 的方式
位于 top5% 论文内容涉及 Transformer、in-context learning、扩散模型等内容。
top5% 论文列表截图
论文接收列表一放出,在推特上引起了热烈讨论。
斯坦福大学计算机科学博士 Dan Fu 表示自己参与的论文中了 spotlight,他还谈到,大家都在议论 Attention is all you need,但没有人给出到底需要多少层 Attention?在这篇论文中,他们提出了一个新的生成语言模型 H3,其性能优于 GPT-Neo-2.7B,只需要 2 个 Attention 层。
KAIST AI(韩国电信公司与韩国科学技术院合作成立的 AI 研发机构)表示,他们总共有 24 篇论文被 ICLR 2023 录取,包括 9 篇 Spotlights。
除此以外,Salesforce AI Research 也有多篇论文被接收。
在本次接收名单中,马毅教授、Yann LeCun 等人合作撰写的文章《Minimalistic Unsupervised Learning with the Sparse Manifold Transform》也被接收,除此以外,马毅教授参与的另一篇关于增量学习论文也在接收列表中。
最近一段时间,生成模型发展迅速,随之而来的风险也在增加,谷歌一篇关于大型语言模型如何更好的向用户显示输出的研究也被接收:
很多网友都在推特上分享了论文被接收的喜悦,没有中的小伙伴也不要灰心,争取在接下来的顶会上有所斩获。
参考链接:https://twitter.com/search?q=ICLR%202023&src=typed_query&f=top

点击这里进群—>加入NLP交流群
继续阅读
阅读原文