(本文阅读时间:5分钟)
人工智能国际顶级会议 NeurIPS 2023 于12月16日圆满结束,我们即刻为大家策划了微软亚洲研究院入选本届大会的精选人气论文直播!在此前的文章中,我们为大家解读了涉及文本属性图、语音编辑、分子建模、脑电信号处理、文档索引、扩散模型泛化、文本渲染等多个领域的精选论文。结合文章末尾的投票结果,我们特别邀请了三位论文作者进行深度且独家的论文分享,快来看看你 pick 的论文吧!
三位论文作者将于12月20日(本周三)14:00在微信视频号“微软亚洲研究院”与“微软科技”的 B 站直播间带来精彩的主题报告,与大家共话人工智能和机器学习研究的最新趋势和未来发展!
在每篇论文的分享过程中,欢迎参与弹幕或评论区互动,提出问题,讲者将在分享结束后亲自为你答疑解惑!
直播信息
直播时间:
2023年12月20日14:00-15:30
直播地址:
B 站账号“微软科技”直播间
微信视频号“微软亚洲研究院
论文及讲者介绍
陈竞晔
香港科技大学
在读博士
陈竞晔,就读于香港科技大学,目前为微软亚洲研究院的自然语言计算组实习生。以第一作者的身份于 NeurIPS、CVPR、AAAI 和 IJCAI 等国际著名会议上发表多项研究成果,其中 TextDiffuser 曾荣登 HuggingFace Space 趋势榜前十。
论文题目:
TextDiffuser:让文本渲染不再成为扩散模型的难题
TextDiffuser: Diffusion Models as Text Painters
论文摘要:
TextDiffuser 系列专注于解决扩散模型无法准确渲染视觉文本的难题。现如今即使是较强的扩散模型,渲染文本能力依旧较弱。TextDiffuser 系列通过文本分割网络与大语言模型提供的显式视觉文本信息引导扩散模型,大幅度提升文本渲染的准确率。 
TextDiffuse论文链接:
https://openreview.net/pdf?id=ke3RgcDmfO
TextDiffuser-2 论文链接:
https://arxiv.org/pdf/2311.16465v1.pdf
李忠
微软亚洲研究院
研究员
李忠,微软亚洲研究院机器学习组和理论中心研究员。博士毕业于北京大学数学科学学院,师从鄂维南院士。研究方向为深度学习的数学理论,包括神经网络的逼近、优化与泛化理论,扩散模型和大语言模型的数学原理与数据效率。 
论文题目:
关于扩散模型的泛化性质
On the Generalization Properties of Diffusion Models
论文摘要:
微软亚洲研究院的研究员们从理论和实验两方面证明了,当未知目标分布 (1) 具有紧支集时,扩散模型的泛化误差多项式小地依赖于数据量和模型容量;(2) 具有远距离的聚类中心时,利用扩散模型做密度估计、训练和样本生成将变得更困难。
论文链接:
https://openreview.net/pdf?id=hCUG1MCFk5
王延森
微软亚洲研究院
研究员
王延森,微软亚洲研究院人工智能与机器学习组(上海)研究员,硕士毕业于卡耐基梅隆大学(Carnegie Mellon University),师从Carolyn P. Rosé教授。研究方向为时序信号处理、脑电信号分析及其他人工智能与神经科学的跨学科研究。 
论文题目:
通过建模空间信息学习拓扑不变的脑电表征
Learning Topology-Agnostic EEG Representations with Geometry-Aware Modeling
论文摘要:
微软亚洲研究院的研究员们通过提出 MMM 这一脑电预训练框架,解决了在进行预训练时脑电数据间因导联组合不一致带来的数据不可利用,模型不可迁移问题,并在此基础上进行了大规模跨数据集的脑电预训练,得到了脑电领域第一个基础模型。 
论文链接:
https://openreview.net/forum?id=hiOUySN0ub
日程安排
14:00-14:30
论文题目:
TextDiffuser:让文本渲染不再成为扩散模型的难题
分享者:
陈竞晔
14:20-14:40
论文题目:
关于扩散模型的泛化性质
分享者:
李忠
14:40-15:00
论文题目:
通过建模空间信息学习拓扑不变的脑电表征
分享者:
王延森
锁定微信视频号与 B 站直播间,明天与你不见不散!
你也许还想看
继续阅读
阅读原文