MLNLP
(
机器学习算法与自然语言处理
)是国内外最大的自然语言处理社区之一,受众覆盖国内外NLP硕博生、高校老师以及企业研究人员。

社区的愿景是促进国内外自然语言处理,机器学习学术界、产业界和广大爱好者之间的交流和进步,特别是初学同学们的进步。
6月26日北京时间早上09:05-09:45,麻省理工学院@王柏林为大家带来《Latent Discrete Structures for Sequence Modelling》报告。欢迎大家报名观看。
  报告摘要
序列模型在自然语言处理中有广泛的使用,主要应用任务包括机器翻译,语义分析。当前的序列模型虽然能够在数据分布一致的时候取得很好的泛化能力,但是在分布外的泛化能力非常弱。相比之下,人是可以从很少的数据中实现系统性的泛化能力,即使是对于分布外的数据。在语言处理的传统工作中,引入语法规则是实现系统性泛化很好的解决办法,但是语法规则需要标注,并不适用于实际场景。我们探索如何引入隐结构到序列模型中,让模型能从数据中,端到端地学习到语法规则相似的规律,从而帮助序列模型实现和人更接近的系统性泛化能力。
  讲者介绍
王柏林,麻省理工学院博士后,博士毕业于爱丁堡大学,导师为Ivan和Mirella。主要研究方向为隐变量模型,语义分析,结构化预测,现在的主要研究兴趣是在大型模型中引入结构化信息帮助语言建模。博士期间在国际顶尖会议发表多篇工作。个人主页: https://berlino.github.io/

关于我们

MLNLP(机器学习算法与自然语言处理) 是由国内外自然语言处理学者联合构建的民间学术社区,目前已经发展为国内外最大的自然语言处理社区之一,旗下包括万人顶会交流群、AI臻选汇、AI英才汇以及AI学术汇等知名品牌,旨在促进机器学习,自然语言处理学术界、产业界和广大爱好者之间的进步。
社区可以为相关从业者的深造、就业及研究等方面提供开放交流平台。欢迎大家关注和加入我们。
继续阅读
阅读原文