MLNLP
(
机器学习算法与自然语言处理
)是国内外最大的自然语言处理社区之一,受众覆盖国内外NLP硕博生、高校老师以及企业研究人员。

社区的愿景是促进国内外自然语言处理,机器学习学术界、产业界和广大爱好者之间的交流和进步,特别是初学同学们的进步。
6月26日北京时间早上10:25-11:05,UMass Amherst@李响为大家带来《语言中的概率常识知识》报告。欢迎大家报名观看。
  报告摘要
理解常识知识对于实现通用人工智能至关重要。这种共享的常识背景知识存在在所有人类交流中,从而促进了我们有效的信息交流和理解。然而,此类知识量大且复杂,因此,不可能进行明确的分类以及学习。另外,常识知识更是概率性的,比如,水管工可以修理水槽,而水槽的位置可以在厨房或浴室。此类常识知识给背景提供了一个可能的假设,而不是一个确定的答案。因此,为了从根本上与常识知识的属性保持一致,我们希望使用概率模型对这些知识进行建模和评估。此次演讲,我将介绍一个概率模型,该模型使用box embedding来表示常识知识。此类box embedding的使用给我们提供了可以以类似于维恩图推理的方式处理带有交集、并集和否定的常识查询。同时,现有的评估系统并不能反映常识知识的概率性质。为了填补这一空白,我将讨论一种通过人工标注获得与常识理解相关的问题答案分布的方法。进而,我们在两个新的常识数据集ProtoQA与CFC中使用这些评估方法,揭示了目前的语言模型仍旧需要在常识理解方向得到提高。
  讲者介绍
李响,现为UMass Amherst计算机系博士生,导师Andrew McCallum。她将于2022年8月毕业加入AI2与Yejin Choi进行为期一年的博后研究。2023年9月,她将作为助理教授加入匹兹堡大学(UPitt)计算机系。此前,她在芝加哥大学获得了计算机硕士学位,同时在 TTIC 进行研究。博士期间,她曾在Google AI, Meta AI 以及DeepMind等公司担任研究实习生。她的论文曾被选为ICLR 2019 spotlight。她的研究方向涉及自然语言处理、常识推理、知识表示和机器学习。她的研究重点是为语言中的隐含常识知识设计概率模型和评估方法。她曾多次担任自然语言处理领域学术会议(ACL/EMNLP/NAACL/ARR etc)审稿人,并组织相关领域workshop。2023年她将招收全奖博士生,欢迎感兴趣的同学联系。个人主页:https://people.cs.umass.edu/~xiangl/
  会议报名
会议报名还可以直接扫描下方二维码添加小助手微信进行报名,备注 单位-昵称-方向 (例如: 清华-张三-对话系统),小助手通过报名并会把你拉进交流群。 会议的观看地址等信息都会在群里通知。 已经加入MLNLP交流群的同学请 不要重复添加 
扫描二维码添加小助手微信

关于我们

MLNLP(机器学习算法与自然语言处理) 是由国内外自然语言处理学者联合构建的民间学术社区,目前已经发展为国内外最大的自然语言处理社区之一,旗下包括万人顶会交流群、AI臻选汇、AI英才汇以及AI学术汇等知名品牌,旨在促进机器学习,自然语言处理学术界、产业界和广大爱好者之间的进步。
社区可以为相关从业者的深造、就业及研究等方面提供开放交流平台。欢迎大家关注和加入我们。
继续阅读
阅读原文