MLNLP
(
机器学习算法与自然语言处理
)是国内外最大的自然语言处理社区之一,受众覆盖国内外NLP硕博生、高校老师以及企业研究人员。

社区的愿景是促进国内外自然语言处理,机器学习学术界、产业界和广大爱好者之间的交流和进步。
为了方便同学们回顾MLNLP往期研讨会内容,我们会将往期研讨会视频逐步开放上传至bilibili。

目前,第八期研讨会录制视频已在bilibili开放,为方便大家观看,视频已按讲者进行分p,视频链接如下:https://www.bilibili.com/video/BV13B4y1q7dS
以下是第八期讲者嘉宾的个人信息以及视频简介
  大会主席:魏忠钰
魏忠钰
魏忠钰,复旦大学大数据学院副教授,智能复杂体系实验室双聘研究员,博士生导师,复旦大学数据智能与社会计算实验室(Fudan DISC)负责人,复旦-中电金信智能金融科技联合研究中心主任,香港中文大学博士,美国德州大学达拉斯分校博士后。现任中文信息学会情感计算专委会副秘书长,社交媒体处理专委会常务委员兼秘书,青年工作委员会副主任。在自然语言处理、人工智能领域的国际会议、期刊如CL,ACL,SIGIR,EMNLP,ICML, ICLR, AAAI,IJCAI等发表学术论文70余篇。担任多个重要国际会议及期刊评审,是EMNLP 2020 多模态领域主席,EMNLP 2021 论辩挖掘与情感计算领域主席。曾获得2019年度中国中文信息学会社会媒体处理新锐奖,2020年度华为技术优秀成果奖,2021年上海市启明星计划,复旦大学2021年青年教师教学竞赛一等奖,2022届本科生毕业生“我心目中的好老师”提名奖等。
  讲者介绍:王柏林
王柏林,麻省理工学院博士后,博士毕业于爱丁堡大学,导师为Ivan和Mirella。主要研究方向为隐变量模型,语义分析,结构化预测,现在的主要研究兴趣是在大型模型中引入结构化信息帮助语言建模。博士期间在国际顶尖会议发表多篇工作。个人主页: https://berlino.github.io/
  报告摘要
序列模型在自然语言处理中有广泛的使用,主要应用任务包括机器翻译,语义分析。当前的序列模型虽然能够在数据分布一致的时候取得很好的泛化能力,但是在分布外的泛化能力非常弱。相比之下,人是可以从很少的数据中实现系统性的泛化能力,即使是对于分布外的数据。在语言处理的传统工作中,引入语法规则是实现系统性泛化很好的解决办法,但是语法规则需要标注,并不适用于实际场景。我们探索如何引入隐结构到序列模型中,让模型能从数据中,端到端地学习到语法规则相似的规律,从而帮助序列模型实现和人更接近的系统性泛化能力。
  讲者介绍:胡俊杰
胡俊杰,终身制助理教授,现任职于威斯康星麦迪逊分校生物统计系和计算机系,博士毕业于卡耐基梅隆大学计算机学院的语言技术研究所。他目前的研究方向集中在自然语言处理和机器学习。具体研究课题包括(1)多语言模型及其在机器翻译、问答及多语言对话系统中的应用;(2)统计机器学习算法及深度学习模型在不同数据分布下的泛化能力;(3)多模态机器学习,用于提高自然语言认知。他在博士期间获得NAACL 2019 最佳展示论文提名,曾在微软北美研究院、谷歌研究院实习工作。其研究成果获得多家媒体报道,其中包括Google/Facebook AI blog,VentureBeat,Slator,Wired等。个人主页:https://junjiehu.github.io/
  报告摘要
在过去十年中,自然语言处理系统的巨大成功主要是由深度神经网络和对大量标记数据的监督机器学习方法驱动的。然而,在所有可能的现实世界场景下对数据进行注释是不可行的。因此,在处理不同语言的复杂文本数据或者与其他模态相关联的数据时,这些系统在实践中的准确度可能会严重下降。在本次演讲中,我将介绍用于扩展自然语言处理系统在跨语言学习下的泛化能力。首先,我将介绍一种用于学习单词和句子的多语言表征的训练方法,并在 XTREME 上演示其跨语言泛化能力。其次,我将介绍我们在跨语言情景下自然语言处理系统在对话和翻译上的应用。最后,我将通过概述我在人工智能、自然语言处理和数据科学等领域的研究计划来结束本次演讲。
  讲者介绍:李响
李响,现为UMass Amherst计算机系博士生,导师Andrew McCallum。她将于2022年8月毕业加入AI2与Yejin Choi进行为期一年的博后研究。2023年9月,她将作为助理教授加入匹兹堡大学(UPitt)计算机系。此前,她在芝加哥大学获得了计算机硕士学位,同时在 TTIC 进行研究。博士期间,她曾在Google AI, Meta AI 以及DeepMind等公司担任研究实习生。她的论文曾被选为ICLR 2019 spotlight。她的研究方向涉及自然语言处理、常识推理、知识表示和机器学习。她的研究重点是为语言中的隐含常识知识设计概率模型和评估方法。她曾多次担任自然语言处理领域学术会议(ACL/EMNLP/NAACL/ARR etc)审稿人,并组织相关领域workshop。2023年她将招收全奖博士生,欢迎感兴趣的同学联系。个人主页:https://people.cs.umass.edu/~xiangl/
  报告摘要
理解常识知识对于实现通用人工智能至关重要。这种共享的常识背景知识存在在所有人类交流中,从而促进了我们有效的信息交流和理解。然而,此类知识量大且复杂,因此,不可能进行明确的分类以及学习。另外,常识知识更是概率性的,比如,水管工可以修理水槽,而水槽的位置可以在厨房或浴室。此类常识知识给背景提供了一个可能的假设,而不是一个确定的答案。因此,为了从根本上与常识知识的属性保持一致,我们希望使用概率模型对这些知识进行建模和评估。此次演讲,我将介绍一个概率模型,该模型使用box embedding来表示常识知识。此类box embedding的使用给我们提供了可以以类似于维恩图推理的方式处理带有交集、并集和否定的常识查询。同时,现有的评估系统并不能反映常识知识的概率性质。为了填补这一空白,我将讨论一种通过人工标注获得与常识理解相关的问题答案分布的方法。进而,我们在两个新的常识数据集ProtoQA与CFC中使用这些评估方法,揭示了目前的语言模型仍旧需要在常识理解方向得到提高。
  讲者介绍:李涛
李涛,犹他大学计算学 (Computing) 硕士/博士。师从Vivek Srikumar。现在在谷歌研究院(Google Research)研究工程师(Research Engineer)研究方向为计算语言学和机器学习,以及人机交互应用场景中的问题。曾于Philips Research, Amazon, 和AI2做相关研究。在ACL/EMNLP/AAAI/NeurIPS等会议发表过论文。个人主页:https://www.cs.utah.edu/~tli/
  报告摘要
现代的神经网络学习和评估需要大量标注数据来达到高精确度的分类。然而,逻辑约束广泛存在在自然语言处理的知识表达中,可以用来提升数据的利用率。本次报告重点描述一个简单且通用的框架,用来引入逻辑约束到神学网络的学习和评估中。
也欢迎大家关注我们的bilibili账号,MLNLP-World,以查看后续的活动直播以及视频!
第九期研讨会即将在7月31日举行,欢迎大家届时报名参加!

关于我们

MLNLP(机器学习算法与自然语言处理) 是由国内外自然语言处理学者联合构建的民间学术社区,目前已经发展为国内外最大的自然语言处理社区之一,旗下包括万人顶会交流群、AI臻选汇、AI英才汇以及AI学术汇等知名品牌,旨在促进机器学习,自然语言处理学术界、产业界和广大爱好者之间的进步。
社区可以为相关从业者的深造、就业及研究等方面提供开放交流平台。欢迎大家关注和加入我们。
继续阅读
阅读原文