MLNLP B站官方账号更新第八期研讨会视频!
(
机器学习算法与自然语言处理)是国内外最大的自然语言处理社区之一,受众覆盖国内外NLP硕博生、高校老师以及企业研究人员。
为了方便同学们回顾MLNLP往期研讨会内容,我们会将往期研讨会视频逐步开放上传至bilibili。
目前,第八期研讨会录制视频已在bilibili开放,为方便大家观看,视频已按讲者进行分p,视频链接如下:https://www.bilibili.com/video/BV13B4y1q7dS
以下是第八期讲者嘉宾的个人信息以及视频简介
大会主席:魏忠钰
魏忠钰
讲者介绍:王柏林
王柏林,麻省理工学院博士后,博士毕业于爱丁堡大学,导师为Ivan和Mirella。主要研究方向为隐变量模型,语义分析,结构化预测,现在的主要研究兴趣是在大型模型中引入结构化信息帮助语言建模。博士期间在国际顶尖会议发表多篇工作。个人主页: https://berlino.github.io/
报告摘要
序列模型在自然语言处理中有广泛的使用,主要应用任务包括机器翻译,语义分析。当前的序列模型虽然能够在数据分布一致的时候取得很好的泛化能力,但是在分布外的泛化能力非常弱。相比之下,人是可以从很少的数据中实现系统性的泛化能力,即使是对于分布外的数据。在语言处理的传统工作中,引入语法规则是实现系统性泛化很好的解决办法,但是语法规则需要标注,并不适用于实际场景。我们探索如何引入隐结构到序列模型中,让模型能从数据中,端到端地学习到语法规则相似的规律,从而帮助序列模型实现和人更接近的系统性泛化能力。
讲者介绍:胡俊杰
胡俊杰,终身制助理教授,现任职于威斯康星麦迪逊分校生物统计系和计算机系,博士毕业于卡耐基梅隆大学计算机学院的语言技术研究所。他目前的研究方向集中在自然语言处理和机器学习。具体研究课题包括(1)多语言模型及其在机器翻译、问答及多语言对话系统中的应用;(2)统计机器学习算法及深度学习模型在不同数据分布下的泛化能力;(3)多模态机器学习,用于提高自然语言认知。他在博士期间获得NAACL 2019 最佳展示论文提名,曾在微软北美研究院、谷歌研究院实习工作。其研究成果获得多家媒体报道,其中包括Google/Facebook AI blog,VentureBeat,Slator,Wired等。个人主页:https://junjiehu.github.io/
报告摘要
在过去十年中,自然语言处理系统的巨大成功主要是由深度神经网络和对大量标记数据的监督机器学习方法驱动的。然而,在所有可能的现实世界场景下对数据进行注释是不可行的。因此,在处理不同语言的复杂文本数据或者与其他模态相关联的数据时,这些系统在实践中的准确度可能会严重下降。在本次演讲中,我将介绍用于扩展自然语言处理系统在跨语言学习下的泛化能力。首先,我将介绍一种用于学习单词和句子的多语言表征的训练方法,并在 XTREME 上演示其跨语言泛化能力。其次,我将介绍我们在跨语言情景下自然语言处理系统在对话和翻译上的应用。最后,我将通过概述我在人工智能、自然语言处理和数据科学等领域的研究计划来结束本次演讲。
讲者介绍:李响
李响,现为UMass Amherst计算机系博士生,导师Andrew McCallum。她将于2022年8月毕业加入AI2与Yejin Choi进行为期一年的博后研究。2023年9月,她将作为助理教授加入匹兹堡大学(UPitt)计算机系。此前,她在芝加哥大学获得了计算机硕士学位,同时在 TTIC 进行研究。博士期间,她曾在Google AI, Meta AI 以及DeepMind等公司担任研究实习生。她的论文曾被选为ICLR 2019 spotlight。她的研究方向涉及自然语言处理、常识推理、知识表示和机器学习。她的研究重点是为语言中的隐含常识知识设计概率模型和评估方法。她曾多次担任自然语言处理领域学术会议(ACL/EMNLP/NAACL/ARR etc)审稿人,并组织相关领域workshop。2023年她将招收全奖博士生,欢迎感兴趣的同学联系。个人主页:https://people.cs.umass.edu/~xiangl/
报告摘要
理解常识知识对于实现通用人工智能至关重要。这种共享的常识背景知识存在在所有人类交流中,从而促进了我们有效的信息交流和理解。然而,此类知识量大且复杂,因此,不可能进行明确的分类以及学习。另外,常识知识更是概率性的,比如,水管工可以修理水槽,而水槽的位置可以在厨房或浴室。此类常识知识给背景提供了一个可能的假设,而不是一个确定的答案。因此,为了从根本上与常识知识的属性保持一致,我们希望使用概率模型对这些知识进行建模和评估。此次演讲,我将介绍一个概率模型,该模型使用box embedding来表示常识知识。此类box embedding的使用给我们提供了可以以类似于维恩图推理的方式处理带有交集、并集和否定的常识查询。同时,现有的评估系统并不能反映常识知识的概率性质。为了填补这一空白,我将讨论一种通过人工标注获得与常识理解相关的问题答案分布的方法。进而,我们在两个新的常识数据集ProtoQA与CFC中使用这些评估方法,揭示了目前的语言模型仍旧需要在常识理解方向得到提高。
讲者介绍:李涛
李涛,犹他大学计算学 (Computing) 硕士/博士。师从Vivek Srikumar。现在在谷歌研究院(Google Research)研究工程师(Research Engineer)研究方向为计算语言学和机器学习,以及人机交互应用场景中的问题。曾于Philips Research, Amazon, 和AI2做相关研究。在ACL/EMNLP/AAAI/NeurIPS等会议发表过论文。个人主页:https://www.cs.utah.edu/~tli/
报告摘要
现代的神经网络学习和评估需要大量标注数据来达到高精确度的分类。然而,逻辑约束广泛存在在自然语言处理的知识表达中,可以用来提升数据的利用率。本次报告重点描述一个简单且通用的框架,用来引入逻辑约束到神学网络的学习和评估中。
也欢迎大家关注我们的bilibili账号,MLNLP-World,以查看后续的活动直播以及视频!
第九期研讨会即将在7月31日举行,欢迎大家届时报名参加!
关于我们
关键词
自然语言处理
数据
中文信息学会
智能
期刊
最新评论
推荐文章
作者最新文章
你可能感兴趣的文章
Copyright Disclaimer: The copyright of contents (including texts, images, videos and audios) posted above belong to the User who shared or the third-party website which the User shared from. If you found your copyright have been infringed, please send a DMCA takedown notice to [email protected]. For more detail of the source, please click on the button "Read Original Post" below. For other communications, please send to [email protected].
版权声明:以上内容为用户推荐收藏至CareerEngine平台,其内容(含文字、图片、视频、音频等)及知识版权均属用户或用户转发自的第三方网站,如涉嫌侵权,请通知[email protected]进行信息删除。如需查看信息来源,请点击“查看原文”。如需洽谈其它事宜,请联系[email protected]。
版权声明:以上内容为用户推荐收藏至CareerEngine平台,其内容(含文字、图片、视频、音频等)及知识版权均属用户或用户转发自的第三方网站,如涉嫌侵权,请通知[email protected]进行信息删除。如需查看信息来源,请点击“查看原文”。如需洽谈其它事宜,请联系[email protected]。