MLNLP
(
机器学习算法与自然语言处理
)是国内外最大的自然语言处理社区之一,受众覆盖国内外NLP硕博生、高校老师以及企业研究人员。

社区的愿景是促进国内外自然语言处理,机器学习学术界、产业界和广大爱好者之间的交流和进步。
为了方便同学们回顾MLNLP往期研讨会内容,我们会将往期研讨会视频逐步开放上传至bilibili。

目前,第七期研讨会录制视频已在bilibili开放,为方便大家观看,视频已按讲者进行分p,视频链接如下:https://www.bilibili.com/video/BV1vY411u75p
以下是第七期讲者嘉宾的个人信息以及视频简介
唐建
唐建博士,现任加拿大蒙特利尔学习算法研究所 (Mila) 以及蒙特利尔大学商学院助理教授,加拿大人工智能研究主席(CIFAR AI Research Chair);主要研究方向为图表示学习、图神经网络,生成模型、知识图谱,和药物发现。他曾获得 ICML2014最佳论文奖, WWW2016最佳论文提名,Amazon及腾讯教师研究奖等。他是图表示学习领域的代表性人物,发表了图表示学习领域一系列代表性的工作如 LINE、LargeVis、RotatE 等,多次担任 NeurIPS,ICML领域主席。他的团队近期开源了基于机器学习的药物研发系统,受到广泛关注。个人主页:https://www.jian-tang.com
  讲者介绍:黄柯鑫
黄柯鑫,斯坦福大学计算机科学系博士一年级,师从Jure Leskovec教授,哈佛公共卫生学院硕士。研究方向为图机器学习方法以及其在生物医药的应用。曾于Pfizer,Flatiron Health,IQVIA,Rockefeller University,Dana Farber等机构做机器学习研究。相关工作发表于NeurIPS、 Cell Patterns、Bioinformatics 等会议/期刊上,被MIT Technology Reviews等媒体报道。个人主页:https://www.kexinhuang.com/
  报告摘要
近几年来,随着机器学习的不断发展,机器学习技术在生物制药领域的应用正在逐步改变制药行业。本次报告将专注于AI制药这个话题,对如何用机器学习方法来解决有意义的生物医药问题进行探讨。具体地,本次报告将围绕第一个机器学习在生物医药的大规模数据集TDC(Therapeutics Data Commons)来介绍生物医药中多样的数据类型和问题,与其带来的新的机器学习方法上的挑战。
  讲者介绍:史晨策
史晨策,蒙特利尔学习算法研究所(Mila)二年级博士研究生,师从唐建老师。他是北京大学第一届图灵班毕业生。他的主要研究方向包括图表征学习,几何深度学习与图结构预测,以及它们在基础自然学科中的应用。在NeurIPS/ICML/ICLR等会议上发表数篇第一作者论文。个人主页:https://chenceshi.com/
  报告摘要
对称性 (Symmetry) 在物理系统中无处不在。例如,空间平移不变性(动量守恒),分子构象(conformation), 蛋白质(protein)或点云(point cloud)的旋转对称性。在建模物理系统时,赋予深度学习模型这种归纳偏置对于模型的训练和泛化能力都至关重要。本次报告将从物理系统的对称性出发,简单回顾复杂图(如分子,蛋白质)结构预测模型对物理系统对称性的建模。涉及的技术主要包括平移旋转不变的梯度场估计(ConfGF),平移旋转不变的图神经网络(EGNN),以及基于(刚体)相对坐标系的结构建模(AlphaFold2)。
  讲者介绍:王翔
王翔,中国科学技术大学特任教授、博导。2019年于新加坡国立大学取得计算机科学博士学位,师从Chua Tat-Seng教授。研究方向包括信息检索与推荐、数据挖掘、可解释与可信人工智能、图深度学习等,在相关CCF A类国际顶级会议和期刊发表论文50余篇,包括TPAMI、NeurIPS、SIGIR、KDD、CVPR、IEEE S&P等,谷歌学术引用5300余次。在2022年AI 2000人工智能最具影响力学者“信息检索与推荐”领域排名第13。担任众多顶级期刊、会议审稿人与程序委员。个人主页:http://staff.ustc.edu.cn/~xiangwang。
  报告摘要
随着图神经网络(GNN)的日益成功,GNN 的可解释性引起了相当大的关注。作为一种流行的生成事后解释(Post-hoc Explanation)的技术,特征归因将 GNN 的预测分布到输入图的特征上,从而突出显着特征。然而,目前的工作主要集中在统计可解释性上,难以区分输入特征对结果预测的因果影响和非因果影响,并且几乎无法量化特征之间的冗余,从而导致事后解释失真。在本次报告中,王翔将介绍两种新型方案:基于多粒度的类“预训练-精调”事后解释,基于强化学习的“因果筛选”事后解释,并进一步针对事后解释衡量框架的失真性进行探索,引出基于不变学习的内在可解释(Intrinsically Interpretable)图神经网络,不仅可以使得预测透明化,而且还可以增强模型的泛化能力与鲁棒性。
  讲者介绍:郭若城
郭若城,2021年获亚利桑那州立大学(ASU)计算机工程专业博士学位,师从刘欢教授。香港城市大学助理教授。研究方向为因果机器学习,图机器学习,有社会责任的 AI等。他担任过国际期刊TKDE、TKDD、JAIR、TMLR的审稿人,以及ICML、Neurips、ICLR、SIGKDD、WSDM、WWW、 ACL、AAAI、IJCAI、ICWSM等国际学术会议的程序委员。在重要学术期刊ACM CSUR和数据挖掘领域重要国际学术会议SIGKDD、WSDM、IJCAI、ICWSM等发表学术论文30余篇。他曾获ASU杰出计算机科学博士生奖项。个人主页:https://rguo12.github.io/
  报告摘要
如今反事实这个概念在机器学习、自然语言处理、数据挖掘等领域的论文中被反复提及。在本次报告中,我们首先用因果推断的语言介绍什么是反事实。然后介绍图数据上的两个与反事实相关的问题,即反事实推断和反事实公平性。
也欢迎大家关注我们的bilibili账号,MLNLP-World,以查看后续的活动直播以及视频!
第八期研讨会即将在6月26日举行,欢迎大家届时报名参加!

关于我们

MLNLP(机器学习算法与自然语言处理) 是由国内外自然语言处理学者联合构建的民间学术社区,目前已经发展为国内外最大的自然语言处理社区之一,旗下包括万人顶会交流群、AI臻选汇、AI英才汇以及AI学术汇等知名品牌,旨在促进机器学习,自然语言处理学术界、产业界和广大爱好者之间的进步。
社区可以为相关从业者的深造、就业及研究等方面提供开放交流平台。欢迎大家关注和加入我们。
继续阅读
阅读原文