犹他大学@李涛:《逻辑约束和神经学习的数据利用率问题》
(
机器学习算法与自然语言处理)是国内外最大的自然语言处理社区之一,受众覆盖国内外NLP硕博生、高校老师以及企业研究人员。
6月26日北京时间早上11:05-11:45,犹他大学@李涛为大家带来《逻辑约束和神经学习的数据利用率问题》报告。欢迎大家报名观看。
报告摘要
现代的神经网络学习和评估需要大量标注数据来达到高精确度的分类。然而,逻辑约束广泛存在在自然语言处理的知识表达中,可以用来提升数据的利用率。本次报告重点描述一个简单且通用的框架,用来引入逻辑约束到神学网络的学习和评估中。
讲者介绍
李涛,犹他大学计算学 (Computing) 硕士/博士。师从Vivek Srikumar。现在在谷歌研究院(Google Research)研究工程师(Research Engineer)研究方向为计算语言学和机器学习,以及人机交互应用场景中的问题。曾于Philips Research, Amazon, 和AI2做相关研究。在ACL/EMNLP/AAAI/NeurIPS等会议发表过论文。个人主页:https://www.cs.utah.edu/~tli/
会议报名
会议报名还可以直接扫描下方二维码添加小助手微信进行报名,备注 单位-昵称-方向 (例如: 清华-张三-对话系统),小助手通过报名并会把你拉进交流群。 会议的观看地址等信息都会在群里通知。 已经加入MLNLP交流群的同学请 不要重复添加 !
扫描二维码添加小助手微信
关于我们
最新评论
推荐文章
作者最新文章
你可能感兴趣的文章
Copyright Disclaimer: The copyright of contents (including texts, images, videos and audios) posted above belong to the User who shared or the third-party website which the User shared from. If you found your copyright have been infringed, please send a DMCA takedown notice to [email protected]. For more detail of the source, please click on the button "Read Original Post" below. For other communications, please send to [email protected].
版权声明:以上内容为用户推荐收藏至CareerEngine平台,其内容(含文字、图片、视频、音频等)及知识版权均属用户或用户转发自的第三方网站,如涉嫌侵权,请通知[email protected]进行信息删除。如需查看信息来源,请点击“查看原文”。如需洽谈其它事宜,请联系[email protected]。
版权声明:以上内容为用户推荐收藏至CareerEngine平台,其内容(含文字、图片、视频、音频等)及知识版权均属用户或用户转发自的第三方网站,如涉嫌侵权,请通知[email protected]进行信息删除。如需查看信息来源,请点击“查看原文”。如需洽谈其它事宜,请联系[email protected]。