第16届中国R会议暨2023X-AGI大会将于2023年11月25-30日在中国人民大学召开,本次会议由中国人民大学统计学院、中国人民大学应用统计科学研究中心、统计之都、原灵科技和中国商业统计学会人工智能分会(筹)主办,由中国人民大学统计学院数据科学与大数据统计系承办,得到宽德投资、明汯投资、和鲸科技、子博设计赞助支持,将以线上会议和线下会议相结合的方式举办。
欢迎进入中国R会议暨2023X-AGI大会官网,获取更多会议信息!
  • 链接:https://china-r.cosx.org/bj2023/index.html
  • 更多详情:统计之都公众号菜单栏点击“最新活动”->“最新R会”
下面为您奉上本次中国R会议暨2023X-AGI大会具身智能专场演讲介绍,本会场主席为许华哲。

具身智能专场

时间:2023年11月25日 下午13:30-15:00
会议地点
  • 线下:中国人民大学立德楼807
  • 线上:点击阅读原文或扫描下方二维码

会场内容介绍

面向交互的四维视觉理解与生成
弋力
个人简介:
弋力博士,现任清华大学交叉信息研究院助理教授。他在斯坦福大学取得博士学位,导师为Leonidas J. Guibas教授,毕业后在谷歌研究院任研究科学家。在此之前,他在清华大学电子工程系取得了学士学位。他近期的研究兴趣涵盖三维视觉和具身人工智能,他的研究目标是使智能机器人具备理解三维世界并与之互动的能力。他在计算机视觉、计算机图形学以及机器学习领域的顶级会议发表论文五十余篇,并担任CVPR 2022、CVPR 2023、IJCAI 2023、NeurIPS 2023领域主席。他的工作在领域内得到广泛关注,引用数18000+,代表作品包括ShapeNet Part,光谱图CNN,PointNet++等。
报告摘要:
过去几年里,静态三维场景感知取得了巨大进步。然而仅感知三维静态场景通常无法满足智能体与环境交互的需求。一方面,智能体需要对四维动态场景进行感知并与之交互,尤其当此类动态变化来自人与智能体的交互。另一方面,为了支持智能体更好的处理此类动态交互,也需要在虚拟世界中复现人与场景的动态交互。这些都对当今的三维计算机视觉系统提出了巨大挑战。在这次报告中,我将从四维数据集构建、四维深度视觉理解和面向交互的视觉合成这三个方面重点介绍课题组近期在智能体交互与感知方面所做的努力。
Visual and Tactile Sim2Real^2 for Embodied AI
陈睿
个人简介:
陈睿,博士,清华大学机械系助理研究员,主要研究方向为三维视觉、触觉感知、智能制造、智能机器人,于清华大学获得学士学位和博士学位,入选博士后创新人才支持计划和清华大学“水木学者”计划,承担国自然青年基金,在TRO/TPAMI/TMECH/CVPR/ICCV/ICRA等SCI期刊与国际会议发表学术论文二十余篇,已授权发明专利5项。
报告摘要:
Visual sensing and tactile sensing are the two most important sensory methods for humans to percept and interact with the environment. Visual sensing provides global geometric and semantic information of the environment, while tactile sensing provides local geometric information and contact force information during interactions. How to effectively utilize these two different yet complementary sensory signals to enhance the interactive ability of intelligent robots in real environments is a cutting-edge problem for both academia and industry. This talk will introduce the speaker’s recent progress in this direction, which mainly includes: 3D sensing and sim2real; a bidirectional sim-real transfer method for vision-based tactile sensors; and a robot active manipulation framework by digital twinning.
基础大模型:机器人操作的先验知识库
许华哲
个人简介:
许华哲博士现为清华大学交叉信息研究院助理教授,博士后就读于斯坦福大学,博士毕业于加州大学伯克利分校。其研究领域是具身人工智能(Embodied AI)的理论、算法与应用,具体研究方向包括深度强化学习、机器人学、基于感知的控制(Sensorimotor)等。其科研围绕具身人工智能的关键环节,系统性地研究了视觉深度强化学习在决策中的理论、模仿学习中的算法设计和高维视觉预测中的模型和应用,对解决具身人工智能领域中数据效率低和泛化能力弱等核心问题做出多项贡献。其发表顶级会议论文四十余篇,代表性工作曾被MIT Tech Review,Stanford HAI等媒体报道。曾在IJCAI2023、ICRA2024担任领域主席/副主编。
报告摘要:
这次报告将探讨如何在机器人操作中将视觉基础模型(visual foundation models)和语言模型(LLMs)进行整合。我们讨论了这些模型如何增强机器人操纵,例如生成视觉目标、寻找物体对应关系(correspondence),甚至生成模拟任务。通过利用提示调整和适应技术,我们发现这些基础模型中的先验知识对简化人类设计机器人任务的各个方面非常有帮助,进一步地提升了机器人的操作能力。

线下参与

本会场将线上线下同步进行,线下会场位于中国人民大学,线上会场为学说直播平台。线下参会者需要扫描下方二维码报名。欢迎各位线上线下的朋友共同参会!

关于会议

主办方:
  • 中国人民大学统计学院
  • 中国人民大学应用统计科学研究中心
  • 统计之都
  • 原灵科技
  • 中国商业统计学会人工智能分会(筹)
赞助方:
  • 宽德投资
  • 明汯投资

  • 和鲸科技
  • 子博设计

联系方式

统计之都:专业、人本、正直的中国统计学社区。
关注方式:扫描下图二维码。或查找公众号,搜索 统计之都 或 CapStat 即可。
往期推送:进入统计之都会话窗口,点击右上角小人图标,查看历史消息即可。
继续阅读
阅读原文