会议背景
当下深度学习模型已成为推动人工智能技术进步的核心动力,然而深度学习模型尤其是大模型参数量急剧增加,它们对计算资源的需求也异常迫切,同时,云边端侧模型部署时,模型推理耗时的要求也越来越苛刻。模型压缩与部署的诸多技术需求应运而生。
模型压缩与部署目的是将深度学习模型以更高效的方式进行部署,提高模型的推理速度,减少模型占用的存储空间,进而降低模型的部署成本,为企业带来明显的收益。
为了促进模型压缩与部署领域一线青年学者/工程师的交流,推动学术界与企业界的交融与产学研合作,搭建一个深度的技术交流平台,中国自动化学会模式识别与机器智能专业委员会将于 2024 年 6 月 1 日-2 日在北京召开第一届深度学习模型压缩与部署技术会议(以下简称“会议”)。会议主要关注模型压缩、推理加速、AI Infra 等方向,预计届时将有 200 余位学术界、企业界的同行参会。
01
组委会
大会主席:
刘成林(中国科学院自动化所)   王蕴红(北京航空航天大学)
程序委员会主席:
程健(中国科学院自动化所)   刘祥龙(北京航空航天大学)   汪玉(清华大学)
宣传主席:
庄博涵(浙江大学)   林绍辉(华东师范大学)   龚睿昊(商汤科技)
墙报主席:
秦浩桐(ETH Zürich)   郑侠武(厦门大学)   宁雪妃(清华大学)
注册主席:
樊彬(北京科技大学)   王培松(中国科学院自动化所)
赞助主席:
赵松(深蓝学院)
本地主席:
郭晋阳(北京航空航天大学)


合作媒体:
公众号-PaperWeekly

02
会议日程
论坛地点:北京市海淀区辽宁大厦
6月1日
主持人:刘祥龙 北京航空航天大学教授
时间
报告题目
嘉宾
14:00~14:50
开幕式
_
主持人:程健 中国科学院自动化所研究员
14:50~15:40
报告1

丁贵广
华大学教授
15:40~16:30
基于脉冲神经网络的类脑大模型
李国齐
中国科学院自动化所研究员
16:30~16:40
茶歇
16:40~17:30
报告3
黄高
清华大学副教授
17:30~18:10
企业宣讲
18:10~20:30
晚宴
6月2日
主持人:汪玉 清华大学教授
时间
报告题目
嘉宾
09:00~09:50
深度神经网络低比特量化技术
张宝昌
北京航空航天大学教授
09:50~10:40
文心加飞桨
技术创新与产业应用
马艳军
百度AI技术生态总经理
10:40~10:50
茶歇
10:50~11:40
盘古“小”模型的进展和思考
王云鹤
华为算法应用部部长
11:40~13:30
午餐
优秀论文分享         主持人:郭晋阳 北京航空航天大学助理教授
13:30~13:45
TinySAM:极致高效压缩的分割一切模型
陈醒濠
华为诺亚方舟实验室高级研究员
13:45~14:00
类脑脉冲神经网络技术研究
郭宇飞
航天智能院高级工程师
14:00~14:15
面向视觉任务的多粒度模型剪枝方法
陈佳鑫
北京航空航天大学副教授
14:15~14:30
基于低精度量化的DNN稀疏推理架构设计
李钢
上海交通大学博士后
行业前沿研讨         主持人:龚睿昊 商汤科技研究副总监
14:30~15:30
行业前沿讨论
刘宁,美的集团资深研究员
肖学锋,字节跳动智能创作与多模态优化负责人
(待补充)
15:30~15:40
茶歇
圆桌论坛             主持人:王培松 自动化所副研究员
15:40~16:40
圆桌讨论
林绍辉,华东师范大学研究员
郑侠武,厦门大学副教授
宁雪妃,清华大学研究助理教授
李钢,上海交通大学博士后
陈佳鑫,北京航空航天大学副教授
16:40~17:10
企业宣讲
17:10~17:20
闭幕式
_
03
嘉宾简介
个人介绍:
丁贵广,清华大学软件学院特别研究员,博导,国家杰出青年科学基金获得者;清华大学软件学院副院长,信息科学与技术国家研究中心副主任。先后主持和基金委杰出青年科学基金项目、基金委重点项目、重点研发项目、国家973、863等项目数十项。发表高水平学术论文近百篇,获授权发明专利30余项,相关成果成功应用于快手、OPPO、京东、新疆联海创智、数码视讯等单位,曾获国家科技进步二等奖、中国电子学会技术发明一等奖、中国人工智能学会科技进步一等奖等。
个人介绍:
李国齐,中国科学院自动化所研究员、国家杰出青年基金获得者, 在Nature、Nature 子刊、Science 子刊、Proceedings of the IEEE、IEEE TPAMI等期刊和会议上发表论文 200余篇;主持国家自然科学基金重点项目、联合重点项目、科技部重点研发项目、北京市科委项目等30余项;担任IEEE TNNLS、IEEE TCDS、清华大学学报-自然科学版等多个国际期刊编委;曾入选中国科学院百人计划、北京市杰青、北京市智源学者,中国算力十大青年先锋人物、中国智能计算科技创新人物。
题目:
基于脉冲神经网络的类脑大模型
摘要:
类脑计算是受人脑信息处理机制启发,基于神经元和神经环路的结构和功能,以更通用人工智能为目标构建计算系统的技术总称。近年来脉冲神经网络在通用场景逼近传统深度学习的主流网络性能,展现出引领未来智能技术的潜力。本报告介绍脉冲神经网络的模型、算法及其硬件部署以及基于类脑脉冲神经网络大模型的科研进展。
个人介绍:
黄高,清华大学自动化系副教授,博士生导师。2015年获清华大学博士学位,2015年至2018年在美国康奈尔大学计算机系从事博士后科研工作。主要研究领域为深度学习和计算机视觉,提出了主流卷积网络模型DenseNet。目前在NeurIPS,ICML,CVPR,ICCV等国际顶级会议及IEEE汇刊共计发表学术论文100余篇,被引40000余次,最高单篇引用超过3万次。获国家优青、CVPR最佳论文奖、达摩院青橙奖、世界人工智能大会SAIL先锋奖、中国自动化学会优秀博士学位论文、中国百篇最具影响国际学术论文、中国人工智能学会自然科学一等奖和吴文俊优秀青年奖等荣誉,入选北京智源学者、AI 2000人工智能最具影响力学者、《麻省理工科技评论》亚太区“35岁以下科技创新35人”。
个人介绍:
张宝昌教授主要从事机器学习、计算机视觉、多模态感知等领域研究,发表录用IEEE汇刊、CCF A期刊和会议等论文近300篇,2篇入选热点论文和5篇入选高引论文,一作单篇论文谷歌引用1286次。入选爱思唯尔(Elsevier)中国高被引学者,教育部新世纪优秀人才项目、深圳市海外高层次人才计划团队项目、江西省千人计划项目、百度深度学习实验室学术顾问、中关村国家实验室核心双聘人员,获得一级学会/省级自然科学奖4项(三项一等奖)和国际重要比赛第一名3项(ECCV和ICPR)。
报告题目:
深度神经网络低比特量化技术
报告摘要:
深度学习在解决实际问题中获得成功应用,但是其模型参数量大、功耗大,存在端侧设备上的部署应用难等瓶颈问题。为了解决相关问题,提出一系列二值卷积网络构建方法,构建了基于调制网络结构的二值网络模型,引入贝叶斯学习、协同梯度下降算法等方法,实现二值网络模型在目标检测任务上的无损压缩。Transformer是人工智能领域的里程碑方法,为了解决其在实际端侧部署难题,提出Q-VIT、Q-DETR以及在底层视觉任务上的量化方案,实现4-比特目标检测与识别任务上的无损压缩。在应用方面,搭建了智能相机实现了矿山、工业检测等领域应用。
个人介绍:
马艳军博士现任百度AI技术生态总经理,主要研究方向包括自然语言处理、深度学习等,相关成果在百度产品中广泛应用。马艳军在ACL等权威会议、期刊发表论文20余篇,多次担任顶级国际会议的Area Chair等,并曾获2015年度国家科技进步二等奖。2018年,被评为“北京青年榜样·时代楷模”。
报告题目:
文心加飞桨 技术创新与产业应用
摘要:
本次报告将结合大模型和深度学习平台技术及应用趋势的洞察,介绍百度文心大模型和飞桨深度学习平台的最新进展。基于AI原生应用对大模型效果、效率的极致要求,分享飞桨支撑大模型训练、压缩、推理部署全流程的工具套件,并重点分享大模型自动压缩、高性能推理优化的方法和实践。报告还将探讨通过开源开放凝聚生态各方力量,加速技术创新和产业应用。
个人介绍:
在华为从事人工智能算法的研发和在实际业务中的应用落地。主要的研究领域包含计算机视觉、机器学习、模型压缩、高能效AI计算等,多项算法落地工业界产品,主导的加法神经网络项目受到了业界的广泛关注。在相关领域发表CCF A类学术论文100余篇,包含NeurIPS、ICML、CVPR、ICCV、IEEE TPAMI等。担任NeurIPS和ICML的领域主席,VALSE的高级领域主席。
报告题目:
盘古“小”模型的进展和思考
报告摘要:
大模型在最近几年热度非常高,但是纵观AI发展的几波趋势,大模型趋于一定的稳定之后,由于隐私、时延、内存、可靠性等因素,必然要考虑小模型的研发。在这个报告中会对盘古“小”模型的技术创新进行介绍,以及面向未来的思考和讨论。
个人介绍:
陈醒濠,博士毕业于清华大学,现为华为诺亚方舟实验室高级研究员,从事人工智能算法的研发和在实际业务中的应用落地。主要的研究领域包含计算机视觉、模型压缩、高能效 AI 计算等,多项算法落地工业界产品。在NeurIPS、ICML、CVPR等顶会顶刊发表学术论文多篇,曾担任AAAI、IJCAI SPC,ICML和ACM MM Area Chair.
报告题目:
TinySAM:极致高效压缩的分割一切模型
报告摘要:
分割一切模型(Segment Anything Model,SAM)展现出了强大的分割万物能力,但是网络结构复杂,计算代价高,在资源受限的端侧应用中无法直接使用。同时,我们发现在SAM的Everything推理模式中,原始的网格点prompt的方式会带来巨大的计算代价。针对这个问题,我们提出了TinySAM模型,利用知识蒸馏、量化等手段对模型做了极致的压缩,同时提出了再Everything推理模式下的层次化推理策略。TinySAM在计算代价降低多个数量级的情况下,仍然保持了SAM模型强大的zero-shot分割能力。
个人介绍:
郭宇飞,男,博士,高工,入选中国科协青年托举人才、航天科工集团创新型优秀人才,从事先进智能计算技术等研究,主持军国家自然科学基金、中国科协项目等国家级项目4项,以第一作者在CVPR、ICCV、NeurIPS等CCF A类国际人工智能顶会以及Pattern Recognition等SCI期刊上发表论文20余篇。
报告题目:
类脑脉冲神经网络技术研究
报告摘要:
类脑智能算法主要通过对生物神经系统的模拟,构建更符合生物神经系统原理的人工智能算法及计算框架,具有低功好计算优势。近年来,起源于神经科学理论基础的脉冲神经网络(spike neural network, SNNs)已成为类脑计算领域的主流框架之一,然而,脉冲神经网络仍存在许多需要进一步克服的难题,本报告从解决脉冲神经网络信息损失问题和建立更好的代理梯度两个角度来介绍脉冲神经网络最新进展。
个人介绍:
陈佳鑫,北京航空航天大学计算机学院副教授,博士生导师。获北京航空航天大学博士学位,曾在纽约大学阿布扎比分校从事博士后研究,担任阿联酋起源人工智能研究院计算机视觉研究科学家。近年来聚焦深度模型高效推理、基础视觉模型预训练及高效微调、无人系统视觉感知等研究方向,在IEEE TPAMI、IEEE TIP、CVPR、ICCV、ECCV、NeurIPS等国际权威期刊和会议上发表论文30余篇。主持国家自然科学基金、北京市科学基金、航空科学基金项目,并作为核心技术骨干参与科技创新2030-"新一代人工智能"重大项目课题、港澳台合作项目等。
报告题目:
面向视觉任务的多粒度模型剪枝方法
报告摘要:
当前面向视觉任务的深度神经网络参数规模大、计算复杂度高,难以适配计算资源受限平台及对响应延时要求较高的应用场景。通道剪枝通过剪除重要性较低的网络通道,能有效降低模型的参数规模并提升推理速度。然而,现有通道剪枝方法通常采用单一的重要性度量准则,且面向特定视觉任务缺乏针对性设计,导致剪枝后模型精度下降显著。针对上述问题,本报告结合研究团队最新的研究成果,介绍基于信息损失的全局重要性度量和基于分组均衡的细粒度局部重要性度量,阐述基于多粒度重要性度量的结构化剪枝方法。同时,结合目标检测等视觉任务,本报告还将介绍任务引导的模型剪枝及微调联合优化策略。
个人介绍:
李钢,上海交通大学计算机科学与工程系博士后。2021年于中国科学院自动化研究所获得博士学位。目前从事机器学习、计算机体系结构和人工智能芯片设计等方面的研究。在MICRO、HPCA、TCAD、DAC、DATE、ICCV、ICLR、ACL等国际会议和期刊发表论文20余篇,其中近四年获得3次DATE最佳论文和提名奖(2021、2023、2024)。博士期间曾担任中科南京人工智能创新研究院总架构师,带队成功研发了量化神经处理器芯片QNPU。作为核心骨干先后参与了国家自然科学基金、华为、壁仞科技、亿咖通科技等多项科研和校企合作项目。
报告题目:
基于低精度量化的DNN稀疏推理架构设计
报告摘要:
低精度量化技术能够显著降低DNN模型的计算复杂度以及存储、带宽需求,被广泛应用于定制计算架构设计。随着量化粒度、位宽的变化,DNN模型内在的稀疏性会呈现出不同的特点。如何在低精度量化的基础上进一步利用模型内部丰富的稀疏性来提升推理效能是一个重要的问题。本报告将围绕DNN模型高效压缩和部署问题,介绍如何针对不同量化精度和不同层次的非结构化稀疏性来设计高效的DNN专用推理架构。
个人介绍:
智能创作 AI 平台 AutoML团队负责人,带领大模型的训练加速,模型算法加速,以及 服务端推理引擎等三个方向。负责抖音/TikTok/剪映等业务的服务端模型加速与优化,参与包括抖音-AI 漫画,抖音-AI婚纱照,轻颜-AI 写真,抖音-宫崎骏夏天,抖音-莫奈花园, 剪映-瞬息全宇宙等核心项目,在CVPR、ICCV、ECCV、ICML、NeurIPS、ICLR等人工智能顶级会议上发表多篇文章。
个人介绍:
博士毕业于东北大学(Northeastern University),波士顿,美国。目前在美的集团担任资深研究员。研究领域包括边端智能、AIoT、深度学习模型轻量化等。先后发表国际高水平期刊/会议论文40余篇。包括在人工智能方向国际顶级会议/期刊 AAAI、ICML、NeurIPS、CVPR、TNNLS 等和计算机体系结构顶级会议MICRO、ASPLOS、ISCA、DATE等。担任国际顶级会议审稿人,包括NeurIPS、ICLR、CVPR、ICCV、ICRA、PR、TNNLS等国际顶级学术会议与期刊。发表专利20余项,登记软著5项,并担任IEEE standard AI on Edge Device(C/AISC/EDGE-WG)工作组主席。
个人介绍:
林绍辉博士,华东师范大学计算机学院青年研究员,紫江青年学者,2021年扬帆计划获得者。于2019年博士毕业于厦门大学信息学院,师从纪荣嵘教授。同年,进入新加坡国立大学计算机学院担任博士后研究员。目前主要研究方向有计算机视觉、机器学习、图像视频理解、低层视觉,特别是深度模型压缩与加速。在国际顶级期刊和会议,TPAMI、TNNLS、Neurocomputing、CVPR、ECCV、AAAI、IJCAI等,以第一作者或通信作者身份发表近15篇论文。担任IJCAI 2020 SPC以及国际顶级期刊和会议(如:TPAMI、TIP、IJCV、TNNLS、TMM、PR、CVPR、NeurIPS、ICML等)审稿人。
个人介绍:
厦门大学南强青年拔尖B类人才,主要研究方向为深度学习、计算机视觉、机器学习。研究侧重点是模型压缩、自动化机器学习、图像质量评估等。数十篇论文发表于国际期刊PAMI、IJCV、TMM和国际会议ICLR、NeuriPS、CVPR、ICCV、IJCAI、AAAI、ACM Multimedia上。主持博士后面上科学基金;2022 年获得博士后创新科学人才计划(每年 400 人);作为主要起草人之一发布由国内自主制定的 IEEE 2941 标准,推动全球首个人工智能模型表示与压缩技术标准,标准获得 IEEE 标准新兴技术奖。由于标准的贡献荣获 IEEE 杰出标准贡献奖。
个人介绍:
宁雪妃,清华大学电子工程系助理研究员,研究方向为模型压缩和高效AIGC算法。
04
会议注册
会议注册费用:

注册类型
全日制在校生
高校老师/工程师
费用
600元
1000元
全日制在校生参会时需携带学生证,便于现场确认。
会议限报200人,注册费包括会议资料费、1天午餐以及1天晚餐,其他食宿与交通自理。
注册方式:扫描下方二维码获取👇
继续阅读
阅读原文