【速览】ICCV2019 | EMANet:期望最大化注意力网络
学会“成果速览”系列文章旨在将学会会员最新代表性成果进行传播,通过短篇文章让读者用母语快速了解相关学术动态,欢迎关注和投稿~
EMANet:期望最大化注意力网络
李夏、钟之声、吴建龙、杨一博、林宙辰、刘宏
ICCV 2019, Oral
推荐理事:林宙辰
本文所提出的期望最大化注意力机制(EMA),摒弃了在全图上计算注意力图的流程,转而通过期望最大化(EM)算法迭代出一组紧凑的基,在这组基上运行注意力机制,从而大大降低了复杂度。其中,E步更新注意力图,M步更新这组基。E、M交替执行,收敛之后用来重建特征图。本文把这一机制嵌入网络中,构造出轻量且易实现的EMA Unit。其作为语义分割头,在多个数据集上取得了较高的精度。
:
综上,EMA在获得低秩重构特性的同时,将复杂度从Nonlocal的降低至。实验中,EMA仅需步就可达到近似收敛,因此作为一个小常数,可以被省去。至此,EMA复杂度仅为 。考虑到,其复杂度得到显著的降低。
往期精选
通知
通知
通知
-长按注册会员-
-立享会员优惠-
最新评论
推荐文章
作者最新文章
你可能感兴趣的文章
Copyright Disclaimer: The copyright of contents (including texts, images, videos and audios) posted above belong to the User who shared or the third-party website which the User shared from. If you found your copyright have been infringed, please send a DMCA takedown notice to [email protected]. For more detail of the source, please click on the button "Read Original Post" below. For other communications, please send to [email protected].
版权声明:以上内容为用户推荐收藏至CareerEngine平台,其内容(含文字、图片、视频、音频等)及知识版权均属用户或用户转发自的第三方网站,如涉嫌侵权,请通知[email protected]进行信息删除。如需查看信息来源,请点击“查看原文”。如需洽谈其它事宜,请联系[email protected]。
版权声明:以上内容为用户推荐收藏至CareerEngine平台,其内容(含文字、图片、视频、音频等)及知识版权均属用户或用户转发自的第三方网站,如涉嫌侵权,请通知[email protected]进行信息删除。如需查看信息来源,请点击“查看原文”。如需洽谈其它事宜,请联系[email protected]。