©作者 | 机器之心编辑部
来源 | 机器之心
腾讯 AI Lab、帝国理工与中山大学合作发表论文《Learning Neural Set Functions Under the Optimal Subset Oracle》,提出基于最优子集的集合函数学习方法
集合函数被广泛应用于各种场景之中,例如商品推荐、异常检测和分子筛选等。在这些场景中,集合函数可以被视为一个评分函数:其将一个集合作为输入并输出该集合的分数。我们希望从给定的集合中选取出得分最高的子集。鉴于集合函数的广泛应用,如何学习一个适用的集合函数是解决许多问题的关键。
为此,腾讯 AI Lab、帝国理工与中山大学合作发表论文《Learning Neural Set Functions Under the Optimal Subset Oracle》,提出基于最优子集的集合函数学习方法。该方法在多个应用场景中取得良好效果。论文已被 NeurIPS 2022 接收并选为口头报告(Oral Presentation)。
论文题目:
Learning Neural Set Functions Under the Optimal Subset Oracle
论文链接:
https://arxiv.org/abs/2203.01693
代码链接:
https://github.com/SubsetSelection/EquiVSet
引言
很多现实应用场景与集合密切相关,例如推荐系统、异常检测和分子筛选等。这些应用都潜在地学习了一个集合函数来评价给定集合的得分,使得输出的集合拥有最高得分。以商品推荐为例子(如下图所示),我们希望从某个网店的商品库V中推荐子集,使得用户对该商品子集拥有最高评分。
▲ 图1. 集合函数学习在商品推荐中的例子
具体地,我们假设每个用户心中存在一个评分函数 ,该函数将一个商品子集 作为输入,输出用户对该子集的评分,即 。用户总是从系统推荐的商品集合中购买得分最高的商品子集:
我们希望学习一个函数 ,使其尽可能逼近真正的评分函数 。然而在实际应用场景,由于标注成本过高,我们无法得到用户对每一个商品子集的评分。因此,我们假设数据集的形式为 ,其中 为用户 i 购买的商品子集, 为对应的商品库。我们希望找到合适的参数 ,使得用户购买的商品最大化集合函数 。
然而找到合适的参数不是一件容易的事情。为此,我们将目标函数定义为最大似然估计:
其中我们通过 的正比约束使得最终学习到的集合函数满足上文的要求。进一步地,我们希望该概率分布及由此推导的训练方法满足若干的性质,如:置换不变性、最小先验假设和可扩展性 (scalability) 等。
在本文中,我们提出了等变变分集合函数学习方法 (Equivariant Variational inference for Set function learning. EquiVset)。具体地,我们使用能量模型 (energy-based models) 建模概率 ;能量模型是最大熵分布,满足最小先验假设。其次,我们通过 DeepSet 类型的模型架构建模集合函数 ,使其满足置换不变性;最后我们使用均摊变分分布来满足可扩展性的要求。
实验证明,EquiVSet 在商品推荐、异常检测和分子筛选等现实应用场景中都有出色表现。值得一提的是,虽然传统的端到端子集预测模型也适用于以上场景,但是他们通常属于黑盒模型。在本文中,我们显式建模集合函数,并通过最大化集合函数来进行子集预测。学习的集合函数可用来评价不同子集的效益,因此更具有可解释性。
方法简介
▲ 图2. EquiVSet 训练和推理过程概览
我们首先将概率模型定义为能量模型:,并用 DeepSet 架构对能量函数 进行建模,从而实现置换不变性。此外,由于能量模型为最大熵分布,其具有最小信息先验假设的特点。
为了训练该模型,我们进一步引入了变分分布 ,并通过神经网络对其进行建模。如图 2 所示,模型训练包含两个步骤:
1. 为了学习变分 ,我们可以最小化 和 之间的 距离;
2. 为了训练模型 ,我们首先通过神经网络 EquiNet 输出变分分布的初始参数 ,然后通过平均场变分推断来更新变分参数 ,使其逼近模型分布 。此外,该步骤可以让模型参数 依赖于变分参数 。因此我们可以通过最小化交叉熵损失来更新模型参数 :
模型通过反复迭代步骤 1 和 2 来更新参数,从而达到合作式训练变分网络 EquiNet 和能量网络的目的。这种合作学习方式的效果可以通过图 3 形象示断逼近模型 ;参数 更新完毕后,我们通过最小化交叉嫡损失来训练模型 ,使其不断逼近真实数据分布 。
模型训练完毕后,近似地 成立,因此我们可以根据变分参数 来选取最优子集。值得注意的是,算法角度来说,简单使用端到端子集预测模型相当于只建模了变分网络 EquiNet,即只建模了变分分布 ,因此无法达到合作学习的目的。我们后续的实验部分也验证了这种端到端子集预测方法的性能与合作学习方法 EquiVSet 相差甚远。
▲ 图3. EquiVSet 参数更新示意图
实验结果
为了验证 EquiVSet 的有效性,我们在三个任务上进行测试:商品推荐、异常检测和分子筛选。
1. 在商品推荐任务中,我们使用 amazon baby register dataset,该数据集包含了真实的用户购买记录。在该任务上,EquiVSet 在大部分场景中都取得最佳性能。
具体地,相比于先前的 SOTA 算法 PGM,EuiVSet 的性能平均提升 33%。相比于传统的黑盒端到端子集预测方法 DeepSet(NoSetFn)(该方法相当于仅建模了变分网络 EquiNet),EquiVSet 的性能平均提升 39%,说明了显式建模集合函数的重要性。
2. 在异常检测任务中,我们使用四个经典数据集:double mnist,celebA,fashion-mnist 和 cifar-10。下图给出了 celebA 上异常检测的例子。
▲ 图3. celebA 数据集。每一行是一个数据样本。在每个样本中,正常图片拥有两个共同属性(最右列),异常图片(红色方框)没有该属性。
以下表格提供不同方法在该任务上的性能对比,可以看出 EquiVSet 显著优于其他方法, 并比 PGM 和 DeepSet(NoSetFn) 的性能分别平均提高 37% 和 80%。
3. 在分子筛选中,我们使用 PDBBind 和 BindingDB 两个经典数据。该任务是从给定的分子库中,筛选出符合一定属性的分子。下表是 EquiVSet 和各个方法的对比结果。
结论
本文提出的基于最优子集的集合函数学习方法。通过将集合概率定义成能量模型,使得模型满足置换不变性、最小先验等特点。借助最大似然方法和等变变分技巧,模型能够高效地训练和推理。在商品推荐、异常检测和分子筛选上的应用认证了该方法的有效性。
更多阅读
#投 稿 通 道#
 让你的文字被更多人看到 
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。
📝 稿件基本要求:
• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 
• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题
• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算
📬 投稿通道:
• 投稿邮箱:[email protected] 
• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者
• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿
△长按添加PaperWeekly小编
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧
·
继续阅读
阅读原文