NIPS2018作为多目标优化的多任务学

选自arXiv

作者:OzanSener、VladlenKoltun

机器之心编译

参与:李诗萌、王淑婷

多任务学习本质上是一个多目标问题,因为不同任务之间可能产生冲突,需要对其进行取舍。本文明确将多任务学习视为多目标优化问题,以寻求帕累托最优解。而经过实验证明,本文提出的方法可以在现实假设下得到帕累托最优解。

统计学中最令人震惊的结论之一是Stein悖论。Stein()认为,若要估计高斯随机变量,最好是从所有样本中估计三个或三个以上变量的均值,而不是分别单独进行估计,即使这些高斯分布是相互独立的。Stein悖论是探索多任务学习(MTL)(Caruana,)的早期动机。多任务学习是一种学习范式,其中来自多任务的数据被用来获得优于独立学习每个任务的性能。MTL的潜在优势超出了Stein悖论的直接含义,因为即便是真实世界中看似无关的任务也因数据共享的过程而存在很强的依赖性。例如,尽管自动驾驶和目标操纵看似无关,但相同的光学规律、材料属性以及动力学都对基础数据产生了影响。这启发人们在学习系统中使用多任务作为归纳偏好。

典型的MTL系统被给定一组输入点和每点各种任务的目标集。设置跨任务的归纳偏好的常用方法是设计一个参数化假设类,它会在不同任务中共享一些参数。一般而言,可以通过为每个任务最小化经验风险的加权和这种优化问题来学习这些参数。但是,只有当一个参数组在所有任务中都有效时,这样的线性组合公式才有意义。换言之,只有当任务之间不存在竞争关系时,最小化经验风险的加权和才有效,但这种情况比较少有。目标冲突的MTL需要对任务之间的权衡进行模型,但这已经超出了线性组合能够实现的范围。

MTL的另一个目标是找到不受任何其它方案主导的解决方案。据说这种方案就是帕累托最优(Paretooptimal)。本文从寻找帕累托最优解的角度出发探寻MTL的目标。

在给定多个标准的情况下,寻找帕累托最优解的问题也被称为多目标优化。目前已有多种多目标优化算法,其中一种叫多梯度下降算法(MGDA),使用基于梯度的优化,证明了帕累托集合上的点是收敛的(Désidéri,)。MGDA非常时候具有深层网络的多任务学习。它可以用每个任务的梯度解决优化问题来更新共享参数。但有两个技术性的问题阻碍了MGDA的大规模应用。(i)基本的优化问题无法扩展到高维度梯度,而后者会自然出现在深度网络中。(ii)该算法要求明确计算每个任务的梯度,这就导致反向迭代的次数会被线性缩放,训练时间大致会乘以任务数量。

我们在本文中开发了基于Frank-Wolfe且可以扩展到高维问题的优化器。此外,我们还给MGDA优化目标提供了一个上界,并表明可以在没有明确特定任务梯度的情况下通过单次反向迭代来计算该优化目标,这使得该方法的计算成本小到可以忽略不计。本文证明,用我们的上界可以在现实假设情况下得到帕累托最优解。最终我们得到了一个针对深度网络多目标优化问题的精确算法,计算开销可以忽略不计。

我们在三个不同的问题上对提出的方法进行了实证评估。首先,我们在MultiMNIST(Sabour等人,)上做了多数字分类的延伸评估。其次,我们将多标签分类作为MTL,并在CelebA数据集(Liu等人,b)上进行了实验。最后,我们将本文所述方法应用于场景理解问题中。具体而言,我们在Cityscapes数据集(Cordts等人,)上做了联合语义分割、实例分割以及深度估计。在我们的评估中,任务数量从2到40不等。我们的方法明显优于所有基线。

论文:Multi-TaskLearningasMulti-ObjectiveOptimization

论文链接:


转载请注明:http://www.guyang114.com/ssyqyh/yxch/20278.html

  • 上一篇文章:
  •   
  • 下一篇文章: 没有了