Mirror descent(镜像下降法)是一类用于凸优化与在线学习的迭代算法。它用一个“镜像映射”(通常由某个强凸函数/距离生成函数定义)把更新从“原空间”转到“对偶空间”进行梯度步,再映回原空间,从而能更好地适应约束集合的几何结构(例如在概率单纯形上常用熵型映射)。
/ˈmɪrər dɪˈsɛnt/
“Mirror”在这里不是指物理镜子,而是比喻:算法先在一个“镜像空间”(对偶空间)里做更新,再“映射”回原变量空间;“descent”表示沿着某种意义下的下降方向迭代以降低目标函数值。该术语在优化与在线凸优化文献中广泛使用。
Mirror descent is useful for optimization on the simplex.
镜像下降法在单纯形上的优化问题中很有用。
Using an entropy-based mirror map, the mirror descent update can outperform Euclidean gradient descent in sparse probability models.
使用基于熵的镜像映射时,镜像下降法在稀疏概率模型中可能优于欧几里得梯度下降。