V2EX  ›  英汉词典

Stochastic Subgradient

释义 Definition

随机次梯度(stochastic subgradient):在目标函数不可导或仅次可导(如含绝对值、hinge loss、L1 正则等)时,用随机抽样(如抽取一个样本或小批量数据)得到的次梯度估计来进行迭代更新的一类方法/量。常用于大规模凸优化与机器学习中的非光滑优化问题。(该术语也常指“随机次梯度法”中每一步所用的次梯度。)

发音 Pronunciation (IPA)

/stəˈkæstɪk ˈsʌbˌɡreɪdiənt/

例句 Examples

The optimizer uses a stochastic subgradient at each step because the loss is not differentiable.
由于损失函数不可导,优化器在每一步都使用随机次梯度。

Under mild assumptions, a diminishing step size with stochastic subgradients can yield convergence in expectation for convex, nonsmooth objectives.
在一些温和条件下,对凸且非光滑的目标函数,采用递减步长并使用随机次梯度可在期望意义下收敛。

词源 Etymology

stochastic 源自希腊语 stokhastikos,意为“善于猜测/推测”,在现代数学与统计语境中引申为“随机的、概率性的”。subgradientsub-(“次于/在下”)+ gradient(“梯度”)构成,表示在不可导点用来替代梯度的“次梯度”概念;合在一起强调:用随机抽样得到的(次)梯度信息来推进优化。

相关词 Related Words

文学与经典著作 Literary Works

  • Nesterov, Introductory Lectures on Convex Optimization: A Basic Course(讨论次梯度法及其在凸优化中的作用,常与随机设定并置)
  • Shalev-Shwartz, Online Learning and Online Convex Optimization(在线/随机情境下的次梯度更新是核心工具之一)
  • Bubeck, Convex Optimization: Algorithms and Complexity(涵盖随机次梯度/随机一阶方法在凸优化中的复杂度与收敛分析)
  • Boyd & Vandenberghe, Convex Optimization(系统介绍次梯度与非光滑优化背景,为理解随机次梯度打基础)
  • 学术论文传统中关于 stochastic subgradient methods 的研究(如面向非光滑凸目标的随机次梯度收敛与步长策略分析)在优化与机器学习文献中非常常见
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   1698 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 12ms · UTC 05:14 · PVG 13:14 · LAX 21:14 · JFK 00:14
♥ Do have faith in what you're doing.