DP-SGD 是 Differentially Private Stochastic Gradient Descent(差分隐私随机梯度下降) 的缩写:一种在训练机器学习/深度学习模型时提供差分隐私(DP)保护的优化方法。它通常通过梯度裁剪(clipping)限制单个样本/用户的影响,并向梯度中加入随机噪声,从而在模型性能与隐私保护之间取得平衡。(在不同文献中也可能有实现细节差异。)
/ˌdiːˈpiː ˌɛs ˌdʒiː ˌdiː/
We trained the model using DP-SGD to protect user data.
我们使用 DP-SGD 来训练模型,以保护用户数据。
To meet a strict privacy budget, the team tuned DP-SGD by adjusting the clipping norm and noise scale while monitoring accuracy.
为满足严格的隐私预算,团队通过调整 DP-SGD 的裁剪阈值与噪声强度,并在监控准确率的同时进行调参。
DP-SGD 是由两个部分组成的技术缩写:DP(Differential Privacy,差分隐私) + SGD(Stochastic Gradient Descent,随机梯度下降)。该术语在学术界与工业界的隐私机器学习语境中广泛使用,用来指代“在 SGD 训练流程中引入差分隐私机制”的一类方法。