L2 normalization(L2 归一化/二范数归一化):把一个向量按其 L2 范数(欧几里得长度) 进行缩放,使其长度变为 1(单位向量)。常用于机器学习与信息检索中,让不同样本的特征向量在“尺度”上可比,便于用点积/余弦相似度等方法比较方向而非大小。
(在一些语境里也可泛指“按 L2 范数进行归一化”的处理;与 L1 normalization 不同。)
/ˌɛl ˈtuː ˌnɔːrmələˈzeɪʃən/
We apply L2 normalization to the feature vectors before training.
在训练之前,我们对特征向量进行 L2 归一化。
After L2 normalization, cosine similarity becomes equivalent to the dot product, which stabilizes retrieval across varying magnitudes.
经过 L2 归一化后,余弦相似度等价于点积,这能在向量幅度差异较大时让检索更稳定。
L2 中的 “L” 来自数学中的 Lp 范数(ℓp norm) 记号,表示一类“长度/大小”的度量;当 p=2 时得到最常用的欧几里得长度(平方和再开方)。Normalization 源自 normal(“规范的/标准的”)加后缀 -ization(“使成为……”),合起来就是“按某种规范把数据调整到统一尺度”。