k-NN(k-nearest neighbors,k 近邻/ k 最近邻)是一种经典的监督学习方法,用于分类或回归:对新样本,找出训练集中距离它最近的 k 个邻居,再用这些邻居的类别(投票)或数值(平均/加权平均)来预测。
/ˌkeɪ ˌɛn ˈɛn/
We used k-NN to classify the emails as spam or not spam.
我们用 k-NN 把邮件分类为垃圾邮件或非垃圾邮件。
Because k-NN relies on distance, scaling the features improved the model’s accuracy on the test set.
由于 k-NN 依赖距离度量,对特征做缩放提高了模型在测试集上的准确率。
k-NN是一个技术缩写:k 表示选取的“邻居数量”,NN 来自 nearest neighbors(最近邻)。该方法源于早期统计模式识别与分类研究,因概念直观、实现简单而在机器学习中长期常用。