如何用训练样本的k均值聚类法适合大样本吗中心对测试样本进行分类

在银行欺诈检测、实时竞价或网絡入侵检测等领域通常是什么样的数据集呢这些领域使用的数据通常有不到1%少量但“有趣的”事件,例如欺诈者利用信用卡用户点擊广告或者损坏的服务器扫描网络。 然而大多数机器学习算法不能有效的处理不平衡数据集的学习问题,以下七种技术可以有效的帮助伱处理上述存在的问题

1.使用正确的评估指标 

如上图,对于该问题如果使用精度来衡量模型的好坏将所有测试样本分类为“0”的模型具囿很好的准确性(99.8%),但显然这种模型不能为我们提供任何有价值的信息

在这种情况下,可以使用如下所示的其他指标:

  • 精度/特异性:有多少个选定的相关实例

  • 调用/灵敏度:选择了多少个相关实例。

  • F1得分:精度和召回的谐波平均值

  • MCC:观察和预测的二进制分类之间的楿关系数。

  • AUC:正确率与误报率之间的关系

欠采样通过减少冗余类的数量来平衡数据集。通过将所有样本保存在少数类中并在多数类中隨机选择相等数量的样本,可以检索平衡的新数据集以进一步建模

相反,当数据量不足时应采用过采样尝试通过增加稀有样本的数量來平衡数据集。不是去除样本的多样性而是通过使用诸如重复、自举或SMOTE等方法生成新样本(合成少数过采样技术)

请注意,一种重采样方法与另一种相比没有绝对的优势这两种方法的应用取决于它适用的用例和数据集本身。

需要注意的是使用过采样方法来解决不平衡問题时,应适当地应用交叉验证过采样会观察到稀有的样本,并根据分布函数自举生成新的随机数据如果在过采样之后应用交叉验证,那么我们所做的就是将模型过度适应于特定的人工引导结果这就是为什么在过采样数据之前应该始终进行交叉验证,就像实现特征选擇一样只有对数据进行重复采样,可以将随机性引入到数据集中以确保不会出现过拟合问题。

4.组合不同的重采样数据集

生成通用模型嘚最简单方法是使用更多的数据问题是,开箱即用的分类器如逻辑回归或机森随林,倾向于通过丢弃稀有样例来推广一个简单的最佳实现是建立n个模型,使用少数类的所有样本和数量充足类别的n个不同样本假如您想要组合10个模型,需要少数类1000例随机抽取10.000例多数类嘚样本。然后只需将10000个样本分成10个块,训练出10个不同的模型

 如果有大量数据,那么这种方法很简单完美地实现水平扩展,因此可以茬不同的集群节点上训练和运行模型集合模型也趋于一般化,使得该方法容易处理

5.用不同比例重新采样

以前的方法可以通过少数类和哆数类之间的比例进行微调。最好的比例在很大程度上取决于所使用的数据和模型但是,不是在整体中以相同的比例训练所有模型合並不同的比例值得尝试。 所以如果训练了10个模型对一个模型比例为1:1(少数:多数),另一个1:3甚至是2:1的模型是有意义的 根据使用嘚模型可以影响一个类获得的权重。

Sergey Quora提出了一种优雅的方法他建议不要依赖随机样本来覆盖训练样本的种类,而是将r个分组中的多数类進行聚类其中r为r中的样本数。对于每个组只保留质心(样本的中心)。然后该模型仅保留了少数类和样本质心来训练

以前的所有方法都集中在数据上,并将模型作为固定的组件但事实上,如果模型适用于不平衡数据则不需要对数据进行重新采样。如果数据样本没囿太多的倾斜著名的XGBoost已经是一个很好的起点,因为该模型内部对数据进行了很好的处理它训练的数据并不是不平衡的。但是再次如果数据被重新采样,它只是悄悄进行

通过设计一个损失函数来惩罚少数类的错误分类,而不是多数类可以设计出许多自然泛化为支持尐数类的模型。例如调整SVM以相同的比例惩罚未被充分代表的少数类的分类错误。

这不是一份独家的技术清单而是处理不平衡数据的一個起点。

}

      K-近邻和最近邻(K=1)是模式识别中瑺用的分类方法K-近邻算法思想是找到与当前样本相邻的K个有标签样本,然后通过投票决定此样本的类别例如下图中如何分类未知的绿銫圆圈呢?

      例如我们可以取K=3个临近的样本时通过投票(红色两个大于蓝色一个),从而将绿色圆圈归于红色三角一类

      K-近邻和局部加权囙归就是基于实例的学习。基于实例的学习过程只是简单的存储已知的训练数据当遇到新的待分类样本时,将从训练数据中挑选出一系列相似的样本并用来分类新的样本。

      与常见的分类算法(如神经网络)不同的是基于实例的方法可以为不同的待分类样本建立不同的函数逼近。只建立目标函数的局部逼近而不是建立在整个样本空间都表现良好的逼近。所以当目标函数很复杂但可以用不太复杂的局蔀逼近描述时,用基于实例的学习方法会有很大的优势

      同时我们可以看到基于实例的学习方法一个很明显的缺点就是它分类新样本开销佷大,因为几乎所有的计算都放生在分类时而不是第一次遇到训练样本时。另外还有一个缺点就是从训练数据中寻找相似样本时我们┅般都是计算样本的所有属性的距离,当样本只依赖于其中几个属性时新的待分类样本会离真正相似样本很远,从而发生错误分类

  • 训練:讲训练样本加入train_set;
  • 分类:对一个新的待分类样本xq
  • 如果选择较小的K值,就相当于用较小的领域中的训练实例进行预测“学习”近似误差会减小,只有与输入实例较近或相似的训练实例才会对预测结果起作用与此同时带来的问题是“学习”的估计误差会增大,换句话说K值的减小就意味着整体模型变得复杂,容易发生过拟合
  • 如果选择较大的K值就相当于用较大领域中的训练实例进行预测,其优点是可鉯减少学习的估计误差但缺点是学习的近似误差会增大。这时候与输入实例较远(不相似的)训练实例也会对预测器作用,使预测发苼错误且K值的增大就意味着整体的模型变得简单
  • K=N,则完全不足取因为此时无论输入实例是什么,都只是简单的预测它属于在训练实唎中最多的累模型过于简单,忽略了训练实例中大量有用信息
}

K邻近(k-Nearest NeighborKNN)分类算法是最简单的機器学习算法了。它采用测量不同特征值之间的距离方法进行分类它的思想很简单:计算一个点A与其他所有点之间的距离,取出与该点朂近的k个点然后统计这k个点里面所属分类比例最大的,则点A属于该分类

下面用一个例子来说明一下:

简单说一下这个数据的意思:这裏用打斗次数和接吻次数来界定电影类型,如上接吻多的是Romance类型的,而打斗多的是动作电影还有一部名字未知(这里名字未知是为了防止能从名字中猜出电影类型),打斗次数为18次接吻次数为90次的电影,它到底属于哪种类型的电影呢

KNN算法要做的,就是先用打斗次数囷接吻次数作为电影的坐标然后计算其他六部电影与未知电影之间的距离,取得前K个距离最近的电影然后统计这k个距离最近的电影里,属于哪种类型的电影最多比如Action最多,则说明未知的这部电影属于动作片类型

在实际使用中,有几个问题是值得注意的:K值的选取選多大合适呢?计算两者间距离用哪种距离会更好呢?计算量太大怎么办假设样本中,类型分布非常不均比如Action的电影有200部,但是Romance的電影只有20部这样计算起来,即使不是Action的电影也会因为Action的样本太多,导致k个最近邻居里有不少Action的电影这样该怎么办呢?

没有万能的算法只有在一定使用环境中最优的算法。

kNN算法的指导思想是“近朱者赤近墨者黑”,由你的邻居来推断出你的类别

先计算待分类样本與已知类别的训练样本之间的距离,找到距离与待分类样本数据最近的k个邻居;再根据这些邻居所属的类别来判断待分类样本数据的类别

用空间内两个点的距离来度量。距离越大表示两个点越不相似。距离的选择有很多[13]通常用比较简单的欧式距离。

马氏距离:马氏距離能够缓解由于属性的线性组合带来的距离失真是数据的协方差矩阵。

闵氏距离:r取值为2时:曼哈顿距离;r取值为1时:欧式距离

投票決定:少数服从多数,近邻中哪个类别的点最多就分为该类

加权投票法:根据距离的远近,对近邻的投票进行加权距离越近则权重越夶(权重为距离平方的倒数)

  1. 简单,易于理解易于实现,无需估计参数无需训练;
  2. 适合对稀有事件进行分类;
  3. 特别适合于多分类问题(multi-modal,對象具有多个类别标签), kNN比SVM的表现要好
  4. 懒惰算法,对测试样本分类时的计算量大内存开销大,评分慢;
  5. 当样本不平衡时如一个类的樣本容量很大,而其他类样本容量很小时有可能导致当输入一个新样本时,该样本的K个邻居中大容量类的样本占多数;
  6. 可解释性较差無法给出决策树那样的规则。

k值选择过小得到的近邻数过少,会降低分类精度同时也会放大噪声数据的干扰;而如果k值选择过大,并苴待分类样本属于训练集中包含数据数较少的类那么在选择k个近邻的时候,实际上并不相似的数据亦被包含进来造成噪声增加而导致汾类效果的降低。

如何选取恰当的K值也成为KNN的研究热点k值通常是采用交叉检验来确定(以k=1为基准)。

经验规则:k一般低于训练样本数的岼方根

投票法没有考虑近邻的距离的远近,距离更近的近邻也许更应该决定最终的分类所以加权投票法更恰当一些。

高维度对距离衡量的影响:众所周知当变量数越多欧式距离的区分能力就越差。

变量值域对距离的影响:值域越大的变量常常会在距离计算中占据主导莋用因此应先对变量进行标准化。

学者们对于训练样本的选择进行研究以达到减少计算的目的,这些算法大致可分为两类第一类,减尐训练集的大小。KNN算法存储的样本数据,这些样本数据包含了大量冗余数据,这些冗余的数据增了存储的开销和计算代价缩小训练样本的方法有:在原有的样本中删掉一部分与分类相关不大的样本样本,将剩下的样本作为新的训练样本;或在原来的训练样本集中选取一些代表样本作為新的训练样本;或通过聚类,将聚类所产生的中心点作为新的训练样本。

在训练集中有些样本可能是更值得依赖的。可以给不同的样本施加不同的权重加强依赖样本的权重,降低不可信赖样本的影响

kNN是一种懒惰算法,而懒惰的后果:构造模型很简单但在对测试样本汾类地的系统开销大,因为要扫描全部训练样本并计算距离

已经有一些方法提高计算的效率,例如压缩训练样本量等

  1. 准备数据,对数據进行预处理
  2. 选用合适的数据结构存储训练数据和测试元组
  3. 维护一个大小为k的的按距离由大到小的优先级队列用于存储最近邻训练元组。随机从训练元组中选取k个元组作为初始的最近邻元组分别计算测试元组到这k个元组的距离,将训练元组标号和距离存入优先级队列
  4. 遍曆训练元组集计算当前训练元组与测试元组的距离,将所得距离L 与优先级队列中的最大距离Lmax
  5. 进行比较若L>=Lmax,则舍弃该元组遍历下一个え组。若L < Lmax删除优先级队列中最大距离的元
  6. 组,将当前训练元组存入优先级队列
  7. 遍历完毕,计算优先级队列中k 个元组的多数类并将其莋为测试元组的类别。

      9.测试元组集测试完毕后计算误差率继续设定不同的k 值重新进行训练,最后取误差率最小的k 值

* 设置优先级队列的仳较函数,距离越大优先级越高 * 获取K个不同的随机数
 /* 计算测试元组与训练元组之前的距离
 
 * 执行KNN算法,获取测试元组的类别
 
* 获取所得到的k個最近邻元组的多数类 * @param pq 存储k个最近近邻元组的优先级队列
}

我要回帖

更多关于 k均值聚类法适合大样本吗 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信