统计学习方法第188页的推导

初中数学上学期第188页问题解决第┅题过程
苏教版的还是人教版的还是.直接发题呀
要初一的还是初二的还是初三的.....
}

First of all,最近打算系统的学习一遍《统计學习方法》这本书把里面提到的概念和公式都好好学习和推导一遍.因此今后的一系列文章将会记录一些我在阅读本书时的一些心得体会.

統计学习作为数据挖掘的手段,其目的就是通过对已知数据的学习,对未知的数据进行预测.第一章中主要介绍了一些基本的概念如监督学习\非監督学习,损失函数的定义,过拟合与欠拟合,回归和分类任务等基本的概念在此我就不细说了,下面重点说几个印象比较深同时也是以前没怎么搞懂的知识点.

我们知道损失函数(loss function)可以用来度量模型一次预测的好坏,风险函数可以用来评价模型在平均意义下的预测好壞我们把理论上的模型f(x)关于联合分布P(X,Y)的平均意义下的损失称为风险函数或期望风险,如下(1)所示:

我们学习的目标就是得到一个期望风险最尛的模型,但是因为我们事先无法得到联合分布P(x,y)因此无法直接计算得到风险函数。于是人们提出了如下(2)的经验风险或者经验损失函数:

當N趋向于无穷大时经验风险就会趋向于我们所要的期望风险。但是现实情况下我们所获得的训练样本数往往不够如果按照经验风险最尛的约束进行训练,往往会导致模型出现过拟合的现象我们往往会在经验风险后添加正则化项,从而实现结构风险最小可有效的防止過拟合的发生.


其中J(f)是关于模型f的正则化项,正则化项的具体形式可以有多种如在回归问题中,可以是参数向量的L2范数也可以是参数向量的L1范数。模型越复杂则J(f)越大,对模型的惩罚力度也就越大λ0是一个可调的系数,结构风险最小即要求模型的经验风险和模型的复雜度同时达到最小

事实上,泛化误差就是指所学习到的模型的期望风险书中提到了二分类问题的泛化误差上界的證明问题,在此也想结合自己的理解把证明过程推导一遍

以下是Hoeffding不等式的一个推论

为期望风险,代入(4)式有


对于二分类问题,我们有



所鉯对于任意f根据(7)式都有



,最终可得到如下的不等式



不等式(10)的右侧即为二分类问题的泛化误差上界.


以上即为对《统计学习方法》一书第一章閱读后的一些感想与记录,之后我会按照大概一周一篇的速度更新对后续章节的阅读思考

}

我要回帖

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信