正则化方法之,而集事功论之大成.正则是谁

基于AOS格式的距离正则化水平集图像分割方法--《吉林大学》2014年硕士论文
基于AOS格式的距离正则化水平集图像分割方法
【摘要】:图像处理在当今的科学技术中应用很广泛,图像分割则是图像处理中很重要的一步,通过图像分割提取出图像中感兴趣的目标物体,为进一步的图像分析和理解服务。图像分割有很多种方法,基于偏微分方程的图像分割方法是近20年发展起来的引起广泛关注的图像分割方法。在应用偏微分方程进行图像分割的方法中活动轮廓模型是一种典型的分割方法,活动轮廓模型可分为基于边界的活动轮廓模型和基于区域的活动轮廓模型。snake模型是最早的活动轮廓模型,它通过一条在基于能量最小化的偏微分方程驱动下的参数化曲线演化找到目标边界。但是由于snake模型是参数形式的,所以不能自然控制轮廓的拓扑结构变化。水平集方法的引入使控制活动轮廓模型的拓扑结构变化成为可能,基本思想是将演化曲线嵌入到一个高一维的函数中,作为它的零水平集,然后通过函数的演化来得到其零水平集的演化,即演化曲线。几何活动轮廓模型和测地线活动轮廓模型都是应用了水平集方法的基于边界的活动轮廓模型,所以可以自动控制轮廓的拓扑结构变化,但是对轮廓的初始位置要求比较严格。Mumford-Shah模型和由它简化而得出的C-V模型是基于区域的活动轮廓模型,不依赖于轮廓初始位置的选择,但是由于其缺少边缘信息,可能会发生边界定位不准确的情况。在传统的水平集方法中,由于演化时曲线会变成非正则的,所以需要周期性地进行重新初始化。李纯明根据符号距离函数的性质提出了不需要重新初始化的活动轮廓模型,即距离正则化的活动轮廓模型。这个模型增加了一个距离正则化项,描述了水平集函数与符号距离函数之间的偏差,通过极小化这个偏差得到符号距离函数的近似。距离正则化的活动轮廓模型从本质上消除了复杂且耗时的重新初始化过程,从而优化了计算时间。
AOS格式是针对非线性扩散滤波提出的一种半隐格式的变形,它将多维问题转化成多个一维问题的和,并且所有一维问题都平等对待,可以用相同的方法求解。利用AOS格式变形之后的线性方程组,系数矩阵是严格对角占优的三对角矩阵,因而可以用追赶法求解。追赶法计算复杂度很小,从而可以简化计算,又由于AOS格式是无条件稳定的,可以通过加大时间步长来进一步加快演化。
本文提出的基于AOS格式的距离正则化活动轮廓模型不仅避免了重新初始化的过程,而且模型中复杂的散度项利用AOS格式来简化,进而通过简单的追赶法求解系数是严格对角占优的三对角矩阵的线性方程组,可以加大时间步长,加快演化速度。本文第一章介绍了图像分割和偏微分方程图像分割的相关背景,第二章介绍水平集方法的相关知识,第三章介绍了图像分割的活动轮廓模型,第四章介绍了AOS格式的引入,第五章介绍了本文提出的基于AOS格式的距离正则化的活动轮廓模型。最后一章对本文进行了总结。
【关键词】:
【学位授予单位】:吉林大学【学位级别】:硕士【学位授予年份】:2014【分类号】:TP391.41【目录】:
摘要6-8Abstract8-10第一章 绪论10-14 1.1 图像分割10-11 1.2 偏微分方程图像分割11-14第二章 水平集方法14-20 2.1 水平集方法14-17 2.2 梯度下降流17 2.3 窄带法17-18 2.4 重新初始化18-20第三章 活动轮廓模型20-33 3.1 基于边缘的活动轮廓模型20-25
3.1.1 snake模型20-23
3.1.2 几何活动轮廓模型23-24
3.1.3 测地线活动轮廓模型24-25 3.2 基于区域的活动轮廓模型25-28
3.2.1 Mumford-Shah模型25-26
3.2.2 C-V模型26-28 3.3 距离正则化的活动轮廓模型28-33第四章 AOS格式33-42 4.1 一维情形33-35 4.2 高维情形35-38 4.3 AOS用于图像分割38-42
4.3.1 统一的模型38
4.3.2 数值格式38-40
4.3.3 AOS格式40-42第五章 距离正则化的活动轮廓模型与AOS42-49 5.1 距离正则化活动轮廓模型的AOS格式42-47 5.2 数值实验47-49第六章 结论49-50参考文献50-54致谢54
欢迎:、、)
支持CAJ、PDF文件格式
【参考文献】
中国期刊全文数据库
罗宏文;马驷良;徐中宇;;[J];吉林大学学报(理学版);2006年05期
唐利明;;[J];小型微型计算机系统;2010年06期
中国博士学位论文全文数据库
罗宏文;[D];吉林大学;2009年
【共引文献】
中国期刊全文数据库
周凤胜;徐兰英;;[J];安徽电子信息职业技术学院学报;2008年01期
程一斌,汪松,任彬;[J];安徽大学学报(自然科学版);2001年02期
张坤,罗立民,舒华忠,杨芳;[J];安徽大学学报(自然科学版);2005年04期
张雪飞;;[J];安徽农业科学;2010年05期
王艳平;冯世杰;;[J];安徽农业科学;2010年23期
张王佳;王强;;[J];安全;2009年06期
赵莹;张学东;;[J];辽宁科技大学学报;2010年05期
张鹤;董彦麟;;[J];辽宁科技大学学报;2011年03期
刘子源;蒋承志;;[J];辽宁科技大学学报;2011年04期
李燕;罗四维;邹琪;;[J];北京交通大学学报;2010年02期
中国重要会议论文全文数据库
谭守标;霍剑青;郝建;王晓蒲;赵永飞;谢行恕;;[A];2005年“数字安徽”博士科技论坛论文集[C];2005年
;[A];第二十七届中国控制会议论文集[C];2008年
周佳男;;[A];第二十七届中国控制会议论文集[C];2008年
;[A];第二十九届中国控制会议论文集[C];2010年
邱雪娜;刘士荣;刘斐;朱伟涛;杜方芳;;[A];第二十九届中国控制会议论文集[C];2010年
赵建;刘伟宁;;[A];第九届全国信息获取与处理学术会议论文集Ⅰ[C];2011年
孙良海;杨运强;黄洪昌;李杰;;[A];机械动力学理论及其应用[C];2011年
叶乐军;王强;;[A];中国职业安全健康协会2007年学术年会论文集[C];2007年
刘勋;孟骧龙;毋立芳;;[A];第十二届全国信号处理学术年会(CCSP-2005)论文集[C];2005年
曾理;刘玲慧;向才兵;;[A];2010年重庆市机械工程学会学术年会论文集[C];2010年
中国博士学位论文全文数据库
王兴梅;[D];哈尔滨工程大学;2010年
林颖;[D];哈尔滨工程大学;2010年
韩守东;[D];华中科技大学;2010年
莫堃;[D];华中科技大学;2010年
涂虬;[D];华中科技大学;2010年
徐萧萧;[D];中国科学技术大学;2010年
王义文;[D];哈尔滨理工大学;2010年
奉小慧;[D];华南理工大学;2010年
王晓松;[D];北京林业大学;2010年
辛哲奎;[D];南开大学;2010年
中国硕士学位论文全文数据库
孙涛;[D];南京医科大学;2010年
赵永刚;[D];南昌航空大学;2010年
李亮;[D];山东科技大学;2010年
王捷;[D];浙江理工大学;2010年
胡申宁;[D];浙江理工大学;2010年
李光;[D];浙江理工大学;2010年
陈欣欣;[D];郑州大学;2010年
孙宏伟;[D];哈尔滨工程大学;2010年
马玲;[D];哈尔滨工程大学;2010年
许东滨;[D];哈尔滨工程大学;2010年
【二级参考文献】
中国期刊全文数据库
王利生,徐宗本;[J];工程数学学报;2004年04期
罗宏文;马驷良;徐中宇;;[J];吉林大学学报(理学版);2006年03期
唐利明;何传江;申小娜;;[J];计算机辅助设计与图形学学报;2007年05期
何传江;唐利明;;[J];软件学报;2007年03期
邱明;张二虎;张志刚;;[J];小型微型计算机系统;2006年01期
王正明,谢美华;[J];应用数学;2005年02期
中国博士学位论文全文数据库
沈美丽;[D];长春理工大学;2006年
李勇明;[D];重庆大学;2007年
朱立新;[D];南京理工大学;2007年
祝轩;[D];西北大学;2008年
中国硕士学位论文全文数据库
黄容鸿;[D];南京航空航天大学;2007年
【相似文献】
中国期刊全文数据库
颜华;王成道;;[J];模式识别与人工智能;1995年02期
李斌,庄天戈;[J];光学技术;2001年05期
罗文村;[J];现代计算机;2001年06期
陈涛,卜佳俊;[J];计算机工程;2003年07期
周铭;[J];激光与红外;2004年03期
刘宏建,刘允才;[J];红外与毫米波学报;2004年06期
阙大顺,刘明慧;[J];交通与计算机;2005年02期
刘征,卢晓东;[J];红外;2005年06期
杨晓强,魏生民,汪焰恩;[J];计算机应用研究;2005年08期
刘传文;;[J];交通与计算机;2005年06期
中国重要会议论文全文数据库
薛笑荣;赵荣椿;张艳宁;段锋;苏爱民;;[A];信号与信息处理技术——第一届信号与信息处理联合学术会议论文集[C];2002年
黎明;周琳霞;杨小芹;;[A];中国图象图形学会第十届全国图像图形学术会议(CIG’2001)和第一届全国虚拟现实技术研讨会(CVR’2001)论文集[C];2001年
周晖;赵珂;王润生;;[A];第十四届全国信号处理学术年会(CCSP-2009)论文集[C];2009年
韩立强;;[A];面向21世纪的科技进步与社会经济发展(下册)[C];1999年
曹永锋;孙洪;徐新;;[A];第十一届全国信号处理学术年会(CCSP-2003)论文集[C];2003年
陈明;;[A];全国第16届计算机科学与技术应用(CACIS)学术会议论文集[C];2004年
饶洪辉;姬长英;;[A];农业工程科技创新与建设现代农业——2005年中国农业工程学会学术年会论文集第三分册[C];2005年
闫成新;范波涛;;[A];中国图学新进展2007——第一届中国图学大会暨第十届华东六省一市工程图学学术年会论文集[C];2007年
王一波;胡仲翔;姚耀;;[A];2009全国虚拟仪器大会论文集(一)[C];2009年
罗志宏;冯国灿;杨关;;[A];第十五届全国图象图形学学术会议论文集[C];2010年
中国重要报纸全文数据库
本报记者 叶青 通讯员 粤科宣;[N];广东科技报;2011年
陈雪;[N];中国证券报;2007年
;[N];消费日报;2006年
张兰华;[N];光明日报;2006年
刘奕;[N];中华工商时报;2006年
向良璧;[N];经济参考报;2003年
游雪晴;[N];科技日报;2003年
张兰华;[N];科技日报;2006年
梁红兵;[N];中国电子报;2008年
云飞;[N];电脑报;2001年
中国博士学位论文全文数据库
张印辉;[D];昆明理工大学;2010年
白小晶;[D];南京理工大学;2010年
陈志彬;[D];大连理工大学;2010年
高浩;[D];江南大学;2009年
周鲜成;[D];中南大学;2008年
付晓薇;[D];华中科技大学;2010年
李旭超;[D];浙江大学;2006年
侯格贤;[D];西安电子科技大学;1998年
黄陈蓉;[D];南京理工大学;2005年
李彬;[D];第一军医大学;2007年
中国硕士学位论文全文数据库
严灵毓;[D];华中科技大学;2010年
宋晓峰;[D];西安电子科技大学;2009年
葛秘蕾;[D];哈尔滨工程大学;2010年
康朝红;[D];河北大学;2009年
萧湘;[D];中南林业科技大学;2010年
尚金奎;[D];东北大学;2008年
胡媛媛;[D];昆明理工大学;2008年
蔺恒;[D];西安电子科技大学;2010年
李云刚;[D];哈尔滨工程大学;2010年
柳莹莹;[D];西安电子科技大学;2010年
&快捷付款方式
&订购知网充值卡
400-819-9993
《中国学术期刊(光盘版)》电子杂志社有限公司
同方知网数字出版技术股份有限公司
地址:北京清华大学 84-48信箱 知识超市公司
出版物经营许可证 新出发京批字第直0595号
订购热线:400-819-82499
服务热线:010--
在线咨询:
传真:010-
京公网安备74号扫扫二维码,随身浏览文档
手机或平板扫扫即可继续访问
基于正则化技术和水平集方法的BLT重建问题研究
举报该文档为侵权文档。
举报该文档含有违规或不良信息。
反馈该文档无法正常浏览。
举报该文档为重复文档。
推荐理由:
将文档分享至:
分享完整地址
文档地址:
粘贴到BBS或博客
flash地址:
支持嵌入FLASH地址的网站使用
html代码:
&embed src='/DocinViewer-4.swf' width='100%' height='600' type=application/x-shockwave-flash ALLOWFULLSCREEN='true' ALLOWSCRIPTACCESS='always'&&/embed&
450px*300px480px*400px650px*490px
支持嵌入HTML代码的网站使用
您的内容已经提交成功
您所提交的内容需要审核后才能发布,请您等待!
3秒自动关闭窗口解第一类算子方程的一种正则化方法及应用
扫扫二维码,随身浏览文档
手机或平板扫扫即可继续访问
解第一类算子方程的一种正则化方法及应用
举报该文档为侵权文档。
举报该文档含有违规或不良信息。
反馈该文档无法正常浏览。
举报该文档为重复文档。
推荐理由:
将文档分享至:
分享完整地址
文档地址:
粘贴到BBS或博客
flash地址:
支持嵌入FLASH地址的网站使用
html代码:
&embed src='/DocinViewer-4.swf' width='100%' height='600' type=application/x-shockwave-flash ALLOWFULLSCREEN='true' ALLOWSCRIPTACCESS='always'&&/embed&
450px*300px480px*400px650px*490px
支持嵌入HTML代码的网站使用
您的内容已经提交成功
您所提交的内容需要审核后才能发布,请您等待!
3秒自动关闭窗口1. The Problem of Overfitting
1 还是来看预测房价的这个例子,我们先对该数据做线性回归,也就是左边第一张图。 如果这么做,我们可以获得拟合数据的这样一条直线,但是,实际上这并不是一个很好的模型。我们看看这些数据,很明显,随着房子面积增大,住房价格的变化趋于稳定或者说越往右越平缓。因此线性回归并没有很好拟合训练数据。
我们把此类情况称为欠拟合(underfitting),或者叫作叫做高偏差(bias)。 这两种说法大致相似,都表示没有很好地拟合训练数据。高偏差这个词是 machine learning 的研究初期传下来的一个专业名词,具体到这个问题,意思就是说如果用线性回归这个算法去拟合训练数据,那么该算法实际上会产生一个非常大的偏差或者说存在一个很强的偏见。 第二幅图,我们在中间加入一个二次项,也就是说对于这幅数据我们用二次函数去拟合。自然,可以拟合出一条曲线,事实也证明这个拟合效果很好。 另一个极端情况是,如果在第三幅图中对于该数据集用一个四次多项式来拟合。因此在这里我们有五个参数θ0到θ4,这样我们同样可以拟合一条曲线,通过我们的五个训练样本,我们可以得到如右图的一条曲线。 一方面,我们似乎对训练数据做了一个很好的拟合,因为这条曲线通过了所有的训练实例。但是,这实际上是一条很扭曲的曲线,它不停上下波动。因此,事实上我们并不认为它是一个预测房价的好模型。
所以,我们把这类情况叫做过拟合(overfitting),也叫高方差(variance)。 与高偏差一样,高方差同样也是一个历史上的叫法。从第一印象上来说,如果我们拟合一个高阶多项式,那么这个函数能很好的拟合训练集(能拟合几乎所有的训练数据),但这也就面临函数可能太过庞大的问题,变量太多。 同时如果我们没有足够的数据集(训练集)去约束这个变量过多的模型,那么就会发生过拟合。 2 过度拟合的问题通常发生在变量(特征)过多的时候。这种情况下训练出的方程总是能很好的拟合训练数据,也就是说,我们的代价函数可能非常接近于 0 或者就为 0。 但是,这样的曲线千方百计的去拟合训练数据,这样会导致它无法泛化到新的数据样本中,以至于无法预测新样本价格。在这里,术语"泛化"指的是一个假设模型能够应用到新样本的能力。新样本数据是指没有出现在训练集中的数据。 之前,我们看到了线性回归情况下的过拟合。类似的情况也适用于逻辑回归。 3 那么,如果发生了过拟合问题,我们应该如何处理? 过多的变量(特征),同时只有非常少的训练数据,会导致出现过度拟合的问题。因此为了解决过度拟合,有以下两个办法。
方法一:尽量减少选取变量的数量 具体而言,我们可以人工检查每一项变量,并以此来确定哪些变量更为重要,然后,保留那些更为重要的特征变量。至于,哪些变量应该舍弃,我们以后在讨论,这会涉及到模型选择算法,这种算法是可以自动选择采用哪些特征变量,自动舍弃不需要的变量。这类做法非常有效,但是其缺点是当你舍弃一部分特征变量时,你也舍弃了问题中的一些信息。例如,也许所有的特征变量对于预测房价都是有用的,我们实际上并不想舍弃一些信息或者说舍弃这些特征变量。
方法二:正则化 正则化中我们将保留所有的特征变量,但是会减小特征变量的数量级(参数数值的大小θ(j))。 这个方法非常有效,当我们有很多特征变量时,其中每一个变量都能对预测产生一点影响。正如我们在房价预测的例子中看到的那样,我们可以有很多特征变量,其中每一个变量都是有用的,因此我们不希望把它们删掉,这就导致了正则化概念的发生。 接下来我们会讨论怎样应用正则化和什么叫做正则化均值,然后将开始讨论怎样使用正则化来使学习算法正常工作,并避免过拟合。
2. Cost Function
1 在前面的介绍中,我们看到了如果用一个二次函数来拟合这些数据,那么它给了我们一个对数据很好的拟合。然而,如果我们用一个更高次的多项式去拟合,最终我们可能会得到一个曲线,它能很好地拟合训练集,但却并不是一个好的结果,因为它过度拟合了数据,因此,一般性并不是很好。 让我们考虑下面的假设,我们想要加上惩罚项,从而使参数 θ3 和 θ4 足够的小。
这里我的意思就是,上图的式子是我们的优化目标,也就是说我们需要尽量减少代价函数的均方误差。 对于这个函数我们对它添加一些项,加上 1000 乘以 θ3 的平方,再加上 1000 乘以 θ4 的平方,
1000 只是我随便写的某个较大的数字而已。现在,如果我们要最小化这个函数,那么为了最小化这个新的代价函数,我们要让 θ3 和 θ4 尽可能小。因为,如果你在原有代价函数的基础上加上 1000 乘以 θ3 这一项 ,那么这个新的代价函数将变得很大,所以,当我们最小化这个新的代价函数时, 我们将使 θ3 的值接近于 0,同样 θ4 的值也接近于 0,就像我们忽略了这两个值一样。如果我们做到这一点( θ3 和 θ4 接近 0 ),那么我们将得到一个近似的二次函数。
因此,我们最终恰当地拟合了数据,我们所使用的正是二次函数加上一些非常小,贡献很小项(因为这些项的 θ3、 θ4 非常接近于0)。显然,这是一个更好的假设。 2
更一般地,这里给出了正规化背后的思路。这种思路就是,如果我们的参数值对应一个较小值的话(参数值比较小),那么往往我们会得到一个形式更简单的假设。 在我们上面的例子中,我们惩罚的只是 θ3 和 θ4 ,使这两个值均接近于零,从而我们得到了一个更简单的假设,实际上这个假设大抵上是一个二次函数。 但更一般地说,如果我们像惩罚 θ3 和 θ4 这样惩罚其它参数,那么我们往往可以得到一个相对较为简单的假设。
实际上,这些参数的值越小,通常对应于越光滑的函数,也就是更加简单的函数。因此 就不易发生过拟合的问题。 我知道,为什么越小的参数对应于一个相对较为简单的假设,对你来说现在不一定完全理解,但是在上面的例子中使 θ3 和 θ4 很小,并且这样做能给我们一个更加简单的假设,这个例子至少给了我们一些直观感受。 来让我们看看具体的例子,对于房屋价格预测我们可能有上百种特征,与刚刚所讲的多项式例子不同,我们并不知道 θ3 和 θ4
是高阶多项式的项。所以,如果我们有一百个特征,我们并不知道如何选择关联度更好的参数,如何缩小参数的数目等等。 因此在正则化里,我们要做的事情,就是把减小我们的代价函数(例子中是线性回归的代价函数)所有的参数值,因为我们并不知道是哪一个或哪几个要去缩小。 因此,我们需要修改代价函数,在这后面添加一项,就像我们在方括号里的这项。当我们添加一个额外的正则化项的时候,我们收缩了每个参数。
顺便说一下,按照惯例,我们没有去惩罚 θ0,因此 θ0 的值是大的。这就是一个约定从 1 到 n 的求和,而不是从 0 到 n 的求和。但其实在实践中这只会有非常小的差异,无论你是否包括这 θ0 这项。但是按照惯例,通常情况下我们还是只从 θ1 到 θn 进行正则化。
下面的这项就是一个正则化项 并且 λ 在这里我们称做正则化参数。
λ 要做的就是控制在两个不同的目标中的平衡关系。 第一个目标就是我们想要训练,使假设更好地拟合训练数据。我们希望假设能够很好的适应训练集。 而第二个目标是我们想要保持参数值较小。(通过正则化项) 而 λ 这个正则化参数需要控制的是这两者之间的平衡,即平衡拟合训练的目标和保持参数值较小的目标。从而来保持假设的形式相对简单,来避免过度的拟合。 对于我们的房屋价格预测来说,我们之前所用的非常高的高阶多项式来拟合,我们将会得到一个非常弯曲和复杂的曲线函数,现在我们只需要使用正则化目标的方法,那么你就可以得到一个更加合适的曲线,但这个曲线不是一个真正的二次函数,而是更加的流畅和简单的一个曲线。这样就得到了对于这个数据更好的假设。 再一次说明下,这部分内容的确有些难以明白,为什么加上参数的影响可以具有这种效果?但如果你亲自实现了正规化,你将能够看到这种影响的最直观的感受。 3
在正则化线性回归中,如果正则化参数值 λ 被设定为非常大,那么将会发生什么呢? 我们将会非常大地惩罚参数θ1 θ2 θ3 θ4 … 也就是说,我们最终惩罚θ1 θ2 θ3 θ4 …& 在一个非常大的程度,那么我们会使所有这些参数接近于零。
如果我们这么做,那么就是我们的假设中相当于去掉了这些项,并且使我们只是留下了一个简单的假设,这个假设只能表明房屋价格等于 θ0 的值,那就是类似于拟合了一条水平直线,对于数据来说这就是一个欠拟合 (underfitting)。这种情况下这一假设它是条失败的直线,对于训练集来说这只是一条平滑直线,它没有任何趋势,它不会去趋向大部分训练样本的任何值。 这句话的另一种方式来表达就是这种假设有过于强烈的"偏见" 或者过高的偏差 (bais),认为预测的价格只是等于 θ0 。对于数据来说这只是一条水平线。 因此,为了使正则化运作良好,我们应当注意一些方面,应该去选择一个不错的正则化参数 λ 。当我们以后讲到多重选择时我们将讨论一种方法来自动选择正则化参数 λ& ,为了使用正则化,接下来我们将把这些概念应用到到线性回归和逻辑回归中去,那么我们就可以让他们避免过度拟合了。 3. Regularized Linear Regression 之前我们已经介绍过,岭回归的代价函数如下: 对于线性回归(的求解),我们之前运用了两种学习算法,一种基于梯度下降,一种基于正规方程。 1 梯度下降,如下:
2 正规方程,如下:
现在考虑 M(即样本量), 比 N(即特征的数量)小或等于N。 通过之前的博文,我们知道如果你只有较少的样本,导致特征数量大于样本数量,那么矩阵 XTX 将是不可逆矩阵或奇异(singluar)矩阵,或者用另一种说法是这个矩阵是退化(degenerate)的,那么我们就没有办法使用正规方程来求出 θ 。 幸运的是,正规化也为我们解决了这个问题,具体的说只要正则参数是严格大于零,实际上,可以证明如下矩阵:
将是可逆的。因此,使用正则还可以照顾任何 XTX 不可逆的问题。所以,你现在知道如何实现岭回归,利用它,你就可以避免过度拟合,即使你在一个相对较小的训练集里有很多特征。这应该可以让你在很多问题上更好的运用线性回归。 在接下来的视频中,我们将把这种正则化的想法应用到 Logistic 回归,这样我们就可以让 logistic 回归也避免过度拟合,从而表现的更好。
4. Regularized Logistic Regression
Regularized Logistic Regression 实际上与 Regularized Linear Regression 是十分相似的。
同样使用梯度下降:
如果在高级优化算法中,使用正则化技术的话,那么对于这类算法我们需要自己定义costFunction。
For those methods what we needed to do was to define the function that's called the cost function.
这个我们自定义的 costFunction 的输入为向量 θ ,返回值有两项,分别是代价函数 jVal 以及 梯度gradient。 总之我们需要的就是这个自定义函数costFunction,针对Octave而言,我们可以将这个函数作为参数传入到 fminunc 系统函数中(fminunc 用来求函数的最小值,将@costFunction作为参数代进去,注意 @costFunction 类似于C语言中的函数指针),fminunc返回的是函数 costFunction 在无约束条件下的最小值,即我们提供的代价函数 jVal 的最小值,当然也会返回向量 θ 的解。 上述方法显然对正则化逻辑回归是适用的。 5. 尾声 通过最近的几篇文章,我们不难发现,无论是线性回归问题还是逻辑回归问题都可以通过构造多项式来解决。但是,你将逐渐发现其实还有更为强大的非线性分类器可以用来解决多项式回归问题。下篇文章中,我们将会讨论。原文链接:低秩矩阵分解的正则化方法与应用化和,分解,和,矩阵低秩,与应用,矩阵分解,正则化方..
扫扫二维码,随身浏览文档
手机或平板扫扫即可继续访问
低秩矩阵分解的正则化方法与应用
举报该文档为侵权文档。
举报该文档含有违规或不良信息。
反馈该文档无法正常浏览。
举报该文档为重复文档。
推荐理由:
将文档分享至:
分享完整地址
文档地址:
粘贴到BBS或博客
flash地址:
支持嵌入FLASH地址的网站使用
html代码:
&embed src='/DocinViewer-4.swf' width='100%' height='600' type=application/x-shockwave-flash ALLOWFULLSCREEN='true' ALLOWSCRIPTACCESS='always'&&/embed&
450px*300px480px*400px650px*490px
支持嵌入HTML代码的网站使用
您的内容已经提交成功
您所提交的内容需要审核后才能发布,请您等待!
3秒自动关闭窗口}

我要回帖

更多关于 正则化 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信