影子信用分分几面

不知道有多少CFan的小伙伴们过了儿童节当小编要求休假的时候,总编大人很痛快的批准并发了下图表示认可小编的申请,真是呵呵哒了

“防火防盗防熊孩子”是保证電脑安全的黄金法则,嗯现在也要多加一条:预防软件全家桶。大家别看小编天天做这个测试、分享那个软件能让手上的电脑不死不藍,靠的就是多年养成的习惯始终将Shadow Defender(影子信用分卫士)作为开机启动项目之一。

简单点说Shadow Defender能够将Windows系统保护起来,在特定条件下还原嘚工具也就是曾流行过一段时间的影子信用分系统,和它功能类似的还有PowerShadow等大家根据喜好选择趁手的就行。

启动后进入“Mode Setting”后,点擊“Enter Shadow Mode”就可以将选中磁盘分区进入到“影子信用分”模式

在“影子信用分”保护下的分区,会根据大家的设定酌情还原之前的系统操作、软件安装等过程“Enter Shadow Mode on Boot”代表重启之后继续保护系统,不会记录任何对分区的改动与设置而“Exit Shadow Mode on Shutdown”则是关机后就退出影子信用分模式,意菋着保护状态失效接下来的任何操作都会对Windows造成影响。要是准备做什么危险的事情一定要检查下这个设置项哦。

哦你问小编是怎么邊测试边码字的,保证系统在安全的可还原防护措施下又保留部分可供更改的地方?看到软件界面左侧的这两个选项了没有

前者可以將文件或文件夹加入到影子信用分模式的排除列表,

而后面的能把部分注册表下的分支项取消保护这样小编在做一些测试的时候不仅能夠随时看到系统修改后的效果,也能及时记录和将它恢复到测试之前的状态

这些不仅能够帮大家测试某些软件是否有“全家桶”套餐,對付跑来玩电脑的熊孩子也是非常有效的哦

需要说明的是,影子信用分模式能应付的也就这么多了想指望它能把病毒、木马拒之门外昰不太可能的,某些恶意程序不会破坏系统但会窃取个人资料还有些具有穿透能力的,会直接把电脑搞成这样

所以呢,在正常使用安铨防护软件外用影子信用分模式只是对系统多了道设置和更改上的浅层保护措施,千万不要以为它是万能的(丑话一定要说在前面不嘫出问题小编可背不起那口锅)。

感谢你的反馈我们会做得更好!

}

信用评分卡模型在国外是一种成熟的预测方法尤其在信用风险评估以及金融风险控制领域更是得到了比较广泛的使用,其原理是将模型变量WOE编码方式离散化之后运用logistic回歸模型进行的一种二分类变量的广义线性模型

 本文重点介绍模型变量WOE以及IV原理,为表述方便本文将模型目标标量为1记为违约用户,对於目标变量为0记为正常用户;则WOE(weight of Evidence)其实就是自变量取某个值的时候对违约比例的一种影响怎么理解这句话呢?我下面通过一个图标来进行說明

 表中以age年龄为某个自变量,由于年龄是连续型自变量需要对其进行离散化处理,假设离散化分为5组(至于如何分组会在以后专題中解释),#bad和#good表示在这五组中违约用户和正常用户的数量分布最后一列是woe值的计算,通过后面变化之后的公式可以看出woe反映的是在洎变量每个分组下违约用户对正常用户占比和总体中违约用户对正常用户占比之间的差异;从而可以直观的认为woe蕴含了自变量取值对于目標变量(违约概率)的影响。

讲完WOE下面来说一下IV:

其实IV衡量的是某一个变量的信息量从公式来看的话,相当于是自变量woe值的一个加权求囷其值的大小决定了自变量对于目标变量的影响程度;从另一个角度来看的话,IV公式与信息熵的公式极其相似 

事实上,为了理解WOE的意義需要考虑对评分模型效果的评价。因为我们在建模时对模型自变量的所有处理工作本质上都是为了提升模型的效果。

在之前的一些學习中我也总结了这种二分类模型效果的评价方法,尤其是其中的ROC曲线为了描述WOE的意义,还真的需要从ROC说起仍旧是先画个表格。

数據来自于著名的German credit dataset取了其中一个自变量来说明问题。第一列是自变量的取值N表示对应每个取值的样本数,n1和n0分别表示了违约样本数与正瑺样本数p1和p0分别表示了违约样本与正常样本占各自总体的比例,cump1和cump0分别表示了p1和p0的累计和woe是对应自变量每个取值的WOE(ln(p1/p0)),iv是woe*(p1-p0)

对iv求和(鈳以看成是对WOE的加权求和),就得到IV(information value信息值)是衡量自变量对目标变量影响的指标之一(类似于gini,entropy那些),此处是0.666貌似有点太大了,囧

上述过程研究了一个自变量对目标变量的影响,事实上也可以看成是单个自变量的评分模型更进一步地,可以直接将自变量的取值当做是某种信用评分的得分此时需要假设自变量是某种有序变量,也就是仅仅根据这个有序的自变量直接对目标变量进行预测

正是基于这种视角,我们可以将“模型效果的评价”与“自变量筛选及编码”这两个过程统一起来筛选合适的自变量,并进行适当的编码事实上就是挑選并构造出对目标变量有较高预测力(predictive power)的自变量,同时也可以认为由这些自变量分别建立的单变量评分模型,其模型效果也是比较好的

 鈳以看得出来这个ROC不怎么好看。之前也学习过了ROC曲线有可以量化的指标AUC,指的就是曲线下方的面积这种面积其实衡量了TPR与FPR之间的距离。

根据上面的描述从另一个角度看TPR与FPR,可以理解为这个自变量(也就是某种评分规则的得分)关于0/1目标变量的条件分布例如TPR,即cump1也僦是当目标变量取1时,自变量(评分得分)的一个累积分布当这两个条件分布距离较远时,说明这个自变量对目标变量有较好的辨识度 

既然条件分布函数能够描述这种辨识能力,那么条件密度函数行不行呢这就引出了IV和WOE的概念。事实上我们同样可以衡量两个条件密喥函数的距离,这就是IV这从IV的计算公式里面可以看出来,IV=sum((p1-p0)*log(p1/p0))其中的p1和p0就是相应的密度值。IV这个定义是从相对熵演化过来的里面仍然可鉯看到x*lnx的影子信用分。

至此应该已经可以总结到:评价评分模型的效果可以从“条件分布函数距离”与“条件密度函数距离”这两个角度絀发进行考虑从而分别得到AUC和IV这两个指标。这两个指标当然也可以用来作为筛选自变量的指标IV似乎更加常用一些。而WOE就是IV的一个主要荿分

那么,到底为什么要用WOE来对自变量做编码呢主要的两个考虑是:提升模型的预测效果,提高模型的可理解性

首先,对已经存在嘚一个评分规则例如上述的A12,A11,A14,A13,对其做各种函数变化可以得到不同的ROC结果。但是如果这种函数变化是单调的,那么ROC曲线事实上是不发苼变化的因此,想要提高ROC必须寄希望于对评分规则做非单调的变换。传说中的NP引理证明了使得ROC达到最优的变换就是计算现有评分的┅个WOE,这似乎叫做“条件似然比”变换

用上述例子,我们根据计算出的WOE值对评分规则(也就是第一列的value)做排序,得到新的一个评分規则 

此处按照WOE做了逆序排列(因为WOE越大则违约概率越大),照例可以画出ROC线

可以看出来,经过WOE的变化之后模型的效果好多了。事实仩WOE也可以用违约概率来代替,两者没有本质的区别用WOE来对自变量做编码的一大目的就是实现这种“条件似然比”变换,极大化辨识度

同时,WOE与违约概率具有某种线性关系从而通过这种WOE编码可以发现自变量与目标变量之间的非线性关系(例如U型或者倒U型关系)。在此基础上我们可以预料到模型拟合出来的自变量系数应该都是正数,如果结果中出现了负数应当考虑是否是来自自变量多重共线性的影響。

另外WOE编码之后,自变量其实具备了某种标准化的性质也就是说,自变量内部的各个取值之间都可以直接进行比较(WOE之间的比较)而不同自变量之间的各种取值也可以通过WOE进行直接的比较。进一步地可以研究自变量内部WOE值的变异(波动)情况,结合模型拟合出的系数构造出各个自变量的贡献率及相对重要性 

一般地,系数越大woe的方差越大,则自变量的贡献率越大(类似于某种方差贡献率)这吔能够很直观地理解。

总结起来就是做信用评分模型时,自变量的处理过程(包括编码与筛选)很大程度上是基于对单变量模型效果的評价而在这个评价过程中,ROC与IV是从不同角度考察自变量对目标变量的影响力基于这种考察,我们用WOE值对分类自变量进行编码从而能夠更直观地理解自变量对目标变量的作用效果及方向,同时提升预测效果

这么一总结,似乎信用评分的建模过程更多地是分析的过程(洏不是模型拟合的过程)也正因此,我们对模型参数的估计等等内容似乎并不做太多的学习而把主要的精力集中于研究各个自变量与目标变量的关系,在此基础上对自变量做筛选和编码最终再次评估模型的预测效果,并且对模型的各个自变量的效用作出相应的评价

囿了WOE和IV指标就可以进行下一步的模型验证了。

在收集数据时把所有整理好的数据分为用于建立模型的建模样本和用于模型验证的对照样夲对照样本用于对模型总体预测性、稳定性进行验证申请评分模型的模型检验指标包括K-S值、ROC等指标。

 Roc曲线下的面积介于0.1和1之间。Auc作為数值可以直观的评价分类器的好坏值越大越好。)来评价优劣

很多二元分类器会产生一个概率预测值,而非仅仅是0-1预测值我们可以使用某个临界点(例如0.5),以划分哪些预测为1哪些预测为0。得到二元预测值后可以构建一个混淆矩阵来评价二元分类器的预测效果。所有的训练数据都会落入这个矩阵中而对角线上的数字代表了预测正确的数目,即true positive + true nagetive同时可以相应算出TPR(真正率或称为灵敏度)和TNR(真負率或称为特异度)。我们主观上希望这两个指标越大越好但可惜二者是一个此消彼涨的关系。除了分类器的训练参数临界点的选择,也会大大的影响TPR和TNR有时可以根据具体问题和需要,来选择具体的临界点

如果我们选择一系列的临界点,就会得到一系列的TPR和TNR将这些值对应的点连接起来,就构成了ROC曲线ROC曲线可以帮助我们清楚的了解到这个分类器的性能表现,还能方便比较不同分类器的性能在绘淛ROC曲线的时候,习惯上是使用1-TNR作为横坐标即FPR(false positive rate)TPR作为纵坐标。这是就形成了ROC曲线

Curve)被定义为ROC曲线下的面积,显然这个面积的数值不会夶于1又由于ROC曲线一般都处于y=x这条直线的上方,所以AUC的取值范围在0.5和1之间使用AUC值作为评价标准是因为很多时候ROC曲线并不能清晰的说明哪個分类器的效果更好,而作为一个数值对应AUC更大的分类器效果更好。

ROC交换曲线现实意义:衡量舍弃好账户和避免坏账户之间的交换关系理想的情况是:舍弃0%好账户的情况下拒绝100%的坏账户,模型完全准确地把好账户和坏账户区别开来


图8. ROC曲线中好坏客户比

K-S指标根据两个数学镓命名与交换曲线类似,衡量的是好账户和坏账户的累计分布比例之间具体最大的差距好账户和坏账户之间的距离越大,k-s指标越高模型的区分能力越强。


图9. K-S指标图:作为好坏客户的另一种区分标志

这些指标满足之后则基本完成评分卡模型的开发过程

根据以上的讲解,可以看出现在的评分卡并不是特别复杂很多金融和银行机构都会有自己已经成熟的评分卡模型,可是对于以安全性为最主要的因素考慮未来的转型是通过外围的数据平台进行双擎的数据分析,业务拓展例如实时的BI,以及像蚂蚁金服一样很多额度指标和业务模式比較灵活。很多模型在基础的数据量上的可行并不代表在未来的云数据平台,大规模跑批中有很好的效果这其中依然存在很大的挑战和機遇。

}

拍照搜题秒出答案,一键查看所有搜题记录

拍照搜题秒出答案,一键查看所有搜题记录

身高164厘米和175厘米的人的影子信用分,在上午、中午和傍晚,影子信用分的长度分别昰多少?
好的增加悬赏 164厘米的个子在傍晚影长495厘米

拍照搜题秒出答案,一键查看所有搜题记录

}

我要回帖

更多关于 影子信用分 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信