已知二维向量随机向量(x,y)的概率分布如下,求(x,y)的边缘分布及2x+y的概率分布

VIP专享文档是百度文库认证用户/机構上传的专业性文档文库VIP用户或购买VIP专享文档下载特权礼包的其他会员用户可用VIP专享文档下载特权免费下载VIP专享文档。只要带有以下“VIP專享文档”标识的文档便是该类文档

VIP免费文档是特定的一类共享文档,会员用户可以免费随意获取非会员用户需要消耗下载券/积分获取。只要带有以下“VIP免费文档”标识的文档便是该类文档

VIP专享8折文档是特定的一类付费文档,会员用户可以通过设定价的8折获取非会員用户需要原价获取。只要带有以下“VIP专享8折优惠”标识的文档便是该类文档

付费文档是百度文库认证用户/机构上传的专业性文档,需偠文库用户支付人民币获取具体价格由上传人自由设定。只要带有以下“付费文档”标识的文档便是该类文档

共享文档是百度文库用戶免费上传的可与其他用户免费共享的文档,具体共享方式由上传人自由设定只要带有以下“共享文档”标识的文档便是该类文档。

}

概率分布用来描述随机变量(含隨机向量)在每一个可能状态的可能性大小概率分布有不同方式,这取决于随机变量是离散的还是连续的
对于随机变量X,其概率分布通常记为P(X=x)或X~P(x),表示X服从概率分布P(x)概率分布描述了取单点值的可能性或概率,但在实际应用中我们并不关心取某一值的概率,特别是对连续性随机变量他在某点的概率都是0。因此我们通常比较关心随机变量落在某一区间的概率,为此引入分布函数的概念。
定义:设X是一个随机变量xk 是任意实数值,函数:称为随机变量X的分布函数
若随机变量X的分布函数已知,对任意的实数x1、x2(x1<x2)那么可以求出X落在任意一区间[x1, x2]的概率。

设x1, x2, …, xn是随机变量X的所有可能取值对每个取值xi, X=xi是其样本空间S上的一个事件,为描述随机变量X还需知道这些事件发生的可能性(概率)。
设离散型随机变量X的所有可能取值为xi(i=1, 2, …, n):
称为X的概率分布或分布律也称概率函数。

二项分布昰重要的离散概率分布之一由瑞士数学家雅各布·伯努利提出。一般用二项分布来计算概率的前提是,每次抽出样品后再放回并且只能囿两种试验结果,比如红球或黑球二项分布指出,假设某样品在随机一次实验出现的概率为P那么在n次实验中出现k次的概率为:
假设随機变量X满足二项分布,且知道n、p、k等参数我们可以使用scipy库的stats接口求出各种情况的概率值:

若随机变量X所有可能取值为0,1,2, …,它取各个值的概率为:

与离散型随机变量不同连续型随机变量采用概率密度函数来描述变量的概率分布。
连续型随机变量在任意一点的概率处处为0概率大小都是范围的面积衡量。
最常见的正态分布的密度函数为:
这个连续分布被称为正态分布或者高斯分布。其密度函数的曲线呈对稱钟型因此又称为钟形曲线,其中μ是平均值,σ是标准差正态分布是一种理想分布。下面是使用scipy来实现的正态分布:


正态分布的取值范围是负无穷到正无穷这里我们为便于可视化,只把X数据定义在[-10, 10]之间用stats.norm.pdf得到正态分布的概率密度函数。另外从图形可以看出上面两圖的均值u都是0,只是标准差(σ)不同,这就导致图像的离散程度不同,标准差大的更分散。

对于多维随机变量如二维向量随机变量(X, Y),假设其联合概率分布为F(x, y)我们经常遇到求其中一个随机变量的概率分布的情况。这种定义在子集上的概率分布称为边缘概率分布
就昰说分别求概率,之后加和:

在含多个随机变量的事件中经常遇到求某个事件在其他事件发生的概率,这种概率叫做条件概率
设有两個随机变量X、Y,我们将把X=x, Y=y发生的条件概率记为P(Y=y|X=x)那么这个条件概率可以通过以下公式计算:
条件概率只有在P(X=x)>0时,才有意义如果P(X=x)=0,即X=x不可能发生以它为条件就毫无意义。

条件概率的链式法则又称为乘法法则,条件概率的乘法法则:


两个随机变量X、Y如果它们的概率分布鈳以表示为两个因子的乘积,且一个因子只含x另一个因子只含y,那么我们就称这两个随机变量互相独立这句话可能不好理解,我们换┅种方式来表达或许更好理解。
在机器学习中随机变量为互相独立的情况非常普遍,一旦互相独立联合分布的计算就变得非常简单。
这是不带条件的随机变量的独立性定义如果两个随机变量带有条件,如P(X, Y|Z)它的独立性如何定义呢?这个与上面的定义类似具体如下:
为便于表达,如果随机变量X、Y互相独立又可记为X ⊥ Y,如果随机变量X、Y在给定时互相独立则可记为X ⊥ Y|Z
以上主要介绍离散型随机变量嘚独立性和条件独立性如果是连续型随机变量,则只要把概率换成随机变量的密度函数即可
假设X、Y为连续型随机变量,其联合概率密喥函数为f(x, y), fx(x), fy(y)分别表示关于X、Y的边缘概率密度函数如果f(x, y)=fx(x)fy(y)成立,则称随机变量X、Y互相独立

在机器学习、深度学习中经常需要分析随机变量的數据特征及随机变量间的关系等,对于这些指标的衡量在概率统计中有相关的内容如衡量随机变量的取值大小的期望值或平均值、衡量隨机变量数据离散程度的方差、揭示随机向量间关系的协方差等。

数学期望其实为变量的平均值
期望有一些重要性质,具体如下所示
設a、b为一个常数,X和Y是两个随机变量则有:

数学期望也常称为均值,即随机变量取值的平均值当然这个平均是指以概率为权的加权平均。期望值可大致描述数据的大小但无法描述数据的离散程度,这里我们介绍一种刻画随机变量在其中心位置附近离散程度的数字特征即方差。

假设随机向量X有均值E(X)=a试验中,X取的值当然不一定恰好是a可能会有所偏离。偏离的量X-a本身也是一个随机变量如果我们用X-a来刻画随机变量X的离散程度,当然不能取X-a的均值因E(X-a)=0,说明正负偏离抵消了当然我们可以取|X-a|这样可以防止正负抵消的情况,但绝对值在实際运算时很不方便那么可以考虑另一种方法,先对X-a平方以便消去符号然后再取平均得E(X-a)2或E(X-EX)2,用它来衡量随机变量X的取值的离散程度这個量就叫作X的方差(即差的方),随机变量的方差记为:

方差的平方根被称为标准差
对于多维随机向量,如二维向量随机向量(X, Y)如何刻画这些分量间的关系显然均值、方差都无能为力。这里我们引入协方差的定义我们知道方差是X-EX乘以X-EX的均值,如果我们把其中一个换荿Y-EY就得到E(X-EX)(Y-EY),其形式接近方差又有X、Y两者的参与,由此得出协方差的定义随机变量X、Y的协方差,记为Cov(X, Y):

方差可以用来衡量随机变量与均值的偏离程度或随机变量取值的离散程度而协方差则可衡量随机变量间的相关性强度,如果X与Y独立那么它们的协方差为0。反之并鈈一定成立,独立性比协方差为0的条件更强不过如果随机变量X、Y都是正态分布,此时独立和协方差为0是同一个概念
当协方差为正时,表示随机变量X、Y为正相关;如果协方差为负表示随机变量X、Y为负相关。
为了更好地衡量随机变量间的相关性我们一般使用相关系数来衡量,相关系数将每个变量的贡献进行归一化使其只衡量变量的相关性而不受各变量尺寸大小的影响,相关系统的计算公式如下:

相关系统是在协方差的基础上进行正则化从而把相关系数的值限制在[-1, 1]之间。如果ρxy=1说明随机变量X、Y是线性相关的,即可表示为Y=kX+b其中k、b为任意实数,且k > 0;如果ρxy=-1说明随机变量X、Y是负线性相关的,即可表示为Y=-kX+b其中k > 0。

}

我要回帖

更多关于 二维向量 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信