搜索结果
查询Tags标签: 随机变量,共有 21条记录-
决策树
熵 $H = -\sum_{i = 1}^{n} p(x_{i}) \log p(x_{i})$ $n$ 是分类的数目,熵越大代表随机变量 $X$ 的不确定性越大。 可知 $0 \leqslant H(P) \leqslant \log n$ 条件熵 $H(Y|X)$ 表示已知随机变量 $X$ 的条件下随机变量 $Y$ 的不确定性。 定义 $H(Y|X)=\sum_{…
2022/9/4 23:25:19 人评论 次浏览 -
期望,方差,协方差,协方差矩阵
1.期望 定义 \[E(x)=\sum\limits_{k=1}^{\infty}x_kp_k-离散型 \]\[E(x)=\int_{-\infty}^{+\infty}xf(x)dx-连续型 \]性质\(E(C)=C,C是常数\) \(E(CX)=CE(X),C是常数\) \(E(X+Y)=E(X)+E(Y)\) \(若X,Y相互独立,有E(XY)=E(X)E(Y)\)2.方差 定义 \[D(X)=\sum\limits_{k=1}^{\…
2022/5/1 23:14:21 人评论 次浏览 -
随机变量、分布函数
随机变量 定义:对样本空间,有一个实值函数X=X(w),使每个实验结果关联一个特定的数,这种实验结果与数的对应关系形成随机变量。我们将实验结果所对应的数称为随机变量的取值。(简单的说每个实验结果用一个数来表示,这样在数学上比较方便) 对随机变量进行分类有:离散…
2022/2/6 23:45:12 人评论 次浏览 -
【学习笔记】第四章 概率论与数理统计
4.1 随机变量的概率计算和数字特征 4.1.1 随机变量的概率计算 例4.1 设 (1)求P{2<X<6};(2)确定c,使P{-3c<X<2c}=0.6 from scipy.stats import norm from scipy.optimize import fsolve print("p=",norm.cdf(6,3,5)-norm.cdf(2,3,5))#做差,后…
2022/1/24 23:36:53 人评论 次浏览 -
开始讨论离散型随机变量吧!《考研概率论学习之我见》 -by zobol
上一文中,笔者给出了随机变量的基本定义:一个可测映射,从结果空间到实数集,我们的目的是为了引入函数这个数学工具到考研概率论中,但是我们在现实中面对的一些事情结果,映射而成的随机变量和其对应的概率值,并不能映射一个有太多用的函数。这就是离散型随机变量。我…
2022/1/24 6:04:28 人评论 次浏览 -
为什么要引入”随机变量“的概念,如何定义随机变量《考研概率论学习之我见》
l 先仔细定义一下随机变量的概念,然后再引入概率函数比较好。1.随机变量的准确定义 2.为什么要引入随机变量? 3.随机变量的本质是什么? 4.随机变量的对应关系f唯一吗? 5.随机变量明明是”函数“为什么叫”变量“? 6.我们之前学的考研古典概率样本空间跟随机变量的联系…
2022/1/23 6:05:19 人评论 次浏览 -
机器学习笔记十:各种熵总结
一.什么是熵Ⅰ.信息量首先考虑一个离散的随机变量x,当我们观察到这个变量的一个具体值的时候,我们接收到多少信息呢? 我们暂时把信息看做在学习x的值时候的”惊讶程度”(这样非常便于理解且有意义).当我们知道一件必然会发生的事情发生了,比如往下掉的苹果.我们并不惊讶,…
2022/1/11 23:08:51 人评论 次浏览 -
机器学习笔记十:各种熵总结
一.什么是熵Ⅰ.信息量首先考虑一个离散的随机变量x,当我们观察到这个变量的一个具体值的时候,我们接收到多少信息呢? 我们暂时把信息看做在学习x的值时候的”惊讶程度”(这样非常便于理解且有意义).当我们知道一件必然会发生的事情发生了,比如往下掉的苹果.我们并不惊讶,…
2022/1/11 23:08:51 人评论 次浏览 -
BUAA_概率统计_Chap05_随机变量的数字特征
第五章 随机变量的数字特征 5.1 数学期望 5.1.1 离散型随机变量 \(X\) 的数学期望 定义 设 \(X\) 的分布律为:\(P\{X=x_k\}=p_k,\quad k = 1, 2, ...\) 若级数 \(\sum\limits_{k=1}^{\infty}x_kp_k\) 绝对收敛(即\(\sum\limits_{k=1}^{\infty}|x_k|p_k\) 收敛) 则称级数…
2022/1/9 6:03:31 人评论 次浏览 -
BUAA_概率统计_Chap05_随机变量的数字特征
第五章 随机变量的数字特征 5.1 数学期望 5.1.1 离散型随机变量 \(X\) 的数学期望 定义 设 \(X\) 的分布律为:\(P\{X=x_k\}=p_k,\quad k = 1, 2, ...\) 若级数 \(\sum\limits_{k=1}^{\infty}x_kp_k\) 绝对收敛(即\(\sum\limits_{k=1}^{\infty}|x_k|p_k\) 收敛) 则称级数…
2022/1/9 6:03:31 人评论 次浏览 -
【人工智能导论:模型与算法】信息熵 交叉熵
【人工智能导论:模型与算法】 P124 交叉熵;梯度下降法;学习率 P127 信息熵;信息增益 这几个知识点需要科普一下。 交叉熵:度量两个概率分布间的差异性信息。 信息熵:系统有序化程度的一个度量。香农用信息熵的概念来描述信源的不确定度。 信息熵:表示随机变量的不…
2021/11/27 11:12:00 人评论 次浏览 -
【人工智能导论:模型与算法】信息熵 交叉熵
【人工智能导论:模型与算法】 P124 交叉熵;梯度下降法;学习率 P127 信息熵;信息增益 这几个知识点需要科普一下。 交叉熵:度量两个概率分布间的差异性信息。 信息熵:系统有序化程度的一个度量。香农用信息熵的概念来描述信源的不确定度。 信息熵:表示随机变量的不…
2021/11/27 11:12:00 人评论 次浏览 -
随机变量分析
随机变量笔记 随机变量:赋予实验结果a一个数,记为X(a)。如下两个列子加以说明: (1) 在掷骰子的游戏中,可能的实验结果有六种,记为fif_{i}fi。赋予每个实验结果一个量fi=10∗if_i=10*ifi=10∗i,也即f1f_1f1=10等等。 (2) 同样的实验中,我们赋予奇数为1,…
2021/10/21 23:13:29 人评论 次浏览 -
随机变量分析
随机变量笔记 随机变量:赋予实验结果a一个数,记为X(a)。如下两个列子加以说明: (1) 在掷骰子的游戏中,可能的实验结果有六种,记为fif_{i}fi。赋予每个实验结果一个量fi=10∗if_i=10*ifi=10∗i,也即f1f_1f1=10等等。 (2) 同样的实验中,我们赋予奇数为1,…
2021/10/21 23:13:29 人评论 次浏览 -
随机现象与随机变量
初学概率论多个含有随机的名词容易让人糊涂。 随机现象:偶然性的现象。比如投掷色子的点数。 样本空间:所有随机现象的集合称为样本空间。 随机事件:随机现象的集合称为随机事件。 随机变量:用变量表示随机事件。 这么背有些枯燥: 其实就是身边有随机现象如丢硬币的结…
2021/8/27 23:09:10 人评论 次浏览