Law of Iterated Expectations

\(E[Y] = E_X[E[Y |X]].\)

The notation \(E_X[.]\) indicates the expectation over the values of \(X\). Note that \(E[Y|X]\)

is a function of \(X\).

Proof for Law of Iterated Expectations

Proof for discrete random variables:

\(E[E[Y|X]]=\sum\limits_{x} E[Y|X=x]P(X=x)
\\= \sum\limits_{x} \sum\limits_{y} yP(Y=y|X=x)P(X=x)
\\= \sum\limits_{x} \sum\limits_{y} \dfrac{yP(X=x,Y=y)}{P(X=x)}P(X=x)
\\= \sum\limits_{y} \sum\limits_{x} yP(X=x,Y=y)
\\= \sum\limits_{y} yP(Y=y)
\\= E(Y).\)

Proof for continuous random variables:

\(E[E[Y|X]]=\int_{-\infin}^{\infin}(\int_{-\infin}^{\infin}yf_{Y|X}(y|x)dy)f_X(x)dx
\\= \int_{-\infin}^{\infin}(\int_{-\infin}^{\infin}y\dfrac{f(x,y)}{f_X(x)}dy)f_X(x)dx
\\= \int_{-\infin}^{\infin} \int_{-\infin}^{\infin}yf(x,y)dxdy
\\= \int_{-\infin}^{\infin} y \int_{-\infin}^{\infin}f(x,y)dxdy
\\= \int_{-\infin}^{\infin} y f_Y(y)dy
\\= E(Y).\)

The process of the proving includes the concept of conditional expectation, which can be learned from this article.

Covariance

In any bivariate distribution,

\(Cov[X, Y] = Cov_X[X, E[Y| X]] = \int_x(x - E[X]) E[Y| X]f_X(x) dx.\)

(Note that this is the covariance of \(x\) and a function of \(x\).)

Proof for discrete random variables:

\(Cov[X,E[Y|X]] = E[X-E[X]][E[Y|X]-E[E[Y|X]]]
\\=E[X-E[X]][E[Y|X]-E[Y]]
\\=E\{[X-E[X]]E[Y|X]-[X-E[X]]E[Y]\}
\\=E[X-E[X]]E[Y|X]-E[X-E[X]]E[Y]
\\=E[XE[Y|X]-E[X]E[Y|X]]-E[X-E[X]]E[Y]
\\=E[XE[Y|X]]-E[X]E[E[Y|X]]-E[X-E[X]]E[Y]
\\=E[XE[Y|X]]-E[X]E[Y]-E[X-E[X]]E[Y]
\\=E[x\sum\limits_y y P(Y=y|X=x)]-E[X]E[Y]
\\=\sum\limits_x \{x[\sum\limits_y y P(Y=y|X=x)]P(X=x)\}-E[X]E[Y]
\\=\sum\limits_x \{x[\sum\limits_y \dfrac{yP(X=x,Y=y)}{P(X=x)}] P(X=x) \}-E[X]E[Y]
\\=\sum\limits_x \sum\limits_y x y P(X=x,Y=y)-E[X]E[Y]
\\=E[X Y]-E[X]E[Y]
\\=Cov[X,Y].\)

Key Steps: \(E[XE[Y|X]]=E[X Y]\), \(E[E[Y|X]]=E[Y]\).

Proof for continuous random variables:

\(Cov[X,E[Y|X]]=E[XE[Y|X]]-E[X]E[Y]
\\=E[x \int_{-\infin}^{\infin} y f_{Y|X}(y|x)dy]-E[X]E[Y]
\\=E[x \int_{-\infin}^{\infin} y \dfrac{f(x, y)}{f_X(x)}dy]-E[X]E[Y]
\\=\int_{-\infin}^{\infin}[x \int_{-\infin}^{\infin} y \dfrac{f(x, y)}{f_X(x)}dy]f_X(x)dx-E[X]E[Y]
\\=\int_{-\infin}^{\infin} \int_{-\infin}^{\infin} x y f(x, y)dydx-E[X]E[Y]
\\=E[X Y]-E[X]E[Y]
\\=Cov[X,Y].\)

Inference

If random variable \(\epsilon\) is mean independent of random variable \(X\), then \(\epsilon\) and \(X\) are linear irrelevant i.e. \(E[\epsilon|X] = E[\epsilon](=0) \Rightarrow \rho_{\epsilon X}=0\)

Proof

\(E[\epsilon|X] = E[\epsilon](=0), Cov(\epsilon, X)=Cov(E[\epsilon|X],X) = Cov(E[\epsilon],X) = 0 \Rightarrow \rho_{\epsilon X} = 0 .\)

Decomposition of Variance OR Law of Total Variance

In a joint distribution,

\(Var[Y] = Var_X[E[Y| X]] + E_X[Var[Y| X]].\)

Proof for Law of Total Variance

\(Var[E[Y|X]]+E[Var[Y|X]]
\\= E[E[Y|X]-E[Y]]^2+E[E[Y|X]^2-E^2[Y|X]]
\\= E[E^2[Y|X]]-E^2[Y]+E[E[Y^2|X]]-E[E^2[Y|X]]
\\= E[E[Y^2|X]]-E^2[Y]
\\= E[Y^2]-E^2[Y].\)

The proof above uses the law of iterated expectations several times. A deeper and more direct understanding of the Law of Total Variance and whose relation to the K-means cluster and OLS can be found in this article.

Law of Iterated Expectations & Covariance的更多相关文章

  1. Pattern recognition and machine learning 疑难处汇总

    不断更新ing......... p141 para 1. 当一个x对应的t值不止一个时,Gaussian nosie assumption就不合适了.因为Gaussian 是unimodal的,这意 ...

  2. 齐夫定律, Zipf's law,Zipfian distribution

    齐夫定律(英语:Zipf's law,IPA英语发音:/ˈzɪf/)是由哈佛大学的语言学家乔治·金斯利·齐夫(George Kingsley Zipf)于1949年发表的实验定律. 它可以表述为: 在 ...

  3. Ill-conditioned covariance create

    http://www.mathworks.com/matlabcentral/answers/100210-why-do-i-receive-an-error-while-trying-to-gene ...

  4. Conway's law(康威定律)

    Mel Conway  康威在加利福尼亚理工学院获得物理学硕士学位,在凯斯西储大学获得数学博士学位.毕业之后,他参与了很多知名的软件项目,如 Pascal 编辑器.在他的职业生涯中,康威观察到一个现象 ...

  5. 加州大学伯克利分校Stat2.2x Probability 概率初步学习笔记: Section 3 The law of averages, and expected values

    Stat2.2x Probability(概率)课程由加州大学伯克利分校(University of California, Berkeley)于2014年在edX平台讲授. PDF笔记下载(Acad ...

  6. 墨菲定律-Murphy's Law (转载)

    墨菲定律 “墨菲定律”(Murphy's Law)亦称莫非定律.莫非定理.或摩菲定理,是西方世界常用的俚语. “墨菲定律”:事情往往会向你所想到的不好的方向发展,只要有这个可能性.比如你衣袋里有两把钥 ...

  7. BendFord's law's Chi square test

    http://www.siam.org/students/siuro/vol1issue1/S01009.pdf bendford'law e=log10(1+l/n) o=freq of first ...

  8. Educational Codeforces Round 13 D:Iterated Linear Function(数论)

    http://codeforces.com/contest/678/problem/D D. Iterated Linear Function Consider a linear function f ...

  9. 帕金森定律(Parkinson's Law)

    帕金森定律(Parkinson's Law)是官僚主义或官僚主义现象的一种别称, 是由英国历史学家.政治学家西里尔·诺斯古德·帕金森(Cyril Northcote Parkinson)通过长期调查研 ...

随机推荐

  1. C++/python求哈希值(SHA256)

    发现一个很奇怪的现象: python语言求哈希值所用时间竟然比C++少: C++ code 1 #include "stdafx.h" 2 #include <windows ...

  2. Redis5种数据类型

    字符串 @GetMapping("/string") public String stringTest(){ redisTemplate.opsForValue().set(&qu ...

  3. JUC(10)深入理解CAS和ABA

    文章目录 1.CAS 2.原子引用解决ABA问题,版本号.修改后,可以看到 1.CAS package com.cas; import java.util.concurrent.atomic.Atom ...

  4. MasaFramework -- 缓存入门与规则配置

    概念 什么是缓存,在项目中,为了提高数据的读取速度,我们会对不经常变更但访问频繁的数据做缓存处理,我们常用的缓存有: 本地缓存 内存缓存:IMemoryCache 分布式缓存 Redis: Stack ...

  5. sentinel的四种流控规则介绍

    sentinel的四种流控规则介绍 今天的内容我们主要围绕四个点进行展开介绍. 流控模式 :关联.链路 流控效果 :Warm Up.排队等待 这四点具体是什么意思呢? 首先启动项目:cloud-ali ...

  6. .NET Core C#系列之XiaoFeng.Data.IQueryableX ORM框架

    ​ 当前对象操作数据库写法和EF Core极度类似,因为现在大部分程序员都懒得去写SQL,再一个就是项目作大了或其它原因要改数据库,每次改数据库,那么写的SQL语句大部分要作调整,相当麻烦,并且写SQ ...

  7. JMETER与它的组件们

    JSON提取器与Debug Sampler 我们平时会遇到很多JSON格式的接口返回,我们需要提取参数可以用JSON提取器,同时配合自带的调试器来进行调试.  JSON提取器 Name of crea ...

  8. git pull与git pull --rebase

    aliases: [] tags: [git] link: date: 2022-08-30 目录 git pull --rebase 等效命令 总结 参考文章 git pull --rebase 在 ...

  9. Docker | 专栏文章整理🎉🎉

    Docker Docker系列文章基本已经更新完毕,这是我从去年的学习笔记中整理出来的. 笔记稍微有点杂乱.随意,把它们整理成文章花费了不少力气.整理的过程也是我的一个再次学习的过程,同时也是为了方便 ...

  10. 第一百零八篇:最常用的基本数据类型(Number,String类型)

    好家伙, 1.Number类型 从名称中我们可以得出,这是一个存放数值的类型, 不同的数值类型相应地也有不同的数值字面量格式 number类型可以储存不同进制的数(不常用就是了) 八进制:在数前加一个 ...