3 minute read

Random Variable (9)

현재 정리하는 내용은 KAIST EE의 이융 교수님, Probability and Intorductory Random Process 강의를 참고하여 작성했습니다.

Weak Law of Large Numbers : Proof

  • WLLN을 증명하기 위해서 Inequality에 관한 두 가지 증명을 알아야 한다.
    1. Markov Inequality
    2. Chebyshev Inequality
  • 하나씩 증명해보자.


Markov Inequality

  • 이 증명이 궁금해 하는 질문은
    → Knowing E(X), Can we say something about the distribution of X?
  • E만 알고 있다고 해서, distribution을 정확히 알 수는 없지만 rough하게는 알 수 있다.
  • 직관적으로 생각해보자.
    스크린샷 2021-11-11 오후 4 26 55
  • 이를 활용한 것이 Markov Inequality이다.
    스크린샷 2021-11-11 오후 4 27 20
  • 이제 이를 증명해보자. 간단하다.
    1. a > 0일 때, Ya라는 RV를 하나 정의하자.
      스크린샷 2021-11-11 오후 4 28 15
    2. 그러면, non-negativity of X를 사용해서 Ya <= X일 때, E[Ya] <= E[X]임을 알 수 있다.
    3. 이제 마지막 단계!
      스크린샷 2021-11-11 오후 4 29 08



Chebyshev Inequality

  • 이 증명도 궁금해하는 것이 있다.
    → Knowing both E(X) and var(X), Can we say something about the distribution of X?
  • Markov Inequality보다 주어진 정보가 더 많으니, 이보다 조금이라도 더 자세하게 distribution을 표현할 수 있을 것이다.
  • 직관적으로 생각해보자.
    → 작은 분산은 무엇을 의미할까? 즉, small var(X)가 무엇을 의미할까?
    → 간단하게, X가 이것의 평균으로부터 멀지 않은 곳에 뭉쳐있음을 의미한다 (간단).
  • 자 그러면, Expectation이 μ, Var가 σ^2이라고 해보자.
    → 이러한 가정에서 Chebyshev Inequality는 다음을 정의한다.
    스크린샷 2021-11-11 오후 4 41 16
  • 정의는 더 간단하다.
    스크린샷 2021-11-11 오후 4 41 40


Example: MI vs CI

  • 먼저 앞서 증명한 MI와 CI는 정확한 Distribution이 아닌, 여기 정도에 존재할 것 같다라는 bound를 제공한다.

  • X ~ exp(1). Then, E[X] = 1/λ = 1, Var[X] = 1/(λ^2) = 1
  • Exact CCDF : P(X >= a) = e^(-aλ) = e^(-a)
Markov Inequality Chebyshev Inequality
스크린샷 2021-11-11 오후 4 52 43 스크린샷 2021-11-11 오후 4 52 52
  • 여기서 알아낼 수 있는 것은 무엇일까?
    1. For resonably large a, CI provides much better bound.
    2. Knowing the variance helps
    3. Both bounds are the ones that bound the probability of rare events.


Back to WLLN Proof

스크린샷 2021-11-11 오후 4 56 27

  • CI를 적용하면 다음과 같이 정의할 수 있다.


Comparison : WLLN vs CLT

  • 동일한 문제에 대해서 WLLN과 CLT로 풀었을 때의 차이점을 확인해보자.


Example : Polling using WLLN

  • p : fraction of voters who support someone

  • Interview n randomly selected voters and record the result in Mn = (X1 + … + Xn)/n which is a estimate of p, where Bern. rv Xi = 1 if i-th interviewee answers ‘yes’, and 0 otherwise.

  • 그러면 다음과 같이 WLLN과 CI를 사용하여 식을 만들 수 있다.
    스크린샷 2021-11-11 오후 5 46 28


    Q1. What is n so that the probability that our estimate is correct by more than 0.1 is no longer than 0.25?
    스크린샷 2021-11-11 오후 5 47 31
    Q2. What is n so that the probability that our estimate is correct by more than 0.01 is no longer than 0.05?
    스크린샷 2021-11-11 오후 5 48 09


Example : Polling using CLT

  • 조건은 이전에 푼 문제와 동일하다.

  • 그러면, 이번엔 CLT를 적용해서 식을 만들어보자.

    스크린샷 2021-11-11 오후 5 49 14

  • WLLN에서 풀었던 두번째 질문에 대해 CLT를 사용해서 답을 도출해보자.



Central Limit Theorem: Proof

Moment Generating Function (MGF)

  • CLT에 대한 증명을 하기 전에 MGF라는 것을 알고 가보자
  • 간단하게 Moment Generating Function은 s라는 파라미터를 갖는 X에 대한 함수이다.
    → The Moment Generating Function Mx(s) of a rv X is a function of a scaler parameter s
  • 수식으로는 다음과 같이 표현된다.
    스크린샷 2021-11-13 오후 1 01 48
  • 정리할 때는 편하게 M(s)라고 적겠다.


Examles

  • 몇 가지의 예제를 통해 MGF를 만드는 법을 확인해보자.
    1. Discrete
      스크린샷 2021-11-13 오후 1 08 25
    2. Continuous
      스크린샷 2021-11-13 오후 1 08 48
    3. Linear RVs
      스크린샷 2021-11-13 오후 1 09 02
      → MY와 MX간의 관계를 표현하는 식으로도 해석이 가능하다.
    4. Standard Noraml RV
      스크린샷 2021-11-13 오후 1 11 14



Useful Properties of MGF

스크린샷 2021-11-13 오후 1 19 35



Example

  • 앞서 설명한 속성이 어떻게 활용되는지 간단한 Exp RV를 통해 이해해보자.
    스크린샷 2021-11-13 오후 1 22 05

Inversion Property

  • MGF에는 또 다른 중요한 특성이 있다.
    스크린샷 2021-11-13 오후 1 24 43
  • 이게 무슨 말일까?
    → 간단히 말하자면, MGF와 X는 일대일 관계이고, 만약 우리가 MGF를 안다면 distribution을 recover 할 수 있다는 것이다.
  • 어떨 떄는 복구하는 것이 어려울 수도 있고, 쉬울 수도 있다.
  • 쉬운 예제와 어려운 예제를 하나씩 살펴보자.


Example 1.

스크린샷 2021-11-13 오후 1 28 48

→ 쉽다 쉬워~~~ 이제 어려운거 해보자.

Example 2.

스크린샷 2021-11-13 오후 1 29 32
→ 식을 전개하면서 사용한 방법은 1 + a + a^2 + … = 1/(1-a) (when abs(a) < 1)



Back to CLT Proof

  • Without loss of generality, assume E(Xi) = 0 and var(Xi) = 1.
  • 그러면 Zn은 다음과 같이 정의가 될 것이다.
    스크린샷 2021-11-13 오후 1 45 02
  • 먼저, Zn의 MGF를 구해보자. (이는 Standard Normal Distribution이 될 것이다.)
    스크린샷 2021-11-13 오후 1 46 12
  • 간단하게 수식을 전개하기 위해 M = M_X1이라고 하자.
  • 그럼 우리가 배웠던 MGF의 첫번째 속성에 의해 다음을 알 수 있다.
    → M(0) = 1, M’(0) = 0, M’‘(0) = 1
  • 그리고 우리가 CLT의 증명을 위해 원하는 것은 다음이다.
    스크린샷 2021-11-13 오후 1 47 55
    → 증명을 위해 log도 취하겠다. (으 취한다)
  • 그리고 더 편리함을 위해 y = 1/sqrt(n)이라고 하면
    스크린샷 2021-11-13 오후 1 48 42
    → 분모가 0으로 수렴하니까, 로피탈 룰을 2번 적용하자.
  • 스크린샷 2021-11-13 오후 1 52 39