Sandsynlighedsdensitetsfunktion

Hvis sandsynlighedsdensitetsfunktionen for en tilfældig variabel (eller vektor) X er angivet som fX (x), er det muligt (men ofte ikke nødvendigt; se nedenfor) at beregne sandsynlighedsdensitetsfunktion af en eller anden variabel Y = g (X). Dette kaldes også en “ændring af variabel” og bruges i praksis til at generere en tilfældig variabel af vilkårlig form fg (X) = fY ved hjælp af en kendt (for eksempel ensartet) tilfældig talgenerator.

Det er fristende at tænke, at for at finde den forventede værdi E (g (X)) skal man først finde sandsynlighedstætheden fg (X) for den nye tilfældige variabel Y = g (X). Imidlertid snarere end at beregne

E ⁡ (g (X)) = ∫ – ∞ ∞ yfg (X) (y) dy, {\ displaystyle \ operatorname {E} {\ big (} g (X) {\ big)} = \ int _ {- \ infty} ^ {\ infty} yf_ {g (X)} (y) \, dy,}

man kan i stedet finde

E ⁡ (g (X)) = ∫ – ∞ ∞ g (x) f X (x) dx. {\ displaystyle \ operatorname {E} {\ big (} g (X) {\ big)} = \ int _ {- \ infty} ^ {\ infty} g (x) f_ {X} (x) \, dx.}

Værdierne for de to integraler er de samme i alle tilfælde, hvor både X og g (X) faktisk har sandsynlighedsdensitetsfunktioner. Det er ikke nødvendigt, at g er en en-til-en-funktion. I nogle tilfælde beregnes sidstnævnte integral meget lettere end den førstnævnte. Se lov om un bevidst statistik.

Scalar to scalarEdit

Lad g: R → R {\ displaystyle g: {\ mathbb {R}} \ rightarrow {\ mathbb {R}}} være en monoton funktion, så er den resulterende densitetsfunktion

f Y (y) = f X (g – 1 (y)) | d d y (g – 1 (y)) | . {\ displaystyle f_ {Y} (y) = f_ {X} {\ big (} g ^ {- 1} (y) {\ big)} \ left | {\ frac {d} {dy}} {\ big (} g ^ {- 1} (y) {\ big)} \ right |.}

Her angiver g − 1 den inverse funktion.

Dette følger af det faktum, at sandsynligheden indeholdt i et differentielt område skal være uforanderligt under ændring af variabler. Det vil sige

| f Y (y) d y | = | f X (x) d x | , {\ displaystyle \ left | f_ {Y} (y) \, dy \ right | = \ left | f_ {X} (x) \, dx \ right |,}

eller

f Y ( y) = | d x d y | f X (x) = | d d y (x) | f X (x) = | d d y (g – 1 (y)) | f X (g – 1 (y)) = | (g – 1) ′ (y) | ⋅ f X (g – 1 (y)). {\ displaystyle f_ {Y} (y) = \ left | {\ frac {dx} {dy}} \ right | f_ {X} (x) = \ left | {\ frac {d} {dy}} (x ) \ højre | f_ {X} (x) = \ venstre | {\ frac {d} {dy}} {\ big (} g ^ {- 1} (y) {\ big)} \ højre | f_ {X } {\ big (} g ^ {- 1} (y) {\ big)} = {{\ big |} {\ big (} g ^ {- 1} {\ big)} “(y) {\ big |}} \ cdot f_ {X} {\ big (} g ^ {- 1} (y) {\ big)}.}

For funktioner, der ikke er monotone, er sandsynlighedstæthedsfunktionen for y

∑ k = 1 n (y) | ddygk – 1 (y) | ⋅ f X (gk – 1 (y)), {\ displaystyle \ sum _ {k = 1} ^ {n (y)} \ left | {\ frac {d} {dy}} g_ {k} ^ {- 1} (y) \ right | \ cdot f_ {X} {\ big (} g_ {k} ^ {- 1} (y) {\ stor)},}

Vector to vectorEdit

Ovenstående formler kan generaliseres til variabler (som vi igen vil kalde y) afhængigt af mere end en anden variabel. f (x1, …, xn) angiver sandsynlighedsdensitetsfunktionen for de variabler, som y afhænger af, og afhængigheden skal være y = g (x1,…, xn). Derefter er den resulterende densitetsfunktion

∫ y = g (x 1 ,…, Xn) f (x 1,…, xn) ∑ j = 1 n ∂ g ∂ xj (x 1,…, xn) 2 d V, {\ displaystyle \ int \ lim dens _ {y = g (x_ {1}, \ ldots, x_ {n})} {\ frac {f (x_ {1}, \ ldots, x_ {n})} {\ sqrt {\ sum _ {j = 1} ^ {n} {\ frac {\ partial g} {\ partial x_ {j}}} (x_ {1}, \ ldots, x_ {n}) ^ {2}}}} \, dV,}

hvor integralet er over hele (n – 1) -dimensional opløsning af den abonnerede ligning, og den symbolske dV skal erstattes af en parametrisering af denne løsning til en bestemt beregning; variablerne x1, …, xn er så selvfølgelig funktioner i denne parametrisering.

Dette stammer fra følgende, måske mere intuitive repræsentation: Antag at x er en n-dimensionel tilfældig variabel med leddensitet f. Hvis y = H (x), hvor H er en binativ, differentierbar funktion, har y densitet g:

g (y) = f (H – 1 (y)) | det | {\ displaystyle g (\ mathbf {y}) = f {\ Big (} H ^ {- 1} (\ mathbf {y}) {\ Big)} \ venstre \ vert \ det \ venstre \ højre \ vert}

med differencen betragtet som den jakobiske af den inverse af H (.), evalueret ved y.

g (y 1, y 2) = f X 1, X 2 (H 1 – 1 (y 1, y 2), H2 – 1 (y 1, y 2)) | ∂ H 1 – 1 ∂ y 1 ∂ H 2 – 1 ∂ y 2 – ∂ H 1 – 1 ∂ y 2 ∂ H 2 – 1 ∂ y 1 | . {\ displaystyle g (y_ {1}, y_ {2}) = f_ {X_ {1}, X_ {2}} {\ big (} H_ {1} ^ {- 1} (y_ {1}, y_ { 2}), H_ {2} ^ {- 1} (y_ {1}, y_ {2}) {\ big)} \ left \ vert {\ frac {\ partial H_ {1} ^ {- 1}} { \ delvis y_ {1}}} {\ frac {\ delvis H_ {2} ^ {- 1}} {\ delvis y_ {2}}} – {\ frac {\ delvis H_ {1} ^ {- 1}} {\ partial y_ {2}}} {\ frac {\ partial H_ {2} ^ {- 1}} {\ partial y_ {1}}} \ right \ vert.}

Vector to scalarEdit

f Y (y) = ∫ R nf X (x) δ (y – V (x)) dx. {\ displaystyle f_ {Y} (y) = \ int _ {{\ mathbb {R}} ^ {n}} f_ {X} (\ mathbf {x}) \ delta {\ big (} yV (\ mathbf { x}) {\ big)} \, d \ mathbf {x}.}

Dette resultat fører til den ubevidste statistikers lov:

EY ⁡ = ∫ R yf Y (y) dy = ∫ R y ∫ R nf X (x) δ (y – V (x)) dxdy = ∫ R n ∫ R yf X (x) δ (y – V (x)) dydx = ∫ R n V (x) f X ( x) dx = EX ⁡.{\ displaystyle \ operatorname {E} _ {Y} = \ int _ {\ mathbb {R}} yf_ {Y} (y) dy = \ int _ {\ mathbb {R}} y \ int _ {{\ mathbb {R}} ^ {n}} f_ {X} (\ mathbf {x}) \ delta {\ big (} yV (\ mathbf {x}) {\ big)} \, d \ mathbf {x} dy = \ int _ {{\ mathbb {R}} ^ {n}} \ int _ {\ mathbb {R}} yf_ {X} (\ mathbf {x}) \ delta {\ big (} yV (\ mathbf {x }) {\ big)} \, dyd \ mathbf {x} = \ int _ {{\ mathbb {R}} ^ {n}} V (\ mathbf {x}) f_ {X} (\ mathbf {x} ) d \ mathbf {x} = \ operatorname {E} _ {X}.}

Bevis:

H (Z, X) = = {\ displaystyle H (Z, X) = {\ begin { bmatrix} Z + V (X) \\ X \ end {bmatrix}} = {\ begin {bmatrix} Y \\ {\ tilde {X}} \ end {bmatrix}}}.

Det er klart, at H {\ displaystyle H} er en kortlægning, og den jakobiske af H – 1 {\ displaystyle H ^ {- 1}} er givet ved:

d H – 1 (y, x ~) dydx ~ = {\ displaystyle {\ frac {dH ^ {- 1} (y, {\ tilde {\ mathbf {x}}})} {dy \, d {\ tilde {\ mathbf {x}} }}} = {\ begin {bmatrix} 1 & – {\ frac {dV ({\ tilde {\ mathbf {x}}})} {d {\ tilde {\ mathbf {x}}}}} \\\ mathbf {0} _ {n \ times 1} & \ mathbf {I} _ {n \ times n} \ end {bmatrix }}},

som er en øvre trekantet matrix med dem på hoveddiagonalen, og dens determinant er derfor 1. Anvendelse af ændringen af variabel sætning fra det foregående afsnit opnår vi, at

f Y, X (y, x) = f X (x) δ (y – V (x)) {\ displaystyle f_ {Y, X} (y, x) = f_ {X} (\ mathbf {x}) \ delta {\ big (} yV (\ mathbf {x}) {\ big)}},

som hvis marginaliseret over x {\ displaystyle x} fører til den ønskede sandsynlighedsdensitetsfunktion.

Write a Comment

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *