Jos satunnaismuuttujan (tai vektorin) X todennäköisyystiheysfunktio annetaan muodossa fX (x), on mahdollista (mutta usein ei välttämätöntä; katso alla) laskea jonkin muuttujan Y = g (X) todennäköisyystiheysfunktio. Tätä kutsutaan myös ”muuttujan muutokseksi”, ja sitä käytetään käytännössä satunnaisen muuttujan luomiseen mielivaltaisesta muodosta fg (X) = fY käyttämällä tunnettua (esimerkiksi yhtenäistä) satunnaislukugeneraattoria.
Se on houkuttelevaa ajatella, että odotetun arvon E (g (X)) löytämiseksi on ensin löydettävä uuden satunnaismuuttujan Y = g (X) todennäköisyystiheys fg (X). p> E (g (X)) = ∫ – ∞ ∞ yfg (X) (y) dy, {\ displaystyle \ operaattorin nimi {E} {\ iso (} g (X) {\ iso)} = \ int _ {- \ infty} ^ {\ infty} yf_ {g (X)} (y) \, dy,}
Sen sijaan löytyy
E (g (X)) = ∫ – ∞ ∞ g (x) f X (x) dx. {\ displaystyle \ operaattorin nimi {E} {\ iso (} g (X) {\ iso)} = \ int _ {- \ infty} ^ {\ infty} g (x) f_ {X} (x) \, dx.}
Kahden integraalin arvot ovat samat kaikissa tapauksissa, joissa sekä X: llä että g (X): llä on tosiasiallisesti todennäköisyystiheysfunktioita. Ei ole välttämätöntä, että g on a Joissakin tapauksissa jälkimmäinen integraali lasketaan paljon helpommin kuin edellinen. Katso Ks tietoinen tilastotieteilijä.
Skalaari skalariinMuokkaa
Olkoon g: R → R {\ displaystyle g: {\ mathbb {R}} \ oikealle {\ mathbb {R}}} monotoninen funktio, niin tuloksena oleva tiheysfunktio on
f Y (y) = f X (g – 1 (y)) | d d y (g – 1 (y)) | . {\ displaystyle f_ {Y} (y) = f_ {X} {\ iso (} g ^ {- 1} (y) {\ iso)} \ vasen | {\ frac {d} {dy}} {\ iso (} g ^ {- 1} (y) {\ iso)} \ oikea |.}
Tässä g − 1 tarkoittaa käänteistä funktiota.
Tämä johtuu siitä, että differentiaalialueen on oltava muuttumaton muuttujien muuttuessa. Eli
| f Y (y) d y | = | f X (x) d x | , {\ displaystyle \ left | f_ {Y} (y) \, dy \ right | = \ left | f_ {X} (x) \, dx \ right |,}
tai
f Y ( y) = | d x d y | f X (x) = | d d y (x) | f X (x) = | d d y (g – 1 (y)) | f X (g – 1 (y)) = | (g – 1) ′ (y) | ⋅ f X (g – 1 (y)). {\ displaystyle f_ {Y} (y) = \ vasen | {\ frac {dx} {dy}} \ oikea | f_ {X} (x) = \ vasen | {\ frac {d} {dy}} (x ) \ oikea | f_ {X} (x) = \ vasen | {\ frac {d} {dy}} {\ iso (} g ^ {- 1} (y) {\ iso)} \ oikea | f_ {X } {\ iso (} g ^ {- 1} (y) {\ iso)} = {{\ iso |} {\ iso (} g ^ {- 1} {\ iso)} ”(y) {\ iso |}} \ cdot f_ {X} {\ big (} g ^ {- 1} (y) {\ big)}.}
Toiminnoille, jotka eivät ole yksitoikkoisia, y: n todennäköisyystiheysfunktio on
∑ k = 1 n (y) | ddygk – 1 (y) | ⋅ f X (gk – 1 (y)), {\ displaystyle \ summa _ {k = 1} ^ {n (y)} \ vasen | {\ frac {d} {dy}} g_ {k} ^ {- 1} (y) \ oikea | \ cdot f_ {X} {\ iso (} g_ {k} ^ {- 1} (y) {\ iso)},}
Vector to vectorEdit
Yllä olevat kaavat voidaan yleistää muuttujiin (joita kutsumme jälleen y) riippuen useammasta kuin yhdestä muusta muuttujasta. f (x1, …, xn) on merkittävä muuttujien todennäköisyystiheysfunktio, josta y riippuu, ja riippuvuuden on oltava y = g (x1,…, xn). Sitten tuloksena oleva tiheysfunktio on
∫ y = g (x 1 ,…, Xn) f (x 1,…, xn) ∑ j = 1 n ∂ g ∂ xj (x 1,…, xn) 2 d V, {\ displaystyle \ int \ lim sen _ {y = g (x_ {1}, \ ldots, x_ {n})} {\ frac {f (x_ {1}, \ ldots, x_ {n})} {\ sqrt {\ summa _ {j = 1} ^ {n} {\ frac {\ osittain g} {\ osittain x_ {j}}} (x_ {1}, \ ldots, x_ {n}) ^ {2}}}} \, dV,}
kun integraali on koko alaindeksoidun yhtälön (n – 1) -dimensionaalinen ratkaisu ja symbolinen dV on korvattava tämän ratkaisun parametroinnilla tietyn laskennan kannalta; Muuttujat x1, …, xn ovat silloin tietysti tämän parametrisoinnin funktioita.
Tämä johtuu seuraavasta, ehkä intuitiivisemmasta esityksestä: Oletetaan, että x on n-ulotteinen satunnaismuuttuja, jonka niveltiheys f. Jos y = H (x), missä H on bijektiivinen, erotettavissa oleva funktio, y: llä on tiheys g:
g (y) = f (H – 1 (y)) | det | {\ displaystyle g (\ mathbf {y}) = f {\ Iso (} H ^ {- 1} (\ mathbf {y}) {\ Iso)} \ vasen \ vert \ det \ vasen \ oikea \ vert}
erolla, jota pidetään H: n (.) käänteisen jakobiana, arvioituna y: ssä.
g (y 1, y 2) = f X 1, X 2 (H 1 – 1 (y 1, y 2), H 2 – 1 (y 1, y 2)) | ∂ H 1 – 1 ∂ y 1 ∂ H 2 – 1 ∂ y 2 – ∂ H 1 – 1 ∂ y 2 ∂ H 2 – 1 ∂ y 1 | . {\ displaystyle g (y_ {1}, y_ {2}) = f_ {X_ {1}, X_ {2}} {\ iso (} H_ {1} ^ {- 1} (y_ {1}, y_ { 2}), H_ {2} ^ {- 1} (y_ {1}, y_ {2}) {\ iso)} \ vasen \ vert {\ frac {\ osittainen H_ {1} ^ {- 1}} { \ osal y_ {1}}} {\ frac {\ osittainen H_ {2} ^ {- 1}} {\ osittainen y_ {2}}} – {\ frac {\ osittainen H_ {1} ^ {- 1}} {\ osal y_ {2}}} {\ frac {\ osittainen H_ {2} ^ {- 1}} {\ osittainen y_ {1}}} \ oikea \ vert.}
Vektori skaalattavaksiMuokkaa
f Y (y) = ∫ R nf X (x) 5 (y – V (x)) dx. {\ displaystyle f_ {Y} (y) = \ int _ {{\ mathbb {R}} ^ {n}} f_ {X} (\ mathbf {x}) \ delta {\ big (} yV (\ mathbf { x}) {\ big)} \, d \ mathbf {x}.}
Tämä tulos johtaa tajuton tilastotieteilijän lakiin:
EY = ∫ R yf Y (y) dy = ∫ R y ∫ R nf X (x) δ (y – V (x)) dxdy = ∫ R n ∫ R yf X (x) δ (y – V (x)) dydx = ∫ R n V (x) f X ( x) dx = EX .{\ displaystyle \ operaattorin nimi {E} _ {Y} = \ int _ {\ mathbb {R}} yf_ {Y} (y) dy = \ int _ {\ mathbb {R}} y \ int _ {{\ mathbb {R}} ^ {n}} f_ {X} (\ mathbf {x}) \ delta {\ iso (} yV (\ mathbf {x}) {\ iso)} \, d \ mathbf {x} dy = \ int _ {{\ mathbb {R}} ^ {n}} \ int _ {\ mathbb {R}} yf_ {X} (\ mathbf {x}) \ delta {\ big (} yV (\ mathbf {x }) {\ iso)} \, dyd \ mathbf {x} = \ int _ {{\ mathbb {R}} ^ {n}} V (\ mathbf {x}) f_ {X} (\ mathbf {x} ) d \ mathbf {x} = \ operaattorin nimi {E} _ {X}.}
Todiste:
H (Z, X) = = {\ displaystyle H (Z, X) = {\ begin { bmatrix} Z + V (X) \\ X \ end {bmatrix}} = {\ begin {bmatrix} Y \\ {\ tilde {X}} \ end {bmatrix}}}.
On selvää, että H {\ displaystyle H} on bijektiivinen kartoitus, ja H – 1: n jakobilaisen {\ displaystyle H ^ {- 1}} antaa:
d H – 1 (y, x ~) dydx ~ = {\ displaystyle {\ frac {dH ^ {- 1} (y, {\ tilde {\ mathbf {x}}})} {dy \, d {\ tilde {\ mathbf {x}} }}} = {\ begin {bmatrix} 1 & – {\ frac {dV ({\ tilde {\ mathbf {x}}})} {d {\ tilde {\ mathbf {x}}}}} \\\ mathbf {0} _ {n \ kertaa 1} & \ mathbf {I} _ {n \ kertaa n} \ end {bmatrix }}},
joka on ylempi kolmiomainen matriisi päädiagonaalissa olevien kanssa, joten sen determinantti on 1. Sovellettaessa muuttujalauseen muutosta edellisestä osasta saadaan, että
f Y, X (y, x) = f X (x) δ (y – V (x)) {\ displaystyle f_ {Y, X} (y, x) = f_ {X} (\ mathbf {x}) \ delta {\ iso (} yV (\ mathbf {x}) {\ big)}},
joka jos marginalisoituna x {\ displaystyle x}: n yli, johtaa haluttuun todennäköisyystiheysfunktioon.