Aldagai anitzeko banaketa normal

Probabilitatean eta estatistikan, aldagai anitzeko banaketa normalaaldagai anitzeko banaketa gaussarra ere deitua— dimentsio bakarreko banaketa normalaren dimentsio handiagoetara orokortzea da.

Definizioa

Notazioa

X = [ X 1 , , X n ] T {\displaystyle X=[X_{1},\dots ,X_{n}]^{T}} dimentsioko ausazko bektore bat baldin bada n {\displaystyle n} aldagai anitzeko banaketa normal normalarekin, orduan idazten dugu:

X   N ( μ , Σ ) {\displaystyle X\ \sim {\mathcal {N}}(\mu ,\Sigma )}

edo X {\displaystyle X} n {\displaystyle n} dimentsioaren bektorea dela esan nahi badugu, orduan, erabiliko dugu:

X N n ( μ , Σ ) {\displaystyle X\sim {\mathcal {N}}_{n}(\mu ,\Sigma )}

Ausazko bektorea, X = [ X 1 , , X n ] T {\displaystyle X=[X_{1},\dots ,X_{n}]^{T}} , aldagai anitzeko banaketa normalari jarraitzen dio baldintza baliokide hauek betetzen baditu:

  • Edozein konbinazio lineal Y = a 1 X 1 + + a n X n {\displaystyle Y=a_{1}X_{1}+\cdots +a_{n}X_{n}} normal banatuta dago.
  • Ausazko bektore bat dago, Z = [ Z 1 , , Z m ] T {\displaystyle Z=[Z_{1},\dots ,Z_{m}]^{T}} , eta bere osagaiak estandar normalaren arabera banatutako ausazko aldagai independenteak dira, bektore bat, μ = [ μ 1 , , μ n ] T {\displaystyle \mu =[\mu _{1},\dots ,\mu _{n}]^{T}} , eta matrize bat, n × m {\displaystyle n\times m} A {\displaystyle A} , hala nola X = A Z + μ {\displaystyle X=AZ+\mu } .
  • Bektore bat dago, μ {\displaystyle \mu } , eta matrize erdidefinitu positibo simetriko bat, Σ {\displaystyle \Sigma } ; beraz, funtzio ezaugarria X {\displaystyle X} da
ϕ X ( u ; μ , Σ ) = exp ( i μ u 1 2 u Σ u ) . {\displaystyle \phi _{X}\left(u;\mu ,\Sigma \right)=\exp \left(i\mu ^{\top }u-{\frac {1}{2}}u^{\top }\Sigma u\right).}

Σ {\displaystyle \Sigma } matrize ez-singular bat bada, orduan, banaketa dentsitate-funtzio honen bidez deskriba daiteke:

f X ( x 1 , , x n ) = 1 ( 2 π ) n / 2 | Σ | 1 / 2 exp ( 1 2 ( x μ ) Σ 1 ( x μ ) ) {\displaystyle f_{X}(x_{1},\dots ,x_{n})={\frac {1}{(2\pi )^{n/2}|\Sigma |^{1/2}}}\exp \left(-{\frac {1}{2}}({\mathbf {x}}-{\mathbf {\mu }})^{\top }\Sigma ^{-1}({\mathbf {x}}-{\mathbf {\mu }})\right)}

non | Σ | {\displaystyle \left|\Sigma \right|} -k Σ {\displaystyle \Sigma } matrizearen determinantea adierazten duen. Kontuan har nola goiko ekuazioa banaketa normalera murrizten den baldin eta Σ {\displaystyle \Sigma } eskalar bat bada (hau da, 1x1 matrizea).

Bektorea, μ {\displaystyle \mu } egoera hauetan, X {\displaystyle X} -ren itxaropena da, eta Σ = A A T {\displaystyle \Sigma =AA^{T}} matrizea X j {\displaystyle X_{j}} osagaien kobariantza matrizea da.

Kobariantza matrizea singularra izan daitekeela ulertzea garrantzitsua da (nahiz eta goiko formulak horrela deskribatzen ez duen, zeinarentzat Σ 1 {\displaystyle \Sigma ^{-1}} definituta dagoen).

Egoera hori maiz agertzen da estatistiketan; adibidez, erregresio linealeko problema arruntetan hondar bektorearen banaketan. Kontuan har, oro har, Xi-ak ez direla, orokorrean, independenteak, Z {\displaystyle Z} aldagai arrunten bilduma batera A {\displaystyle A} transformazio lineala aplikatzearen emaitza gisa ikus baitaiteke.

Banaketa funtzioa

Banaketa funtzioa F ( x ) {\displaystyle F(x)} definitzen da ausazko X {\displaystyle X} bektore baten balio guztiak x {\displaystyle x} -ri dagozkion bektorearenak baino txikiagoak edo berdinak izateko probabilitatea bezala. Hala ere, F {\displaystyle F} -k formularik ez badu ere, zenbakizko zenbatespena ahalbidetzen duten algoritmo batzuk daude[1].

Kontrako adibide bat

Izan ere, bi ausazko aldagaik, X {\displaystyle X} eta Y {\displaystyle Y} , bakoitzak banaketa normal bat jarraitu arren, ez du esan nahi bikoteak (X , Y) banaketa normal bateratua jarraitzen duenik. Adibide sinple bat ematen da X {\displaystyle X} Normala (0,1), Y = X {\displaystyle Y=X} | X | b a d a > 1 {\displaystyle |X|bada>1} eta Y = X {\displaystyle Y=-X} | X | b a d a < 1 {\displaystyle |X|bada<1} . Hori ausazko bi aldagai baino gehiagotan ere egia da[2].

Normalki banatua eta independentzia

X {\displaystyle X} eta Y {\displaystyle Y} normal banatuta eta independenteak badira, haien banaketa bateratua ere normal banatuta dago; hau da, bikoteak (X , Y ) aldagai biko banaketa bat izan behar du. Nolanahi ere, normal banatutako ausazko aldagai pare bat ez du zertan independentea izan behar elkarrekin kontuan hartzerakoan.

Aldagai biko egoera

Bi dimentsioen egoera partikularrean, dentsitate-funtzioa (0, 0 batebestekoarekin) da:

f ( x , y ) = 1 2 π σ x σ y 1 ρ 2 exp ( 1 2 ( 1 ρ 2 ) ( x 2 σ x 2 + y 2 σ y 2 2 ρ x y ( σ x σ y ) ) ) {\displaystyle f(x,y)={\frac {1}{2\pi \sigma _{x}\sigma _{y}{\sqrt {1-\rho ^{2}}}}}\exp \left(-{\frac {1}{2(1-\rho ^{2})}}\left({\frac {x^{2}}{\sigma _{x}^{2}}}+{\frac {y^{2}}{\sigma _{y}^{2}}}-{\frac {2\rho xy}{(\sigma _{x}\sigma _{y})}}\right)\right)}

non X {\displaystyle X} eta Y {\displaystyle Y} arteko korrelazio-koefizientea ρ {\displaystyle \rho } den. Egoera honetan:

Σ = [ σ x 2 ρ σ x σ y ρ σ x σ y σ y 2 ] . {\displaystyle \Sigma ={\begin{bmatrix}\sigma _{x}^{2}&\rho \sigma _{x}\sigma _{y}\\\rho \sigma _{x}\sigma _{y}&\sigma _{y}^{2}\end{bmatrix}}.}

Eraldaketa afina

Y = c + B X {\displaystyle Y=c+BX\,} , izan ere, X   N ( μ , Σ ) , {\displaystyle X\ \sim {\mathcal {N}}(\mu ,\Sigma ),} -ren eraldaketa afina bada. non c {\displaystyle c\,} M × 1 {\displaystyle M\times 1} konstanteen bektorea den eta B {\displaystyle B\,} den M × N {\displaystyle M\times N} matrizea, orduan, Y {\displaystyle Y\,} -k aldagai anitzeko banaketa normala du c + B μ {\displaystyle c+B\mu \,} itxaropenarekin eta B Σ B T {\displaystyle B\Sigma B^{T}\,} bariantzarekin, hau da, Y N ( c + B μ , B Σ B T ) {\displaystyle Y\sim {\mathcal {N}}\left(c+B\mu ,B\Sigma B^{T}\right)} . Bereziki, X i {\displaystyle X_{i}\,} -renedozein azpimultzok banaketa marjinal bat du, aldagai anitzeko normala ere badena.

Hori ikusteko, kontuan har honako adibide hau: ( X 1 , X 2 , X 4 ) T {\displaystyle (X_{1},X_{2},X_{4})^{T}\,} azpimultzoa ateratzeko, erabili

B = [ 1 0 0 0 0 0 0 1 0 0 0 0 0 0 0 1 0 0 ] {\displaystyle B={\begin{bmatrix}1&0&0&0&0&\ldots &0\\0&1&0&0&0&\ldots &0\\0&0&0&1&0&\ldots &0\end{bmatrix}}}

nahi diren elementuak zuzenean ateratzen dituena.

Z = b X {\displaystyle Z=b\cdot X} banaketaren beste ondorio bat izango litzateke b {\displaystyle b} bektorea X {\displaystyle X} -ren luzera berekoa dela, eta puntuak biderketa bektoriala adierazten du, eta dimentsio bakarreko banaketa gaussarra izango litzateke Z N ( b μ , b T Σ b ) {\displaystyle Z\sim {\mathcal {N}}\left(b\cdot \mu ,b^{T}\Sigma b\right)} rekin. Emaitza hau erabiliz lortzen da:

B = [ b 1 b 2 b n 0 0 0 0 0 0 ] {\displaystyle B={\begin{bmatrix}b_{1}&b_{2}&\ldots &b_{n}\\0&0&\ldots &0\\\vdots &\vdots &\ddots &\vdots \\0&0&\ldots &0\end{bmatrix}}}

eta produktuaren lehen osagaia soilik kontuan hartuta ( B {\displaystyle B} -ren lehen lerroa b {\displaystyle b} bektorea da). Kontuan har nola Σ {\displaystyle \Sigma } -ren definizio positiboak gurutzatutako produktuaren bariantza positiboa izan behar dela esan nahi duen.

Interpretazio geometrikoa

Aldagai anitzeko banaketa normal baten ekidensitate-kurbak elipsoideak dira (hau da, hiperesferen transformazio linealak) batezbestekoan zentratuta[3]. Elipsoideen ardatz nagusien norabideak Σ {\displaystyle \Sigma } kobariantza matrizearen bektore propioek ematen dituzte. Ardatz nagusien karratuen luzera erlatiboak dagozkien bektore propioek ematen dituzte.

Σ = U Λ U T = U Λ 1 / 2 ( U Λ 1 / 2 ) T {\displaystyle \Sigma =U\Lambda U^{T}=U\Lambda ^{1/2}(U\Lambda ^{1/2})^{T}} deskonposizio espektral bat bada, non U-ren zutabeak unitate-bektore propioak diren eta Λ {\displaystyle \Lambda } balio propioen matrize diagonal bat den, orduan, dugu:

X   N ( μ , Σ ) X   μ + U Λ 1 / 2 N ( 0 , I ) X   μ + U N ( 0 , Λ ) . {\displaystyle X\ \sim N(\mu ,\Sigma )\iff X\ \sim \mu +U\Lambda ^{1/2}N(0,I)\iff X\ \sim \mu +UN(0,\Lambda ).}

Era berean, U biraketa-matrize bat izan dadin hauta daiteke N ( 0 , Λ ) {\displaystyle N(0,\Lambda )} -n ardatz bat alderantziz egiteak eraginik izango ez duena baina, zutabe bat irauliz, U' -ren determinatzailearen zeinua aldatuko duena. N ( μ , Σ ) {\displaystyle N(\mu ,\Sigma )} banaketa da, hain zuzen, N ( 0 , I ) {\displaystyle N(0,I)} Λ 1 / 2 {\displaystyle \Lambda ^{1/2}} -tik eskalatua, U-rekin biratua eta μ {\displaystyle \mu } -tik itzulia.

Alderantziz, μ {\displaystyle \mu } -ren edozein aukerak U maila osoko matrizea, eta Λ i {\displaystyle \Lambda _{i}} balio diagonal positiboak bide ematen dio banaketa normal ez singular bati. Edozein Λ i {\displaystyle \Lambda _{i}} zero bada eta U karratua bada, U Λ U T {\displaystyle U\Lambda U^{T}} -ren kobariantza matrizea singularra da. Geometrikoki, horrek esan nahi du kurba elipsoide bakoitza infinitu mehea dela eta bolumen nulua duela n dimentsioko espazioan, betiere, gutxienez ardatz nagusietako batek luzera nulua badu.

Korrelazioak eta independentzia

Oro har, ausazko aldagaiak korrelaziorik gabekoak izan daitezke, baina oso menpekoak izan daitezke. Baina, ausazko bektore batek aldagai anitzeko banaketa normala badu, korrelaziorik gabeko bere osagaietako bi edo gehiago independenteak dira.

Baina ez da egia (bereizita, marjinalki) normal banatuta eta korrelaziorik gabeko bi ausazko aldagai independenteak direnik. Normalki banatuta dauden bi ausazko aldagai baliteke elkarrekin ez egotea. Erlazionatu gabe baina independenteak ez diren banatzen diren bi aldagairen adibide bat ikusteko, ikus: Normalki banatuak eta korrelazionatuak ez dira independentzia suposatzen .

Momentu gorenak

X -ren k-garren ordenako momentu estandarra honela definitzen da

μ 1 , , N ( X )   = d e f   μ r 1 , , r N ( X )   = d e f   E [ j = 1 N X j r j ] {\displaystyle \mu _{1,\dots ,N}(X)\ {\stackrel {\mathrm {def} }{=}}\ \mu _{r_{1},\dots ,r_{N}}(X)\ {\stackrel {\mathrm {def} }{=}}\ E\left[\prod \limits _{j=1}^{N}X_{j}^{r_{j}}\right]}

non r 1 + r 2 + + r N = k . {\displaystyle r_{1}+r_{2}+\cdots +r_{N}=k.}

k ordenako momentu zentralak honela ematen dira:

(a) k bakoitia bada, μ 1 , , N ( X μ ) = 0 {\displaystyle \mu _{1,\dots ,N}(X-\mu )=0} .

(b) k bikoitia bada, k-rekin, orduan, k = 2 λ {\displaystyle k=2\lambda }

μ 1 , , 2 λ ( X μ ) = ( σ i j σ k σ X Z ) {\displaystyle \mu _{1,\dots ,2\lambda }(X-\mu )=\sum \left(\sigma _{ij}\sigma _{k\ell }\cdots \sigma _{XZ}\right)}

non batura multzoen xedapen guztien gainean hartzen den { 1 , , 2 λ } {\displaystyle \left\{1,\dots ,2\lambda \right\}} λ {\displaystyle \lambda } bikotetan (ordenatu gabeak). Hau da, k-garren bat badugu ( = 2 λ = 6 {\displaystyle {}=2\lambda =6} ) une nagusia λ = 3 {\displaystyle \lambda =3} kobariantzaren produktuak gehituko ditugu (- μ {\displaystyle \mu } notazioa irakurgarritasunagatik alde batera utzi da):

E [ X 1 X 2 X 3 X 4 X 5 X 6 ] = E [ X 1 X 2 ] E [ X 3 X 4 ] E [ X 5 X 6 ] + E [ X 1 X 2 ] E [ X 3 X 5 ] E [ X 4 X 6 ] + E [ X 1 X 2 ] E [ X 3 X 6 ] E [ X 4 X 5 ] + E [ X 1 X 3 ] E [ X 2 X 4 ] E [ X 5 X 6 ] + E [ X 1 X 3 ] E [ X 2 X 5 ] E [ X 4 X 6 ] + E [ X 1 X 3 ] E [ X 2 X 6 ] E [ X 4 X 5 ] + E [ X 1 X 4 ] E [ X 2 X 3 ] E [ X 5 X 6 ] + E [ X 1 X 4 ] E [ X 2 X 5 ] E [ X 3 X 6 ] + E [ X 1 X 4 ] E [ X 2 X 6 ] E [ X 3 X 5 ] + E [ X 1 X 5 ] E [ X 2 X 3 ] E [ X 4 X 6 ] + E [ X 1 X 5 ] E [ X 2 X 4 ] E [ X 3 X 6 ] + E [ X 1 X 5 ] E [ X 2 X 6 ] E [ X 3 X 4 ] + E [ X 1 X 6 ] E [ X 2 X 3 ] E [ X 4 X 5 ] + E [ X 1 X 6 ] E [ X 2 X 4 ] E [ X 3 X 5 ] + E [ X 1 X 6 ] E [ X 2 X 5 ] E [ X 3 X 4 ] . {\displaystyle {\begin{aligned}&{}E[X_{1}X_{2}X_{3}X_{4}X_{5}X_{6}]\\&{}=E[X_{1}X_{2}]E[X_{3}X_{4}]E[X_{5}X_{6}]+E[X_{1}X_{2}]E[X_{3}X_{5}]E[X_{4}X_{6}]+E[X_{1}X_{2}]E[X_{3}X_{6}]E[X_{4}X_{5}]\\&{}+E[X_{1}X_{3}]E[X_{2}X_{4}]E[X_{5}X_{6}]+E[X_{1}X_{3}]E[X_{2}X_{5}]E[X_{4}X_{6}]+E[X_{1}X_{3}]E[X_{2}X_{6}]E[X_{4}X_{5}]\\&+E[X_{1}X_{4}]E[X_{2}X_{3}]E[X_{5}X_{6}]+E[X_{1}X_{4}]E[X_{2}X_{5}]E[X_{3}X_{6}]+E[X_{1}X_{4}]E[X_{2}X_{6}]E[X_{3}X_{5}]\\&+E[X_{1}X_{5}]E[X_{2}X_{3}]E[X_{4}X_{6}]+E[X_{1}X_{5}]E[X_{2}X_{4}]E[X_{3}X_{6}]+E[X_{1}X_{5}]E[X_{2}X_{6}]E[X_{3}X_{4}]\\&+E[X_{1}X_{6}]E[X_{2}X_{3}]E[X_{4}X_{5}]+E[X_{1}X_{6}]E[X_{2}X_{4}]E[X_{3}X_{5}]+E[X_{1}X_{6}]E[X_{2}X_{5}]E[X_{3}X_{4}].\end{aligned}}}

Horrek sorrarazten du ( 2 λ 1 ) ! / ( 2 λ 1 ( λ 1 ) ! ) {\displaystyle (2\lambda -1)!/(2^{\lambda -1}(\lambda -1)!)} terminoak baturan (15 goiko kasuan), bakoitzaren produktua λ {\displaystyle \lambda } (3 kasu honetan) kobariantza izanik. Laugarren ordenako mementuetarako (lau aldagai), hiru termino daude. Seigarren ordenako momentuetarako, 3 × 5 = 15 termino daude, eta zortzigarren ordenako momentuetarako 3 × 5 × 7 = 105 termino dira.

Ondoren, kobariantzak [ 1 , , 2 λ ] {\displaystyle \left[1,\dots ,2\lambda \right]} zerrendako terminoak, izan ere, batzuk r 1 {\displaystyle r_{1}} zerrendari dagozkion terminoekin ordezkatuz zehazten dira, orduan r 2 {\displaystyle r_{2}} biak, etab... Hau argitzeko, kontuan har hurrengo laugarren ordenako momentu zentralaren kasua:

E [ X i 4 ] = 3 σ i i 2 {\displaystyle E\left[X_{i}^{4}\right]=3\sigma _{ii}^{2}}
E [ X i 3 X j ] = 3 σ i i σ i j {\displaystyle E\left[X_{i}^{3}X_{j}\right]=3\sigma _{ii}\sigma _{ij}}
E [ X i 2 X j 2 ] = σ i i σ j j + 2 ( σ i j ) 2 {\displaystyle E\left[X_{i}^{2}X_{j}^{2}\right]=\sigma _{ii}\sigma _{jj}+2\left(\sigma _{ij}\right)^{2}}
E [ X i 2 X j X k ] = σ i i σ j k + 2 σ i j σ i k {\displaystyle E\left[X_{i}^{2}X_{j}X_{k}\right]=\sigma _{ii}\sigma _{jk}+2\sigma _{ij}\sigma _{ik}}
E [ X i X j X k X n ] = σ i j σ k n + σ i k σ j n + σ i n σ j k . {\displaystyle E\left[X_{i}X_{j}X_{k}X_{n}\right]=\sigma _{ij}\sigma _{kn}+\sigma _{ik}\sigma _{jn}+\sigma _{in}\sigma _{jk}.}

non σ i j {\displaystyle \sigma _{ij}} X i {\displaystyle X_{i}} Y X j {\displaystyle X_{j}} -ren kobariantza den. Goiko metodoaren ideia da lehen kasu orokorra aurkitzen dugula da k {\displaystyle k} -garrena mementorako, non k {\displaystyle k} aldagai desberdinak X {\displaystyle X} - E [ X i X j X k X n ] {\displaystyle E\left[X_{i}X_{j}X_{k}X_{n}\right]} dauden, eta, gero, modu egokian sinplifikatu daitezke. E [ X i 2 X k X n ] {\displaystyle E\left[X_{i}^{2}X_{k}X_{n}\right]} baduzu, gero, X i = X j {\displaystyle X_{i}=X_{j}} izan dadila, eta hortik σ i i = σ i 2 {\displaystyle \sigma _{ii}=\sigma _{i}^{2}} dator.

Banaketa baldintzatuak

μ {\displaystyle \mu } eta Σ {\displaystyle \Sigma } honela banatzen badira:

μ = [ μ 1 μ 2 ] {\displaystyle \mu ={\begin{bmatrix}\mu _{1}\\\mu _{2}\end{bmatrix}}\quad } [ q × 1 ( N q ) × 1 ] {\displaystyle {\begin{bmatrix}q\times 1\\(N-q)\times 1\end{bmatrix}}} neurriekin
Σ = [ Σ 11 Σ 12 Σ 21 Σ 22 ] {\displaystyle \Sigma ={\begin{bmatrix}\Sigma _{11}&\Sigma _{12}\\\Sigma _{21}&\Sigma _{22}\end{bmatrix}}\quad } neurriekin [ q × q q × ( N q ) ( N q ) × q ( N q ) × ( N q ) ] {\displaystyle {\begin{bmatrix}q\times q&q\times (N-q)\\(N-q)\times q&(N-q)\times (N-q)\end{bmatrix}}}

orduan, x 1 {\displaystyle x_{1}} -ren banaketa x 2 = a {\displaystyle x_{2}=a} baldintzatuta, aldagai anitzeko normala da ( X 1 | X 2 = a ) N ( μ ¯ , Σ ¯ ) {\displaystyle (X_{1}|X_{2}=a)\sim N({\bar {\mu }},{\overline {\Sigma }})} non

μ ¯ = μ 1 + Σ 12 Σ 22 1 ( a μ 2 ) {\displaystyle {\bar {\mu }}=\mu _{1}+\Sigma _{12}\Sigma _{22}^{-1}\left(a-\mu _{2}\right)}

eta kobariantza matrizea

Σ ¯ = Σ 11 Σ 12 Σ 22 1 Σ 21 . {\displaystyle {\overline {\Sigma }}=\Sigma _{11}-\Sigma _{12}\Sigma _{22}^{-1}\Sigma _{21}.}

Matrize hori Σ 22 {\displaystyle {\mathbf {\Sigma } _{22}}} -ren Schur-en osagarria da Σ {\displaystyle {\mathbf {\Sigma } }} -en. Horrek esan nahi du baldintzapeko kobariantza-matrizea kalkulatzeko kobariantza-matrize globala alderantzikatu egiten dela, baldintzatzen den aldagaiei dagozkien errenkadak eta zutabeak alde batera uzten direla eta, ondoren, berriro alderantzikatzen dela baldintzapeko kobariantza-matrizea lortzeko.

Kontuan har jakina dela x 2 = a {\displaystyle x_{2}=a} bariantza aldatzen duela, nahiz eta bariantza berria ez den a {\displaystyle a} balio zehatzaren araberakoa; agian, harrigarriagoa dena, batezbestekoa Σ 12 Σ 22 1 ( a μ 2 ) {\displaystyle \Sigma _{12}\Sigma _{22}^{-1}\left(a-\mu _{2}\right)} -tik aldatzen da; Konparatu hori ezagutzen ez den a {\displaystyle a} balioaren egoerarekin; kasu horretan, x 1 {\displaystyle x_{1}} -ek banaketa gisaizango luke:

N q ( μ 1 , Σ 11 ) {\displaystyle N_{q}\left(\mu _{1},\Sigma _{11}\right)}

Σ 12 Σ 22 1 {\displaystyle \Sigma _{12}\Sigma _{22}^{-1}} matrizea erregresio-koefizienteen matrize bezala ezagutzen da.

Baldintzazko itxaropena aldagai bikoa

Bada

( X 1 X 2 ) N ( ( 0 0 ) , ( 1 ρ ρ 1 ) ) {\displaystyle {\begin{pmatrix}X_{1}\\X_{2}\end{pmatrix}}\sim {\mathcal {N}}\left({\begin{pmatrix}0\\0\end{pmatrix}},{\begin{pmatrix}1&\rho \\\rho &1\end{pmatrix}}\right)}

gero

E ( X 1 | X 2 > z ) = ρ ϕ ( z ) Φ ( z ) {\displaystyle E(X_{1}|X_{2}>z)=\rho {\phi (z) \over \Phi (-z)}}

non azken ratio horri alderantzizko Mills ratioa deitu ohi zaio.

Fisher-en informazio matrizea

Fisher Information Matrix-ek (FIM) formulazio berezi bat hartzen du banaketa normal baterako. FMI-ren elementua ( m , n ) {\displaystyle (m,n)} X N ( μ ( θ ) , Σ ( θ ) ) {\displaystyle X\sim N(\mu (\theta ),\Sigma (\theta ))} -rentzako da:

I m , n = μ θ m Σ 1 μ θ n + 1 2 t r ( Σ 1 Σ θ m Σ 1 Σ θ n ) {\displaystyle {\mathcal {I}}_{m,n}={\frac {\partial \mu }{\partial \theta _{m}}}\Sigma ^{-1}{\frac {\partial \mu ^{\top }}{\partial \theta _{n}}}+{\frac {1}{2}}\mathrm {tr} \left(\Sigma ^{-1}{\frac {\partial \Sigma }{\partial \theta _{m}}}\Sigma ^{-1}{\frac {\partial \Sigma }{\partial \theta _{n}}}\right)}

non

  • μ θ m = [ μ 1 θ m μ 2 θ m μ N θ m ] {\displaystyle {\frac {\partial \mu }{\partial \theta _{m}}}={\begin{bmatrix}{\frac {\partial \mu _{1}}{\partial \theta _{m}}}&{\frac {\partial \mu _{2}}{\partial \theta _{m}}}&\cdots &{\frac {\partial \mu _{N}}{\partial \theta _{m}}}&\end{bmatrix}}}
  • μ θ m = ( μ θ m ) = [ μ 1 θ m μ 2 θ m μ N θ m ] {\displaystyle {\frac {\partial \mu ^{\top }}{\partial \theta _{m}}}=\left({\frac {\partial \mu }{\partial \theta _{m}}}\right)^{\top }={\begin{bmatrix}{\frac {\partial \mu _{1}}{\partial \theta _{m}}}\\\\{\frac {\partial \mu _{2}}{\partial \theta _{m}}}\\\\\vdots \\\\{\frac {\partial \mu _{N}}{\partial \theta _{m}}}\\\\\end{bmatrix}}}
  • Σ θ m = [ Σ 1 , 1 θ m Σ 1 , 2 θ m Σ 1 , N θ m Σ 2 , 1 θ m Σ 2 , 2 θ m Σ 2 , N θ m Σ N , 1 θ m Σ N , 2 θ m Σ N , N θ m ] {\displaystyle {\frac {\partial \Sigma }{\partial \theta _{m}}}={\begin{bmatrix}{\frac {\partial \Sigma _{1,1}}{\partial \theta _{m}}}&{\frac {\partial \Sigma _{1,2}}{\partial \theta _{m}}}&\cdots &{\frac {\partial \Sigma _{1,N}}{\partial \theta _{m}}}\\\\{\frac {\partial \Sigma _{2,1}}{\partial \theta _{m}}}&{\frac {\partial \Sigma _{2,2}}{\partial \theta _{m}}}&\cdots &{\frac {\partial \Sigma _{2,N}}{\partial \theta _{m}}}\\\\\vdots &\vdots &\ddots &\vdots \\\\{\frac {\partial \Sigma _{N,1}}{\partial \theta _{m}}}&{\frac {\partial \Sigma _{N,2}}{\partial \theta _{m}}}&\cdots &{\frac {\partial \Sigma _{N,N}}{\partial \theta _{m}}}\end{bmatrix}}}
  • t r {\displaystyle \mathrm {tr} } matrize baten aztarna funtzioa da.

Kullback-Leibler dibergentzia

Kullback-Leiblerren dibergentzia N 0 N ( μ 0 , Σ 0 ) {\displaystyle N0_{N}(\mu _{0},\Sigma _{0})} a N 1 N ( μ 1 , Σ 1 ) {\displaystyle N1_{N}(\mu _{1},\Sigma _{1})} da:

D KL ( N 0 N 1 ) = 1 2 ( log e ( det Σ 1 det Σ 0 ) + t r ( Σ 1 1 Σ 0 ) + ( μ 1 μ 0 ) Σ 1 1 ( μ 1 μ 0 ) N ) . {\displaystyle D_{\text{KL}}(N0\|N1)={1 \over 2}\left(\log _{e}\left({\det \Sigma _{1} \over \det \Sigma _{0}}\right)+\mathrm {tr} \left(\Sigma _{1}^{-1}\Sigma _{0}\right)+\left(\mu _{1}-\mu _{0}\right)^{\top }\Sigma _{1}^{-1}(\mu _{1}-\mu _{0})-N\right).}

Logaritmoa e oinarriarekin hartu behar da bi terminoetan (logaritmo neperiarrak); logaritmoari jarraituz, dentsitate-funtzioaren faktore biak diren adierazpenen logaritmo naturalak daude, edo, bestela, modu naturalean sortzen dira. Goiko dibergentzia nat-etan neurtzen da. Goiko adierazpena loge 2 artean zatituz biten dibergentziari bide ematen zaio.

Parametroen estimazioa

Aldagai anitzeko banaketa normal baten kobariantza matrizearen probabilitate maximoaren estimatzailearen deribazioa da, agian harrigarriro, sotila eta dotorea. Ikus kobariantza matrizeen estimazioa.

Laburbilduz, N dimentsioko aldagai anitzeko normal baten probabilitate-dentsitate-funtzioa da:

f ( x ) = ( 2 π ) N / 2 det ( Σ ) 1 / 2 exp ( 1 2 ( x μ ) T Σ 1 ( x μ ) ) {\displaystyle f(x)=(2\pi )^{-N/2}\det(\Sigma )^{-1/2}\exp \left(-{1 \over 2}(x-\mu )^{T}\Sigma ^{-1}(x-\mu )\right)}

eta kobariantza matrizearen MV estimatzailea n behaketetako lagin baterako da:

Σ ^ = 1 n i = 1 n ( X i X ¯ ) ( X i X ¯ ) T {\displaystyle {\widehat {\Sigma }}={1 \over n}\sum _{i=1}^{n}(X_{i}-{\overline {X}})(X_{i}-{\overline {X}})^{T}}

laginaren kobariantza matrizea besterik ez dena. Hau Itxaropena duen estimatzaile alboratuarena da:

E [ Σ ^ ] = n 1 n Σ . {\displaystyle E[{\widehat {\Sigma }}]={n-1 \over n}\Sigma .}

Laginaren kobariantza alboragabea da:

Σ ^ = 1 n 1 i = 1 n ( X i X ¯ ) ( X i X ¯ ) T . {\displaystyle {\widehat {\Sigma }}={1 \over n-1}\sum _{i=1}^{n}(X_{i}-{\overline {X}})(X_{i}-{\overline {X}})^{T}.}

Entropia

Aldagai anitzeko banaketa normalaren entropia diferentziala[4] da:

h ( f ) = f ( x ) ln f ( x ) d x = 1 2 ( N + N ln ( 2 π ) + ln | Σ | ) = 1 2 ln { ( 2 π e ) N | Σ | } {\displaystyle {\begin{aligned}h\left(f\right)&=-\int _{-\infty }^{\infty }\int _{-\infty }^{\infty }\cdots \int _{-\infty }^{\infty }f(x)\ln f(x)\,dx\\&={\frac {1}{2}}\left(N+N\ln \left(2\pi \right)+\ln \left|\Sigma \right|\right)\\&={\frac {1}{2}}\ln\{(2\pi e)^{N}\left|\Sigma \right|\}\end{aligned}}}

non | Σ | {\displaystyle \left|\Sigma \right|} den Σ {\displaystyle \Sigma } kobariantza matrizearen determinatzailea.

Aldagai anitzeko normaltasun-probak

Aldagai anitzeko normaltasun probek datu multzo jakin batek aldagai anitzeko banaketa normalarekin duen antzekotasuna egiaztatzen du. Hipotesi nulua da datu multzoa banaketa normalaren antzekoa dela, beraz, p-balio nahiko txiki batek datu ez-normalak adierazten ditu. Aldagai anitzeko normaltasun proben artean, Cox-Small proba[5] eta Smith eta Jain-en[6] Friedman-Rafsky probaren egokitzapena daude.

Banaketa-balioak simulatzea

Ausazko bektore bat simulatzeko oso erabilia den metodoa X {\displaystyle X} aldagai anitzeko banaketa normaletik N {\displaystyle N} -dimentsioa batez besteko bektorearekin μ {\displaystyle \mu } eta kobariantza matrizea Σ {\displaystyle \Sigma } (simetrikoa eta definitu positiboa izateko eskatua) honela funtzionatzen du:

  1. Σ {\displaystyle \Sigma } -ren Choleskyren deskonposizioa kalkulatzen da; hau da, beheko matrize triangeluar bakarra A {\displaystyle A} hala nola A A T = Σ {\displaystyle A\,A^{T}=\Sigma } aurkitzen dugu. Kontuan har beste edozein A {\displaystyle A} matrize baldintza hori betetzen duena, hau da, Σ {\displaystyle \Sigma } -ren erro karratua dela, erabil liteke, baina, askotan, halako matrize bat aurkitzea, Cholesky-ren deskonposizioaz gain, dezente zailagoa izango litzateke konputazionalki.
  2. Dela Z = ( z 1 , , z N ) T {\displaystyle Z=(z_{1},\dots ,z_{N})^{T}} osagaiak dituen bektorea N {\displaystyle N} aldagai normalak eta independenteak aldatzen direnak (sor daitezkeenak, adibidez, Box-Muller metodoa erabiliz.
  3. Dela X = {\displaystyle X=\,} μ + A Z . {\displaystyle \mu +AZ\,.}

Erreferentziak

  1. Véase MVNDST en (incluye código FORTRAN) o (incluye código MATLAB).
  2. Véase también normalmente distribuidas e incorreladas no implica independencia
  3. Nikolaus Hansen. The CMA Evolution Strategy: A Tutorial. .
  4. Gokhale, DV; NA Ahmed, BC Res, NJ Piscataway. (mayo de 1989). «Entropy Expressions and Their Estimators for Multivariate Distributions» Information Theory, IEEE Transactions on 35 (3): 688–692.  doi:10.1109/18.30996..
  5. Cox, D. R.; N. J. H. Small. (agosto de 1978). «Testing multivariate normality» Biometrika 65 (2): 263–272.  doi:10.1093/biomet/65.2.263..
  6. Smith, Stephen P.; Anil K. Jain. (septiembre de 1988). «A test to determine the multivariate normality of a dataset» IEEE Transactions on Pattern Analysis and Machine Intelligence 10 (5): 757–761.  doi:10.1109/34.6789..

Kanpo estekak

Autoritate kontrola
  • Wikimedia proiektuak
  • Wd Datuak: Q1149000
  • Identifikadoreak
  • GND: 4227589-1
  • Wd Datuak: Q1149000