Boxscher M-Test

Der Boxsche M-Test ist ein Verfahren aus der mathematischen Statistik. Er wurde 1949 von G. E. P. Box entwickelt[1] und ist eine Erweiterung des Bartlett-Tests auf Gleichheit der Varianzen für den multivariaten Fall. Er wird in den multivariaten Verfahren angewendet, beispielsweise bei der Diskriminanzanalyse zum Test auf Gleichheit von Streuungen in den Gruppen.

Vorausgesetzt wird, dass die m {\displaystyle m} -dimensionalen Daten in den p {\displaystyle p} Gruppen multivariat normalverteilt sind: N ( μ k ; Σ k ) {\displaystyle {\mathcal {N}}(\mu _{k};\Sigma _{k})} mit Erwartungswertvektoren μ k = ( μ k 1 , . . . , μ k m ) {\displaystyle \mu _{k}=(\mu _{k1},...,\mu _{km})} und Kovarianzmatrizen Σ k = ( σ k ; r s ) r , s = 1 , . . . , m {\displaystyle \Sigma _{k}=(\sigma _{k;rs})_{r,s=1,...,m}} verteilt ( k = 1 , . . . , p {\displaystyle k=1,...,p} ).

Die Hypothese soll geprüft werden, dass alle Kovarianzmatrizen gleich sind, also

H 0 : Σ 1 = Σ 2 = . . . = Σ p {\displaystyle H_{0}:\Sigma _{1}=\Sigma _{2}=...=\Sigma _{p}} vs. H 1 : {\displaystyle H_{1}:} es gibt min. ein Paar i {\displaystyle i} und j {\displaystyle j} mit Σ i Σ j {\displaystyle \Sigma _{i}\neq \Sigma _{j}} .

Die Prüfgröße für den Test ist das so genannte M von Box,

M = γ k = 1 p ( n k 1 ) log | S k 1 S | {\displaystyle M=\gamma \sum _{k=1}^{p}(n_{k}-1)\cdot \log |S_{k}^{-1}\cdot S|}

wobei

γ = 1 2 m 2 + 3 m 1 6 ( m + 1 ) ( p 1 ) ( k = 1 p 1 n k 1 1 n p ) {\displaystyle \gamma =1-{\frac {2m^{2}+3m-1}{6\cdot (m+1)\cdot (p-1)}}\left(\sum _{k=1}^{p}{\frac {1}{n_{k}-1}}-{\frac {1}{n-p}}\right)}

als Korrektur dient. Die Kovarianzmatrix Σ k {\displaystyle \Sigma _{k}} wird aus den Beobachtungen, die zur Gruppe k {\displaystyle k} gehören, geschätzt

s k ; r s = 1 n k 1 i = 1 n k ( x i r x ¯ r ) ( x i s x ¯ s ) {\displaystyle s_{k;rs}={\frac {1}{n_{k}-1}}\sum _{i=1}^{n_{k}}(x_{ir}-{\bar {x}}_{r})(x_{is}-{\bar {x}}_{s})}

und die gepoolte, also mittlere, Kovarianzmatrix durch

S = 1 n p k = 1 p ( n k 1 ) S k . {\displaystyle S={\frac {1}{n-p}}\sum _{k=1}^{p}(n_{k}-1)\cdot S_{k}.}

Bei jeweils genügend großem n k {\displaystyle n_{k}} ist die Prüfgröße annähernd Chi-Quadrat-verteilt mit m ( m + 1 ) ( p 1 ) / 2 {\displaystyle m(m+1)(p-1)/2} Freiheitsgraden. Wenn die S k {\displaystyle S_{k}} sich insgesamt sehr von S {\displaystyle S} unterscheiden, wird der Wert der Prüfgröße hoch. H 0 {\displaystyle H_{0}} wird also beim Signifikanzniveau α {\displaystyle \alpha } abgelehnt, wenn M größer ist als das 1 α {\displaystyle 1-\alpha } -Quantil der Chi-Quadrat-Verteilung mit m ( m + 1 ) ( p 1 ) / 2 {\displaystyle m(m+1)(p-1)/2} Freiheitsgraden.

Der Test reagiert sensitiv auf Verletzungen der Voraussetzung der mehrdimensionalen Normalverteilung.

Einzelnachweise

  1. Box, G. E. P. (1949). A general distribution theory for a class of likelihood criteria. Biometrika, 36, 317–346, doi:10.1093/biomet/36.3-4.317, JSTOR:2332671.