Momenterzeugende Funktion

Die momenterzeugende Funktion ist eine Funktion, die in der Wahrscheinlichkeitstheorie einer Zufallsvariablen zugeordnet wird. In vielen Fällen ist diese Funktion in einer Umgebung des Nullpunktes in den reellen bzw. komplexen Zahlen definiert und kann dann mittels Ableitung zur Berechnung der Momente der Zufallsvariablen verwendet werden, woraus sich ihr Name erklärt.

Definition

Die momenterzeugende Funktion einer Zufallsvariablen X {\displaystyle X} ist definiert durch[1]

M X ( t ) := E ( e t X ) {\displaystyle M_{X}(t):=E\left(e^{tX}\right)} ,

wobei für t {\displaystyle t} reelle Zahlen eingesetzt werden können, sofern der Erwartungswert auf der rechten Seite existiert. Dieser Ausdruck ist mindestens für t = 0 {\displaystyle t=0} definiert. In vielen Fällen, siehe unten, ist diese Funktion in einer Umgebung von 0 definiert, und kann dann wie folgt in eine Potenzreihe entwickelt werden:

M X ( t ) = E ( n = 0 ( t X ) n n ! ) = n = 0 t n n ! E ( X n ) = n = 0 t n n ! m X n {\displaystyle M_{X}(t)=E\left(\sum _{n=0}^{\infty }{\frac {(tX)^{n}}{n!}}\right)=\sum _{n=0}^{\infty }{\frac {t^{n}}{n!}}E(X^{n})=\sum _{n=0}^{\infty }{\frac {t^{n}}{n!}}m_{X}^{n}} .

Dabei gilt 0 0 := 1 {\displaystyle 0^{0}:=1} und die m X n = E ( X n ) {\displaystyle m_{X}^{n}=E(X^{n})} sind die Momente von X {\displaystyle X} .

Die momenterzeugende Funktion hängt nur von der Verteilung von X {\displaystyle X} ab. Wenn die momenterzeugende Funktion einer Verteilung in einer Umgebung von 0 existiert, so sagt man, etwas unpräzise aber allgemein gebräuchlich, die Verteilung habe eine momenterzeugende Funktion. Existiert M X ( t ) {\displaystyle M_{X}(t)} nur für t = 0 {\displaystyle t=0} , so sagt man entsprechend, dass die Verteilung keine momenterzeugende Funktion habe.

Stetige Wahrscheinlichkeitsverteilungen

Falls X {\displaystyle X} eine stetige Wahrscheinlichkeitsdichte f {\displaystyle f} hat, kann man obigen Erwartungswert mittels dieser Dichte schreiben und erhält für die momenterzeugende Funktion

M X ( t ) = e t x f ( x ) d x {\displaystyle M_{X}(t)=\int _{-\infty }^{\infty }e^{tx}f(x)\,\mathrm {d} x}
= ( 1 + t x + t 2 2 ! x 2 + ) f ( x ) d x {\displaystyle =\int _{-\infty }^{\infty }\left(1+tx+{\frac {t^{2}}{2!}}x^{2}+\dotsb \right)f(x)\,\mathrm {d} x}
= 1 + t m X 1 + t 2 2 ! m X 2 + {\displaystyle =1+tm_{X}^{1}+{\frac {t^{2}}{2!}}m_{X}^{2}+\dotsb }

Dabei ist m X k {\displaystyle m_{X}^{k}} das k {\displaystyle k} -te Moment von X {\displaystyle X} . Der Ausdruck M X ( t ) {\displaystyle M_{X}\left(-t\right)} ist also gerade die zweiseitige Laplacetransformation des durch X {\displaystyle X} festgelegten Wahrscheinlichkeitsmaßes.

Bemerkungen

Ursprung des Begriffs der momenterzeugenden Funktion

Die Bezeichnung momenterzeugend bezieht sich darauf, dass die k {\displaystyle k} -te Ableitung von M X {\displaystyle M_{X}} im Punkt 0 (Null) gleich dem k {\displaystyle k} -ten Moment der Zufallsvariablen X {\displaystyle X} ist:

d k d t k M X ( t ) | t = 0 = E ( X k ) = m X k {\displaystyle {\frac {\mathrm {d} ^{k}}{\mathrm {d} t^{k}}}M_{X}(t){\biggr \vert }_{t=0}=E(X^{k})=m_{X}^{k}} .

Das liest man direkt an der oben angegebenen Potenzreihe ab. Durch die Angabe aller nicht verschwindenden Momente ist jede Wahrscheinlichkeitsverteilung vollständig festgelegt, falls die momenterzeugende Funktion auf einem offenen Intervall ( ε , ε ) {\displaystyle (-\varepsilon ,\varepsilon )} existiert ( ε > 0 ) {\displaystyle (\varepsilon >0)} .

Die erste Erwähnung des Begriffs momenterzeugende Funktion scheint französischsprachig (la fonction génératrice des moments) im Jahr 1925 durch V. Romanovsky erfolgt zu sein.[2][3] Im englischen Sprachraum wird die erste Verwendung des Begriffs moment generating function Ronald A. Fisher im Jahr 1929 zugeschrieben.[4][3]

Zusammenhang mit der charakteristischen Funktion

Die momenterzeugende Funktion steht in engem Zusammenhang mit der charakteristischen Funktion φ X ( t ) = E ( e i t X ) {\displaystyle \varphi _{X}(t)=E\left(e^{\mathrm {i} tX}\right)} . Es gilt φ X ( t ) = M i X ( t ) = M X ( i t ) {\displaystyle \varphi _{X}(t)=M_{iX}(t)=M_{X}(\mathrm {i} t)} , falls die momenterzeugende Funktion existiert. Im Gegensatz zur momenterzeugenden Funktion existiert die charakteristische Funktion für beliebige Zufallsvariablen.

Zusammenhang mit der wahrscheinlichkeitserzeugenden Funktion

Des Weiteren besteht noch ein Zusammenhang zur wahrscheinlichkeitserzeugenden Funktion. Diese ist jedoch nur für N 0 {\displaystyle \mathbb {N} _{0}} -wertige Zufallsvariablen definiert und zwar als m X ( t ) = E ( t X ) {\displaystyle m_{X}(t)=\operatorname {E} (t^{X})} . Damit gilt m X ( e t ) = M X ( t ) {\displaystyle m_{X}(e^{t})=M_{X}(t)} für diskrete Zufallsvariablen.

Zusammenhang mit der kumulantenerzeugenden Funktion

Die kumulantenerzeugende Funktion wird als natürlicher Logarithmus der momenterzeugenden Funktion definiert. Aus ihr wird der Begriff der Kumulante abgeleitet.

Summen unabhängiger Zufallsvariablen

Die momenterzeugende Funktion einer Summe unabhängiger Zufallsvariablen ist das Produkt ihrer momenterzeugenden Funktionen: Sind X 1 , , X n {\displaystyle X_{1},\dotsc ,X_{n}} unabhängig, dann gilt für Y = X 1 + + X n {\displaystyle Y=X_{1}+\dotsb +X_{n}}

M Y ( t ) = E ( e t Y ) = E ( e t X 1 + + t X n ) = E ( e t X 1 e t X n ) = E ( e t X 1 ) E ( e t X n ) = M X 1 ( t ) M X n ( t ) {\displaystyle M_{Y}(t)=E(e^{tY})=E(e^{tX_{1}+\ldots +tX_{n}})=E(e^{tX_{1}}\cdots e^{tX_{n}})=E(e^{tX_{1}})\cdots E(e^{tX_{n}})=M_{X_{1}}(t)\cdots M_{X_{n}}(t)} ,

wobei beim vorletzten Gleichheitszeichen verwendet wurde, dass der Erwartungswert eines Produktes unabhängiger Zufallsvariablen gleich dem Produkt ihrer Erwartungswerte ist.

Linear-affine Transformationen

Ist X {\displaystyle X} eine Zufallsvariable mit momenterzeugender Funktion M X {\displaystyle M_{X}} , so hat die transformierte Zufallsvariable a + b X {\displaystyle a+bX} mit a , b R {\displaystyle a,b\in \mathbb {R} } die momenterzeugende Funktion M a + b X {\displaystyle M_{a+bX}} mit

M a + b X ( t ) = e a t M X ( b t ) . {\displaystyle M_{a+bX}(t)=e^{at}M_{X}(bt).}

Eindeutigkeitseigenschaft

Ist die momenterzeugende Funktion einer Zufallsvariablen X {\displaystyle X} in einer Umgebung von 0 {\displaystyle 0} endlich, so bestimmt sie die Verteilung von X {\displaystyle X} eindeutig.[5]

Seien X {\displaystyle X} und Y {\displaystyle Y} zwei Zufallsvariablen mit momenterzeugenden Funktionen M X {\displaystyle M_{X}} und M Y {\displaystyle M_{Y}} derart, dass es ein ε > 0 {\displaystyle \varepsilon >0} gibt mit M X ( s ) , M Y ( s ) < {\displaystyle M_{X}(s),M_{Y}(s)<\infty } für alle s ( ε , ε ) {\displaystyle s\in (-\varepsilon ,\varepsilon )} . Dann gilt P X = P Y {\displaystyle P_{X}=P_{Y}} genau dann, wenn M X ( s ) = M Y ( s ) {\displaystyle M_{X}(s)=M_{Y}(s)} für alle s ( ε , ε ) {\displaystyle s\in (-\varepsilon ,\varepsilon )} gilt.

Konvexität

Jede momenterzeugende Funktion ist konvex. Sie ist sogar strikt konvex, wenn X 0 {\displaystyle X\neq 0} .[6]

Beispiele

Für viele Verteilungen kann man die momenterzeugende Funktion direkt angeben:

Verteilung Momenterzeugende Funktion MX(t)
Bernoulli-Verteilung B ( p ) {\displaystyle \mathrm {B} (p)} M X ( t ) = 1 p + p e t {\displaystyle M_{X}(t)=1-p+pe^{t}}
Betaverteilung B ( a , b , p , q ) {\displaystyle \mathrm {B} (a,b,p,q)} [7] M X ( t ) = 1 + n = 1 ( k = 0 n 1 a + k a + b + k ) t n n ! {\displaystyle M_{X}(t)=1+\sum _{n=1}^{\infty }\left(\prod _{k=0}^{n-1}{\frac {a+k}{a+b+k}}\right){\frac {t^{n}}{n!}}}
Binomialverteilung B ( p , n ) {\displaystyle \mathrm {B} (p,n)} M X ( t ) = ( 1 p + p e t ) n {\displaystyle M_{X}(t)=(1-p+pe^{t})^{n}}
Cauchy-Verteilung Die Cauchy-Verteilung hat keine momenterzeugende Funktion.[8]
Chi-Quadrat-Verteilung χ n 2 {\displaystyle \chi _{n}^{2}} [9] M X ( t ) = 1 ( 1 2 t ) n / 2 {\displaystyle M_{X}(t)={\frac {1}{(1-2t)^{n/2}}}}
Erlang-Verteilung E r l a n g ( λ , n ) {\displaystyle \mathrm {Erlang} (\lambda ,n)} M X ( t ) = ( λ λ t ) n {\displaystyle M_{X}(t)=\left({\frac {\lambda }{\lambda -t}}\right)^{n}} für t < λ {\displaystyle t<\lambda }
Exponentialverteilung E x p ( λ ) {\displaystyle \mathrm {Exp} (\lambda )} M X ( t ) = λ λ t {\displaystyle M_{X}(t)={\frac {\lambda }{\lambda -t}}} für t < λ {\displaystyle t<\lambda }
Gammaverteilung γ ( p , b ) {\displaystyle \gamma (p,b)} M X ( t ) = ( b b t ) p {\displaystyle M_{X}(t)=\left({\frac {b}{b-t}}\right)^{p}}
Geometrische Verteilung mit Parameter p {\displaystyle p} M X ( t ) = p e t 1 ( 1 p ) e t {\displaystyle M_{X}(t)={\frac {pe^{t}}{1-(1-p)e^{t}}}}
Gleichverteilung über [ 0 , a ] {\displaystyle [0,a]} M X ( t ) = e t a 1 t a {\displaystyle M_{X}(t)={\frac {e^{ta}-1}{ta}}}
Laplace-Verteilung mit Parametern μ , σ {\displaystyle \mu ,\sigma } [10] M X ( t ) = e μ t 1 σ 2 t 2 {\displaystyle M_{X}(t)={\frac {e^{\mu t}}{1-\sigma ^{2}t^{2}}}}
Negative Binomialverteilung N B ( r , p ) {\displaystyle \mathrm {NB} (r,p)} M X ( t ) = ( p e t 1 ( 1 p ) e t ) r {\displaystyle M_{X}(t)=\left({\frac {pe^{t}}{1-(1-p)e^{t}}}\right)^{r}} für t < | ln ( 1 p ) | {\displaystyle t<|\ln(1-p)|}
Normalverteilung N ( μ , σ 2 ) {\displaystyle \mathrm {N} (\mu ,\sigma ^{2})} M X ( t ) = exp ( μ t + σ 2 t 2 2 ) {\displaystyle M_{X}(t)=\exp {\left(\mu t+{\frac {\sigma ^{2}t^{2}}{2}}\right)}}
Poisson-Verteilung mit Parameter λ {\displaystyle \lambda } M X ( t ) = exp ( λ ( e t 1 ) ) {\displaystyle M_{X}(t)=\exp(\lambda (e^{t}-1))}

Verallgemeinerung auf mehrdimensionale Zufallsvariablen

Die momenterzeugende Funktion lässt sich auf {\displaystyle \ell } -dimensionale reelle Zufallsvektoren X = ( X 1 , , X ) {\displaystyle \mathbf {X} =(X_{1},\dots ,X_{\ell })} wie folgt erweitern:

M X ( t ) = M X ( t 1 , , t l ) = E ( e t , X ) = E ( j = 1 e t j X j ) {\displaystyle M_{\mathbf {X} }(\mathbf {t} )=M_{\mathbf {X} }(t_{1},\dots ,t_{l})=\operatorname {E} (e^{\langle \mathbf {t} ,\mathbf {X} \rangle })=\operatorname {E} \left(\prod _{j=1}^{\ell }e^{t_{j}X_{j}}\right)} ,

wobei t , X = j = 1 t j X j {\displaystyle \langle \mathbf {t} ,\mathbf {X} \rangle =\sum \limits _{j=1}^{\ell }t_{j}X_{j}} das Standardskalarprodukt bezeichnet.

Wenn die Komponenten des Zufallsvektors paarweise voneinander unabhängig sind, dann ergibt sich die momenterzeugende Funktion als Produkt aus den momentgenerierenden Funktionen von eindimensionalen Zufallsvariablen:

M X ( t 1 , , t l ) = E ( e t , X ) = j = 1 E ( e t j X j ) = j = 1 M X j ( t j ) {\displaystyle M_{\mathbf {X} }(t_{1},\dots ,t_{l})=\operatorname {E} (e^{\langle \mathbf {t} ,\mathbf {X} \rangle })=\prod _{j=1}^{\ell }\operatorname {E} \left(e^{t_{j}X_{j}}\right)=\prod _{j=1}^{\ell }M_{X_{j}}(t_{j})} .

Siehe auch

Literatur

  • Klaus D. Schmidt: Maß und Wahrscheinlichkeit. 2. Auflage. Springer, Berlin / Heidelberg 2011, ISBN 978-3-642-21025-9, S. 378 ff.

Einzelnachweise

  1. Robert G. Gallager: Stochastic Processes. Cambridge University Press, 2013, ISBN 978-1-107-03975-9, Kapitel 1.5.5: Moment generating functions and other transforms
  2. V. Romanovsky: Sur Certaines éspérances Mathématiques es sur l'Erreur Moyenne du Coefficient de Corrélation. In: Comptes Rendus. Band 180, 1295, S. 1897–1899, S. 1898. 
  3. a b Earliest Known Uses of Some of the Words of Mathematics (M). Abgerufen am 7. November 2023. 
  4. Ronald A. Fisher: Moments and Product Moments of Sampling Distributions. In: Proceedings of the London Mathematical Society, Series 2. Band 30, 1929, S. 238. 
  5. J. H. Curtiss: A Note on the Theory of Moment Generating Functions. In: The Annals of Mathematical Statistics. Band 13, Nr. 4, 1942, S. 430–155 (projecteuclid.org [abgerufen am 7. November 2023]). 
  6. Klaus D. Schmidt: Maß und Wahrscheinlichkeit. Springer, Berlin / Heidelberg 2009, ISBN 978-3-540-89730-9, S. 380. 
  7. Otto J.W.F. Kardaun: Classical Methods of Statistics. Springer-Verlag, 2005, ISBN 3-540-21115-2, S. 44.
  8. Allan Gut: Probability: A Graduate Course. Springer-Verlag, 2012, ISBN 978-1-4614-4707-8, Kapitel 8, Beispiel 8.2.
  9. A. C. Davison: Statistical Models. Cambridge University Press, 2008, ISBN 978-1-4672-0331-9, Kapitel 3.2.
  10. Hisashi Tanizaki: Computational Methods in Statistics and Econometrics. Verlag Taylor and Francis, 2004, ISBN 0-203-02202-5, Abschnitt 2.2.11.