fbpx
Wikipedia

Definition mittels Wahrscheinlichkeitsmaß

Gegeben sei ein Wahrscheinlichkeitsmaß P {\displaystyle P} auf dem Ereignisraum der reellen Zahlen, d. h., jede reelle Zahl kann als mögliches Ergebnis aufgefasst werden. Dann heißt die Funktion

F P : R [ 0 , 1 ] {\displaystyle F_{P}\colon \mathbb {R} \to [0,1]}

definiert durch:

F P ( x ) = P ( ( , x ] ) {\displaystyle F_{P}(x)=P((-\infty ,x])}

die Verteilungsfunktion von P {\displaystyle P} . Mit anderen Worten: Die Funktion gibt an der Stelle x {\displaystyle x} an, mit welcher Wahrscheinlichkeit ein Ergebnis aus der Menge ( , x ] {\displaystyle (-\infty ,x]} (alle reellen Zahlen kleiner oder gleich x {\displaystyle x} ) eintritt.

Definition mittels Zufallsvariable

Ist X {\displaystyle X} eine reelle Zufallsvariable, so nennt man die Funktion

F X ( x ) = P ( X x ) {\displaystyle F_{X}(x)=P(X\leq x)}

die Verteilungsfunktion von X {\displaystyle X} . Dabei bezeichnet P ( X x ) {\displaystyle P(X\leq x)} die Wahrscheinlichkeit, dass X {\displaystyle X} einen Wert kleiner oder gleich x {\displaystyle x} annimmt.

Somit ist die Verteilungsfunktion einer Zufallsvariable genau die Verteilungsfunktion ihrer Verteilung.

Wahrscheinlichkeitsmaße mit Dichten

Besitzt das Wahrscheinlichkeitsmaß P {\displaystyle P} eine Wahrscheinlichkeitsdichte f P {\displaystyle f_{P}} , so gilt

P ( ( a , b ] ) = a b f P ( x ) d x {\displaystyle P((a,b])=\int _{a}^{b}f_{P}(x)\,\mathrm {d} x} .

Somit hat in diesem Fall die Verteilungsfunktion die Darstellung

F P ( x ) = x f P ( t ) d t {\displaystyle F_{P}(x)=\int _{-\infty }^{x}f_{P}(t)\,\mathrm {d} t} .

Beispielsweise hat die Exponentialverteilung die Dichte

f λ ( x ) = { λ e λ x x 0 0 x < 0 {\displaystyle f_{\lambda }(x)={\begin{cases}\displaystyle \lambda {\rm {e}}^{-\lambda x}&x\geq 0\\0&x<0\end{cases}}} .

Ist also die Zufallsvariable X {\displaystyle X} exponentialverteilt, also X Exp ( λ ) {\displaystyle X\sim \operatorname {Exp} (\lambda )} , so ist

F X ( x ) = x f λ ( t ) d t = { 1 e λ x x 0 , 0 x < 0. {\displaystyle F_{X}(x)=\int _{-\infty }^{x}f_{\lambda }(t)\,\mathrm {d} t={\begin{cases}1-\mathrm {e} ^{-\lambda x}&x\geq 0,\\0&x<0.\end{cases}}} .

Dieses Vorgehen ist jedoch nicht allgemein gangbar. Erstens besitzen nicht alle Wahrscheinlichkeitsmaße auf den reellen Zahlen eine Dichtefunktion (beispielsweise diskrete Verteilungen, aufgefasst als Verteilungen in R {\displaystyle \mathbb {R} } ), zweitens muss selbst bei der Existenz einer Dichtefunktion nicht notwendigerweise eine Stammfunktion mit geschlossener Darstellung existieren (wie beispielsweise bei der Normalverteilung).

Diskrete Wahrscheinlichkeitsmaße

Betrachtet man zu einem Parameter p ( 0 , 1 ) {\displaystyle p\in (0,1)} eine Bernoulli-verteilte Zufallsvariable X {\displaystyle X} , so ist

P ( X = 0 ) = 1 p und P ( X = 1 ) = p {\displaystyle P(X=0)=1-p{\text{ und }}P(X=1)=p}

und für die Verteilungsfunktion folgt dann

F X ( x ) = { 0 falls x < 0 1 p falls 0 x < 1 1 falls x 1 {\displaystyle F_{X}(x)={\begin{cases}0&{\text{ falls }}x<0\\1-p&{\text{ falls }}0\leq x<1\\1&{\text{ falls }}x\geq 1\end{cases}}}

Ist allgemeiner X {\displaystyle X} eine Zufallsvariable mit Werten in den nichtnegativen ganzen Zahlen N 0 {\displaystyle \mathbb {N} _{0}} , dann gilt

F X ( x ) = k = 0 x P ( X = k ) {\displaystyle F_{X}(x)=\sum _{k=0}^{\lfloor x\rfloor }P(X=k)} .

Dabei bezeichnet {\displaystyle \lfloor \cdot \rfloor } die Abrundungsfunktion, das heißt x {\displaystyle \lfloor x\rfloor } ist größte ganze Zahl, die kleiner oder gleich x {\displaystyle x} ist.

Verteilungsfunktionen einer diskreten, einer stetigen und einer gemischten Zufallsvariable.

Jede Verteilungsfunktion F : R [ 0 , 1 ] {\displaystyle F\colon \mathbb {R} \rightarrow [0,1]} hat folgende Eigenschaften:

  1. F {\displaystyle F} ist monoton steigend.
  2. F {\displaystyle F} ist rechtsseitig stetig.
  3. lim x F ( x ) = 0 {\displaystyle \lim _{x\to -\infty }F(x)=0} und lim x F ( x ) = 1 {\displaystyle \lim _{x\to \infty }F(x)=1} .

Darüber hinaus ist jede Funktion F : R [ 0 , 1 ] {\displaystyle F\colon \mathbb {R} \rightarrow [0,1]} , die die Eigenschaften 1, 2 und 3 erfüllt, eine Verteilungsfunktion. Folglich ist eine Charakterisierung der Verteilungsfunktion mit Hilfe der drei Eigenschaften möglich. So gibt es zu jeder Verteilungsfunktion F : R [ 0 , 1 ] {\displaystyle F\colon \mathbb {R} \rightarrow [0,1]} genau solch ein Wahrscheinlichkeitsmaß P F : B ( R ) [ 0 , 1 ] {\displaystyle P_{F}\colon {\mathcal {B}}(\mathbb {R} )\to [0,1]} , dass für alle x R {\displaystyle x\in \mathbb {R} } gilt:

P F ( ] , x ] ) = F ( x ) {\displaystyle P_{F}\left(]-\infty ,x]\right)=F(x)}

Umgekehrt gibt es zu jedem Wahrscheinlichkeitsmaß P : B ( R ) [ 0 , 1 ] {\displaystyle P\colon {\mathcal {B}}(\mathbb {R} )\to [0,1]} eine Verteilungsfunktion F P : R [ 0 , 1 ] {\displaystyle F_{P}\colon \mathbb {R} \rightarrow [0,1]} derart, dass für alle x R {\displaystyle x\in \mathbb {R} } gilt:

P ( ] , x ] ) = F P ( x ) {\displaystyle P\left(]-\infty ,x]\right)=F_{P}(x)}

Daraus folgt die Korrespondenz von P ( F P ) = P {\displaystyle P_{(F_{P})}=P} und F ( P F ) = F {\displaystyle F_{(P_{F})}=F} . Dieser Sachverhalt wird in der Literatur auch Korrespondenzsatz genannt.

Jede Verteilungsfunktion besitzt höchstens abzählbar viele Sprungstellen.

Da jede Verteilungsfunktion rechtsstetig ist, existiert auch der rechtsseitige Grenzwert und es gilt für alle x R {\displaystyle x\in \mathbb {R} } :

P F ( { x } ) = F ( x ) lim ε 0 + F ( x ε ) {\displaystyle P_{F}\left(\{x\}\right)=F(x)-\lim _{\varepsilon \to 0+}F(x-\varepsilon )}

Deswegen ist F {\displaystyle F} genau dann stetig, wenn P ( { x } ) = 0 {\displaystyle P(\{x\})=0} für alle x R {\displaystyle x\in \mathbb {R} } gilt.

Ist eine Verteilungsfunktion F {\displaystyle F} gegeben, so kann man wie folgt die Wahrscheinlichkeiten bestimmen:

P ( X a ) = F ( a ) {\displaystyle P(X\leq a)=F(a)} sowie P ( X > a ) = 1 F ( a ) {\displaystyle P(X>a)=1-F(a)} bzw.
P ( ( ; a ] ) = F ( a ) {\displaystyle P((-\infty ;a])=F(a)} sowie P ( ( a ; + ) ) = 1 F ( a ) {\displaystyle P((a;+\infty ))=1-F(a)} .

Daraus folgt dann auch

P ( a < X b ) = F ( b ) F ( a ) {\displaystyle P(a<X\leq b)=F(b)-F(a)} und P ( ( a ; b ] ) = F ( b ) F ( a ) {\displaystyle P((a;b])=F(b)-F(a)}

für a b {\displaystyle a\leq b} .

Im Allgemeinen kann hier die Art der Ungleichheitszeichen ( < {\displaystyle <} oder {\displaystyle \leq } ) beziehungsweise die Art der Intervallgrenzen (offen, abgeschlossen, links/rechts halboffen) nicht vernachlässigt werden. Dies führt bei diskreten Wahrscheinlichkeitsverteilungen zu Fehlern, da sich dort auch auf einzelnen Punkten eine Wahrscheinlichkeit befinden kann, die dann fälschlicherweise dazugezählt oder nicht berücksichtigt wird.

Bei stetigen Wahrscheinlichkeitsverteilungen, also insbesondere auch bei solchen, die über eine Wahrscheinlichkeitsdichtefunktion definiert werden (Absolutstetige Wahrscheinlichkeitsverteilungen), führt eine Abänderung der Ungleichheitszeichen oder Intervallgrenzen nicht zu Fehlern.

Beispiel

Beim Würfeln errechnet sich die Wahrscheinlichkeit, eine Zahl zwischen 2 (exklusive) und einschließlich 5 zu würfeln, zu

P ( 2 < X 5 ) = F ( 5 ) F ( 2 ) = 5 6 2 6 = 3 6 = 1 2 {\displaystyle P(2<X\leq 5)=F(5)-F(2)={5 \over 6}-{2 \over 6}={3 \over 6}={1 \over 2}} .

Definition

Eine Folge von Verteilungsfunktionen ( F n ) n N {\displaystyle (F_{n})_{n\in \mathbb {N} }} heißt schwach konvergent gegen die Verteilungsfunktion F {\displaystyle F} , wenn

lim n F n ( x ) = F ( x ) {\displaystyle \lim _{n\to \infty }F_{n}(x)=F(x)} gilt für alle x R {\displaystyle x\in \mathbb {R} } , an denen F {\displaystyle F} stetig ist.

Für Verteilungsfunktionen von Zufallsvariablen finden sich auch die Bezeichnungen konvergent in Verteilung oder stochastisch konvergent.

Eigenschaften

Über die schwache Konvergenz der Verteilungsfunktionen lässt sich mit dem Satz von Helly-Bray eine Brücke zur schwachen Konvergenz von Maßen schlagen. Denn eine Folge von Wahrscheinlichkeitsmaßen ist genau dann schwach konvergent, wenn die Folge ihrer Verteilungsfunktionen schwach konvergiert. Analog ist eine Folge von Zufallsvariablen genau denn Konvergent in Verteilung, wenn die Folge ihrer Verteilungsfunktionen schwach konvergiert.

Einige Autoren nutzen diese Äquivalenz zur Definition der Konvergenz in Verteilung, da sie leichter zugänglich ist als die schwache Konvergenz der Wahrscheinlichkeitsmaße. Teilweise findet sich die Aussage des Satzes von Helly-Bray auch im Portmanteau-Theorem.

Für Verteilungsfunktionen im Sinne der Maßtheorie ist die oben angegebene Definition nicht korrekt, sondern entspricht der vagen Konvergenz von Verteilungsfunktionen (im Sinne der Maßtheorie). Diese fällt aber für Wahrscheinlichkeitsmaßen mit der schwachen Konvergenz von Verteilungsfunktionen zusammen. Die schwache Konvergenz von Verteilungsfunktionen wird von dem Lévy-Abstand metrisiert.

Wahrscheinlichkeitsverteilungen, deren Verteilungsfunktion stetig ist, werden stetige Wahrscheinlichkeitsverteilungen genannt. Sie lassen sich noch weiter unterteilen in

Für absolutstetige Wahrscheinlichkeitsverteilungen entspricht die Ableitung der Verteilungsfunktion der Wahrscheinlichkeitsdichtefunktion. Zwar sind auch stetigsinguläre Wahrscheinlichkeitsverteilungen fast überall differenzierbar, ihre Ableitung ist aber fast überall gleich null.

Verteilungsfunktionen von diskreten Wahrscheinlichkeitsverteilungen zeichnen sich durch ihre Sprünge zwischen den Bereichen mit konstanten Funktionswerten aus. Bei ihnen handelt es sich um Sprungfunktionen.

Linksseitig stetige Verteilungsfunktionen

Im Einflussbereich der Tradition Kolmogorows, namentlich der mathematischen Literatur des ehem. „Ostblocks“, findet sich parallel zur heute vorherrschenden „Kleiner-gleich“-Konvention der Verteilungsfunktion bis in die jüngere Vergangenheit eine weitere, die statt des Kleiner-gleich-Zeichens das Echt-kleiner-Zeichen verwendet, also

F ( x ) = P ( X < x ) , x R {\displaystyle F(x)=P(X<x),\quad x\in \mathbb {R} }

Bei stetigen Wahrscheinlichkeitsverteilungen stimmen beide Definitionen überein, bei diskreten Verteilungen dagegen unterscheiden sie sich darin, dass die Verteilungsfunktion im Fall der „Echt-kleiner“-Konvention an den Sprungstellen nicht rechtsseitig, sondern linksseitig stetig ist.

Beispiel

Es ergibt sich beispielsweise für die Binomialverteilung bei der heute üblichen „Kleiner-gleich“-Konvention eine Verteilungsfunktion der Form

F ( x ) = P ( X x ) = k = 0 x ( n k ) p k ( 1 p ) n k {\displaystyle F(x)=P(X\leq x)=\sum _{k=0}^{\lfloor x\rfloor }{n \choose k}p^{k}(1-p)^{n-k}} ,

bei der „Echt-kleiner“-Konvention dagegen die Schreibweise

F ( x ) = P ( X < x ) = k = 0 x 1 ( n k ) p k ( 1 p ) n k {\displaystyle F(x)=P(X<x)=\sum _{k=0}^{\lceil x-1\rceil }{n \choose k}p^{k}(1-p)^{n-k}} .

Speziell für m N {\displaystyle m\in \mathbb {N} } gilt im zweiten Fall also

F ( m ) = k = 0 m 1 P ( X = k ) {\displaystyle F(m)=\sum _{k=0}^{m-1}P(X=k)} .

Empirische Verteilungsfunktion

Die empirische Verteilungsfunktion einer Stichprobe ( x 1 , , x n ) {\displaystyle (x_{1},\dots ,x_{n})} spielt eine wichtige Rolle in der Statistik. Formal entspricht sie der Verteilungsfunktion einer diskreten Gleichverteilung auf den Punkten ( x 1 , , x n ) {\displaystyle (x_{1},\dots ,x_{n})} . Ihre Bedeutung hat sie daher, dass nach dem Satz von Gliwenko-Cantelli die empirische Verteilungsfunktion einer unabhängigen Stichprobe von Zufallszahlen gegen die Verteilungsfunktion der Wahrscheinlichkeitsverteilung konvergiert, mittels der die Zufallszahlen erzeugt wurden.

Gemeinsame Verteilungsfunktion und Rand-Verteilungsfunktionen

Die Gemeinsame Verteilungsfunktion verallgemeinert das Konzept einer Verteilungsfunktion von der Verteilung einer Zufallsvariablen auf die Gemeinsame Verteilung von Zufallsvariablen. Ebenso lässt sich das Konzept von der Randverteilung zur Rand-Verteilungsfunktion übertragen. Diese Verteilungsfunktionen haben gemeinsam, dass ihr Definitionsbereich der R k {\displaystyle \mathbb {R} ^{k}} ist für k 1 {\displaystyle k\geq 1}

Verallgemeinerte Inverse Verteilungsfunktion

Die Verallgemeinerte inverse Verteilungsfunktion bildet unter Umständen eine Umkehrfunktion zur Verteilungsfunktion und ist wichtig zur Bestimmung von Quantilen.

Verteilungsfunktion im Sinne der Maßtheorie

Verteilungsfunktionen können nicht nur für Wahrscheinlichkeitsmaße definiert werden, sondern für beliebige endliche Maße auf den reellen Zahlen. In diesen Verteilungsfunktionen (im Sinne der Maßtheorie) spiegeln sich dann wichtige Eigenschaften der Maße wider. Sie bilden eine Verallgemeinerung der hier besprochenen Verteilungsfunktionen.

Überlebensfunktion

Hauptartikel: Überlebensfunktion

Die Überlebensfunktion gibt im Gegensatz zu einer Verteilungsfunktion an, wie groß die Wahrscheinlichkeit ist, einen gewissen Wert zu Überschreiten. Sie tritt beispielsweise bei der Modellierung von Lebensdauern auf und gibt dort an, wie groß die Wahrscheinlichkeit ist, einen gewissen Zeitpunkt zu „überleben“.

Multivariate und mehrdimensionale Verteilungsfunktion

Die Multivariate Verteilungsfunktion ist die Verteilungsfunktion, die multivariaten Wahrscheinlichkeitsverteilungen zugeordnet wird. Als mehrdimensionale Verteilungsfunktion wird hingegen meist das höherdimensionale Pendant der Verteilungsfunktion im Sinne der Maßtheorie bezeichnet.

Mischverteilung

Hauptartikel: Mischverteilung

Eine Mischverteilung beschreibt Mischungen von Zufallsgrößen, die unterschiedlichen Verteilungen folgen.

  1. Schmidt: Maß- und Wahrscheinlichkeit. 2011, S. 246.
  2. Kusolitsch: Maß- und Wahrscheinlichkeitstheorie. 2014, S. 62.
  3. N. Schmitz: Vorlesungen über Wahrscheinlichkeitstheorie. Teubner, 1996.
  4. Schmidt: Maß- und Wahrscheinlichkeit. 2011, S. 396.
  5. Kusolitsch: Maß- und Wahrscheinlichkeitstheorie. 2014, S. 287.
  6. Alexandr Alexejewitsch Borowkow: Rachunek prawdopodobieństwa. Państwowe Wydawnictwo Naukowe, Warszawa 1977, S. 36 ff.
  7. Marek Fisz: Wahrscheinlichkeitsrechnung und mathematische Statistik. VEB Deutscher Verlag der Wissenschaften, Elfte Auflage, Berlin 1989, Definition 2.2.1, S. 51.
  8. W. Gellert, H. Küstner, M. Hellwich, H. Kästner (Hrsg.): Kleine Enzyklopädie Mathematik. VEB Verlag Enzyklopädie Leipzig 1970, OCLC 174754758, S. 659–660.

Verteilungsfunktion Sprache Beobachten Bearbeiten Der Titel dieses Artikels ist mehrdeutig Weitere Bedeutungen sind unter Verteilungsfunktion Begriffsklarung aufgefuhrt Die Verteilungsfunktion ist eine spezielle reelle Funktion in der Stochastik und ein zentrales Konzept bei der Untersuchung von Wahrscheinlichkeitsverteilungen auf den reellen Zahlen Jeder Wahrscheinlichkeitsverteilung und jeder reellwertigen Zufallsvariable kann eine Verteilungsfunktion zugeordnet werden Anschaulich entspricht dabei der Wert der Verteilungsfunktion an der Stelle x displaystyle x der Wahrscheinlichkeit dass die zugehorige Zufallsvariable X displaystyle X einen Wert kleiner oder gleich x displaystyle x annimmt Ist beispielsweise die Verteilung der Schuhgrossen in Europa gegeben so entspricht der Wert der entsprechenden Verteilungsfunktion bei 45 der Wahrscheinlichkeit dass ein beliebiger Europaer die Schuhgrosse 45 oder kleiner besitzt Ihre Bedeutung erhalt die Verteilungsfunktion durch den Korrespondenzsatz der besagt dass jeder Verteilungsfunktion eine Wahrscheinlichkeitsverteilung auf den reellen Zahlen zugeordnet werden kann und umgekehrt Die Zuordnung ist bijektiv Dies ermoglicht es anstelle der Untersuchung von Wahrscheinlichkeitsverteilungen als Mengenfunktionen auf einem komplexen Mengensystem mit Methoden der Masstheorie die entsprechenden Verteilungsfunktionen zu untersuchen Diese sind reelle Funktionen und somit uber die Methoden der reellen Analysis leichter zuganglich Als alternative Bezeichnungen finden sich unter anderem kumulierte Verteilungsfunktion da sie die Wahrscheinlichkeiten kleiner als x displaystyle x zu sein anhauft siehe auch kumulierte Haufigkeit Des Weiteren wird sie zur besseren Abgrenzung von ihrem hoherdimensionalen Pendant der multivariaten Verteilungsfunktion auch als univariate Verteilungsfunktion bezeichnet 1 In Abgrenzung zum allgemeineren Masstheoretischen Konzept einer Verteilungsfunktion finden sich die Bezeichnungen als wahrscheinlichkeitstheoretische Verteilungsfunktion oder als Verteilungsfunktion im engeren Sinn 2 Die Entsprechung der Verteilungsfunktion in der deskriptiven Statistik ist die empirische Verteilungs oder Summenhaufigkeitsfunktion Inhaltsverzeichnis 1 Definition 1 1 Definition mittels Wahrscheinlichkeitsmass 1 2 Definition mittels Zufallsvariable 2 Beispiele 2 1 Wahrscheinlichkeitsmasse mit Dichten 2 2 Diskrete Wahrscheinlichkeitsmasse 3 Eigenschaften und Zusammenhang zur Verteilung 4 Rechnen mit Verteilungsfunktionen 5 Konvergenz 5 1 Definition 5 2 Eigenschaften 6 Klassifikation von Wahrscheinlichkeitsverteilungen uber Verteilungsfunktionen 7 Alternative Definition 7 1 Linksseitig stetige Verteilungsfunktionen 7 2 Beispiel 8 Verwandte Konzepte 8 1 Empirische Verteilungsfunktion 8 2 Gemeinsame Verteilungsfunktion und Rand Verteilungsfunktionen 8 3 Verallgemeinerte Inverse Verteilungsfunktion 8 4 Verteilungsfunktion im Sinne der Masstheorie 8 5 Uberlebensfunktion 8 6 Multivariate und mehrdimensionale Verteilungsfunktion 8 7 Mischverteilung 9 Literatur 10 EinzelnachweiseDefinition BearbeitenDefinition mittels Wahrscheinlichkeitsmass Bearbeiten Gegeben sei ein Wahrscheinlichkeitsmass P displaystyle P auf dem Ereignisraum der reellen Zahlen d h jede reelle Zahl kann als mogliches Ergebnis aufgefasst werden Dann heisst die Funktion F P R 0 1 displaystyle F P colon mathbb R to 0 1 definiert durch F P x P x displaystyle F P x P infty x die Verteilungsfunktion von P displaystyle P Mit anderen Worten Die Funktion gibt an der Stelle x displaystyle x an mit welcher Wahrscheinlichkeit ein Ergebnis aus der Menge x displaystyle infty x alle reellen Zahlen kleiner oder gleich x displaystyle x eintritt Definition mittels Zufallsvariable Bearbeiten Ist X displaystyle X eine reelle Zufallsvariable so nennt man die Funktion F X x P X x displaystyle F X x P X leq x die Verteilungsfunktion von X displaystyle X Dabei bezeichnet P X x displaystyle P X leq x die Wahrscheinlichkeit dass X displaystyle X einen Wert kleiner oder gleich x displaystyle x annimmt Somit ist die Verteilungsfunktion einer Zufallsvariable genau die Verteilungsfunktion ihrer Verteilung Beispiele BearbeitenWahrscheinlichkeitsmasse mit Dichten Bearbeiten Besitzt das Wahrscheinlichkeitsmass P displaystyle P eine Wahrscheinlichkeitsdichte f P displaystyle f P so gilt P a b a b f P x d x displaystyle P a b int a b f P x mathrm d x Somit hat in diesem Fall die Verteilungsfunktion die Darstellung F P x x f P t d t displaystyle F P x int infty x f P t mathrm d t Beispielsweise hat die Exponentialverteilung die Dichte f l x l e l x x 0 0 x lt 0 displaystyle f lambda x begin cases displaystyle lambda rm e lambda x amp x geq 0 0 amp x lt 0 end cases Ist also die Zufallsvariable X displaystyle X exponentialverteilt also X Exp l displaystyle X sim operatorname Exp lambda so ist F X x x f l t d t 1 e l x x 0 0 x lt 0 displaystyle F X x int infty x f lambda t mathrm d t begin cases 1 mathrm e lambda x amp x geq 0 0 amp x lt 0 end cases Dieses Vorgehen ist jedoch nicht allgemein gangbar Erstens besitzen nicht alle Wahrscheinlichkeitsmasse auf den reellen Zahlen eine Dichtefunktion beispielsweise diskrete Verteilungen aufgefasst als Verteilungen in R displaystyle mathbb R zweitens muss selbst bei der Existenz einer Dichtefunktion nicht notwendigerweise eine Stammfunktion mit geschlossener Darstellung existieren wie beispielsweise bei der Normalverteilung Diskrete Wahrscheinlichkeitsmasse Bearbeiten Betrachtet man zu einem Parameter p 0 1 displaystyle p in 0 1 eine Bernoulli verteilte Zufallsvariable X displaystyle X so ist P X 0 1 p und P X 1 p displaystyle P X 0 1 p text und P X 1 p und fur die Verteilungsfunktion folgt dann F X x 0 falls x lt 0 1 p falls 0 x lt 1 1 falls x 1 displaystyle F X x begin cases 0 amp text falls x lt 0 1 p amp text falls 0 leq x lt 1 1 amp text falls x geq 1 end cases Ist allgemeiner X displaystyle X eine Zufallsvariable mit Werten in den nichtnegativen ganzen Zahlen N 0 displaystyle mathbb N 0 dann gilt F X x k 0 x P X k displaystyle F X x sum k 0 lfloor x rfloor P X k Dabei bezeichnet displaystyle lfloor cdot rfloor die Abrundungsfunktion das heisst x displaystyle lfloor x rfloor ist grosste ganze Zahl die kleiner oder gleich x displaystyle x ist Eigenschaften und Zusammenhang zur Verteilung Bearbeiten Verteilungsfunktionen einer diskreten einer stetigen und einer gemischten Zufallsvariable Jede Verteilungsfunktion F R 0 1 displaystyle F colon mathbb R rightarrow 0 1 hat folgende Eigenschaften F displaystyle F ist monoton steigend F displaystyle F ist rechtsseitig stetig lim x F x 0 displaystyle lim x to infty F x 0 und lim x F x 1 displaystyle lim x to infty F x 1 Daruber hinaus ist jede Funktion F R 0 1 displaystyle F colon mathbb R rightarrow 0 1 die die Eigenschaften 1 2 und 3 erfullt eine Verteilungsfunktion Folglich ist eine Charakterisierung der Verteilungsfunktion mit Hilfe der drei Eigenschaften moglich So gibt es zu jeder Verteilungsfunktion F R 0 1 displaystyle F colon mathbb R rightarrow 0 1 genau solch ein Wahrscheinlichkeitsmass P F B R 0 1 displaystyle P F colon mathcal B mathbb R to 0 1 dass fur alle x R displaystyle x in mathbb R gilt P F x F x displaystyle P F left infty x right F x Umgekehrt gibt es zu jedem Wahrscheinlichkeitsmass P B R 0 1 displaystyle P colon mathcal B mathbb R to 0 1 eine Verteilungsfunktion F P R 0 1 displaystyle F P colon mathbb R rightarrow 0 1 derart dass fur alle x R displaystyle x in mathbb R gilt P x F P x displaystyle P left infty x right F P x Daraus folgt die Korrespondenz von P F P P displaystyle P F P P und F P F F displaystyle F P F F Dieser Sachverhalt wird in der Literatur auch Korrespondenzsatz genannt 3 Jede Verteilungsfunktion besitzt hochstens abzahlbar viele Sprungstellen Da jede Verteilungsfunktion rechtsstetig ist existiert auch der rechtsseitige Grenzwert und es gilt fur alle x R displaystyle x in mathbb R P F x F x lim e 0 F x e displaystyle P F left x right F x lim varepsilon to 0 F x varepsilon Deswegen ist F displaystyle F genau dann stetig wenn P x 0 displaystyle P x 0 fur alle x R displaystyle x in mathbb R gilt Rechnen mit Verteilungsfunktionen BearbeitenIst eine Verteilungsfunktion F displaystyle F gegeben so kann man wie folgt die Wahrscheinlichkeiten bestimmen P X a F a displaystyle P X leq a F a sowie P X gt a 1 F a displaystyle P X gt a 1 F a bzw P a F a displaystyle P infty a F a sowie P a 1 F a displaystyle P a infty 1 F a Daraus folgt dann auch P a lt X b F b F a displaystyle P a lt X leq b F b F a und P a b F b F a displaystyle P a b F b F a fur a b displaystyle a leq b Im Allgemeinen kann hier die Art der Ungleichheitszeichen lt displaystyle lt oder displaystyle leq beziehungsweise die Art der Intervallgrenzen offen abgeschlossen links rechts halboffen nicht vernachlassigt werden Dies fuhrt bei diskreten Wahrscheinlichkeitsverteilungen zu Fehlern da sich dort auch auf einzelnen Punkten eine Wahrscheinlichkeit befinden kann die dann falschlicherweise dazugezahlt oder nicht berucksichtigt wird Bei stetigen Wahrscheinlichkeitsverteilungen also insbesondere auch bei solchen die uber eine Wahrscheinlichkeitsdichtefunktion definiert werden Absolutstetige Wahrscheinlichkeitsverteilungen fuhrt eine Abanderung der Ungleichheitszeichen oder Intervallgrenzen nicht zu Fehlern Beispiel Beim Wurfeln errechnet sich die Wahrscheinlichkeit eine Zahl zwischen 2 exklusive und einschliesslich 5 zu wurfeln zu P 2 lt X 5 F 5 F 2 5 6 2 6 3 6 1 2 displaystyle P 2 lt X leq 5 F 5 F 2 5 over 6 2 over 6 3 over 6 1 over 2 Konvergenz BearbeitenDefinition Bearbeiten Eine Folge von Verteilungsfunktionen F n n N displaystyle F n n in mathbb N heisst schwach konvergent gegen die Verteilungsfunktion F displaystyle F wenn lim n F n x F x displaystyle lim n to infty F n x F x gilt fur alle x R displaystyle x in mathbb R an denen F displaystyle F stetig ist 4 Fur Verteilungsfunktionen von Zufallsvariablen finden sich auch die Bezeichnungen konvergent in Verteilung oder stochastisch konvergent 5 Eigenschaften Bearbeiten Uber die schwache Konvergenz der Verteilungsfunktionen lasst sich mit dem Satz von Helly Bray eine Brucke zur schwachen Konvergenz von Massen schlagen Denn eine Folge von Wahrscheinlichkeitsmassen ist genau dann schwach konvergent wenn die Folge ihrer Verteilungsfunktionen schwach konvergiert Analog ist eine Folge von Zufallsvariablen genau denn Konvergent in Verteilung wenn die Folge ihrer Verteilungsfunktionen schwach konvergiert Einige Autoren nutzen diese Aquivalenz zur Definition der Konvergenz in Verteilung da sie leichter zuganglich ist als die schwache Konvergenz der Wahrscheinlichkeitsmasse Teilweise findet sich die Aussage des Satzes von Helly Bray auch im Portmanteau Theorem Fur Verteilungsfunktionen im Sinne der Masstheorie ist die oben angegebene Definition nicht korrekt sondern entspricht der vagen Konvergenz von Verteilungsfunktionen im Sinne der Masstheorie Diese fallt aber fur Wahrscheinlichkeitsmassen mit der schwachen Konvergenz von Verteilungsfunktionen zusammen Die schwache Konvergenz von Verteilungsfunktionen wird von dem Levy Abstand metrisiert Klassifikation von Wahrscheinlichkeitsverteilungen uber Verteilungsfunktionen BearbeitenWahrscheinlichkeitsverteilungen deren Verteilungsfunktion stetig ist werden stetige Wahrscheinlichkeitsverteilungen genannt Sie lassen sich noch weiter unterteilen in Absolutstetige Wahrscheinlichkeitsverteilungen fur die eine Wahrscheinlichkeitsdichtefunktion existiert Typische Beispiele hierfur ware die Normalverteilung oder die Exponentialverteilung Stetigsingulare Wahrscheinlichkeitsverteilungen die keine Wahrscheinlichkeitsdichtefunktion besitzen Beispiel hierfur ware die Cantor Verteilung Fur absolutstetige Wahrscheinlichkeitsverteilungen entspricht die Ableitung der Verteilungsfunktion der Wahrscheinlichkeitsdichtefunktion Zwar sind auch stetigsingulare Wahrscheinlichkeitsverteilungen fast uberall differenzierbar ihre Ableitung ist aber fast uberall gleich null Verteilungsfunktionen von diskreten Wahrscheinlichkeitsverteilungen zeichnen sich durch ihre Sprunge zwischen den Bereichen mit konstanten Funktionswerten aus Bei ihnen handelt es sich um Sprungfunktionen Alternative Definition BearbeitenLinksseitig stetige Verteilungsfunktionen Bearbeiten Im Einflussbereich der Tradition Kolmogorows namentlich der mathematischen Literatur des ehem Ostblocks findet sich parallel zur heute vorherrschenden Kleiner gleich Konvention der Verteilungsfunktion bis in die jungere Vergangenheit eine weitere die statt des Kleiner gleich Zeichens das Echt kleiner Zeichen verwendet 6 7 also F x P X lt x x R displaystyle F x P X lt x quad x in mathbb R Bei stetigen Wahrscheinlichkeitsverteilungen stimmen beide Definitionen uberein bei diskreten Verteilungen dagegen unterscheiden sie sich darin dass die Verteilungsfunktion im Fall der Echt kleiner Konvention an den Sprungstellen nicht rechtsseitig sondern linksseitig stetig ist Beispiel Bearbeiten Es ergibt sich beispielsweise fur die Binomialverteilung bei der heute ublichen Kleiner gleich Konvention eine Verteilungsfunktion der Form F x P X x k 0 x n k p k 1 p n k displaystyle F x P X leq x sum k 0 lfloor x rfloor n choose k p k 1 p n k bei der Echt kleiner Konvention dagegen die Schreibweise F x P X lt x k 0 x 1 n k p k 1 p n k displaystyle F x P X lt x sum k 0 lceil x 1 rceil n choose k p k 1 p n k Speziell fur m N displaystyle m in mathbb N gilt im zweiten Fall also 8 F m k 0 m 1 P X k displaystyle F m sum k 0 m 1 P X k Verwandte Konzepte BearbeitenEmpirische Verteilungsfunktion Bearbeiten Hauptartikel empirische Verteilungsfunktion Die empirische Verteilungsfunktion einer Stichprobe x 1 x n displaystyle x 1 dots x n spielt eine wichtige Rolle in der Statistik Formal entspricht sie der Verteilungsfunktion einer diskreten Gleichverteilung auf den Punkten x 1 x n displaystyle x 1 dots x n Ihre Bedeutung hat sie daher dass nach dem Satz von Gliwenko Cantelli die empirische Verteilungsfunktion einer unabhangigen Stichprobe von Zufallszahlen gegen die Verteilungsfunktion der Wahrscheinlichkeitsverteilung konvergiert mittels der die Zufallszahlen erzeugt wurden Gemeinsame Verteilungsfunktion und Rand Verteilungsfunktionen Bearbeiten Hauptartikel Gemeinsame Verteilungsfunktion Die Gemeinsame Verteilungsfunktion verallgemeinert das Konzept einer Verteilungsfunktion von der Verteilung einer Zufallsvariablen auf die Gemeinsame Verteilung von Zufallsvariablen Ebenso lasst sich das Konzept von der Randverteilung zur Rand Verteilungsfunktion ubertragen Diese Verteilungsfunktionen haben gemeinsam dass ihr Definitionsbereich der R k displaystyle mathbb R k ist fur k 1 displaystyle k geq 1 Verallgemeinerte Inverse Verteilungsfunktion Bearbeiten Hauptartikel Verallgemeinerte inverse Verteilungsfunktion Die Verallgemeinerte inverse Verteilungsfunktion bildet unter Umstanden eine Umkehrfunktion zur Verteilungsfunktion und ist wichtig zur Bestimmung von Quantilen Verteilungsfunktion im Sinne der Masstheorie Bearbeiten Hauptartikel Verteilungsfunktion Masstheorie Verteilungsfunktionen konnen nicht nur fur Wahrscheinlichkeitsmasse definiert werden sondern fur beliebige endliche Masse auf den reellen Zahlen In diesen Verteilungsfunktionen im Sinne der Masstheorie spiegeln sich dann wichtige Eigenschaften der Masse wider Sie bilden eine Verallgemeinerung der hier besprochenen Verteilungsfunktionen Uberlebensfunktion Bearbeiten Hauptartikel Uberlebensfunktion Die Uberlebensfunktion gibt im Gegensatz zu einer Verteilungsfunktion an wie gross die Wahrscheinlichkeit ist einen gewissen Wert zu Uberschreiten Sie tritt beispielsweise bei der Modellierung von Lebensdauern auf und gibt dort an wie gross die Wahrscheinlichkeit ist einen gewissen Zeitpunkt zu uberleben Multivariate und mehrdimensionale Verteilungsfunktion Bearbeiten Hauptartikel Multivariate Verteilungsfunktion Die Multivariate Verteilungsfunktion ist die Verteilungsfunktion die multivariaten Wahrscheinlichkeitsverteilungen zugeordnet wird Als mehrdimensionale Verteilungsfunktion wird hingegen meist das hoherdimensionale Pendant der Verteilungsfunktion im Sinne der Masstheorie bezeichnet Mischverteilung Bearbeiten Hauptartikel Mischverteilung Eine Mischverteilung beschreibt Mischungen von Zufallsgrossen die unterschiedlichen Verteilungen folgen Literatur BearbeitenKlaus D Schmidt Mass und Wahrscheinlichkeit 2 durchgesehene Auflage Springer Verlag Heidelberg Dordrecht London New York 2011 ISBN 978 3 642 21025 9 doi 10 1007 978 3 642 21026 6 Achim Klenke Wahrscheinlichkeitstheorie 3 Auflage Springer Verlag Berlin Heidelberg 2013 ISBN 978 3 642 36017 6 doi 10 1007 978 3 642 36018 3 Norbert Kusolitsch Mass und Wahrscheinlichkeitstheorie Eine Einfuhrung 2 uberarbeitete und erweiterte Auflage Springer Verlag Berlin Heidelberg 2014 ISBN 978 3 642 45386 1 doi 10 1007 978 3 642 45387 8 Einzelnachweise Bearbeiten Schmidt Mass und Wahrscheinlichkeit 2011 S 246 Kusolitsch Mass und Wahrscheinlichkeitstheorie 2014 S 62 N Schmitz Vorlesungen uber Wahrscheinlichkeitstheorie Teubner 1996 Schmidt Mass und Wahrscheinlichkeit 2011 S 396 Kusolitsch Mass und Wahrscheinlichkeitstheorie 2014 S 287 Alexandr Alexejewitsch Borowkow Rachunek prawdopodobienstwa Panstwowe Wydawnictwo Naukowe Warszawa 1977 S 36 ff Marek Fisz Wahrscheinlichkeitsrechnung und mathematische Statistik VEB Deutscher Verlag der Wissenschaften Elfte Auflage Berlin 1989 Definition 2 2 1 S 51 W Gellert H Kustner M Hellwich H Kastner Hrsg Kleine Enzyklopadie Mathematik VEB Verlag Enzyklopadie Leipzig 1970 OCLC 174754758 S 659 660 Abgerufen von https de wikipedia org w index php title Verteilungsfunktion amp oldid 221545744, wikipedia, wiki, deutsches, deutschland,

buch

, bücher, bibliothek,

artikel

, lesen, herunterladen, kostenlos, kostenloser herunterladen, MP3, Video, MP4, 3GP, JPG, JPEG, GIF, PNG, Bild, Musik, Lied, Film, Buch, Spiel, Spiele