Gegeben sei ein Wahrscheinlichkeitsmaß auf dem Ereignisraum der reellen Zahlen, d. h., jede reelle Zahl kann als mögliches Ergebnis aufgefasst werden. Dann heißt die Funktion definiert durch: die Verteilungsfunktion von. Mit anderen Worten: Die Funktion gibt an der Stelle an, mit welcher Wahrscheinlichkeit ein Ergebnis aus der Menge (alle reellen Zahlen kleiner oder gleich) eintritt. Ist eine reelle Zufallsvariable, so nennt man die Funktion die Verteilungsfunktion von. Dabei bezeichnet die Wahrscheinlichkeit, dass einen Wert kleiner oder gleich annimmt. Somit ist die Verteilungsfunktion einer Zufallsvariable genau die Verteilungsfunktion ihrer Verteilung. Besitzt das Wahrscheinlichkeitsmaß eine Wahrscheinlichkeitsdichte, so gilt Somit hat in diesem Fall die Verteilungsfunktion die Darstellung Beispielsweise hat die Exponentialverteilung die Dichte Ist also die Zufallsvariable exponentialverteilt, also, so ist Dieses Vorgehen ist jedoch nicht allgemein gangbar. Erstens besitzen nicht alle Wahrscheinlichkeitsmaße auf den reellen Zahlen eine Dichtefunktion (beispielsweise diskrete Verteilungen, aufgefasst als Verteilungen in), zweitens muss selbst bei der Existenz einer Dichtefunktion nicht notwendigerweise eine Stammfunktion mit geschlossener Darstellung existieren (wie beispielsweise bei der Normalverteilung). Betrachtet man zu einem Parameter eine Bernoulli-verteilte Zufallsvariable, so ist und für die Verteilungsfunktion folgt dann Ist allgemeiner eine Zufallsvariable mit Werten in den nichtnegativen ganzen Zahlen, dann gilt Dabei bezeichnet die Abrundungsfunktion, das heißt ist größte ganze Zahl, die kleiner oder gleich ist. Jede Verteilungsfunktion hat folgende Eigenschaften: Darüber hinaus ist jede Funktion, die die Eigenschaften 1, 2 und 3 erfüllt, eine Verteilungsfunktion. Folglich ist eine Charakterisierung der Verteilungsfunktion mit Hilfe der drei Eigenschaften möglich. So gibt es zu jeder Verteilungsfunktion genau solch ein Wahrscheinlichkeitsmaß, dass für alle gilt: Umgekehrt gibt es zu jedem Wahrscheinlichkeitsmaß eine Verteilungsfunktion derart, dass für alle gilt: Daraus folgt die Korrespondenz von und. Dieser Sachverhalt wird in der Literatur auch Korrespondenzsatz genannt. Jede Verteilungsfunktion besitzt höchstens abzählbar viele Sprungstellen. Da jede Verteilungsfunktion rechtsstetig ist, existiert auch der rechtsseitige Grenzwert und es gilt für alle: Deswegen ist genau dann stetig, wenn für alle gilt. Ist eine Verteilungsfunktion gegeben, so kann man wie folgt die Wahrscheinlichkeiten bestimmen: Daraus folgt dann auch für. Im Allgemeinen kann hier die Art der Ungleichheitszeichen ( oder) beziehungsweise die Art der Intervallgrenzen (offen, abgeschlossen, links/rechts halboffen) nicht vernachlässigt werden. Dies führt bei diskreten Wahrscheinlichkeitsverteilungen zu Fehlern, da sich dort auch auf einzelnen Punkten eine Wahrscheinlichkeit befinden kann, die dann fälschlicherweise dazugezählt oder nicht berücksichtigt wird. Bei stetigen Wahrscheinlichkeitsverteilungen, also insbesondere auch bei solchen, die über eine Wahrscheinlichkeitsdichtefunktion definiert werden (Absolutstetige Wahrscheinlichkeitsverteilungen), führt eine Abänderung der Ungleichheitszeichen oder Intervallgrenzen nicht zu Fehlern. Beim Würfeln errechnet sich die Wahrscheinlichkeit, eine Zahl zwischen 2 (exklusive) und einschließlich 5 zu würfeln, zu Eine Folge von Verteilungsfunktionen heißt schwach konvergent gegen die Verteilungsfunktion, wenn Für Verteilungsfunktionen von Zufallsvariablen finden sich auch die Bezeichnungen konvergent in Verteilung oder stochastisch konvergent. Über die schwache Konvergenz der Verteilungsfunktionen lässt sich mit dem Satz von Helly-Bray eine Brücke zur schwachen Konvergenz von Maßen schlagen. Denn eine Folge von Wahrscheinlichkeitsmaßen ist genau dann schwach konvergent, wenn die Folge ihrer Verteilungsfunktionen schwach konvergiert. Analog ist eine Folge von Zufallsvariablen genau denn Konvergent in Verteilung, wenn die Folge ihrer Verteilungsfunktionen schwach konvergiert. Einige Autoren nutzen diese Äquivalenz zur Definition der Konvergenz in Verteilung, da sie leichter zugänglich ist als die schwache Konvergenz der Wahrscheinlichkeitsmaße. Teilweise findet sich die Aussage des Satzes von Helly-Bray auch im Portmanteau-Theorem. Für Verteilungsfunktionen im Sinne der Maßtheorie ist die oben angegebene Definition nicht korrekt, sondern entspricht der vagen Konvergenz von Verteilungsfunktionen (im Sinne der Maßtheorie). Diese fällt aber für Wahrscheinlichkeitsmaßen mit der schwachen Konvergenz von Verteilungsfunktionen zusammen. Die schwache Konvergenz von Verteilungsfunktionen wird von dem Lévy-Abstand metrisiert. Wahrscheinlichkeitsverteilungen, deren Verteilungsfunktion stetig ist, werden stetige Wahrscheinlichkeitsverteilungen genannt. Sie lassen sich noch weiter unterteilen in Für absolutstetige Wahrscheinlichkeitsverteilungen entspricht die Ableitung der Verteilungsfunktion der Wahrscheinlichkeitsdichtefunktion. Zwar sind auch stetigsinguläre Wahrscheinlichkeitsverteilungen fast überall differenzierbar, ihre Ableitung ist aber fast überall gleich null. Verteilungsfunktionen von diskreten Wahrscheinlichkeitsverteilungen zeichnen sich durch ihre Sprünge zwischen den Bereichen mit konstanten Funktionswerten aus. Bei ihnen handelt es sich um Sprungfunktionen. Im Einflussbereich der Tradition Kolmogorows, namentlich der mathematischen Literatur des ehem. „Ostblocks“, findet sich parallel zur heute vorherrschenden „Kleiner-gleich“-Konvention der Verteilungsfunktion bis in die jüngere Vergangenheit eine weitere, die statt des Kleiner-gleich-Zeichens das Echt-kleiner-Zeichen verwendet, also Bei stetigen Wahrscheinlichkeitsverteilungen stimmen beide Definitionen überein, bei diskreten Verteilungen dagegen unterscheiden sie sich darin, dass die Verteilungsfunktion im Fall der „Echt-kleiner“-Konvention an den Sprungstellen nicht rechtsseitig, sondern linksseitig stetig ist. Es ergibt sich beispielsweise für die Binomialverteilung bei der heute üblichen „Kleiner-gleich“-Konvention eine Verteilungsfunktion der Form bei der „Echt-kleiner“-Konvention dagegen die Schreibweise Speziell für gilt im zweiten Fall also Die empirische Verteilungsfunktion einer Stichprobe spielt eine wichtige Rolle in der Statistik. Formal entspricht sie der Verteilungsfunktion einer diskreten Gleichverteilung auf den Punkten. Ihre Bedeutung hat sie daher, dass nach dem Satz von Gliwenko-Cantelli die empirische Verteilungsfunktion einer unabhängigen Stichprobe von Zufallszahlen gegen die Verteilungsfunktion der Wahrscheinlichkeitsverteilung konvergiert, mittels der die Zufallszahlen erzeugt wurden. Die Gemeinsame Verteilungsfunktion verallgemeinert das Konzept einer Verteilungsfunktion von der Verteilung einer Zufallsvariablen auf die Gemeinsame Verteilung von Zufallsvariablen. Ebenso lässt sich das Konzept von der Randverteilung zur Rand-Verteilungsfunktion übertragen. Diese Verteilungsfunktionen haben gemeinsam, dass ihr Definitionsbereich der ist für Die Verallgemeinerte inverse Verteilungsfunktion bildet unter Umständen eine Umkehrfunktion zur Verteilungsfunktion und ist wichtig zur Bestimmung von Quantilen. Verteilungsfunktionen können nicht nur für Wahrscheinlichkeitsmaße definiert werden, sondern für beliebige endliche Maße auf den reellen Zahlen. In diesen Verteilungsfunktionen (im Sinne der Maßtheorie) spiegeln sich dann wichtige Eigenschaften der Maße wider. Sie bilden eine Verallgemeinerung der hier besprochenen Verteilungsfunktionen. Die Überlebensfunktion gibt im Gegensatz zu einer Verteilungsfunktion an, wie groß die Wahrscheinlichkeit ist, einen gewissen Wert zu Überschreiten. Sie tritt beispielsweise bei der Modellierung von Lebensdauern auf und gibt dort an, wie groß die Wahrscheinlichkeit ist, einen gewissen Zeitpunkt zu „überleben“. Die Multivariate Verteilungsfunktion ist die Verteilungsfunktion, die multivariaten Wahrscheinlichkeitsverteilungen zugeordnet wird. Als mehrdimensionale Verteilungsfunktion wird hingegen meist das höherdimensionale Pendant der Verteilungsfunktion im Sinne der Maßtheorie bezeichnet. Eine Mischverteilung beschreibt Mischungen von Zufallsgrößen, die unterschiedlichen Verteilungen folgen. Definition mittels Wahrscheinlichkeitsmaß
Definition mittels Zufallsvariable
Wahrscheinlichkeitsmaße mit Dichten
Diskrete Wahrscheinlichkeitsmaße
Definition
Eigenschaften
Linksseitig stetige Verteilungsfunktionen
Beispiel
Empirische Verteilungsfunktion
Gemeinsame Verteilungsfunktion und Rand-Verteilungsfunktionen
Verallgemeinerte Inverse Verteilungsfunktion
Verteilungsfunktion im Sinne der Maßtheorie
Überlebensfunktion
Multivariate und mehrdimensionale Verteilungsfunktion
Mischverteilung
