Erwarteter Wert

Aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

In der Wahrscheinlichkeitstheorie , der erwarteten Wert einer Zufallsvariable , bezeichnet oder , [1] [2] ist eine Verallgemeinerung des gewichteten Durchschnitts und ist intuitiv das arithmetische Mittel aus einer großen Anzahl von unabhängigen Realisierungen von . Der erwartete Wert wird auch als Erwartung , mathematische Erwartung , Mittelwert , Durchschnitt oder erster Moment bezeichnet . Der erwartete Wert ist ein Schlüsselkonzept in den Bereichen Wirtschaft , Finanzen und vielen anderen Themen.

Per Definition ist der erwartete Wert einer Konstante Zufallsvariable ist . [3] Der erwartete Wert einer Zufallsvariablen mit gleichwahrscheinlichen Ergebnissen wird als arithmetisches Mittel der Terme definiert. Wenn einige der Wahrscheinlichkeiten eines einzelnen Ergebnisses ungleich sind, wird der erwartete Wert als wahrscheinlichkeitsgewichteter Durchschnitt der s definiert das heißt, die Summe der Produkte . [4] Der erwartete Wert einer allgemeinen Zufallsvariablen beinhaltet die Integration im Sinne von Lebesgue .

Geschichte [ bearbeiten ]

Die Idee des erwarteten Wertes entstand Mitte des 17. Jahrhunderts aus der Untersuchung des sogenannten Punkteproblems , bei dem versucht wird, die Einsätze auf faire Weise zwischen zwei Spielern aufzuteilen , die ihr Spiel beenden müssen, bevor es richtig ist fertig. [5] Dieses Problem wurde seit Jahrhunderten diskutiert, und im Laufe der Jahre wurden viele widersprüchliche Vorschläge und Lösungen vorgeschlagen, als es dem französischen Schriftsteller und Amateurmathematiker Chevalier de Méré Blaise Pascal vorstellteMéré behauptete, dass dieses Problem nicht gelöst werden könne und dass es zeige, wie fehlerhaft die Mathematik bei ihrer Anwendung auf die reale Welt sei. Als Mathematiker war Pascal provoziert und entschlossen, das Problem ein für alle Mal zu lösen.

Er begann das Problem in einer inzwischen berühmten Reihe von Briefen an Pierre de Fermat zu diskutieren . Schon bald hatten beide unabhängig voneinander eine Lösung gefunden. Sie lösten das Problem auf unterschiedliche rechnerische Weise, aber ihre Ergebnisse waren identisch, da ihre Berechnungen auf demselben Grundprinzip beruhten. Das Prinzip ist, dass der Wert eines zukünftigen Gewinns direkt proportional zur Chance sein sollte, ihn zu erhalten. Dieses Prinzip schien für beide selbstverständlich zu sein. Sie waren sehr erfreut darüber, dass sie im Wesentlichen die gleiche Lösung gefunden hatten, was sie wiederum absolut davon überzeugte, dass sie das Problem endgültig gelöst hatten; Sie haben ihre Ergebnisse jedoch nicht veröffentlicht. Sie informierten nur einen kleinen Kreis gemeinsamer wissenschaftlicher Freunde in Paris darüber. [6]

Drei Jahre später, 1657, veröffentlichte ein niederländischer Mathematiker, Christiaan Huygens , der gerade Paris besucht hatte, eine Abhandlung (siehe Huygens (1657) ) " De ratiociniis in ludo aleæ " über die Wahrscheinlichkeitstheorie. In diesem Buch ging er auf das Problem der Punkte ein und präsentierte eine Lösung, die auf demselben Prinzip basiert wie die Lösungen von Pascal und Fermat. Huygens erweiterte das Konzept der Erwartung auch um Regeln für die Berechnung von Erwartungen in komplizierteren Situationen als das ursprüngliche Problem (z. B. für drei oder mehr Spieler). In diesem Sinne kann dieses Buch als der erste erfolgreiche Versuch angesehen werden, die Grundlagen der Wahrscheinlichkeitstheorie zu legen .

Im Vorwort zu seinem Buch schrieb Huygens:

Es sollte auch gesagt werden, dass sich einige der besten Mathematiker Frankreichs seit einiger Zeit mit dieser Art von Kalkül beschäftigt haben, so dass mir niemand die Ehre der ersten Erfindung zuschreiben sollte. Das gehört mir nicht. Aber diese Gelehrten haben ihre Methoden verborgen, obwohl sie sich gegenseitig auf die Probe stellen, indem sie sich viele schwer zu lösende Fragen vorschlagen. Ich musste mich daher mit diesen Elementen befassen und mich eingehend mit dieser Angelegenheit befassen, und es ist mir aus diesem Grund unmöglich zu bestätigen, dass ich sogar von demselben Prinzip ausgegangen bin. Aber schließlich habe ich festgestellt, dass meine Antworten in vielen Fällen nicht von ihren abweichen.

-  Edwards (2002)

So erfuhr Huygens 1655 bei seinem Besuch in Frankreich von de Mérés Problem ; später im Jahre 1656 erfuhr er aus seiner Korrespondenz mit Carcavi, dass seine Methode im Wesentlichen dieselbe war wie die von Pascal; Bevor sein Buch 1657 in Druck ging, wusste er um Pascals Priorität in diesem Bereich.

Mitte des neunzehnten Jahrhunderts war Pafnuty Chebyshev der erste, der systematisch über die Erwartungen von Zufallsvariablen nachdachte . [7]

Etymologie [ Bearbeiten ]

Weder Pascal noch Huygens verwendeten den Begriff "Erwartung" im modernen Sinne. Insbesondere schreibt Huygens: [8]

Dass jede Chance oder Erwartung, etwas zu gewinnen, genau so viel wert ist, wie Sie es sich bei einer fairen Lage mit der gleichen Chance und Erwartung verschaffen würden. ... Wenn ich a oder b erwarte und die gleiche Chance habe, sie zu erhalten, ist meine Erwartung (a + b) / 2 wert.

Mehr als hundert Jahre später, 1814, veröffentlichte Pierre-Simon Laplace seinen Traktat " Théorie analytique des probabilités ", in dem das Konzept des erwarteten Werts explizit definiert wurde: [9]

… Dieser Vorteil in der Zufallstheorie ist das Produkt der Summe, die durch die Wahrscheinlichkeit, sie zu erhalten, erhofft wird; Es ist die Teilsumme, die sich ergeben sollte, wenn wir das Risiko des Ereignisses nicht eingehen wollen, wenn wir annehmen, dass die Aufteilung proportional zu den Wahrscheinlichkeiten ist. Diese Aufteilung ist die einzig gerechte, wenn alle seltsamen Umstände beseitigt sind; weil ein gleiches Maß an Wahrscheinlichkeit ein gleiches Recht für die erhoffte Summe ergibt. Wir werden diesen Vorteil mathematische Hoffnung nennen .

Notationen [ bearbeiten ]

Die Verwendung des Buchstabens zur Bezeichnung des erwarteten Wertes geht auf WA Whitworth im Jahr 1901 zurück. [10] Das Symbol ist seitdem bei englischen Schriftstellern beliebt. Steht auf Deutsch für "Erwartungswert", auf Spanisch für "Esperanza matemática" und auf Französisch für "Espérance mathématique". [11]

Eine andere populäre Notation ist , während sie üblicherweise in der Physik und in der russischsprachigen Literatur verwendet wird.

Definition [ bearbeiten ]

Endlicher Fall [ Bearbeiten ]

Sei eine Zufallsvariable mit einer endlichen Anzahl von endlichen Ergebnissen, die jeweils mit Wahrscheinlichkeiten auftreten . Die Erwartung von ist definiert als [4]

Da der erwartete Wert die gewichtete Summe der Werte ist, mit den Wahrscheinlichkeiten als Gewichten.

Wenn alle Ergebnisse sind gleich wahrscheinlich (das heißt ), dann die gewichtete durchschnittliche verwandelt sich in den einfachen Durchschnitt . Wenn andererseits die Ergebnisse nicht gleich wahrscheinlich sind, muss der einfache Durchschnitt durch den gewichteten Durchschnitt ersetzt werden, was die Tatsache berücksichtigt, dass einige Ergebnisse wahrscheinlicher sind als andere.

Eine Darstellung der Konvergenz der Sequenz Mittelwert von Rollen mit einer Düse auf den erwarteten Wert von 3,5 , wie die Anzahl der Rollen (Versuche) wächst.

Beispiele [ Bearbeiten ]

  • Stellen wir das Ergebnis eines Wurfs eines fairen sechsseitigen Würfels dar . Genauer gesagt wird die Anzahl der Pips angezeigt , die nach dem Wurf auf der Oberseite des Würfels angezeigt werden. Die möglichen Werte für sind 1, 2, 3, 4, 5 und 6, die alle mit einer Wahrscheinlichkeit von gleich wahrscheinlich sind1/.6. Die Erwartung von ist
Wenn man rollt die Formzeiten und berechnet die durchschnittliche ( arithmetisches Mittel ) der Ergebnisse, dann wächst, wird die durchschnittliche fast sicher konvergieren auf den erwarteten Wert, eine Tatsache , bekannt als die starke Gesetz der großen Zahlen .
  • Das Roulette- Spiel besteht aus einem kleinen Ball und einem Rad mit 38 nummerierten Taschen am Rand. Während das Rad gedreht wird, springt der Ball zufällig herum, bis er sich in einer der Taschen niederlässt. Angenommen, die Zufallsvariable repräsentiert das (monetäre) Ergebnis einer 1-Dollar-Wette auf eine einzelne Zahl ("Straight-Up" -Wette). Wenn die Wette gewinnt (was mit Wahrscheinlichkeit geschieht1/.38beim amerikanischen Roulette) beträgt die Auszahlung 35 USD; Andernfalls verliert der Spieler die Wette. Der erwartete Gewinn aus einer solchen Wette wird sein
Das heißt, der Einsatz von 1 $ wird verlieren , also ist sein erwarteter Wert

Zählbar unendlicher Fall [ Bearbeiten ]

Intuitiv wird die Erwartung einer Zufallsvariablen, die Werte in einem zählbaren Satz von Ergebnissen annimmt, analog als die gewichtete Summe der Ergebniswerte definiert, wobei die Gewichte den Wahrscheinlichkeiten für die Realisierung dieses Werts entsprechen. Konvergenzprobleme, die mit der unendlichen Summe verbunden sind, erfordern jedoch eine sorgfältigere Definition. Eine strenge Definition definiert zuerst die Erwartung einer nicht negativen Zufallsvariablen und passt sie dann an allgemeine Zufallsvariablen an.

Sei eine nicht negative Zufallsvariable mit einer zählbaren Menge von Ergebnissen, die jeweils mit Wahrscheinlichkeiten auftreten . Analog zum diskreten Fall wird der erwartete Wert von dann als die Reihe definiert

Beachten Sie, dass die unendliche Summe genau definiert ist und nicht von der Reihenfolge abhängt , in der sie berechnet wird. Im Gegensatz zum endlichen Fall kann die Erwartung hier gleich unendlich sein, wenn die obige unendliche Summe ungebunden zunimmt.

Für eine allgemeine (nicht unbedingt nicht negative) Zufallsvariable mit einer zählbaren Anzahl von Ergebnissen setzen und . Per Definition,

Wie bei nicht negativen Zufallsvariablen kann auch hier endlich oder unendlich sein. Die dritte Option ist, dass nicht mehr garantiert ist, dass sie überhaupt gut definiert ist. Letzteres passiert immer dann .

Beispiele [ Bearbeiten ]

  • Nehmen wir an und für , wobei ( wobei der natürliche Logarithmus ist ) der Skalierungsfaktor ist, so dass sich die Wahrscheinlichkeiten zu 1 summieren. Dann haben wir unter Verwendung der direkten Definition für nicht negative Zufallsvariablen
  • Ein Beispiel, bei dem die Erwartung unendlich ist, ergibt sich im Kontext des St. Petersburger Paradoxons . Lass und für . Da die Zufallsvariable nicht negativ ist, ergibt sich wiederum die Erwartungswertberechnung
  • Für ein Beispiel, in dem die Erwartung nicht genau definiert ist, wird angenommen, dass die Zufallsvariable Werte mit entsprechenden Wahrscheinlichkeiten annimmt , ... wobei eine Normalisierungskonstante ist, die sicherstellt, dass sich die Wahrscheinlichkeiten zu eins summieren.
Daraus folgt, dass der Wert mit der Wahrscheinlichkeit für und der Wert mit der verbleibenden Wahrscheinlichkeit angenommen wird. In ähnlicher Weise nimmt Wert mit Wahrscheinlichkeit für und nimmt Wert mit verbleibender Wahrscheinlichkeit. Mit der Definition für nicht negative Zufallsvariablen kann man zeigen, dass beide und (siehe Harmonische Reihen ). Daher ist die Erwartung von nicht genau definiert.

Absolut kontinuierlicher Fall [ Bearbeiten ]

Wenn es sich um eine Zufallsvariable mit einer Wahrscheinlichkeitsdichtefunktion von handelt , wird der erwartete Wert als Lebesgue-Integral definiert

wobei die Werte auf beiden Seiten gleichzeitig gut oder nicht gut definiert sind.

Beispiel. Eine Zufallsvariable mit der Cauchy-Verteilung [12] hat eine Dichtefunktion, aber der erwartete Wert ist undefiniert, da die Verteilung große "Schwänze" aufweist .

Allgemeiner Fall [ Bearbeiten ]

Wenn im Allgemeinen eine Zufallsvariable in einem Wahrscheinlichkeitsraum definiert ist , wird der erwartete Wert von , bezeichnet mit , als das Lebesgue-Integral definiert

Für mehrdimensionale Zufallsvariablen wird ihr erwarteter Wert pro Komponente definiert. Das ist,

und für eine Zufallsmatrix mit Elementen ,

Grundlegende Eigenschaften [ Bearbeiten ]

Die folgenden grundlegenden Eigenschaften (und ihre fett gedruckten Namen) entsprechen denen des Lebesgue-Integrals oder folgen unmittelbar diesen . Beachten Sie, dass die Buchstaben "als" für " fast sicher " stehen - eine zentrale Eigenschaft des Lebesgue-Integrals. Grundsätzlich sagt man, dass eine Ungleichung wie fast sicher wahr ist, wenn das Wahrscheinlichkeitsmaß dem komplementären Ereignis die Nullmasse zuschreibt .

  • Definieren Sie für eine allgemeine Zufallsvariable wie zuvor und und beachten Sie, dass mit und nicht negativ dann:
  • Dann sei die Indikatorfunktion eines Ereignisses bezeichnet
  • Formeln in Bezug auf CDF: Wenn es sich um die kumulative Verteilungsfunktion des Wahrscheinlichkeitsmaßes handelt und es sich um eine Zufallsvariable handelt, dann
wobei die Werte auf beiden Seiten gleichzeitig gut oder nicht gut definiert sind und das Integral im Sinne von Lebesgue-Stieltjes genommen wird . Hier ist die erweiterte reelle Linie.
Zusätzlich,
mit den Integralen im Sinne von Lebesgue.
Der Beweis der zweiten Formel folgt.
  • Nicht-Negativität: Wenn (als), dann .
  • Linearität des Erwartungs: [3] Der Erwartungswertoperator (oder Erwartungsoperator ) ist linear in dem Sinne , dass, für alle Zufallsvariablen und und einer konstanten ,
wann immer die rechte Seite gut definiert ist. Dies bedeutet, dass der erwartete Wert der Summe einer endlichen Anzahl von Zufallsvariablen die Summe der erwarteten Werte der einzelnen Zufallsvariablen ist und der erwartete Wert linear mit einer multiplikativen Konstante skaliert.
  • Monotonie: Wenn (as) und beides und existieren, dann .
Der Beweis folgt aus der Linearität und der Nicht-Negativitätseigenschaft für , da (as).
  • Nicht-Multiplikativität: Im Allgemeinen ist der erwartete Wert nicht multiplikativ, dh nicht unbedingt gleich . Wenn und sind unabhängig , dann kann man das zeigen . Wenn die Zufallsvariablen abhängig sind , kann im Allgemeinen die Gleichheit gelten, obwohl dies in besonderen Abhängigkeitsfällen der Fall ist.
  • Gesetz des unbewussten Statistikers : Der erwartete Wert einer messbaren Funktion von,vorausgesetzt, dasseine Wahrscheinlichkeitsdichtefunktion vorliegt, ist gegeben durch das innere Produkt vonund:
[3]
Diese Formel gilt auch im mehrdimensionalen Fall, wenn eine Funktion mehrerer Zufallsvariablen und deren Gelenkdichte ist . [3] [13]
  • Nicht-Entartung: Wenn , dann (als).
  • Für eine Zufallsvariable mit genau definierten Erwartungen : .
  • Die folgenden Aussagen zu einer Zufallsvariablen sind äquivalent:
    • existiert und ist endlich.
    • Beides und sind endlich.
    • ist endlich.
Aus den oben genannten Gründen werden die Ausdrücke " ist integrierbar" und "der erwartete Wert von ist endlich" in diesem Artikel synonym verwendet.
  • Wenn dann (als) . Ebenso wenn dann (als) .
  • Wenn und dann
  • Wenn (as) , dann . Mit anderen Worten, wenn X und Y Zufallsvariablen sind, die mit der Wahrscheinlichkeit Null unterschiedliche Werte annehmen, entspricht die Erwartung von X der Erwartung von Y.
  • Wenn (as) für eine Konstante , dann . Insbesondere für eine Zufallsvariable mit genau definierten Erwartungen . Eine genau definierte Erwartung impliziert, dass es eine Zahl bzw. eine Konstante gibt, die den erwarteten Wert definiert. Daraus folgt, dass die Erwartung dieser Konstante nur der ursprüngliche Erwartungswert ist.
  • Für eine nicht negative Zufallsvariable mit ganzzahligem Wert

Verwendungen und Anwendungen [ Bearbeiten ]

Die Erwartung einer Zufallsvariablen spielt in verschiedenen Kontexten eine wichtige Rolle. Beispielsweise wird in der Entscheidungstheorie häufig angenommen, dass ein Agent, der im Kontext unvollständiger Informationen eine optimale Wahl trifft, den erwarteten Wert seiner Nutzenfunktion maximiert . Für ein anderes Beispiel in der Statistik , in der Schätzungen für unbekannte Parameter basierend auf verfügbaren Daten gesucht werden, ist die Schätzung selbst eine Zufallsvariable. In solchen Einstellungen ist ein wünschenswertes Kriterium für einen "guten" Schätzer, dass er unvoreingenommen ist ; Das heißt, der erwartete Wert der Schätzung entspricht dem wahren Wert des zugrunde liegenden Parameters.

Es ist möglich, einen erwarteten Wert zu konstruieren, der der Wahrscheinlichkeit eines Ereignisses entspricht, indem die Erwartung einer Indikatorfunktion angenommen wird, die eins ist, wenn das Ereignis aufgetreten ist, und ansonsten null. Diese Beziehung kann verwendet werden, um Eigenschaften erwarteter Werte in Eigenschaften von Wahrscheinlichkeiten zu übersetzen, z. B. unter Verwendung des Gesetzes großer Zahlen , um die Schätzung von Wahrscheinlichkeiten anhand von Häufigkeiten zu rechtfertigen .

Die erwarteten Werte der Potenzen von X werden als Momente von X bezeichnet ; Die Momente um den Mittelwert von X sind erwartete Werte der Potenzen von X - E [ X ]. Die Momente einiger Zufallsvariablen können verwendet werden, um ihre Verteilungen über ihre Momenterzeugungsfunktionen anzugeben .

Um den erwarteten Wert einer Zufallsvariablen empirisch abzuschätzen , misst man wiederholt Beobachtungen der Variablen und berechnet das arithmetische Mittel der Ergebnisse. Wenn der erwartete Wert vorhanden ist, schätzt dieses Verfahren den wahren erwarteten Wert auf unvoreingenommene Weise und hat die Eigenschaft, die Summe der Quadrate der Residuen (die Summe der quadratischen Differenzen zwischen den Beobachtungen und der Schätzung ) zu minimieren . Das Gesetz der großen Zahlen zeigt (unter ziemlich milden Bedingungen) , die, wie die Größe der Probe größer wird, die Varianz dieser Schätzung wird kleiner.

Diese Eigenschaft wird häufig in einer Vielzahl von Anwendungen ausgenutzt, einschließlich allgemeiner Probleme der statistischen Schätzung und des maschinellen Lernens , um (probabilistische) interessierende Mengen über Monte-Carlo-Methoden zu schätzen , da die meisten interessierenden Mengen in Bezug auf die Erwartung geschrieben werden können, z . Wo ist die Anzeigefunktion des Sets ?

Die Masse der Wahrscheinlichkeitsverteilung wird auf den erwarteten Wert ausgeglichen, hier eine Beta (α, β) -Verteilung mit dem erwarteten Wert α / (α + β).

In der klassischen Mechanik ist der Schwerpunkt ein analoges Konzept zur Erwartung. Angenommen, X ist eine diskrete Zufallsvariable mit Werten x i und entsprechenden Wahrscheinlichkeiten p i . Betrachten Sie nun eine schwerelose Stange, auf die Gewichte gelegt werden, an Stellen x i entlang der Stange und mit Massen p i (deren Summe eins ist). Der Punkt, an dem die Stange balanciert, ist E [ X ].

Erwartete Werte können auch verwendet werden, um die Varianz mittels der Berechnungsformel für die Varianz zu berechnen

Eine sehr wichtige Anwendung des Erwartungswertes liegt auf dem Gebiet der Quantenmechanik . Der Erwartungswert eines quantenmechanischen Operators , der mit einem Quantenzustandsvektor arbeitet , wird wie folgt geschrieben : Die Unsicherheit in kann mit der Formel berechnet werden .

Grenzen und Erwartungen austauschen [ Bearbeiten ]

Im Allgemeinen ist es nicht so, dass trotz Punkt. Daher kann man Grenzen und Erwartungen nicht austauschen, ohne zusätzliche Bedingungen für die Zufallsvariablen. Um dies zu sehen, sei eine Zufallsvariable, die gleichmäßig verteilt ist . Zum Definieren einer Folge von Zufallsvariablen

mit der Indikatorfunktion des Ereignisses . Dann folgt (as). Aber für jeden . Daher,

Analog ist für die allgemeine Folge von Zufallsvariablen der Erwartungswertoperator nicht -additiv, d. H.

Ein Beispiel kann leicht durch Setzen von und für erhalten werden , wo wie im vorherigen Beispiel.

Eine Reihe von Konvergenzergebnissen spezifizieren genaue Bedingungen, die es einem ermöglichen, Grenzen und Erwartungen auszutauschen, wie unten angegeben.

  • Monotoner Konvergenzsatz : Sei eine Folge von Zufallsvariablen mit (as) für jede . Weiterhin punktuell lassen . Dann besagt der monotone Konvergenzsatz, dass
Mit dem monotonen Konvergenzsatz kann gezeigt werden, dass die Erwartung tatsächlich die zählbare Additivität für nicht negative Zufallsvariablen erfüllt. Insbesondere seien nicht negative Zufallsvariablen. Aus dem monotonen Konvergenzsatz folgt , dass
  • Fatous Lemma : Sei eine Folge nicht negativer Zufallsvariablen. Fatous Lemma besagt das
Logische Folge. Lassen Sie mit für alle . Wenn (as), dann
Der Beweis besteht darin, dies (as) zu beobachten und Fatous Lemma anzuwenden.
  • Dominierter Konvergenzsatz : Sei eine Folge von Zufallsvariablen. Wenn punktweise (as), (as) und . Dann, nach dem dominierten Konvergenzsatz,
    • ;;
  • Uniform Integrierbarkeit : In einigen Fällen kann die Gleichheit gilt , wenn die Sequenz ist gleichmäßig integrierbar .

Ungleichungen [ bearbeiten ]

Es gibt eine Reihe von Ungleichungen, die die erwarteten Werte von Funktionen von Zufallsvariablen betreffen. Die folgende Liste enthält einige der grundlegenderen.

  • Markovs Ungleichung : Für eine nichtnegative Zufallsvariable und Markovs Ungleichung besagt dies
  • Bienaymé-Chebyshev-Ungleichung : Sei eine beliebige Zufallsvariable mit endlichem Erwartungswert und endlicher Varianz . Die Bienaymé-Chebyshev Ungleichheit besagt , dass für jede reelle Zahl ,
  • Jensens Ungleichung : Sei eine Borel- Konvexfunktion und eine Zufallsvariable, so dass . Dann
Die rechte Seite ist gut definiert, auch wenn nicht endliche Werte angenommen werden. In der Tat impliziert , wie oben erwähnt, die Endlichkeit von , dass endlich ist als; somit ist definiert als.
  • Lyapunovs Ungleichung: [14] Let . Lyapunovs Ungleichung besagt dies
Beweis. Anwenden von Jensens Ungleichung auf und erhalten . Die Wurzel jeder Seite zu ziehen, vervollständigt den Beweis.
  • Cauchy-Bunyakovsky-Schwarz-Ungleichung : Die Cauchy-Bunyakovsky-Schwarz-Ungleichung besagt dies
  • Hölder-Ungleichung : Lassen Sie und erfüllen , und . Die Ungleichung des Hölder besagt dies
  • Minkowski-Ungleichung : Sei eine positive reelle Zahl, die befriedigt . Lassen Sie zusätzlich und . Dann, nach der Minkowski-Ungleichung, und

Erwartete Werte gängiger Distributionen [ Bearbeiten ]

VerteilungNotationMittelwert E (X)
Bernoulli
Binomial
Poisson
Geometrisch
Uniform
Exponentiell
Normal
Standard Normal
Pareto wenn
Cauchynicht definiert

Beziehung zur charakteristischen Funktion [ Bearbeiten ]

Die Wahrscheinlichkeitsdichtefunktion einer skalaren Zufallsvariablen wird durch die Inversionsformel mit ihrer charakteristischen Funktion in Beziehung gesetzt :

Für den erwarteten Wert von (wo ist eine Borel-Funktion ) können wir diese Inversionsformel verwenden, um zu erhalten

Wenn es endlich ist und die Reihenfolge der Integration ändert, erhalten wir gemäß dem Fubini-Tonelli-Theorem :

wo

ist die Fourier-Transformation von Der Ausdruck für folgt auch direkt aus dem Plancherel-Theorem .

Siehe auch [ Bearbeiten ]

  • Massezentrum
  • Zentrale Tendenz
  • Chebyshevs Ungleichung (eine Ungleichung der Standort- und Skalenparameter)
  • Bedingte Erwartung
  • Erwartung (der allgemeine Begriff)
  • Erwartungswert (Quantenmechanik)
  • Gesetz der Gesamt Erwartung -Der Erwartungswert der bedingten Erwartungswert von X gegeben Y ist der gleiche wie der Erwartungswert von X .
  • Moment (Mathematik)
  • Nichtlineare Erwartung (eine Verallgemeinerung des erwarteten Wertes)
  • Waldsche Gleichung - eine Gleichung zur Berechnung des erwarteten Wertes einer Zufallszahl von Zufallsvariablen

Referenzen [ bearbeiten ]

  1. ^ "Liste der Wahrscheinlichkeits- und Statistiksymbole" . Math Vault . 2020-04-26 . Abgerufen am 11.09.2020 .
  2. ^ "Erwartung | Mittelwert | Durchschnitt" . www.probabilitycourse.com . Abgerufen am 11.09.2020 .
  3. ^ a b c d Weisstein, Eric W. "Erwartungswert" . mathworld.wolfram.com . Abgerufen am 11.09.2020 .
  4. ^ a b "Erwarteter Wert | Brilliant Math & Science Wiki" . brillant.org . Abgerufen am 21.08.2020 .
  5. ^ Geschichte der Wahrscheinlichkeit und Statistik und ihre Anwendungen vor 1750 . Wiley-Reihe in Wahrscheinlichkeit und Statistik. 1990. doi : 10.1002 / 0471725161 . ISBN 9780471725169.
  6. ^ Erz, Oystein (1960). "Erz, Pascal und die Erfindung der Wahrscheinlichkeitstheorie". The American Mathematical Monthly . 67 (5): 409–419. doi : 10.2307 / 2309286 . JSTOR 2309286 . 
  7. ^ George Mackey (Juli 1980). "HARMONISCHE ANALYSE ALS NUTZUNG DER SYMMETRIE - EINE HISTORISCHE UMFRAGE". Bulletin der American Mathematical Society . Neue Serien. 3 (1): 549.
  8. ^ Huygens, Christian. "Der Wert von Chancen in Glücksspielen. Englische Übersetzung" (PDF) .
  9. ^ Laplace, Pierre Simon, Marquis de, 1749-1827. (1952) [1951]. Ein philosophischer Aufsatz über Wahrscheinlichkeiten . Dover-Veröffentlichungen. OCLC 475539 . CS1 maint: multiple names: authors list (link)
  10. ^ Whitworth, WA (1901) Wahl und Zufall mit tausend Übungen . Fünfte Ausgabe. Deighton Bell, Cambridge. [Nachdruck von Hafner Publishing Co., New York, 1959.]
  11. ^ "Früheste Verwendung von Symbolen in Wahrscheinlichkeit und Statistik" .
  12. ^ Richard W. Hamming (1991). "Beispiel 8.7–1 Die Cauchy-Verteilung". Die Kunst der Wahrscheinlichkeit für Wissenschaftler und Ingenieure . Addison-Wesley. p. 290 ff . ISBN 0-201-40686-1. Die Stichprobe aus der Cauchy-Verteilung und die Mittelwertbildung bringen Sie nicht weiter - eine Stichprobe hat die gleiche Verteilung wie der Durchschnitt von 1000 Stichproben!
  13. ^ Papoulis, A. (1984), Wahrscheinlichkeit, Zufallsvariablen und stochastische Prozesse , New York: McGraw-Hill, S. 139–152
  14. ^ Agahi, Hamzeh; Mohammadpour, Adel; Mesiar, Radko (November 2015). "Verallgemeinerungen einiger Wahrscheinlichkeitsungleichungen und $ L ^ {p} $ Konvergenz von Zufallsvariablen für jedes monotone Maß" . Brasilianisches Journal für Wahrscheinlichkeit und Statistik . 29 (4): 878–896. doi : 10.1214 / 14-BJPS251 . ISSN 0103-0752 . 

Literatur [ bearbeiten ]

  • Edwards, AWF (2002). Pascals arithmetisches Dreieck: die Geschichte einer mathematischen Idee (2. Aufl.). JHU Drücken Sie. ISBN 0-8018-6946-3.
  • Huygens, Christiaan (1657). De ratiociniis in ludo aleæ (englische Übersetzung, veröffentlicht 1714) .