Dies ist eine Formelsammlung zu dem mathematischen Teilgebiet Stochastik einschließlich Wahrscheinlichkeitsrechnung, Kombinatorik, Zufallsvariablen und Verteilungen sowie Statistik.
Grundlagen
Axiome:
Jedem Ereeeeeignis
aus dem Ereignisraum wird eine Wahrscheinlichkeit
zugeordnet, so dass gilt:
,
,
- für paarweise disjunkte Ereignisse
gilt ![{\displaystyle P(A_{1}\cup A_{2}\cup \dots )=P(A_{1})+P(A_{2})+\dots }](https://wikimedia.org/api/rest_v1/media/math/render/svg/8661160f1355d749df7e99c196f1fd7cdbd40376)
Rechenregeln: Aus den Axiomen ergibt sich:
![{\displaystyle P(\emptyset )=0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2f93aaf626de15ab2b78f569b48cf3b7d33244e4)
- Für
gilt
, insbesondere ![{\displaystyle P(A)\leq P(B)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a2f3576ca8aa41671d8d6ebc4145113e2e5ccc17)
- Für das Gegenereignis
gilt ![{\displaystyle P({\overline {A}})=1-P(A)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9db62be108511a9f8c7dc18619b370658ec3b208)
![{\displaystyle P(A\cup B)=P(A)+P(B)-P(A\cap B)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/0c8de5b03034abcef68b1d393382856497e295a0)
Laplace-Experimente
![{\displaystyle P(A)={\frac {|A|}{|\Omega |}}={\rm {\frac {Anzahl\;der\;g{\ddot {u}}nstigen\;Ergebnisse}{Anzahl\;der\;m{\ddot {o}}glichen\;Ergebnisse}}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/96bacb4af7ef37d9e381fcb045177e3dd33b3eef)
Bedingte Wahrscheinlichkeit
![{\displaystyle P_{B}(A)=P(A\vert B)={\frac {P(A\cap B)}{P(B)}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9d70d112a674b31d00717d2240168ae5bb90f507)
Satz von Bayes:
![{\displaystyle P_{B}(A)={\frac {P(A)\cdot P_{A}(B)}{P(A)\cdot P_{A}(B)+P({\overline {A}})\cdot P_{\overline {A}}(B)}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2151d748f9e37577eee562def951f4225ca1c7f3)
Unabhängigkeit:
- Zwei Ereignisse
sind unabhängig ![{\displaystyle \Leftrightarrow P(A\cap B)=P(A)\cdot P(B)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/02bfce78b518d45f89b3b202ef306041be5d8d8f)
Fakultät: Anzahl der Möglichkeiten beim Ziehen aller
Kugeln aus einer Urne (ohne Zurücklegen):
![{\displaystyle n!=n\cdot (n-1)\cdot (n-2)\cdot \dots \cdot 3\cdot 2\cdot 1=n\cdot (n-1)!}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3b6642ded7e31d240f242e9b3dccae18c7c1fe28)
wobei
Binomialkoeffizient "n über k"
![{\displaystyle {n \choose k}={n! \over k!(n-k)!}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2ed1bdd61047e98b30df11a23956723badc802bc)
Anzahl der Möglichkeiten beim Ziehen von
Kugeln aus einer Urne mit
Kugeln:
Anzahl der ...
|
Variationen (Mit Beachtung der Reihenfolge)
|
Kombinationen (Ohne Beachtung der Reihenfolge)
|
Permutationen (Mischen)
|
mit Wiederholungen (Zurücklegen)
Binomialverteilung
|
|
|
|
ohne Wiederholungen (Zurücklegen)
Hypergeometrische Verteilung
|
|
|
|
Diskrete Zufallsgrößen
Eine Funktion
heißt Wahrscheinlichkeitsfunktion einer diskreten Zufallsgröße
, wenn folgende Eigenschaften erfüllt sind:
- Für alle
gilt ![{\displaystyle f(x)\geq 0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b2635ab62e1e5dc91ebf9789bb2e8d636415df57)
![{\displaystyle P(a\leq X\leq b)=\sum _{a\leq x\leq b}f(x)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/59c3e3bcc4e2fa728417dc76b6f37169f5dc3b53)
![{\displaystyle \sum _{-\infty <x<+\infty }f(x)=1}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7dc9a7a71632d124b4c1dbb4accf5f44bfbfa8fc)
Eine Zufallsgröße und deren Verteilung heißen diskret, falls es eine geeignete Wahrscheinlichkeitsfunktion mit den Eigenschaften (1) bis (3) gibt.
für alle ![{\displaystyle a\in \mathbb {Z} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/175ebd03e0644b0967a63d648c2843a5e883257b)
![{\displaystyle P(a\leq X\leq b)=P(X=a)+P(a<X<b)+P(X=b)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e3d5682442c42baa8cd2681ff28092d7afd73b9d)
![{\displaystyle E(X)=\mu =\sum _{-\infty <x<+\infty }x\cdot f(x)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/fe90bbb04710ea1b5aa0ebb74100990ab39f306e)
![{\displaystyle E(g(X))=\sum _{-\infty <x<+\infty }g(x)\cdot f(x)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/70269f3068d5aec8164d14bba87ec65033d4c531)
![{\displaystyle V(X)=\sigma ^{2}=\sum _{-\infty <x<+\infty }(x-\mu )^{2}\cdot f(x)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ff1362b7eab77d6703c0156ea08db78ccb148c71)
Stetige Zufallsgrößen
Dichtefunktion einer stetigen Zufallsgröße:
Eine Funktion
heißt Dichtefunktion einer stetigen Zufallsgröße
, wenn folgende Eigenschaften erfüllt sind:
- Für alle
gilt ![{\displaystyle f(x)\geq 0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b2635ab62e1e5dc91ebf9789bb2e8d636415df57)
![{\displaystyle P(a\leq X\leq b)=\int \limits _{a}^{b}f(x)\mathrm {d} x}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c4d0cc12c3159019f9b7ca911f4967b3db250c0e)
![{\displaystyle \int \limits _{-\infty }^{+\infty }f(x)\mathrm {d} x=1}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f4b4c794298447b4a64069866eced6b94c7d5756)
Eine Zufallsgröße und deren Verteilung heißen stetig, falls es eine geeignete Dichtefunktion mit den Eigenschaften (1) bis (3) gibt.
Für die Wahrscheinlichkeit gilt
für alle ![{\displaystyle a\in \mathbb {R} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/b044c60e01b54c7116ee355431f37ed846badc53)
![{\displaystyle P(a\leq X\leq b)=P(a<X\leq b)=P(a\leq X<b)=P(a<X<b)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8c6d3b2933a87c8609f96e2401920eaf303209ec)
Erwartungswert und Varianz sind gegeben durch
![{\displaystyle E(X)=\mu =\int \limits _{-\infty }^{+\infty }x\cdot f(x)\mathrm {d} x}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2f0ad23c389972e17440463ecb8e94daf6d07f74)
![{\displaystyle E(g(X))=\int \limits _{-\infty }^{+\infty }g(x)\cdot f(x)\mathrm {d} x}](https://wikimedia.org/api/rest_v1/media/math/render/svg/dd762342d0dee8db96f21db2ac59ec438064d918)
![{\displaystyle V(X)=\sigma ^{2}=\int \limits _{-\infty }^{+\infty }(x-\mu )^{2}\cdot f(x)\mathrm {d} x}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4d0fa4f484dc0a2904046e1dd59152beecb41efb)
Erwartungswert, Varianz, Kovarianz, Korrelation
Für den Erwartungswert
, die Varianz
, die Kovarianz
und die Korrelation
gelten:
![{\displaystyle E(aX+b)=aE(X)+b}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e172968ef4582609c72bdf8abe4dc25c52fecfba)
, allgemein ![{\displaystyle E(\sum _{i=1}^{n}X_{i})=\sum _{i=1}^{n}E(X_{i})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/37719cf8f5003948399699123e95d74c8f00a2af)
- Für unabhängige Zufallsvariablen
gilt: ![{\displaystyle E(\prod _{i=1}^{n}X_{i})=\prod _{i=1}^{n}E(X_{i})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1f1ce6bbebd389bc55ec5f5048b669cdf8976769)
![{\displaystyle V(X)=E((X-E(X))^{2})=E(X^{2})-E(X)^{2}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/328cedc4a5aa3ce4100e23be65bc37b0e2c2e029)
![{\displaystyle V(aX+b)=a^{2}V(X)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/89bed567f5a72035c48695649464b818fa85d982)
- Für unabhängige Zufallsvariablen
gilt: ![{\displaystyle V(\sum _{i=1}^{n}X_{i})=\sum _{i=1}^{n}V(X_{i})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b41f2957b7898cf54c32556e7d14bae0ab5e0d08)
![{\displaystyle \operatorname {Cov} (X,Y)=E((X-E(X))(Y-E(Y))=E(XY)-E(X)E(Y)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/78ee86f2ef390b02df1293b1642341c03acdbdc1)
![{\displaystyle \operatorname {Cov} (X,Y)=\operatorname {Cov} (Y,X)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e3dd3e52176feae02c2935b6523356a1ab55455d)
![{\displaystyle \operatorname {Cov} (aX+b,Y)=a\operatorname {Cov} (X,Y)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/309fccf67c8f9cfc78e4a2d1c584c6220227bec2)
![{\displaystyle \operatorname {Cov} (X_{1}+X_{2},Y)=\operatorname {Cov} (X_{1},Y)+\operatorname {Cov} (X_{2},Y)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d744d51f204602f2b744a821eb160ec849268b48)
![{\displaystyle V(X+Y)=V(X)+V(Y)+2\operatorname {Cov} (X,Y)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/51a36789df67d5d1b58bc78ac4e8085c2b773e7d)
![{\displaystyle \varrho (X,Y)={\frac {\operatorname {Cov} (X,Y)}{{\sqrt {V(X)}}{\sqrt {V(Y)}}}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/617ed71e2c3325660876d5dde679c51a828c1a17)
Tschebyschow-Ungleichung:
![{\displaystyle P(|X-E(X)|\geq \alpha )\leq {\frac {V(x)}{\alpha ^{2}}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/0ee9f37a707563a2f7094117775fd0b6c4486f38)
Gegeben ist
-stufiger Bernoulli-Versuch (d.h.
mal dasselbe Experiment mit nur zwei möglichen Ausgängen und konstanten Wahrscheinlichkeiten) mit der Erfolgswahrscheinlichkeit
und der Misserfolgswahrscheinlichkeit
. Die Wahrscheinlichkeitsverteilung der Zufallsgröße
: Anzahl der Erfolge heißt Binomialverteilung.
Die Wahrscheinlichkeit für
Erfolge berechnet sich nach der Formel:
![{\displaystyle P(X=k)={\binom {n}{k}}\cdot p^{k}\cdot q^{n-k}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5c0616b9e0c1a9fe0e335e0b1427eb7816b9cc02)
Erwartungswert:
![{\displaystyle \mu =E(X)=n\cdot p}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d52c36f256fc41370f53cb66f6caeb6068cd01d7)
Varianz:
![{\displaystyle \sigma ^{2}=V(X)=n\cdot p\cdot q}](https://wikimedia.org/api/rest_v1/media/math/render/svg/55f0ad6a5fc27a01bf955af8b2166c9d04f582ff)
Standardabweichung:
![{\displaystyle \sigma =\sigma (X)={\sqrt {V(X)}}={\sqrt {n\cdot p\cdot q}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3d404265188b7612d642ef67363d608bcd23dabe)
σ-Regeln
(Wahrscheinlichkeiten von Umgebungen des Erwartungswertes bei Binomialverteilungen)
Zwischen dem Radius einer Umgebung um den Erwartungswert und der zugehörigen Wahrscheinlichkeit der Umgebung gelten folgende Zuordnungen (falls
):
Radius der Umgebung
|
Wahrscheinlichkeit der Umgebung
|
1σ
|
0,68
|
2σ
|
0,955
|
3σ
|
0,997
|
Wahrscheinlichkeit der Umgebung
|
Radius der Umgebung
|
0,90
|
1,64σ
|
0,95
|
1,96σ
|
0,99
|
2,58σ
|
Standardisieren einer Verteilung
- Verschiebe das Histogram so, dass der Erwartungswert μ an der Stelle
des (neuen) Koordinatensystems liegt.
- Wähle die Breite der Rechtecke gleich
, sodass auf der 1. Achse die Einheiten -3, -2, -1, 0, 1, 2, 3 anstelle der Abschnitte μ-3σ, μ-2σ, μ-1σ, μ, μ+1σ, μ+2σ,μ +3σ treten.
- Das Stauchen der Rechtecke in Richtung der 1. Achse wird dadurch ausgeglichen, dass auf der 2. Achse nicht mehr die Wahrscheinlichkeiten
abgetragen werden, sondern die mit der Standardabweichung σ vervielfachten Wahrscheinlichkeiten.
Poisson-Näherung
Gegeben sei eine Binomialverteilung mit großem Stichprobenumfang
≥ 100 und kleiner Erfolgswahrscheinlichkeit p≤0,1. Mithilfe von
kann man dann näherungsweise die Wahrscheinlichkeit für
Erfolge berechnen:
![{\displaystyle P(X=0)\approx e^{-\mu }}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e9f07273381d31a8bf7688f2cf4b60d90f242568)
![{\displaystyle P(X=k)\approx {\frac {\mu }{k}}\cdot P(X=k-1)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/774048a3b29aa635d4e9ff955f68556f1423dfce)
Die Beziehungen lassen sich zusammenfassen zu:
![{\displaystyle P(X=k)\approx {\frac {\mu ^{k}}{k!}}\cdot e^{-\mu }}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9b0402565d099ac43ff24636d397b0c13abf04c0)
Poisson-Verteilung
Gilt für die Verteilung einer Zufallsgröße
![{\displaystyle P(X=k)={\frac {\mu ^{k}}{k!}}\cdot e^{-\mu }}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4f99238ea586f89e7e4b53c605dfbfd1f02ab473)
Sei
eine binomialverteilte Zufallsgröße mit σ>4 (brauchbare Näherung besser σ>9). Die Wahrscheinlichkeit für genau und höchstens
Erfolge lässt sich näherungsweise berechnen durch:
![{\displaystyle P(X=k)\approx {1 \over \sigma }\cdot \varphi \left({k-\mu \over \sigma }\right)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/06c6ddad30684b6e3a878ca249dd68f7f510a82b)
![{\displaystyle P(X\leq k)=F_{X}(k)\approx \varphi \left({k-\mu \over \sigma }\right)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/0459b3a6236f8a9615a4fe5707a02f1f4b7bc6d2)
Gaußsche Dichtefunktion
(auch als Glockenkurve bekannt)
![{\displaystyle \varphi (x)={1 \over {\sqrt {2\pi }}}\,{\rm {e}}^{\frac {-x^{2}}{2}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f6118969de2cbc2122ee0fcaa2b6bb7c19fad675)
Gaußsche Integralfunktion
![{\displaystyle \Phi (z)=\int \limits _{-\infty }^{z}\varphi (t)dt}](https://wikimedia.org/api/rest_v1/media/math/render/svg/738245901655bf598c346fb865c8b4a02a7f0e94)
Näherungsformeln:
![{\displaystyle P(X=k)\approx \Phi \left({k+0{,}5-\mu \over \sigma }\right)-\Phi \left({k-0{,}5-\mu \over \sigma }\right)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3905c422efd8a30fe8f9bc020f16fb3363e208b2)
![{\displaystyle P(X\leq k)\approx \Phi \left({k+0{,}5-\mu \over \sigma }\right)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/68dc67017ca2feb6ee4d140c3381a839648b680b)
![{\displaystyle P(a\leq X\leq b)\approx \Phi \left({b+0{,}5-\mu \over \sigma }\right)-\Phi \left({a-0{,}5-\mu \over \sigma }\right)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9f118daf675715dcec42dd1fa22028ac26fe3c46)
In einer Grundgesamtheit vom Umfang
seien zwei Merkmalsausprägungen vom Umfang
bzw.
vertreten. Eine Stichprobe vom Umfang
werde genommen. Dann nennt man die Verteilung der Zufallsgröße:
X: Anzahl der Exemplare der 1. Merkmalsausprägung in der Stichprobe einer hypergeometrischen Verteilung.
Die Wahrscheinlichkeit, dass in der Stichprobe vom Umfang
genau
Exemplare der 1. Merkmalsausprägung sind, ist:
![{\displaystyle P(X=k)={{\binom {K}{k}}\cdot {\binom {N-K}{n-k}} \over {\binom {N}{n}}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b25a490de0d5855514125d4e1e6de87dac8d6a42)
= Anzahl der Elemente,
= Anzahl der positiven Elemente,
= Anzahl der Ziehungen,
= Anzahl der Erfolge.
Sei
der Anteil, mit dem die 1. Merkmalsausprägung in der Gesamtheit vorkommt, dann gilt:
![{\displaystyle \mu =E(X)=n\cdot p=n\cdot {\frac {K}{N}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e7cb84c55791b319bff42a65df99a4f2c7d698c5)
![{\displaystyle \sigma ^{2}=V(X)=n\cdot p(1-p){\frac {N-n}{N-1}}=n\cdot {\frac {K}{N}}\left(1-{\frac {K}{N}}\right){\frac {N-n}{N-1}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7c0abc07f89595433ef8c273f517cd76f2010694)
Gegeben ist ein Bernoulli-Versuch mit Erfolgswahrscheinlichkeit
.
Die Verteilung der Zufallsgröße W: Anzahl der Stufen bis zum ersten Erfolg heißt geometrische Verteilung.
Es gilt:
(Erfolg genau beim k-ten Versuch)
(k Misserfolge hintereinander bzw. der erste Erfolg kommt erst nach dem k-ten Versuch)
(Erfolg spätestens beim k-ten Versuch bzw. bis zum k-ten. Versuch tritt mindestens ein Erfolg ein)
Der Erwartungswert ist
![{\displaystyle E(W)={\frac {1}{p}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ce01ccc9438490e5ae3263b461c82d99d3e11f4c)
Weitere
Die unzähligen weiteren speziellen Verteilungen können hier nicht alle aufgeführt werden, es sei auf die Liste univariater Wahrscheinlichkeitsverteilungen verwiesen.
Approximationen von Verteilungen
Unter gewissen Approximationsbedingungen können Verteilungen auch durcheinander approximiert werden um Berechnungen zu vereinfachen. Je nach Lehrbuch können die Approximationsbedingungen etwas unterschiedlich sein.
|
Nach
|
Von
|
|
|
|
Diskrete Verteilungen
|
Binomialverteilung
![{\displaystyle B(n,p)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/58280f6b0f1a1b474a7047c07943f908e775aa71) |
-- |
, ,
![{\displaystyle \lambda :=np}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6d16193af4a43e26a99716876e88b05785da2e9f) |
,
,
|
Hypergeometrische Verteilung
![{\displaystyle Hyp(N,M,n)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/59e157ad759fba91e1290843ed77c968708e6d9a) |
![{\displaystyle {\frac {n}{N}}<0,05}](https://wikimedia.org/api/rest_v1/media/math/render/svg/0ff6724b33ecd920b8d528b896ec4b9d6a7211e1)
![{\displaystyle p:={\frac {M}{N}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b9fe162e16b7f4108af2f969279f5a637494aad5) |
, ,
![{\displaystyle \lambda :=n{\frac {M}{N}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/810e313a1fefb7440ddc6e83d5ab3033d1613a9f) |
![{\displaystyle n{\frac {M}{N}}\left(1-{\frac {M}{N}}\right)\geq 9}](https://wikimedia.org/api/rest_v1/media/math/render/svg/0d5038ce8a0c59cd04e27a67d5ca5abb0197a297)
,
|
Poisson-Verteilung
![{\displaystyle Po(\lambda )}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8ad5fd34da3c863b7458f223637424f6996d748d) |
|
-- |
,
,
|
Stetige Verteilungen
|
Chi-Quadrat-Verteilung
![{\displaystyle \chi _{n}^{2}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2f530af71e61da3d7e51e0e00f163572fb8ef289) |
|
|
![{\displaystyle n>30}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e6b6e47ae8dd88aecab05eb9385ea0bf00249387)
,
|
Studentsche t-Verteilung
![{\displaystyle t_{n}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/271566db7e8ca8616a4dc3efb6c5982a2d987ee3) |
|
|
![{\displaystyle n>30}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e6b6e47ae8dd88aecab05eb9385ea0bf00249387)
,
|
Normalverteilung
![{\displaystyle N(\mu ,\sigma )}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f36517cd8dd095e0f5e59d29113b5e056f675fc7) |
|
|
--
|
Bei dem Übergang von einer diskreten Verteilung zu einer stetigen Verteilung kommt auch noch eine Stetigkeitskorrektur (wenn
oder
) in Betracht
und insbesondere
.[1]
Lagemaße
Arithmetisches Mittel:
Median
Modus
Streuungsmaße
Stichprobenvarianz:
Standardabweichung:
Zusammenhangsmaße
Empirische Kovarianz:
![{\displaystyle \operatorname {Cov} _{xy}={\frac {1}{n-1}}\sum _{i=1}^{n}{(x_{i}-{\bar {x}})(y_{i}-{\bar {y}})}={\frac {1}{n-1}}\left(\sum _{i=1}^{n}{(x_{i}y_{i})-n{\bar {x}}{\bar {y}}}\right),}](https://wikimedia.org/api/rest_v1/media/math/render/svg/fc98340453aeb293e745d4c807c16ad4baf3a6b4)
Empirischer Korrelationskoeffizient:
![{\displaystyle r_{xy}={\frac {\operatorname {Cov} _{xy}}{s_{x}\cdot s_{y}}}={\frac {\sum (x_{i}-{\bar {x}})(y_{i}-{\bar {y}})}{\sqrt {\sum (x_{i}-{\bar {x}})^{2}\sum (y_{i}-{\bar {y}})^{2}}}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/390b37ffd9f549715660d1a5f2fbdbc4b90a7954)
Gleichung der Regressionsgeraden:
mit
![{\displaystyle a={\frac {\operatorname {Cov} _{xy}}{s_{x}^{2}}}={\frac {\sum (x_{i}-{\bar {x}})(y_{i}-{\bar {y}})}{\sum (x_{i}-{\bar {x}})^{2}}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e19c0d28236afab98094e4e861ee958014555acb)
,
wobei
und
die arithmetischen Mittel bedeuten.
- siehe Signifikanztest, Chi-Quadrat-Test
Einzelnachweise
- ↑ Yates, F. (1934). Contingency table involving small numbers and the χ2 test. Supplement to the Journal of the Royal Statistical Society 1(2): 217-235. JSTOR Archive for the journal
Vorlage:Formelsammlung Mathematik