Diskussion:Satz von Moivre-Laplace/Archiv

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Kritik an falscher Konvergenz

Die Gleichung macht so keinen Sinn: Die Variable 'n' kommt rechts noch frei vor. Vermutl. geht der Grenzwert der Differenz P(..)-PHI(..) gegen 0. Kennt jemand den richtigen Sachverhalt und mag das korrigieren? Vielen Dank. (Der vorstehende, nicht signierte Beitrag stammt von 132-180 (DiskussionBeiträge) 09:32, 22. Mai 2006 132-180)

Hallo, ich hab es korrigiert. OlafsWissen 13:50, 15. Mai 2007 (CEST)
Es mag sein, dass irgendetwas korrigiert wurde. Die Konvergenzaussage (2) ist jedenfalls in der aktuellen Form Unsinn, da auf der rechten Seite der Gleichung in der Varianz , die hier nicht konstant ist, vorkommt. Möglicherweise wurde irgendwann zu geändert, ohne die Folgen zu beachten. --Sigma^2 (Diskussion) 11:22, 26. Jul. 2022 (CEST)
@Sigma^2: Was soll/muss denn im Artikel nun (noch) korrigiert werden?--Kmhkmh (Diskussion) 14:34, 26. Jul. 2022 (CEST)
@Kmhkmh: Da ist einiges zu ändern. Zunächst die Konfusion zwischen der Varianz der Bernoulliverteilung und der Varianz der Binomialverteilung. Dann wurde vermutlich Theorie(er)findung betrieben.
Zur Aussage (1): auf der linken Seite des Approximationszeichens steht der Wert der Wahrscheinlichkeitsfunktion einer diskreten Zufallsvariablen an der Stelle , auf der rechten Seite steht das -fache des Wertes der Dichtefunktion einer Normalverteilung mit dem Erwartungswert und der Varianz an der Stelle . Das ganz ohne Beleg.
  1. Wer schlägt vor, den Wert einer Wahrscheinlichkeitsfunktion durch den Wert einer Dichtefunktion zu approximieren? Beleg?
  2. Wer schlägt diese spezielle Art der Approximation vor, bei der ein Sinn nur schwer erkennbar ist? Beleg?
Wenn die Aussage (1) nicht belegt wird, werde ich diese nach einiger Zeit ersatzlos löschen.
Auch die Aussage (2) wird ohne Beleg präsentiert. Sie wäre richtig mit . Im Vortext steht aber .--Sigma^2 (Diskussion) 11:12, 21. Aug. 2022 (CEST)
Hallo @LoRo:. Die Versionsgeschichte zeigt, dass die unbelegte Aussage (1) erst 2017 durch Dich in den Artikel kam. Könntest Du Dich um das Belegen, Korrigieren oder Entfernen kümmern?--Sigma^2 (Diskussion) 11:40, 21. Aug. 2022 (CEST)

Nachdem sich ein Jahr lang keiner der Autoren um Korrigieren gekümmert hat, habe ich es überarbeitet.--Sigma^2 (Diskussion) 17:19, 10. Sep. 2023 (CEST)

Archivierung dieses Abschnittes wurde gewünscht von: --Sigma^2 (Diskussion) 17:19, 10. Sep. 2023 (CEST)

Bernoullisches Versuchsschema

Falls Jemand den "richtigen" Bernoulli kennt, möge er/sie ihn im Satz von Moivre-Laplace bitte ergänzen. Dankeschön. --132-180 09:32, 22. Mai 2006 (CEST)

Hat sich nach einer Überarbeitung von selbst erledigt. --JonnyJD 15:47, 14. Apr. 2007 (CEST)
Archivierung dieses Abschnittes wurde gewünscht von: --Sigma^2 (Diskussion) 17:17, 10. Sep. 2023 (CEST)

Ein anderer Satz von Moivre-Laplace?

Hallo allerseits, nachdem ich meinte, dass es den og. Satz eigentlich nur in dieser (auch im Mathematik-Lehrbuch von Bigalke/Köhler notierten) Form gibt, habe ich ihn jüngst in einem Übungsbuch mit Abituraufgaben der letzten Jahre in einer etwas anderen Form gefunden, die dann natürlich auch zu anderen Resultaten führt. Die Aufgabe selbst stammt aus dem Berlin/Brandenburger Mathe-Leistungskurs-Abi von 2012, wo gefragt wird, wieviele Lampen man mindestens bestellen müsse, wenn von denen im Schnitt 2% defekt sind und man mit 99%-iger Sicherheit mindestens 400 intakte darunter haben will. Ok, soweit, so gut, da würde ich dann also mit der Näherung

rechnen und am Ende auf 414 zu bestellende Lampen kommen. Im Lösungsteil des Buches dagegen taucht dann plötzlich die folgende zu verwendende Näherung auf, die in der Endkonsequenz auf 417 zu bestellende Lampen hinausläuft:

Wobei ich den Gedankengang, der dieser zweiten Näherung zugrundeliegt, durchaus nachvollziehen kann, dass nämlich die Normalverteilung eine stetige ist und bei einer solchen die Mitte zwischen zwei ganzen Zahlen halt 0,5 über der unteren bzw. 0,5 unter der oberen liegt. Andererseits aber glaube ich diese zweite Näherung noch nirgendwo anders gesehen zu haben. Hat es da irgendeine Revision des alten Lehrsatzes gegeben, die man in den Wikipedia-Artikel aufnehmen sollte, oder ist das lediglich eine "Hausnorm" der Übungsbuch-Autoren? --Qniemiec (Diskussion) 01:10, 3. Feb. 2016 (CET)

Das ist die sogenannte Stetigkeitskorrektur, siehe auch Normal-Approximation und Binomialverteilung#Übergang zur Normalverteilung. Ich halte das eigentlich für eine recht bekannte Formel, die in den meisten Lehrbüchern stehen sollte. Ich selber habe das auch damals in der Schule so gelernt. Grüße -- HilberTraum (d, m) 10:38, 3. Feb. 2016 (CET)
Hallo, ja, das mit der "Stetigkeitskorrektur" habe ich inzwischen, diverse Lektüren später, auch mitbekommen. Problem ist nur, dass verschiedene Autoren das ganze zT. nach Belieben vereinfachen. So ist sie zB. in der Berliner Ausgabe des Bigalke/Köhler von 2012, dem Mathe-Lehrbuch des Cornelsen-Verlags, im Zusammenhang mit der "globalen Näherungsformel von Moivre-Laplace" bereits mit berücksichtigt, in der Ausgabe von 1997 dagegen noch nicht. Und in den Unterrichtsmaterialien der Studiengemeinschaft Darmstadt für deren externe Abiturienten wird sie als bei hinreichend großem n vernachlässigbar klein ebenfalls unter den Tisch fallen gelassen. So kommt es, dass sich beim Studium der diversen Quellen irgendwann die Frage stellt, wieviele Sätze von Moivre-Laplace es denn nun eigentlich wirklich gibt, und/oder welcher davon denn nun "der richtige" sei - eine Frage, deren korrekte Beantwortung zB. im Mathe-Abi ziemlich entscheidend werden kann. --Qniemiec (Diskussion) 15:01, 14. Mai 2016 (CEST)
Ich habe jetzt mal die eigentliche Aussage über die Konvergenz freigestellt und die Näherungsüberlegungen inkl. Link zu der Normalapproximation und der Stetigkeitskorrektur in einen eigenen Absatz gepackt. So ist es mathematisch korrekt, klar umrissen und wer die Näherungsaussagen benötigt findet sie auch bzw. die entsprechende Weiterleitung. Wenn es keine Widersprüche gibt würde ich den Überarbeiten-Baustein wegnehmen. --NikelsenH (Diskussion) 14:45, 16. Okt. 2016 (CEST)
Archivierung dieses Abschnittes wurde gewünscht von: --Sigma^2 (Diskussion) 17:23, 10. Sep. 2023 (CEST)

Fehler im Absatz "Aussage"

Es wird von einer "Folge unabhängiger bernoulli-verteilter Zufallsvariablen mit den Parametern p und " gesprochen, dabei ist das die Varianz der zugehörigen Binomialverteilung. Entweder muss der Satz umformuliert werden oder es muss lauten. (nicht signierter Beitrag von 2003:E3:473A:C900:8C93:9B69:9B81:576D (Diskussion) 13:12, 22. Mai 2022 (CEST))

Siehe die Diskussion im ersten Abschnitt Kritik an falscher Konvergenz.--Sigma^2 (Diskussion) 11:16, 21. Aug. 2022 (CEST)
Archivierung dieses Abschnittes wurde gewünscht von: --Sigma^2 (Diskussion) 17:24, 10. Sep. 2023 (CEST)

Beispiel falsch oder zu wenig beschrieben

Sollte n*p*(1-p) im Beispiel nicht auch größer als 9 sein? Ist verwirrend wenn das dort = 9 gewählt wird, wenn das so richtig ist, entschuldigt mich (aber eine Erklärung anfügen wäre nicht falsch).

Eigentlich sollte man das ganz löschen, denn ob das eine "ausreichend gute Näherung" ist, hängt ja ausschließlich vom konkreten Fall ab. --Sulai 22:43, 16. Jan. 2008 (CET)
Beispiel ist jetzt so überarbeitet, dass dieser Kritikpunkt berücksichtigt ist.--Sigma^2 (Diskussion) 10:17, 11. Okt. 2023 (CEST)
Archivierung dieses Abschnittes wurde gewünscht von: --Sigma^2 (Diskussion) 10:17, 11. Okt. 2023 (CEST)

Kleiner oder kleinergleich?

Hallo allerseits, schon wieder was Unstimmiges: In diesem Artikel wird der Satz von Moivre-Laplace wie folgt zitiert:

,

im Artikel Normal-Approximation dagegen so:

.

Wobei, wenn ich mich nicht irre, letztere Schreibweise die hierzulande üblichere ist, bei der kumulative Wahrscheinlichkeiten diskreter Verteilungen also mit Kleinergleich-Zeichen, zB. P(X≤k), und nicht mit Kleiner-Zeichen, zB. P(X<k), geschrieben werden. "Hierzulande" deshalb, weil es im Geltungsbereich der "östlichen" Kolmogorow-Konvention (vgl. Verteilungsfunktion (Stochastik)#Alternative Definition genau umgekehrt ist. Bei kontinuierlichen Verteilungen läuft zwar beides auf dasselbe hinaus, nicht aber bei diskreten, und die Binomilaverteilung gehört ja zu den letzteren. Bitte also nochmal seitens eines Vollprofis draufgucken und ggf. korrigieren, ok? --Qniemiec (Diskussion) 01:09, 15. Mai 2016 (CEST)

Mathematisch ist es egal, weil die Wahrscheinlichkeit für Gleichheit gegen 0 konvergiert. Ich habe jetzt also mal einheitlich patriotisch ;-) auf geändert. Grüße -- HilberTraum (d, m) 16:51, 15. Mai 2016 (CEST)
Egal ist es für asymptotische Betrachtungen, aber für Approximationen und die Anwendung der Stetigkeitskorrektur ist es wichtig. Mit den Zahlenkonstellationen des Beispiels ist die Stetigkeitskorrektur
.
--Sigma^2 (Diskussion) 10:49, 26. Jul. 2022 (CEST)
Archivierung dieses Abschnittes wurde gewünscht von: --Sigma^2 (Diskussion) 10:17, 11. Okt. 2023 (CEST)

Frage zum Beweis in der englischen Wikipedia

sollte jemand das englisch " de moivre laplace theorem" gelesen konnte er mich vielleich mich erkläre wie geht er von zeile 7 to 8 (von insgesamt 12 zeilen) in der letzte Erklärung und warum ignoriert er alle x^3 (nicht signierter Beitrag von Mongauzi (Diskussion | Beiträge) 20:46, 14. Nov. 2016 (CET))

Die Frage sollte in der englischsprachigen WP erläutert werden.--Sigma^2 (Diskussion) 10:19, 11. Okt. 2023 (CEST)
Archivierung dieses Abschnittes wurde gewünscht von: --Sigma^2 (Diskussion) 10:19, 11. Okt. 2023 (CEST)

Fehler im angegebenen Beispiel

Tatsächlich gilt: P(0 ≤ X ≤ 3) ≈ 0,000788 für n = 48 und p = 0,25. (Verstehe wirklich nicht, warum man den Wert durch "Ablesen" bestimmt, statt ihn einfach zu berechnen.)

Das (scheinbare) Problem ist jetzt natürlich, dass die Näherung ohne Stetigkeitskorrektur nunmehr besser ist, als die mit Korrektur! Der Grund ist der, dass die Normalverteilung bei Werten von p < 0,5 die Binomialverteilung linksseitig, wenn man zu weit vom Erwartungswert entfernt ist, stark überschätzt. (Derweil sie die BV rechtsseitig ab einem bestimmten Punkt stark unterschätzt.) Für die gegebenen Werte von n un p ist dies bereits für k < μ - 2σ der Fall. Nur in der Nähe des Erwartungswertes - was "nah" ist, bestimmen die konkret gegebenen Werte von n und p - ist die Näherung mit Stetigkeitskorrektur besser! Letztere fällt übrigens nicht vom Himmel, sondern ergibt sich unmittelbar, wenn man die BV nicht (wie im Artikel) als Stabdiagramm, sondern als Histogramm darstellt.

Bitte Beiträge auf Diskussionsseiten signieren. Beispiel ist jetzt so überarbeitet, dass die Kritikpunkte berücksichtigt sind.--Sigma^2 (Diskussion) 10:14, 11. Okt. 2023 (CEST)
Archivierung dieses Abschnittes wurde gewünscht von: --Sigma^2 (Diskussion) 10:14, 11. Okt. 2023 (CEST)