Diskussion:Korrigierte Stichprobenvarianz

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 8 Jahren von 77.11.71.87 in Abschnitt Weiterleitung auf unvollständige/StubSeite im Englischen
Zur Navigation springen Zur Suche springen

Varianz endlich vieler Daten[Quelltext bearbeiten]

Es ist eine seltsame Angewohnheit, dass man bei der Varianz endlich vieler Daten immer gleich ans Schätzen einer Varianz einer oft gar nicht definierten Grundgesamtheit denkt. Wenn jemand den Mittelwert von ein paar Zahlen ausrechnet, fühlt er sich doch auch nicht gleich gezwungen, etwas in größerem Rahmen schätzen zu müssen. Genauso sollte es doch hier sein. Die Frage nach der Varianzschätzung ist zwar durchaus sinnvoll, sie gehört aber nicht hierher, sondern in den Artikel Varianzschätzung (Schätzung der Varianz der Grundgesamtheit), wenn es ihn schon gibt. Der Artikel enthält derzeit nur eine ML-Schätzung. Wenn man ihn aufrecht erhält, gehören dort alle (lexikalisch relevanten) Varianzschätzungen hinein. Wenn also schon für die Schätzung ein Extra-Artikel existiert, sollte man sich hier auf die Berechnung der Varianz endlich vieler Daten beschränken; ob es eine Stichprobe ist oder nicht, spielt dabei keine Rolle, wie ich u.a. im Journal-Artikel The striking criterion whether variance calculation requires dividing the sum of squares by the number of summands or by that number less one ausführlich dargelegt habe. Und für die Varianz einer Verteilung (einer Zufallsvariable) bzw. einer unendlich großen Grundgesamtheit gibt es ja den Artikel Varianz (Stochastik).--Bachmai (Diskussion) 13:02, 14. Sep. 2013 (CEST)Beantworten

Dass der Artikel hier und der Artikel Stichprobenvarianz in einen gehören, ist für mich ein klarer Fall. Das Kuddelmuddel hinsichtlich Division durch n oder n - 1 kommt übrigens hinsichtlich einer Stichprobe ohnehin nur in deutscher Literatur vor; die angelsächsische Literatur kennt fast ausschließlich nur die Division durch n - 1 (es sei denn, es geht um spezielle Schätzungen wie ML-, MSE-effizient u.a., was aber in den Artikel Varianzschätzung (Schätzung der Varianz der Grundgesamtheit) gehört). Von einer "corrected sample variance" habe ich noch nie gelesen (außer jetzt, weil ich danach gekugelt habe: kommt etwa so oft vor wie die Tautologie "empirical sample variance"), was den entsprechenden deutschen Artikel-Namen hier sinnlos erscheinen lässt. Dennoch ist dieser Empirische-Varianz-Artikel der bessere der beiden, insbesondere da er die sinngebende Varianzdefinition über die paarweisen Differenzen enthält. Die allgemein (ohne Bezug auf eine Verteilung) angegebene erwartungstreue Schätzung der Varianz einer Grundgesamtheit ist hier allerdings völlig deplatziert; sie passt aber haargenau in den Artikel Varianzschätzung (Schätzung der Varianz der Grundgesamtheit), wo bis jetzt nur eine spezielle Maximum-Likelihood-Schätzung, nämlich die unter Normalverteilung, angegeben ist. Der Artikel hier, der jetzt korrigierte Stichprobenvarianz heißt, sollte am genauesten "Varianz endlich vieler Daten" heißen. Wenn das als zu wenig geläufig empfunden wird, kann man auch auf den Namen "empirische Varianz" ausweichen. Da er das Wort Stichprobe nicht enthält, ist er meiner Meinung nach auch für endlich viele Daten einer Grundgesamtheit vertretbar. --Bachmai (Diskussion) 13:02, 14. Sep. 2013 (CEST)Beantworten

Ob man durch n oder durch n-1 teilen sollte, hängt davon ab, ob der Mittelwert bekannt ist oder nicht. Bei bekannten Mittelwert wird durch n geteilt. Bei unbekannten Mittelwert wird durch n-1 geteilt. Da bei Messung aller Daten der Grundgesamtheit auch der Mittelwert bekannt ist, wird hier immer durch n geteilt. Bei Stichproben dagegen gibt es Fälle, wo der Mittelwert bekannt ist, und Fälle, in denen der Mittelwert nicht bekannt ist. Daher wird hier manchmal durch n und manchmal durch n-1 geteilt.

Nein, diesen Irrtum, der übrigens nur von sehr wenigen internationalen Autoren vertreten wird ("Those authors who use different definitions for population and sample variance without compromise garner the most attention. These include Anderson et al. (2002), Clarke et al. (2005), Levy and Lemeshow (1999), Sachs (1992), Scheaffer et al. (2006) as well as Som (1996). They use N as the divisor as soon as it concerns a population, and n − 1 if it refers to a sample."), habe ich in meinem Journal-Artikel The striking criterion whether variance calculation requires dividing the sum of squares by the number of summands or by that number less one widerlegt. Das "striking criterion" hat nichts mit Grundgesamtheit (wo logischerweise der Mittelwert exakt errechenbar ist) oder Stichprobe (deren Mittelwert man übrigens auch ausrechnen kann) zu tun, sondern damit, ob N (oder n) sich auf die Datenzahl oder auf die Zahl der verschiedenen Merkmalsausprägungen einer "diskreten Rechtecks-Verteilung" (wenn ich diesen Begriff hier mal so verwenden darf) bezieht. Der Fall, dass man den Mittelwert einer Verteilung (wo also N = unendlich ist) kennt, nicht aber deren Varianz (wohl eher Utopie), sodass man nur die Varianz, nicht aber den Mittelwert schätzen will, bringt natürlich Varianzschätzungen, die anstelle des Stichprobenmittelwertes den Erwartungswert mu verwenden (ansonsten ließe man ja Information ungenutzt) und man deswegen de facto ein "Datum" mehr hat, man die Quadratsumme also nicht mehr durch n - 1, sondern durch n dividiert. Aber das gehört auch in den Artikel Varianzschätzung (Schätzung der Varianz der Grundgesamtheit). Übrigens sollte doch die Varianzdefinition einer Stichprobe mit der einer Grundgesamtheit konsistent sein. Ich kann doch nicht das eine Mal N, das andere Mal n-1 nehmen. Das ist ja in sich schon widersprüchlich. Zusammenpassen tut nicht das Paar (N, n-1), auch nicht (N, n), sondern eben nur das Paar (N-1, n-1), denn die Stichprobenvarianz mit n-1 als Divisor schätzt eben die Varianz einer endlichen Grundgesamtheit nur dann erwarungstreu, wenn man auch bei deren Definition N - 1 und nicht N, die Zahl der Elemente der Grundgesamtheit, als Divisor nimmt (Beweis auf Seite 8 meines Journal-Artikels The striking criterion whether variance calculation requires dividing the sum of squares by the number of summands or by that number less one). --Bachmai (Diskussion) 16:36, 15. Sep. 2013 (CEST)Beantworten

Und wenn nicht der Varianzschätzer erwartungstreu sein soll sondern die Standardabweichung, nimmt man nochmal eine andere Stichprobenvarianz.

Das ist richtig. Es geht mir hier aber um die Varianz der vorliegenden Daten und nicht um eine Schätzung der Varianz einer (oft gar nicht definierten) Grundgesamtheit (für Letzteres gibt es ja den Artikel Varianzschätzung (Schätzung der Varianz der Grundgesamtheit). Er bezieht sich (wie dieser Artikel) zwar auch auf die Varianz und nicht auf die Standardabweichung; im Artikel Varianzschätzung (Schätzung der Varianz der Grundgesamtheit) ist es meines Erachtungs durchaus vertretbar, eine Varianzschätzung zu bringen, deren Erwartungstreue sich nicht auf die Varianz, sondern auf deren Wurzel, die Standardabweichung, bezieht. --Bachmai (Diskussion) 16:36, 15. Sep. 2013 (CEST)Beantworten

Ich denke, dass es schon einen wesentlichen Unterschied macht, ob man durch n oder durch n-1 teilt. Deswegen sollte man beide Verfahren nicht zusammenwerfen. Theoretisch könnte man auch beide Verfahren in einem einzigen Artikel erklären. Dies würde imho aber dazu führen, dass gerade Leute, die sich mit Statistik nicht besonders auskennen, verwirrt sind und der Übersichtsartikel Stichprobenvarianz unleserlich wird. Ich finde den Status Quo ganz passend, dass bei Stichprobenvarianz alle Arten von Stichprobenvarianzen dargestellt werden. Und wer sich dann für eine spezielle Stichprobenvarianz interessiert, kann dem Link folgen und erhält auf der folgenden Seite dann detaillierte Informationen dazu.

Wenn Verwirrung vermieden werden soll, müssen beide Verfahren gleichzeitig angesprochen werden und deren Rechtfertigung gebracht werden. Wenn sie in verschiedenen Artikeln sind, weiß der Leser nicht, wem er glauben soll. --Bachmai (Diskussion) 16:36, 15. Sep. 2013 (CEST)Beantworten

Und der Name "Varianz endlich vieler Daten" wäre für diesen Artikel hier falsch. Denn bei der Varianz endlich vieler Daten muss durch n geteilt werden, wobei n die Anzahl der Daten ist. Nur bei der Ziehung einer Stichprobe ist die Division durch n-1 manchmal sinnvoll, wobei hier n die Größe der Stichprobe und nicht die Größe der Grundgesamtheit ist. --Eulenspiegel1 (Diskussion) 06:35, 15. Sep. 2013 (CEST)Beantworten

Bei der Varianz endlich vieler Daten muss eben nicht durch n geteilt werden, sondern durch n-1. Und die Antwort dafür bietet eben genau dieser Artikel, da er die sinngebene Varianzdefinition über die paarweisen Differenz-Quadrate enthält, die in der Versionsgeschichte bleiben soll; in meinen Augen der wichtigste Beitrag in diesem Artikel. Die Statistik ist leider als ein Kind der Mathematik geboren worden, und so kam in die Varianzdefinition ein völlig unnötiger Nuisance-Parameter wie der Erwartungswert hinein, der aber nichts, absolut GAR NICHTS mit der Streuung von Daten zu tun hat (verschieb ich die Daten um 17, ändert sich doch deren Varianz nicht; also hat der Mittel- oder Erwartungswert keinen Einfluss auf die Streuung und hat damit in deren Definition nichts zu suchen; sofern er aber ein reines Hilfmittel bleibt, kann er drin stehen; IST ER ABER NICHT BEI JEDER DEFNITION, sondern hat bei der Definition mit Divisor n verzerrende Wirkung). Wenn du wissen willst, wie die Daten streuen, schaust du deren Abweichung zueinander an. Dass man quadratisch mittelt, hat seine bekannten Gründe, also betrachten wir die Abweichungsquadrate. Hast du die Daten 4, 5, 6, 6, stellst du die Abweichungensquadrate (4-5)², (4-6)², (4-6)², (5-6)², (5-6)², (6-6)² fest; deren Summe ist 11, deren Mittelwert 11/6 und die Hälfte davon, 11/12, ist die Varianz, aber nur wenn man die Definition mit der Division durch n-1 zugrundelegt. Die Varianzdefinition mit Divisor n entspricht der Differenzbildung inklusive Selbstdifferenzen. Hier musst du aber (xi-xj)² ebenso berücksichtigen wie (xj-xi)², sonst wären die Diagonalelemente (xi-xi)² überproportional berücksichtigt: (4-4)², (4-5)², (4-6)², (4-6)², (5-4)², (5-5)², (5-6)², (5-6)², (6-4)², (6-5)², (6-6)², (6-6)², (6-4)², (6-5)², (6-6)², (6-6)². Ihre Summe hat sich verdoppelt, ihr Mittelwert verkleinert sich aber auf 22/16, die Hälfte davon auf 11/16, und das ist die Varianz, wenn man Divisor n verwendet. Hältst du es für vernünftig, bei der Berechnung eines Streuungsmaßes selbstidentische Differenzen miteinfließen zu lassen? Habe ich nur zwei Daten, wird ihre Varianz dann von 50% solcher Null-Differenzen beeinflusst, sodass sie halt kleiner ausfällt als ein anständiges Durchschnittsmaß, welches die Version bietet, die auf solche Vergleiche mit sich selbst verzichtet. Egal welches Merkmal man misst, etwa die Körpergröße: man würde bei Berücksichtigung von Selbstidentitäten feststellen: Die Bürger von Großstädten (Grundgesamtheiten!) variieren mehr als die kleiner Dörfer; alleinstehende Einöd-Bauern sind am homogensten: sie haben Varianz 0. Nun, solche Feststellungen würden wahrscheinlich niemanden verwundern. Bei mehr Daten gibt's halt auch mehr Streuung, würden die Leute sagen. Bei der Spannweite R ein klarer Fall. In jeder Großstadt gibt's einen ganz Großen und einen ganz Kleinen. Nur: das ist nicht der Sinn der Varianz: man will hier ein Durchschnittsmaß, und das erhält man eben nur ohne Berücksichtigung von Selbstidentitäten. Wohl gemerkt. Wenn Individuen das gleiche Datum liefern, wird dieses Null-Differenz-Quadrat ja berücksichtigt (siehe (6-6)²). Nur die Lächerlichkeit, dass ich genauso groß bin wie ich, hat in einer vernünftigen Varianz-Definition nichts verloren. --Bachmai (Diskussion) 16:36, 15. Sep. 2013 (CEST)Beantworten

Die Varianz ist bereits exakt definiert. Du kannst die momentan definierte Varianz toll oder blöd finden. Du kannst dich auch für einen alternativen Messwert stark machen und diesem einem alternativen Namen geben. (z.B. nennst du deinen Wert "Bachmai-Varianz"). Aber du kannst nicht die momentan definierte Varianz einfach ändern.
Der Unterschied zwischen der richtigen Varianz und der Bachmai-Varianz ist: Bei der richtigen Varianz wird der Mittelwert der quadratischen Abweichungen zum Mittelwert (x_i-\mu)^2 betrachtet. Bei der Bachmai-Varianz wird der Mittelwert der quadratischen Differenzen der Werte (nicht Mittelwerte) genommen.
Bei deinem Beispiel mit den Werte 4, 5, 6, 6 ist der Mittelwert 21/6. Die Abweichungen zum Mittelwert sind nun: (4-21/6)², (5-21/6)², (6-21/6)², (6-21/6)². Und die durchschnittliche Abweichung zum Mittelwert ist dann 11/16. Und genau das wird mit der Varianz dargestellt.
Ob die aktuelle Varianz nun sinnvoll ist oder nicht, ist unerheblich. Das ist nunmal die Definition der Varianz, wie sie benutzt wird. Es geht bei Wikipedia nicht darum, zu entscheiden, welche Definitionen sinnvoller und welche weniger sinnvoll sind. Es geht darum, alles existierenden Definitionen darzustellen und sie wertneutral zu beschreiben. Sollte irgendwann mal die aktuelle Definition der Varianz nicht mehr benutzt werden, kann man das ganze unter "historische Definition" oder so behandeln. Aber so lange die aktuelle Definition behandelt wird, muss sie in der Wikipedia auch Erwähnung finden.
Wenn du Interesse daran hast, können wir gerne sprechen, WARUM die Varianz die Abweichung zum Mittelwert behandelt. Wir können gerne darüber diskutieren, ob das SINNVOLL ist. Aber den Status Quo zu leugnen, bringt nicht. Und in der Wikipedia wird der Status Quo dargestellt, unabhängig davon, ob man den Status Quo gut oder schlecht findet.
Btw, zum Thema Streuung empfehle ich dir den Artikel Streuung. Dort stellst du fest, dass die Varianz nur ein Streumaß ist und es noch andere Streumaße gibt. (z.B. die Abweichung zum Median. Oder der Variationskoeffizient: Abweichung geteilt durch Erwartungswert. Oder die Spannweite: maximaler Abstand) Deswegen ist es auch nicht sinnvoll allgemein von höherer oder niedriger Streuung zu sprechen. Wenn du z.B. zwei verschiedene Grundgesamtheiten hast, kann die eine Menge bzgl. eines Streumaßes stärker streuen. Und die andere Menge streut bzgl. eines anderen Streumaßes stärker. --Eulenspiegel1 (Diskussion) 17:19, 15. Sep. 2013 (CEST)Beantworten

Warum gehst nicht auf meine Argumente ein und behauptest Dinge, die nicht richig sind: Erstens ist die Definition der Varianz bei endlich vielen Daten mitnichten eindeutig. Zur ganzen Verwirrung, die darüber existiert, könntest du Kapitel 2 (Disagreement in the Literature) meines Artikels lesen. Zweitens ist die Varianz basierend auf der quadratischen Abweichung vom Mittelwert identisch mit der Varianz basierend auf paarweisen Differenz-Quadraten (jeweils mit dem entsprechendem Divisor), wie ich ja argumentiert hatte und wie es auch im Artikel bereits steht. Nicht meine Erfindung also. Die Einführung einer Bachmaier-Varianz (ich bin ja hier mit Klarnamen) halte ich daher für nichts als Spott deinerseits. Drittens brauchst du mir als Wissenschaftler in Statistik keine Aufklärung zu Streuungsmaßen zu liefern. Du lenkst damit nur vom Thema ab. Tests robuster Streuungsmaße waren übrigens mein Habilitationsthema. --Bachmai (Diskussion) 17:48, 15. Sep. 2013 (CEST)Beantworten

Doch die Defintion der Varianz ist eindeutig. Was nicht eindeutig ist, ist die Stichprobenvarianz. Deswegen ist es ja so wichtig, zwischen Varianz und Stichprobenvarianz zu unterscheiden: Varianz ist eindeutig. Stichprobenvarianz ist nicht eindeutig.
Und nein, du erhälst unterschiedliche Messwerte. Nehmen wir wieder als Beispiel deine Grundgesamtheit 4,5,6,6. Der Mittelwert der quadratischen Abweichungen zum Mittelwert beträgt 11/16. Und der Mittelwert der quadratischen Abweichungen der Einzeldaten beträgt 11/10 (wenn die Reihenfolge keine Rolle spielt) bzw. 22/16 (wenn die Reihenfolge eine Rolle spielt). Die Werte wirken auf mich schon ziemlich unterschiedlich.
OK, wenn du so viel über Streuungsmaße weist, wieso behauptest du dann, dass Mittel- bzw. Erwartungswert keinen Einfluss auf die Streuung hat? Wenn du so viel über Streuung wüsstest, dann müsstest du auch wissen, dass das nur für manche Streuungen gilt.
Wieso gehst du nicht auf mein Argument ein, dass es der Wikipedia nicht zusteht, zwischen sinnvoll und nicht-sinnvoll zu unterscheiden? Dass es in der Wikipedia nur darauf ankommt, die vorhandenen Methoden neutral und nicht-bewertend darzustellen? --Eulenspiegel1 (Diskussion) 18:19, 15. Sep. 2013 (CEST)Beantworten

Nochmals: du musst meinen Artikel schon kurz anschauen, wo genügend Autoren stehen, die die Varianz einer endlichen Grundgesamtheit mit Divisor N und auch genügend Autoren, die die Varianz einer Grundgesamtheit mit Divisor N-1 definieren. Die Stichprobenvarianz ist an sich ein schwammiger Ausdruck, ich gehe davon aus, dass du sie als Schätzung der Varianz einer Grundgesamtheit verstehst, und insofern fällt sie je nach Kriterium (Erwartungstreue, ML, ganz Abgespacete vielleicht sogar MSE-effiziente); meist gilt aber die Erwartungstreue und insofern fällt sie in der angelsächsischen Literatur einigermaßen einheitlich aus. Was mich gewundert hat bei meinen Forschungen ist die Uneinheitlichkeit in deutschsprachiger Literatur. Hier verwenden ziemlich viele den Divisor n. Einheitlich definiert ist nur die Varianz einer Verteilung (einer Zufallsvariable), was einer "unendlichen Grundgesamtheit", d.h. N = unendlich, entspricht, was die Frage N oder N-1 überflüssig macht. Die Varianz endlicher Grundgesamtheiten wird von den meisten Autoren nicht einmal in Betracht gezogen. Man könnte eher sagen: "sie existiert nicht" als sie wäre eindeutig definiert. --Bachmai (Diskussion) 18:54, 15. Sep. 2013 (CEST)Beantworten

Viel interessanter ist, dass du überhaupt von der "Stichprobenvarianz" sprichst. Wieso denkt denn jeder immer gleich an das Schätzen einer Grundgesamtheit. Die meisten wissen doch gar nicht, was sie schätzen wollen. Ich hatte ja bereits erwähnt, dass in den meisten Büchern die Varianz einer endlichen Grundgesamtheit gar nicht mal defniert ist. Ja, was wollen die Leute dann schätzen? Gut, die Varianz einer Verteilung. Stimmt. Aber nicht immer. Man will schon oft auch die Varianz einer vorgegebenen Population mit endlich vielen Individuen schätzen. Mir geht es aber hier gar nicht um Schätzung, sondern einfach darum, wie man die Varianz endlich vieler Daten definiert. Ist der Mittelwert nicht auch wichtig? Schau mal im Artikel Mittelwert nach und suche ein Wort wie "Schätzung" oder "schätzen". Findest du nicht. Und hier will jeder immer schätzen. Wozu denn verdammt nochmal? Ich hab die Daten und will ihre Varianz wissen. Reicht denn das nicht mal fürs Erste? Statistische Inferenz ist eine andere Sache, und es gibt ja einen Extra-Artikel dafür. Warum also immer schätzen? --Bachmai (Diskussion) 18:54, 15. Sep. 2013 (CEST)Beantworten

Jedes vernünftige Streuungsmaß ist translationsinvariant. Hab es doch schon gesagt. Verschobene Daten haben dieselbe Streuung. Denkst du vielleicht an abgespecete Dinge wie MSE-effiziente Varianzschätzer? --Bachmai (Diskussion) 18:54, 15. Sep. 2013 (CEST)Beantworten

Zu deinem Argument, nicht zwischen "sinnvoll und nicht sinnvoll" zu unterscheiden, ist zu sagen, dass es erstens in Wikipedia darum geht, darzustellen, was in der Welt los ist, salopp formuliert. Da kann man natürlich sagen, sinnvoll oder nicht sinnvoll ist hier nicht entscheidend. Man muss, und das habe ich auch vor, beide Versionen der Varianz bringen, ebenso wie sie begründet werden. Was aber auch in der Welt los ist, ist, dass da inzwischen ein Online-Artikel (auch noch ein Nicht-online-Artikel von mir) existiert, wo diese Frage nach der richtigen Varianzdefinition aufgegriffen wird. Auch das ist in der Welt los. Und da es keinen weiteren Artikel genau über dieses Thema gibt, lässt sich auch kein anderer zitieren. Oder kennst du noch einen Artikel, der sich zur Aufgabe gemacht hat, alles, was auf internationalem Level (und auch manches Deutsches) vorhanden ist, zu vergleichen, die Sachen zusammenzufassen und zu beurteilen. Ich nicht. Dieses Thema gilt nämlich als eher low-level, weswegen sich die meisten nicht damit beschäftigen wollen. Zudem ist die Sache nach der richtigen Varianzdefinition wissenschaftlich: da kann man nicht einfach Sinnvolles und nicht Sinnvolles gleichsetzen. Neue wissenschaftliche Erkenntnisse wie die in meinem Artikel haben in Wikipedia zu erscheinen. --Bachmai (Diskussion) 18:54, 15. Sep. 2013 (CEST)Beantworten

Hallo Bachmai, interessanter Artikel. Das ist zwar meines Erachtens zu frisch (2013), um direkt in den Artikel einzufließen, aber ein paar Punkte, auf die Du hinweist, finde ich wichtig:

  • Das eine endliche Population nicht direkt eine diskrete Wahrscheinlickeitsverteilung wiedergibt
  • Die Verwirrung in der Literatur, und dass es nicht klar ist, was die Varianz einer endlichen Population sein sollte
  • Die Differenzendarstellungen für korrigierte und unkorrigierte s^2 aus Hedajat/Sinya.

Eine kleine Frage zum Artikel: Bachmai, sollten die endlichen Populationen (1,2) und (1,2,1,2) die gleiche Varianz haben? --Erzbischof 19:46, 15. Sep. 2013 (CEST)Beantworten

@Erzbischof: Gleich zum Letzteren: Und gestatte eine Gegenfrage (damit du meine Antwort auf Anhieb verstehst): Sollten die endlichen Populationen (1) und (1, 1) die gleiche Varianz haben? Nun wirst du sagen, die letzte ist null, die erste: naja, da sage ich lieber nicht definiert. Eine Schätzung würde ich mir mit dieser einen Zahl gleich überhaupt nicht zutrauen. Sie bietet ja null Info über Varianz der Grundgesamtheit. So, jetzt musst du nur noch merken, dass du dieselbe Frage gestellt hast. Nur statt (1) hast du (1, 2) erwähnt und wie ich beim zweiten Mal die (1,2) wiederholt. Sind wir uns also einig, dass Wiederholung des Datensatzes auf Verkleinerung der Streuung schließen lässt? Keine Streuung ist doch, wenn sich Zahlen wiederholen! Nun zu deinen Punkten: Genauso wie dir gingen in mir Sternchen auf, als ich das so nach und nach entdeckte. Bsp.: "Dass eine endliche Population nicht direkt eine diskrete Wahrscheinlickeitsverteilung wiedergibt". Genau das ist den wenigstens, ich wage fast zu sagen, überhaupt niemandem bewusst. Auch ich hatte erst darauf kommen müssen. Zum zweiten Punkt: Auch mir hat man im Studium beigebracht, dass man bei einer Grundgesamtheit nicht durch N-1, sondern durch N dividieren müsse. Was glaubst du, wie ich überrascht war, als ich feststellte, dass das nur was typisch Deutsches ist, international die von mir favorisierte Definition ebenso vorherrscht. Nur ohne richtig gute Begründung. Der dritte Punkt: die paarweise Differenzdarstellung gibt es bereits, hatte ich als Statistiker von Prof. Wulsten gelernt; sie steht auch im Artikel (oder meinst du was Spezielles dazu)?. Zu "zu frisch": Ich hatte die Gedanken bereits 2011 veröffentlicht in einem Artikel mit dem Titel "Why the square sum must be divided by N-1 even for a population variance", den ich auch im [genannten Artikel http://www.ijern.com/journal/June-2013/22.pdf] zitiert habe (zweites Zitat). So frisch ist er also auch nicht. Wer wie ich lange im Publikationsgeschäft tätig war, bekommt immer mehr den Eindruck, es sei nichts weiter als ein Schreibwettbewerb. Wer liest denn schon was! Das Zeug verstaubt. Deswegen wollte ich die entscheidenden Gedanken wenigstens noch online haben, um darauf verweisen zu können. Oder im Erst: hättest du dir den Artikel in einer Biblio geholt? Oder online per Bezahlung? Gelesen wird, was in Wiki steht und ein ganz klein wenig noch, was online per Klick abrufbar ist. Was Wiki betrifft, da habe ich den Eindruck, dass es eine Sammlung von dem ist, was man halt so von Professoren aufgeschnappt hat. Kein einziges Literaturzitat in Wikipedia-Artikel dieser Art! Und von den Profs hat sich kaum einer so richtig mit Varianz-Detail-Fragen beschäftigt. Ist doch zu primitiv!, denkt da jeder. Ich hatte in meiner Tätigkeit auch mit Variogrammen zu tun, wo der verwirrende Ausdruck Semivarianz geprägt wurde. Auch da habe ich klärende Artikel geschrieben. Und die Verwirrung zur Semivarianz kurz in dem Artikel erwähnt (zumindest glaube ich es; ist schon so lang her, dass ich nicht mehr genau weiß, wo ich was in der Art rein geschrieben habe.) Ich bin ein Typ, der immer Falsches entdecken will und das irgendwie auch kundtun möchte. --Bachmai (Diskussion) 21:34, 15. Sep. 2013 (CEST)Beantworten
zu den Streuungsmaßen: Es gibt viele unterschiedliche Streuungsmaße. Bei den meisten Streuungsmaßen verändert sich die Streuung nicht systemisch durch Vergrößerung der Stichprobenanzahl. Eine Ausnahme ist zum Beispiel der Radius des Konfidenzintervalls. Dieser beträgt z*Varianz/Wurzel(n) und wird damit systematisch kleiner, je größer die Stichprobe ist. (z ist für gegebenen p-Wert und N>>n eine Konstante.) Die Varianz selber ist jedoch invariant gegenüber der Stichprobengröße. --Eulenspiegel1 (Diskussion) 22:02, 15. Sep. 2013 (CEST)Beantworten
Der Vertrauensintervall-Radius z*s/Wurzel n ist kein Streuungsmaß einer Stichprobe oder einer Grundgesamtheit, man kann dies allenfalls als ein geschätztes Streuungsmaß des Mittelwertes auffassen, aber nicht als Streuungsmaß einer Stichprobe oder einer Grundgesamtheit. --Bachmai (Diskussion) 22:56, 15. Sep. 2013 (CEST)Beantworten

(BK) @Bachmai: Ja, inzwischen haben wirklich alle mitbekommen, dass du einen Artikel dazu veröffentlicht hast. Kleiner Tipp, auch wenn's jetzt zu spät ist: Du hättest dein "Ziel" sicher leichter erreichen können, wenn du das nicht erwähnt hättest. Die meisten hier reagieren ziemlich allergisch, wenn jemand eigene Forschungsergebnisse im Artikel haben will, siehe WP:Interessenkonflikt und WP:Theoriefindung. :-) -- HilberTraum (Diskussion) 19:51, 15. Sep. 2013 (CEST)Beantworten

Ich hatte in der Versionsgeschichte gesehen, dass der letzte Disku-Eintrag über zwei Jahre her ist und mir gedacht, da läse keiner mit. Insofern bin ich überrascht. Zunächst danke für deinen Tipp, auch wenn's zu spät ist. Andererseits, habe ich keine Lust, 10 Seiten Argumentation nochmals abzutippen oder reinzukopieren, die im Artikel stehen. Es ist ja auch eher ein Überblicks-Artikel, der viele Zitate enthält, während in den Wikipedia-Artikeln überhaupt keine Zitate sind. Dass das noch nicht moniert worden ist, wundert mich schon! Ich habe übrigens noch nichts reingeschrieben, sondern versuche alles auszudiskutieren, und glaube, dass dieses Vorgehen sehr fair ist. Theoriefindung wäre, wenn ich die Argumente ohne Literaturzitat ins Wiki schriebe, Zitiert man aber die vielen Meinungen, die ich im Artikel zitiert habe, ist das wissenschaftlich, und eine Wertung von Bachmaier (2011, 2013) dazuzuschreiben auch. Andere Wertungen auch, wenn es sie gibt. Die Argumente der von mir zitierten Autoren (und ich habe mich da nach internationalen Listen gerichtet) werden sowieso auch erwähnt (ich schreibe ja von der Zusammenführung der beiden Artikel, dem der Division durch n und dem mit der Division durch n-1. Ist das nicht besser als ohne Zitat zu argumentieren? Für mich genau diese Argumentation Theoriefindung, die in Wiki nichts zu suchen hat. --Bachmai (Diskussion) 21:34, 15. Sep. 2013 (CEST)Beantworten
Zunächst mal danke, dass da doch eine rege Diskussion entsteht, womit ich nicht gerechnet habe. Ich kann nicht alles auf einmal beantworten (gab eh schon Bearbeitungskonfilkt). Zum Unteren will ich heute noch Stellung nehmen. --21:34, 15. Sep. 2013 (CEST)
Ja, die fehlenden Literaturquellen im aktuellen Artikel sind in der Tat ein Problem. Hier sollten Einzelnachweise ergänzt werden. --Eulenspiegel1 (Diskussion) 22:02, 15. Sep. 2013 (CEST)Beantworten
Eben, und was ist dann dabei, wenn man dazuschreibt, dass Bachmaier aus den und den Gründen die Division durch N-1 bzw. n-1 für die geeinetere Varianzdefinition hält ("hält", ganz neutral geschrieben, ohne Wertung).
  • Bachmai, die meisten Leute wissen sehr wohl, was sie schätzen wollen. Was glaubst du, woher sie ihre Stichprobe nehmen? Und was glaubst du, weshalb sie eine Stichprobe nehmen? Hinter einer Stichprobe steht immer eine Grundgesamtheit. Und das ist den Wissenschaftlern durchaus klar. Und die Stichprobe ist nur ein Hilfsinstrument, weil man an die Grundgesamtheit nicht heran kommt. Du hast insofern teilweise recht, dass man nicht immer erwatungstreu die Varianz der Grundgesamtheit schätzen will. Manchmal ist man auch daran interessiert, die Standardabweichung der Grundgesamtheit zu schätzen und dafür eine Funktion anzugeben. Die Varianz dieser Funktion ist dann nicht zwangsläufig erwartungstreu zur Varianz der Grundgesamtheit
Meine Kollegin gibt sich zur Zeit mit Kühen ab, um die Auswirkungen eines Stressors (ein Entmister-Roboter oder was Ähnliches) zu erkunden. Auf welche Kühe schließt sie jetzt, auf alle Kühe der ganzen Welt, die jungen und die alten. Nur auf die Kühe in Deutschland, die in einem anderes Klima als die in Südamerika leben. Oder schließt sie nur auf alle Kühe der Rasse, die sie untersucht? Kühe unterschiedlichen Alters reagieren verschieden. Jüngere sind verschreckter, vermute ich. Schließt sie auf Kühe der untersuchten Rasse in Deutschland, die genau das Alter haben, das ihre untersuchten Kühe haben. Dann gilt ja das Ergebnis nur für diese Altersklasse. Schade für alle andern Kuhbesitzer. Können das Ergebnis nicht brauchen. Und glaubst du denn im Ernst, dass ich meine Kollegin frage, auf welche Kühe sie schließen will? Da würde sie höchstens sagen, dass ich der Statistiker sei. --Bachmai (Diskussion) 22:40, 15. Sep. 2013 (CEST)Beantworten
Nun beantworte ich die Frage nach der Grundgesamtheit im strengen Sinn. Sie besteht nur aus dem Stall, aus dem die Kühe (zufällig) ausgewäht sind. Man kann aufgrund der Daten dann den Stressor nur dem eigenen Stall als unbedenklich anzudrehen versuchen, dem eigenen Stall, in dem er bereits steht. Da hat man also nichts davon. In der Praxis wird man halt sagen: Naja, die und die Art von Kühen dürften ähnlich reagieren, also gilt das Ergebnis für die und die auch noch einigermaßen, für eine andere Rasse, für anderes Alter etwas weniger, ganz falsch werden sie auch nicht sein. Man bildet sich in der Praxis vielleicht sowas wie ein Art Zugehörigkeitsgrad zur Grundgesamtheit. Auf keinen Fall meint man die, die statistisch die eindeutig richtige wäre. --Bachmai (Diskussion) 16:29, 16. Sep. 2013 (CEST)Beantworten
Die Grundgesamtheit kann entweder nur die Kühe aus dem Stall betragen. Oder auch potentiell alle Nachkommen des Stalls bzw. alle andere Kühe, die später noch unter den gleichen Umständen in den Stall kommen könnten, wie die Kühe, die bisher drin sind.
Ja, das mit den Nachkommen, sozusagen die Grundgesamtheit als genetisches Material, wollte ich auch noch schreiben. --Bachmai (Diskussion) 21:30, 16. Sep. 2013 (CEST)Beantworten
Und wenn man von diesem strengen Sinne abweicht, dann ist es vollkommen egal, ob der Divisor der Varianz nun n oder n-1 ist. Man kann sowieso nur sagen, dass die Varianz aller Kühe Deutschlands wesentlich größer ist als die Varianz der Kühe in einem einzigen Stall.
Egal ist es höchstens dann, wenn du den Faktor n/(n-1) bei der Schätzung wieder hinzunimmst. Größer dürfte die Varianz aller Kühe allemal sein als die im Stall, aber wenn sie gleich wesentlich größer ist, dann sind die Inferenzen aus dem Versuch wirklich unbrauchbar. --Bachmai (Diskussion) 21:30, 16. Sep. 2013 (CEST)Beantworten
Richtig. Deswegen kenne ich es so, dass man die Versuche in mehreren Ställen durchführt. Dann kann man zum einen testen, ob die Varianzen innerhalb eines Stalles ungefähr gleich sind: Das heißt, die Varianz in Stall 1 ist ungefähr gleich der Varianz in Stall 2. Und anschließend schaut man sich die Varianzen zwischen den Ställen an. Das heißt, wir berechnen den Erwartungswert von Stall 1, von Stall 2, von Stall 3 etc. und schauen anschließend, wie groß die Varianz dieser Erwartungswerte ist. Wenn die Varianzen innerhalb eines Stalles ungefähr gleich groß sind und die Varianzen zwischen den Ställen bekannt sind, dann kann man damit was anfangen. Aber nur die Varianz eines einzigen Stalls hilft nicht wirklich weiter, sobald du irgendeine Aussage außerhalb dieses Stalls treffen willst. --Eulenspiegel1 (Diskussion) 22:56, 16. Sep. 2013 (CEST)Beantworten
Eigentlich kann man nur sinnvolle Aussagen über eine Grundgesamtheit treffen, wenn die Stichprobe ein repräsentativer Querschnitt der Grundgesamtheit ist. Bzw. wenn man von genügend Ausprägungen der Grundgesamtheit Daten hat, um dann mittels Variablen einen repräsentativen Durchschnitt zu simulieren. --Eulenspiegel1 (Diskussion) 19:28, 16. Sep. 2013 (CEST)Beantworten
  • Nein, eine Verteilung benötigt keine unendliche Grundgesamtheit. Auch endliche Grundgesamtheiten haben eine Verteilung.
Haben eine Art empirische Verteilung (Verteilungsfunktion F_n), für die die Varianzformel der Stochastik nicht gilt. --Bachmai (Diskussion) 16:29, 16. Sep. 2013 (CEST)Beantworten
  • Wie gesagt, die Varianz wird einheitlich definiert als E(X-E(X)^2). Schau dir deine Quellen nochmal an. Wann immer dort der Divisor n-1 auftaucht, geht es wahrscheinlich nicht um eine endliche Grundgesamtheit sondern um eine endliche Stichprobe. - Und bei Stichproben ist man nicht an der Varianz der Stichprobe sondern an der Varianz der dazugehörigen Grundgesamtheit interessiert. Das tolle ist halt: Wenn man die Varianz der Stichprobe mit n/(n-1) multipliziert, erhält man eine erwartungstreue Schätzung für die Grundgesamtheit. Das ganze ist aber so trivial, dass man das nicht immer aufschreibt. Meistens schreibt man etwas wie "Wir wollen die Varianz herausfinden und ziehen dazu eine Stichprobe." oder "Aufgrund der Stichprobe können wir eine Varianz von ... ermitteln."
Nein, nicht die Varianz einer "Art empirischen Verteilung", sondern nur die Varianz einer Zufallsvariable, genauer gesagt: einer Wahrscheinlichkeits-Verteilung, die im Artikel Varianz (Stochastik) steht, ist von den Mathematikern einheitlich definiert. Die Varianz einer endlichen Grundgesamtheit ist es nicht, wie aus meinen Zitaten klar hervorgeht. Dass du die nicht gleich alle überprüfen kannst, ist doch klar. --Bachmai (Diskussion) 22:40, 15. Sep. 2013 (CEST)Beantworten
Bei einer Art "emprischen" Verteilung lässt sich nicht mal ein Produktmaß bilden. Aussagen wie X_i iid (mu,sigma^2)-normalverteilt gehen gar nicht. Hat die endliche Grundgesamtheit die Werte 1, 2, 3, 4, 5, 6 und zieht man beim ersten Mal die 3, kann man sie beim zweiten Mal nicht mehr ziehen. P(X_1=3, X_2=3) ist nicht etwa (1/6)*(1/6), sondern 0. Insofern sollte schon klar sein, dass sich die stochastische Varianzformel für die Varianz der Augenzahl eines Würfels nicht so einfach auf die einer endlichen Grundgesamtheit mit den sechs Werten von 1 bis 6 übertragen lässt. Manche tun's trotzdem, andere aber nicht. Zu letzteren gehöre ich und habe dafür klare Gründe. --Bachmai (Diskussion) 16:29, 16. Sep. 2013 (CEST)Beantworten
Bei einer endlichen Grundgesamtheit gibt es nicht unbedingt unabhängige Zufallsvariablen. Aber es lässt sich dennoch wunderbar mit abhängigen Zufallsvariablen darstellen. --Eulenspiegel1 (Diskussion) 19:28, 16. Sep. 2013 (CEST)Beantworten
Mir geht's aber darum zu zeigen, dass die Verteilung einer endlichen Grundgesamtheit was anderes ist als die einer Wahrscheinlichkeitsverteilung, wo ich sozusagen was rausziehe, ohne dass es weniger wird, weswegen man für beide Grundgesamtheiten nicht unbedingt dieselbe Varianzformel verwenden kann. --Bachmai (Diskussion) 21:38, 16. Sep. 2013 (CEST)Beantworten
Das hat nicht unbedingt etwas mit endlich oder unendlich zu tun. Auch bei unendlichen Grundgesamtheiten kann man abhängige Zufallsvariablen haben. Und natürlich kann man für alles die gleiche Varianzformel verwenden. Die einzige Bedingung ist, dass man auf der Zielmenge Arithmetik betreiben kann. Und da eine Zufallsvariable in der Regel nach R bzw. C geht, ist das problemlos möglich. Es müsste z.B. auf ein alternatives Streuungsmaß ausgewichen werden, falls keine Zufallsvariable existiert und man direkt in einem metrischen Raum operieren müsste. --Eulenspiegel1 (Diskussion) 22:56, 16. Sep. 2013 (CEST)Beantworten
  • Beim Mittelwert ist das tolle, dass der Mittelwert der Stichprobe einer symmetrischen Verteilung auch gleich eine erwartungstreue Schätzung des Mittelwertes der Grundgesamtheit ist. Das heißt, hier braucht man keine extra Schätzfunktion. Hier nimmt man einfach den Mittelwert der Stichprobe. Und dies ist dann auch gleichzeitig der erwartungstreu geschätzte Mittelwert der Grundgesamtheit. Bei der Varianz ist das leider nicht der Fall. Hier muss man die Varianz der Stichprobe mit einem Faktor multiplizieren, um eine erwartungstreu geschätzte Varianz der Grundgesamtheit zu erlangen.
Das ist bei der Varianz ebenso toll wie beim Mittelwert. Die (korrigierte) Stichprobenvarianz mit Divisor n-1 ist eine erwartungstreue Schätzung für die Grundgesamtheits-Varianz mit anaolgem Divisor N-1. Der Beweis, den auch andere erbracht haben, habe ich hier im Artikel auf Seite 8 sogar gebracht, um durch seine Trivialität zu zeigen, wie trivial diese Aussage ist. Eine Stichprobenvarianz erst mit einem Faktor multiplizieren zu müssen, um sie erwartungstreu zu machen, wäre ja eine völlige Narredei. Man müsste sowas aber in der Tat tun, verwendete man N und n statt N-1 und n-1. Dies allein ist ja schon ein Indiz, dass die Varianzformel mit Division durch N oder n nicht das erbringt, was man sich von der Varianz erwartet. --Bachmai (Diskussion) 16:29, 16. Sep. 2013 (CEST)Beantworten
  • Und nein, man muss nicht immer schätzen. Wenn dich die Varianz der Grundgesamtheit nicht interessierst sondern du aus irgendwelchen Gründen nur an der Varianz der Stichprobe interessiert bist, kannst du natürlich auch direkt die Varianz der Stichprobe nehmen. Das mag hin und wieder vielleicht vorkommen, ist aber recht selten.
Kommt immer vor. Wenn man daraus auf etwas schließt, ist das was Zusätzliches, kann man mit dem Mittelwert genauso machen und wird auch gemacht. Zunächst aber ist der empirische Mittelwert ein Maß, das im Artikel Mittelwert nicht einmal das Wort "Schätzung" oder "schätzen" einer Erwähnung würdigt. Und ebenso sollte es beim Streuungsmaß sein.
  • Und nein, nicht jedes vernünftige Streuungsmaß ist translationsinvariant. Schau dir zum Beispiel den Variationskoeffizienten an. Dieser ist nicht translationsinvariant, obwohl er ein vernünftiges Streuungsmaß ist. Für viele Betrachtunsgweisen finde ich den Variationskoeffizienten sogar sinnvoller als die Varianz.
Der Variationskoeffizient ist kein reines Streuungsmaß, sondern eins in Relation zum Erwartungswert, insofern ist er natürlich von ihm abhängig.
  • Generell bin ich skeptisch, wenn Autoren versuchen, ihre eigenen Artikel in der Wikipedia zu platzieren. Darüberhinaus habe ich nirgends den Impact Factor des Journals finden können.
Ich platziere nicht meinen Artikel hier. Habe noch überhaupt nichts geschrieben. Aber Wikipedia sollte sich der Wissenschaft nicht ganz verwehren. Nur auf von Professoren Aufgeschnapptem darf man meiner Meinung nach keinen Wiki-Artikel schreiben. Hinsichtlich Impact-Factor: Es ist nicht einfach, einfache Artikel in äußerst angesehenen Zeitschriften unterzubringe. Ich bekam die erwartete Antwort, dass das Niveau des Artikels nicht hoch genug sei. Und so kommt halt solche Forschung nicht in hoch angesehenen Artikeln unter. Es ist ja ein Artikel, der sich mehr auf die Lehre bezieht. Insofern war das Journal "..Education and Research" einfach passend. Außerdem wollte ich speziell diesen Artikel in erster Linie so unterbringen, dass er ohne zu bezahlen online abgerufen werden kann. Bei Impact-Factor-Artikeln kann man das nicht. Ich kenne zumindest noch kein statistisches Journal, wo man das kann. Du solltest auch wissen, dass es schwierig war, den Doppler-Effekt zu veröffentlichen. Ein Gutachter meinte, er habe das noch nie erlebt, der andere meinte, das sei keine Physik, denn da kommen keine Differentialgleichungen vor. Siehst: zu einfach, also nicht veröffentlichbar. Diese Klage hört man öfter. Wenn du aber einen Artikel von mir mit partiellen Differentialgleichungen unendlicher Ordnug gelöst mit Reihenansatz willst, kann ich dich auf das Scandinavian Journal of Statistics verweisen, das der Herausgeber von Biometrika für eines der drei besten Magazine hielt, mit gutem (1,118), wenn auch nicht mit dem besten Impact-Factor, den meist amerikanische oder englische haben, da diese schon seit jeher in Englisch schreiben und daher einen Vorsprung genießen. Er ist eine Erweiterung des Beherens-Fisher-Problems. Von ihm steht aber nichts in Wikipedia. Nur die gewonnenen Nebenkenntnisse ließ ich in den Artikel über das Behrens-Fisher-Problem einfließen. Hat aber niemanden gestört. Auch hier hatte ich ein altes Missverständnis aufgeklärt, das sich auf die Lösung von Welch (1947) und der von Linnik (??) bewiesenen Unlösbarkeit bezieht. Meines Wissen hat das angesehenste russische Statistik-Journal Mathematical Methods of Statistics immer noch keinen Impact-Factor: die schrieben ja Jahrzehnte lang auf russisch; und dass die Russen in W-Theorie mehr drauf haben als die Amis mit ihren JASAs und Annals oder die Engländer mit ihrer RoySoc, wissen wir. Den klärenden Semi-Varianz-Artikel konnte ich übrigens in einem Journal mit Impact Factor 2,509 unterbringen, weil das eine Art Letter to the editor war, den man trotz seiner Einfachheit nicht so einfach ablehnen kann; das wäre ja dann eine Weigerung gegen Fehlerkorrektur. Besser ist aber der weiterführende Artikel in Mathematical Geosciences, den ich im Artikel hier zitiert habe und wo ein 5-year Impact Factor von 1,753 angegeben wird. Deswegen ist aber immer noch der Artikel hier der bessere, war nur schwerer veröffentlichbar, weil das Thema halt als für zu primitiv gehalten wird. --Bachmai (Diskussion) 22:40, 15. Sep. 2013 (CEST)Beantworten
  • Btw, in deinem Artikel würde mich interessieren, wie du von (10) nach (11) gekommen bist. Ich meine, es gilt:
(X_i-\tilde X)^2 = \left(X_i - \sum_{i=1}^n X_i\right)^2 = \left(\frac1n\sum_{j=1}^n(X_i-X_j)\right)^2=\frac1{n^2}\left(\sum_{\substack{j=1,\\j\ne i}}^n(X_i-X_j)\right)^2</math> ::<math>=\frac1{n^2}\sum_{\substack{s=1,\\s\ne i}}^n\sum_{\substack{t=1,\\t\ne i}}^n (X_i - X_s)(X_i - X_t)
(Die Formel bitte herauskopieren und in Latex laufen lassen. Der Wikipedia-Parser hat zur Zeit Probleme.)
--Eulenspiegel1 (Diskussion) 20:20, 15. Sep. 2013 (CEST)Beantworten
Wie man von (10) auf (11) kommt, ist sogar hier auf diesem Artikel, auf dessen Diskussionsseite wir hier schreiben, bewiesen, und der Beweis steht auch in Hedayat und Sinha (1991) --Bachmai (Diskussion) 22:40, 15. Sep. 2013 (CEST). Mit dem Wiki-Parser habe ich auch andauernd Ärger. Aber ich versteh's doch auch im Quellcode, mit dem \tilde x meinst du wohl den Mittelwert. Hoffe aber, kurz zuvor deine Frage beantwortet zu haben.Beantworten
Sollte ich was übertüncht haben mit den Bearbeitungskonflikten, entschuldigt und stellt es nochmal rein. --Bachmai (Diskussion) 22:40, 15. Sep. 2013 (CEST)Beantworten
Ich habe kein Problem damit, wenn die Eigenschaften der korrigierten Stichprobenvarianz neutral dargestellt werden. Ein Matheartikel soll ruhig die Eigenschaften von mathematischen Objekten erläutern. Aber außerhalb eines historischen Abschnittes ist es nicht von Interesse, wer wie darüber denkt. Man könnte also so etwas schreiben wie "Bei einer endlichen Grundgesamtheit ist die korrigierte Stichprobenvarianz erwartungstreu zur korrigierten Varianz der Grundgesamtheit. Die Formel für das Streuungsmaß ist daher identisch mit der Formel für den dazugehörigen Schätzer." Und dann anschließend gerne noch der Beweis dazu. Aber ob das jetzt gut oder schlecht ist, gehört nicht in den Wikipedia-Artikel. Das soll der Leser für sich selber entscheiden. Und es gehört auch keine Auflistung von Leuten herein, die das gut oder schlecht finden.
Wieso sagst du, dass der Radius des Konfidenzintervalls und der Variationskoeffizient keine Streuungsmaße sind? Für beide gilt:
  1. für (fast) alle (mit )
Damit sind es Streuungsmaße. Der Radius des Konfidenzintervalls bei endlichen Daten und der Variationskoeffizient allgemein bei beliebigen Grundgesamtheiten. --Eulenspiegel1 (Diskussion) 19:28, 16. Sep. 2013 (CEST)Beantworten

Dieser Radius ist kein Maß für die Streuung der Grundgesamtheit, sondern für die Streuung des Mittelwertes (des Schätzers für den Erwartungwert). Mich stört die "korrigierte Stichprobenvarianz". Es kommt zwar vor, aber, obwohl ich Statistik studiert habe, habe ich es noch nie gehört, ebenso wie die englsiche Entsprechung "corrected sample variance". Das ist schon eine Parteinmahme, als wäre die Definition mit Divisor n die gewöhnliche; dabei kommt sie in der angelsächsischen Literatur so gut wie nicht vor; da ist die sample variance mit Divisor n-1 die gewöhnliche. Hinsichtlich der Grundgesamtheit ist es umstrittener. Schön ist da, was Wonnacott und Wonnacott (1985) schreiben. Sie nennen bei einer Grundgesamtheit die Quadratsumme mit Division durch N ganz richtig mittlere quadratische Abweichung und die mit Divisor N-1 Varianz. Es ist nun mal so, dass die Varianzdefinition mit Divisor N hinsichtlich N kein faires Durchschnitts-Streumaß ist und somit nur Probleme bereitet. Man braucht bei erwartungstreuer Schätzung Korrekturfaktoren. Bei n-1 bzw. N-1 passt alles zusammen, weil es halt einem reinen Streumaß ohne Verfälschung durch einen Nuisance-Parameter entspricht. Das lässt sich objektiv feststellen. --Bachmai (Diskussion) 21:15, 16. Sep. 2013 (CEST)Beantworten

Man kann das ja alles auch ganz neutral formulieren, etwa: "Manche nennen diese Stichprobenvarianz korrigierte Stichprobenvarianz, weil sie die mittlere quadratische Abweichung vom Mittelwert so korrigiert, dass sie mit der Varianzdefinition über die paarweisen Differenzen kompatibel ist und außerdem die Varianz einer Verteilung erwartungstreu schätzt." --Bachmai (Diskussion) 22:00, 16. Sep. 2013 (CEST)Beantworten

Wieso ist der Radius kein Maß für die Streuung der Grundgesamtheit? Er ist bis auf einen Faktor doch dentisch mit der Varianz. Und wenn eine Funktion eine Streuung ist, dann ist das Vielfache dieser Funktion trivialerweise ebenfalls eine Streuung. Dass man die gleiche Funktion auch als Schätzer für die Varianz des Erwartungswertes von Mengen von Stichproben nehmen kann, stimmt. Ändert aber nichts daran, dass es ebenfalls eine Streuung ist. (Und zwar eine Streuung der Stichprobe und keine Streuung des Erwartungswertes.)
Zu gewöhnlich und ungewöhnlich: Die Definition s = E(X-E(X)) findet sich sowohl für unendliche als auch für endliche Datenlagen. Die Definition mit Divisor n-1 findet sich jedoch nur bei endlichen Datenlagen. Damit ist dies ein relativ spezieller Fall.
Und was verstehst du unter "fair"? Und inwiefern bereitet der Divisor N nur Probleme? Und inwiefern sind Korrekturfaktoren problematisch? Aus didaktischer Sicht finde ich Korrekturfaktor sogar besser, da es so Studenten leichter fällt, zwischen Streuungsfunktion und dem dazugehörigen Schätzer unterscheiden zu können. Wenn Streuuung und Schätzer identisch sind, fällt es vielen Studenten schwer, den Unterschied zu verinnerlichen.
Zum Begriff "korrigierte Stichprobenvarianz": Diese wird in recht vielen Büchern benutzt:
  • Wahrscheinlichkeitsrechnung und schließende Statistik von Mosler und Schmid
  • Deskriptive Statistik: Lehr- und Arbeitsbuch von Bol
  • Grundlagen der statistischen Datenanalyse von Behnke
Möglich, dass "korrigierte Stichprobenvarianz" ins Englische mit "sample variance" übersetzt wird. Übersetzungen von manchen Begriffen sind eh nicht wortwörtlich. Aber im deutschen heißt es nunmal "korrigierte Stichprobenvarianz". Und viele Leute, die sich schon länger mit Statistik beschäftigen, schreiben auch nicht jedesmal: "Ich rechne die korrigierte Stichprobenvarianz aus, um die Varianz der Grundgesamtheit zu erlangen." Sondern schreiben eher: "Ich werte die Stichprobe aus, um die Varianz zu erhalten." Dass man dazu einen geeigneten Schätzer benutzt, muss nicht jedesmal dazugeschrieben werden, da trivial. --Eulenspiegel1 (Diskussion) 22:56, 16. Sep. 2013 (CEST)Beantworten

Zu Letzterem: Man sollte da nicht interpretieren: "sample variance" heißt wörtlich übersetzt "Stichprobenvarianz". Es ist aber gut, Zitate zu haben, die belegen, dass im Deutschen der Ausdruck "korrigierte Stichprobenvarianz" verwendet wird, und die gehören dann auch in den Artikel. Um die Unterschiede klar darzustellen, Rechtfertigungen, Vor und Nachteile zu nennen, müssen erst einmal die beiden Artikel "Stichprobenvarianz" und "korrigierte Stichprobenvarianz" zu einem zusammengefasst werden, die Namen sind dann mit Literaturangaben zu belegen. Ich schlage nach einiger Überlegung vor, dem Artikel dann den Namen "Emprische Varianz" zu geben. Denn die Varianz einer endlichen Grundgesamtheit muss ohnehin im Zuge der Rechtfertigung der verschiedenen Versionen erwähnt werden, ebenso beide Formen 1/N, 1/(N-1). Was die Rechtfertigung des Namens "Empirische Varianz" betrifft glaube ich, dass man die Vollerhebung einer endlichen Grundgesamtheit ebenso zur Emprie zählen darf. Zumindest finde ich im Wiki-Artikel Empirie folgende Definition: "Als empirische Wissenschaften oder Erfahrungswissenschaften gelten Disziplinen, in denen die Objekte und Sachverhalte der Welt, wie z. B. Planeten, Tiere, Verhaltensweisen von Menschen durch Experimente, Beobachtung oder Befragung untersucht werden. Diese empirischen Methoden können im Labor stattfinden, oder, so der Fachterminus, im Feld. Dies bedeutet eine Untersuchung eines Phänomens bzw. Problems in seinem jeweiligen Kontext." Dass so eine Untersuchung eine Stichprobe sein müsse und keine Vollerhebung sein dürfe, steht da nicht. Also kann man meiner Meinung nach unter dem Namen "Empirische Varianz" sowohl die Stichprobenvarianz als auch die Varianz einer endlichen Grundgesamtheit subsumieren. --Bachmai (Diskussion) 22:00, 18. Sep. 2013 (CEST)Beantworten

Zum Aufbau: Es gibt den Artikel Streuung (Statistik), in dem alle möglichen Streuungsmaße aufgelistet sind. Unter anderem auch die korrigierte Stichprobenvarianz, die unkorrigierte Stichprobenvarianz und die Varianz. Wenn man nun über eine spezielle Streuung etwas näheres wissen möchte, dann kann man dem Link folgen und landet auf den dazugehörigen Hauptartikel. Zum Beispiel diesen hier.
Hier in der Wikipedia herrscht der Grundsatz "Ein Lemma pro Artikel. Ein Artikel pro Lemma." Es bringt nichts, zwei verschiedene Streuungsmaße in ein und dem gleichen Artikel zu behandeln. Wenn jemand zwei verschiedene Streuungsmaße vergleichen will, dann wählt er unter Streuung (Statistik) erst die eine Streuung aus, liest sich den dazugehörigen Artikel durch, blättert wieder zurück und wählt eine andere Streuung aus. Was man machen könnte: Im Streuungs-Artikel kurz mit 1-2 Sätzen auf die einzelnen Streuungsmaßen eingehen und ihre grundlegenden Eigenschaften dort hinschreiben. Evtl. auch mit dem dazugehörigen Verwendungszweck.
Zum Artikelnamen: Ich habe mal google books und google scholar ausprobiert und kam dabei auf folgende Ergebnisse:
Weil ich neugierig war, habe ich mal nach den englischen Begriffen gesucht:
Ich denke, das Ergebnis zeigt zumindest eindeutig, dass hauptsächlich die Begriffe "Stichprobenvarianz" bzw. "sample variance" benutzt werden. Man könnte höchstens noch dazu schreiben, dass es auch "empirische Varianz" genannt wird. Aber es ist nicht der hauptsächlich verwendete Name. --Eulenspiegel1 (Diskussion) 00:28, 19. Sep. 2013 (CEST)Beantworten

Weiterleitung auf unvollständige/StubSeite im Englischen[Quelltext bearbeiten]

Standard_deviation#Corrected_sample_standard_deviation solldas ganze besser sein, die Seite https://en.wikipedia.org/wiki/Talk:Sample_mean_and_covariance ist stub und ist nur verwirrend Weiterhin wäre es hilfreich, bei dem s jeweils Indizes zu setzen Die Nomenklatur ist nicht nur etwas verwirrend, weil jeder wiki-Artikel andere Symbole benutzt und es gleich 8 Namen oder so für dasselbe gibt, es wäre wünschenswert die mal zusammenzuschreiben. Bis ich mal gefunden habe, dass SEM = STD/\sqrt{n} ist auf wikipedia hat das ewig gedauert Außerdem passen die Deutschen Artikel mit den Englischen vom Inhalt teils garnicht überein Gruß (nicht signierter Beitrag von 77.11.71.87 (Diskussion) 00:02, 15. Nov. 2015 (CET))Beantworten