Diskussion:F-Test

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 8 Jahren von HilberTraum in Abschnitt Diskrepanz in den Ergebnissen R
Zur Navigation springen Zur Suche springen

Warum 18,4%...[Quelltext bearbeiten]

...wenn das Ergebniss doch 1,188 ist... müssten es nicht 18,8 % sein???

--Berliner_Tino 13:25, 30. Sept 2007 (CEST)

Ja, stimmt, aber warum korrigiert das niemand?

Ich hab das jetzt mal gemacht, ungeachtet der grundsätzlichen Fragen zu diesem Teil (s.u.)--Janstr 16:18, 12. Feb. 2008 (CET)Beantworten

Und wenn ich jetzt die Varianzen 2.04 und 0.177 habe, was einen Quotient von 11.5 ergibt: Beträgt die Irrtumswahrscheinlichkeit dann 1050% ?!? (11.5-1)*100=1050 -- 77.57.200.35 17:07, 18. Dez. 2009 (CET)Beantworten

Seite verbessert[Quelltext bearbeiten]

Habe mir erlaubt, den Artikel etwas zu präzisieren.

  • Den F-Test gibt es auch im "Einstichprobenfall", wobei es Geschmacksache ist, bei einer Regression die Wertetupel als Ein- oder Mehrstichprobenfall zu bezeichnen. Ich würde Einstichprobenfall sagen, weil der Regressor (die Regressoren) fest vorgegeben ist.
  • Vielleicht könnte man begründen, warum in dem Beispiel die Variante A bevorzugt wird.
  • Ansonsten diverse kleinere Fehlerla.

--Philipendula 09:25, 1. Jul 2004 (CEST)

Hallo - sehr informativ. Nur habe ich exakt den gleichen Text unter [1] gefunden. Problem?

Guckst Du auf der Seite unten: "Dieser Artikel stammt aus Wikipedia, der freien Enzyklopädie und steht unter der GNU Free Dokumentation Licence." 93.213.88.161 18:08, 28. Sep. 2014 (CEST)Beantworten

--Strike 13:28, 1. Feb 2005 (CET)

Also das mit dem Bestimmtheitsmaß stammt eindeutig von mir. Also haben die von uns geklaut. Gruß --Philipendula 16:44, 1. Feb 2005 (CET)

Warum 18,4%...[Quelltext bearbeiten]

...wenn das Ergebniss doch 1,188 ist... müssten es nicht 18,8 % sein???

Wie schon unten angemerkt: Das Beispiel ist miserabel, von der Intention her unverständlich und man muss alles selber zusammenreimen. Ansonsten verwechselst du Quantil und Wahrscheinlichkeit. --Philipendula 17:25, 30. Sep. 2007 (CEST)Beantworten

Toter Weblink[Quelltext bearbeiten]

Bei mehreren automatisierten Botläufen wurde der folgende Weblink als nicht verfügbar erkannt. Bitte überprüfe, ob der Link tatsächlich down ist, und korrigiere oder entferne ihn in diesem Fall!

--Zwobot 21:34, 29. Jan 2006 (CET)

varianzanalyse[Quelltext bearbeiten]

Seit Jan. 2004 ist ein unvollständiger Satz im Artikel. Das zum Thema, dass wir mal locker auf den einen oder anderen Experten verzichten können, weil ja alle zusammenhelfen. Das gilt nur für Harry Potter etc. --Philipendula 13:53, 27. Jul 2006 (CEST)


"Wenn sich zwei Stichproben schon in ihren Varianzen unterscheiden, dann unterscheiden sie sich allgemein natürlich auch." Bitte das "allgemein" näher spezifizieren. Wenn das nicht möglich ist, sollte man den Satz rausstreichen. Sonst ist der Gehalt der Aussage ungefähr derselbe wie bei "Wenn sich zwei Äpfel in ihrer Farbe unterscheiden, dann unterscheiden sie sich." Nämlich Null.

--Sbuehler 12:01, 17. Aug 2006 (CEST)

Zufriedenheitsfragebogen[Quelltext bearbeiten]

Wie ist das Beispiel zu verstehen? Präferiert das Unternehmen die Anwendung mit der größeren Varianz in der Zufriedenheitsbefragung, weil man meint, dass dann eher auch zufriedene Anwender dabei sind? Was ist unter einer einseitigen Überprüfung zu verstehen?

Dieses Beispiel fällt nach meinem Geschmack in die Kategorie Wirres Zeug. Ich vermute eher, dass das Unternehmen von vornherein A favorisierte und dann noch die Varianz abtesten wollte. Außerdem haben wir es bei diesen Daten möglicherweise mit rangskalierten Merkmalen zu tun, für die sowieso keine Varianz berechnet werden kann. Siehe auch die Disku zu Median. Wenn ich mal Zeit hab, werde ich das Beispiel umarbeiten. --Philipendula 14:23, 26. Sep 2006 (CEST)

Die Interpretation des p-Wertes 0.184 ist sehr abenteuerlich: "... eine Irrtumswahrscheinlichkeit von 18,4%. Das heißt also: Mit der Wahrscheinlichkeit 81,6% unterscheiden sich die Varianzen der beiden Stichproben signifikant." Das ist Quatsch. Man kann die Nullhypothese bei Signifikanztests NICHT beweisen! Die 0.816 sind die Wahrscheinlichkeit, unter der Annahme gleicher Varianzen (=H0) einen geringeren als den tatsächlich beobachteten Varianzunterschied zu bekommen (d.h. ein Ergebnis in Richtung der Nullhypothese).

Bestimmtheitsmaß-Test auch für andere restringierte Modelle?[Quelltext bearbeiten]

Hallo! Der Test, ob das Bestimmtheitsmaß (gemeint ist doch R^2?) sich signifikant von Null unterscheidet, gilt ja nur für den Spezialfall, dass im restringierten Modell ALLE Schätzparameter (außer der Konstanten) gleich Null gesetzt werden. Wie sieht das bei anderen restringierten Modellen aus? Z.B. wenn ich jetzt die Erklärungskraft eines Modell mit zehn unabhängigen Variablen vergleiche mit der eines restringierten Modells, in dem die Schätzparameter von nur ein paar (z.B. vier) Variablen gleich Null gesetzt werden, kann ich die Interpretation genauso machen? Also wird generell getestet, ob ein signifikanter Unterschied zwischen den R^2 zweier Modelle (voll/restringiert) besteht? Eine Antwort würde mir sehr helfen! --84.143.93.164 11:20, 17. Mai 2009 (CEST)Beantworten

Ja, gilt auch bei restringierten Modellen. -- Philipendula 12:18, 17. Mai 2009 (CEST)Beantworten

Beispiel[Quelltext bearbeiten]

Im Beispiel stand:

und am naechsten:

Da werden Zufallsvarable und ihre Wert nicht gut unterschieden. Deshalb die Aenderung. Nijdam 16:55, 23. Apr. 2010 (CEST)Beantworten

Definition[Quelltext bearbeiten]

Ich moechte den Abschnitt "Definition" anders formulieren, damit die Situation in der man den F-Test anwendet deutlicher wird. Ich denke mein Deutsch sei nicht ausreichend, und schreibe es deshalb hier, in der Hoffnung jemand sei mir behilflich.

(siehe Artikel)

Vielen Dank, Nijdam 22:51, 12. Nov. 2011 (CET)Beantworten

Hallo Sigbert, vielen Dank für deine Mühe. Ich habe noch einige geändert.

  1. Ich möcht erst dann von der Stichprobenvariablen reden wenn darüber tatsächlich gesprochen ist.
  2. Wiel dies eine Enzyklopädie möchte ich ausführlich sagen ... Freiheitsgraden im Zähler und ... im Nenner.
Willst du wirklich beschreiben, was das empirische Signikanzniveau bedeutet? Es ist nicht speziell für den F-Test. Gruß --Sigbert 16:07, 20. Nov. 2011 (CET)Beantworten
Nein besser nicht, aber ich habe es bisher so gelassen weil dies zuvor schon im Artikel stand. Werden wir es streichen? Nijdam 17:17, 22. Nov. 2011 (CET)Beantworten

HilberTraum, auch dir Vielen Dank. Werden wir es so wie es jetzt ist im Artikel eintragen?Nijdam 12:33, 24. Nov. 2011 (CET)Beantworten

Beispiel[Quelltext bearbeiten]

Ich verstehe den Kontext des Beispiels nicht.Nijdam 12:42, 27. Nov. 2011 (CET)Beantworten

+1. Ja das Beispiel ist auch meiner Meinung nach völlig ungeeignet: Bei einer Untersuchung der Zufriedenheit interessieren doch hauptsächlich die Lageparameter. Ein besseres anschauliches Beispiel wäre vielleicht der Vergleich zweier Messinstrumente: Beide zeigen zwar im Mittel die gleichen Werte, aber das schlechtere Instrument hat die größere Varianz. -- HilberTraum 14:51, 27. Nov. 2011 (CET)Beantworten

Oder ein neues Produktionsverfahren, das zwar billiger ist, aber vielleicht eine groessere Streuung vorweist.Nijdam 01:46, 28. Nov. 2011 (CET)Beantworten

(eigebaut worden)

Nijdam 12:06, 29. Nov. 2011 (CET)Beantworten

Ich denke jetzt passt es gut und kann meiner Meinung nach so in den Artikel eingebaut werden. -- HilberTraum 21:05, 29. Nov. 2011 (CET)Beantworten

Erweiterung[Quelltext bearbeiten]

Ich moechte zum besseren Verstehen das Beispiel eerweitern mit eine Berechnung der Tetsstaerke.

(eingefuegt)Nijdam 00:15, 5. Dez. 2011 (CET)Beantworten

Was haltet ihr davon? Und bitte: korrigiere den Tekst.Nijdam 16:11, 2. Dez. 2011 (CET)Beantworten

Kann man mMn nach gut einfügen. Vielleicht sollte noch ganz kurz erklärt werden, was die Teststärke hier genau ist. -- HilberTraum 11:55, 3. Dez. 2011 (CET)Beantworten

Bedeutung[Quelltext bearbeiten]

Was bedeutet im Artikel der Satz: Allerdings können aus der erhaltenen Wahrscheinlichkeit P(F|H0) keine direkten Rückschlüsse auf die Wahrscheinlichkeit der Gültigkeit der Alternativhypothese gezogen werden.? Nijdam (Diskussion) 08:14, 27. Apr. 2012 (CEST)Beantworten

Berechnung von f(Stichprobe)[Quelltext bearbeiten]

Bin ich blind, oder steht nirgends, dass grundsätzlich die größere Varianz in den Zähler und die kleinere in den Nenner muss? Im Beispiel ist keine solche Bedingung angegeben, aber dann kommt bei der Berechnung größerer Unfug raus...

LG Jorinde

H_0 wird verworfen, wenn die Statistik < F[\alpha / 2] oder > F[1-\alpha/2] ist. Damit ist ein grundsätzliches größere Varianz in den Zähler etc. unnötig.

--93.213.88.161 19:34, 28. Sep. 2014 (CEST)Beantworten

F-Test einseitig & zweiseitig testen[Quelltext bearbeiten]

Wenn mich nicht alles täuscht, dann stimmt das Ergebnis im Beispiel von 18,8% nur bei einer zweiseitigen Testung (F-Test testet immer zweiseitig). Allerdings wurde die Alternativhypothese als einseitige Testung ">" formuliert. Demnach müsste die Wahrscheinlichkeit halbiert und bei 9,4% liegen.

Hier der Link auf den ich mich beziehe: http://www.phimea.de/fachbeitraege/chi-quadrat-test-f-test-einseitig-zweiseitig

Auszug: "Möchten wir einen einseitigen Test durchführen und benötigen einen Chi-Quadrat-Test (oder F-Test), so ist das alpha-Niveau zu verdoppeln oder der empirisch ermittelte p-Wert zu halbieren, um die gerichtete Hypothese auf statistische Signifikanz zu testen.

VG Armin (nicht signierter Beitrag von 212.18.10.130 (Diskussion) 14:56, 25. Apr. 2014 (CEST))Beantworten

Ja, da muss man ziemlich aufpassen, aber es scheint schon so zu stimmen wie’s im Artikel steht. Ich hab’s mal schnell mit R ausprobiert:
> A <- rnorm(120); A <- sqrt(95)*A/sd(A)
> B <- rnorm(100); B <- sqrt(80)*B/sd(B)
> var.test(A,B,alternative="greater")$p.value
 [1] 0.1887569
-- HilberTraum (Diskussion) 21:51, 25. Apr. 2014 (CEST)Beantworten

Diskrepanz in den Ergebnissen R[Quelltext bearbeiten]

Ich habe das Beispiel nachvollzogen. Da ich aber kein R habe, bediente ich mich WolframAlpha. Jedoch komme ich dort auf ein anderes Ergebnis für

"f distribution 199 99 >= 1.188" --> 0.168711

Ich habe leider die Diskrepanz für mich nicht auflösen können. Einzige Vermutung ist die interne Genauigkeit der Rechensysteme. (nicht signierter Beitrag von Chipotng (Diskussion | Beiträge) 14:54, 9. Feb. 2016 (CET))Beantworten

Wenn du 119 statt 199 nimmst, dann stimmt es ;) -- HilberTraum (d, m) 18:24, 9. Feb. 2016 (CET)Beantworten