Logo
Unionpedia
Kommunikation
Jetzt bei Google Play
Neu! Laden Sie Unionpedia auf Ihrem Android™-Gerät herunter!
Herunterladen
Schneller Zugriff als Browser!
 

Varianzanalyse

Index Varianzanalyse

Als Varianzanalyse, kurz VA (analysis of variance, kurz ANOVA), auch Streuungsanalyse oder Streuungszerlegung genannt, bezeichnet man eine große Gruppe datenanalytischer und strukturprüfender statistischer Verfahren, die zahlreiche unterschiedliche Anwendungen zulassen.

65 Beziehungen: Abhängige und unabhängige Variable, Alphafehler-Kumulierung, Anzahl der Freiheitsgrade (Statistik), Bestimmtheitsmaß, Chi-Quadrat-Verteilung, Datenanalyse, Diskriminanzanalyse, Empirische Varianz, Erwartungswert, F-Test, F-Verteilung, Faktorenanalyse, Friedman-Test (Statistik), Gerhard Tutz, Homoskedastizität und Heteroskedastizität, Hypothese (Statistik), Identifizierbarkeit, Intervallskala, Iris Pigeot, Joachim Hartung, Jonckheere-Terpstra-Test, Kategoriale Variable, Klaus Backhaus, Kovarianzanalyse (Statistik), Kruskal-Wallis-Test, Levene-Test, Lineare Paneldatenmodelle, Lineare Regression, Logarithmus, Ludwig Fahrmeir, Median-Test, Messabweichung, Mittelwert, Nichtparametrische Statistik, Nominalskala, Normalverteilung, Parameter (Statistik), Permutationstest, Post-hoc-Test, Punktschätzer, Quade-Test, Quantil (Wahrscheinlichkeitstheorie), Realisierung (Stochastik), Residuenquadratsumme, Ronald Aylmer Fisher, Scheirer-Ray-Hare-Test, Shapiro-Wilk-Test, Skalenniveau, Statistik, Statistische Signifikanz, ..., Störfaktor, Störgröße und Residuum, Summe, Summe der Abweichungsquadrate, T-Test, Teststatistik, Totale Quadratsumme, Trennschärfe eines Tests, Umbrella-Test, Univariat, Varianz (Stochastik), Wilcoxon-Mann-Whitney-Test, Wilcoxon-Vorzeichen-Rang-Test, Zentraler Grenzwertsatz, Zufallsvariable. Erweitern Sie Index (15 mehr) »

Abhängige und unabhängige Variable

Funktion typischerweise durch einen Graphen mit der unabhängigen Variablen auf der horizontalen Achse und der abhängigen Variable auf der vertikalen Achse dargestellt. Bei dieser Funktion ist ''y'' die abhängige Variable und ''x'' die unabhängige Variable. In der Mathematik ist eine abhängige Variable eine Variable, deren Wert vom Effekt (einer) anderer(en) Variable(n) abhängt.

Neu!!: Varianzanalyse und Abhängige und unabhängige Variable · Mehr sehen »

Alphafehler-Kumulierung

Die Alphafehler-Kumulierung, häufig auch α-Fehler-Inflation genannt, bezeichnet in der Statistik die Erhöhung der globalen Alpha-Fehler-Wahrscheinlichkeit (Fehlerwahrscheinlichkeit 1. Art) durch multiples Testen in derselben Stichprobe.

Neu!!: Varianzanalyse und Alphafehler-Kumulierung · Mehr sehen »

Anzahl der Freiheitsgrade (Statistik)

In der Statistik gibt die Anzahl der Freiheitsgrade (number of degrees of freedom, kurz df oder dof) an, wie viele Werte in einer Berechnungsformel (genauer: Statistik) frei variieren dürfen.

Neu!!: Varianzanalyse und Anzahl der Freiheitsgrade (Statistik) · Mehr sehen »

Bestimmtheitsmaß

vs. \mathitR^2.

Neu!!: Varianzanalyse und Bestimmtheitsmaß · Mehr sehen »

Chi-Quadrat-Verteilung

Die Chi-Quadrat-Verteilung bzw.

Neu!!: Varianzanalyse und Chi-Quadrat-Verteilung · Mehr sehen »

Datenanalyse

Die Datenanalyse verwendet statistische Methoden, um aus erhobenen Daten Information zu gewinnen.

Neu!!: Varianzanalyse und Datenanalyse · Mehr sehen »

Diskriminanzanalyse

Die Diskriminanzanalyse ist eine Methode der multivariaten Verfahren in der Statistik und dient der Unterscheidung von zwei oder mehreren Gruppen, die mit mehreren Merkmalen (auch Variablen) beschrieben werden.

Neu!!: Varianzanalyse und Diskriminanzanalyse · Mehr sehen »

Empirische Varianz

Die empirische VarianzHenze 2013: S. 31ff, auch StichprobenvarianzBehrends 2013: S. 274f (veraltet: empirisches Streuungsquadrat) oder einfach nur kurz Varianz genannt, ist ein Maß für die Streuung von konkreten (empirisch erhobenen) Werten einer Stichprobe.

Neu!!: Varianzanalyse und Empirische Varianz · Mehr sehen »

Erwartungswert

Der Erwartungswert (selten und doppeldeutig Mittelwert) ist ein Grundbegriff der Stochastik.

Neu!!: Varianzanalyse und Erwartungswert · Mehr sehen »

F-Test

Als F-Test wird eine Gruppe von statistischen Tests bezeichnet, bei denen die Teststatistik unter der Nullhypothese einer ''F''-Verteilung folgt.

Neu!!: Varianzanalyse und F-Test · Mehr sehen »

F-Verteilung

Die F-Verteilung oder Fisher-Verteilung, auch Fisher-Snedecor-Verteilung (nach Ronald Aylmer Fisher und George W. Snedecor), ist eine stetige Wahrscheinlichkeitsverteilung.

Neu!!: Varianzanalyse und F-Verteilung · Mehr sehen »

Faktorenanalyse

Die Faktorenanalyse oder Faktoranalyse ist ein Verfahren der multivariaten Statistik.

Neu!!: Varianzanalyse und Faktorenanalyse · Mehr sehen »

Friedman-Test (Statistik)

Der Friedman-Test ist ein statistischer Test zur Untersuchung von drei oder mehr gepaarten Stichproben auf Gleichheit des Lageparameters.

Neu!!: Varianzanalyse und Friedman-Test (Statistik) · Mehr sehen »

Gerhard Tutz

Gerhard Tutz (* 19. Oktober 1950 in Kirchberg) ist ein deutscher Statistiker.

Neu!!: Varianzanalyse und Gerhard Tutz · Mehr sehen »

Homoskedastizität und Heteroskedastizität

Heteroskedastizität: Hier wird die Streuung der Punkte um die Gerade nach rechts hin größer. Heteroskedastizität, auch Varianzheterogenität oder Heteroskedastie („zerstreut“, „verteilt“, „zerstreubar“), bedeutet in der Statistik, dass die Varianz der Störterme nicht konstant ist.

Neu!!: Varianzanalyse und Homoskedastizität und Heteroskedastizität · Mehr sehen »

Hypothese (Statistik)

In der Statistik bezeichnet man mit Hypothese eine Annahme, die mit Methoden der mathematischen Statistik auf Basis empirischer Daten geprüft wird.

Neu!!: Varianzanalyse und Hypothese (Statistik) · Mehr sehen »

Identifizierbarkeit

Als Identifizierbarkeit eines Modells bezeichnet man in der Statistik und insbesondere in der Ökonometrie die Eigenschaft von Schätzmodellen, dass Inferenzstatistik auf sie anwendbar ist.

Neu!!: Varianzanalyse und Identifizierbarkeit · Mehr sehen »

Intervallskala

Die Intervallskala (eine von drei Kardinalskalen) ist ein Skalenniveau in der Statistik.

Neu!!: Varianzanalyse und Intervallskala · Mehr sehen »

Iris Pigeot

Iris Pigeot, auch Pigeot-Kübler, (* 1960 in Wanne-Eickel) ist eine deutsche Statistikerin.

Neu!!: Varianzanalyse und Iris Pigeot · Mehr sehen »

Joachim Hartung

Joachim Georg Hartung (* 13. Februar 1948 in Günthersleben; † 28. Februar 2014 in Königswinter) war ein deutscher Mathematiker.

Neu!!: Varianzanalyse und Joachim Hartung · Mehr sehen »

Jonckheere-Terpstra-Test

Der Jonckheere-Terpstra-Test ist ein parameterfreier statistischer Test, mit dem ähnlich wie beim Kruskal-Wallis-Test im Rahmen einer Varianzanalyse verglichen wird, ob sich verschiedene unabhängige Stichproben (Gruppen) hinsichtlich einer ordinalskalierten Variable unterscheiden.

Neu!!: Varianzanalyse und Jonckheere-Terpstra-Test · Mehr sehen »

Kategoriale Variable

In der Statistik bezeichnet man als kategoriale Variablen folgende Arten von Variablen.

Neu!!: Varianzanalyse und Kategoriale Variable · Mehr sehen »

Klaus Backhaus

Klaus Backhaus (* 15. Februar 1947 in Mülheim an der Ruhr) ist ein deutscher Ökonom.

Neu!!: Varianzanalyse und Klaus Backhaus · Mehr sehen »

Kovarianzanalyse (Statistik)

Der blaue Bereich wird nochmal unterteilt: in den wirklichen Fehler (error) und in einen durch Kovariaten erklärten Teil. Die Kovarianzanalyse (kurz ANCOVA), selten auch Mitstreuungszerlegung, ist ein statistisches Verfahren, das Varianzanalyse (ANOVA) und lineare Regressionsanalyse verbindet.

Neu!!: Varianzanalyse und Kovarianzanalyse (Statistik) · Mehr sehen »

Kruskal-Wallis-Test

Der Kruskal-Wallis-Test (nach William Kruskal und Wilson Allen Wallis; auch H-Test) ist ein parameterfreier statistischer Test, mit dem im Rahmen einer Varianzanalyse getestet wird, ob unabhängige Stichproben (Gruppen oder Messreihen) hinsichtlich einer ordinalskalierten Variable einer gemeinsamen Population entstammen.

Neu!!: Varianzanalyse und Kruskal-Wallis-Test · Mehr sehen »

Levene-Test

Verteilung des Nettoeinkommens in Deutschland 2008 (ALLBUS) nach Geschlecht und Geburtsmonats des Befragten. Der Levene-Test bezeichnet in der Statistik einen Signifikanztest, der auf Gleichheit der Varianzen (''Homoskedastizität'') von zwei oder mehr Grundgesamtheiten (Gruppen) prüft.

Neu!!: Varianzanalyse und Levene-Test · Mehr sehen »

Lineare Paneldatenmodelle

Welchen Einfluss hat Bildung auf das Einkommen einer Person?Paneldaten und für sie entwickelte Modelle werden zur Beantwortung solcher und anderer Fragen benutzt. Lineare Paneldatenmodelle sind statistische Modelle, die bei der Analyse von Paneldaten benutzt werden, bei denen mehrere Individuen über mehrere Zeitperioden beobachtet werden.

Neu!!: Varianzanalyse und Lineare Paneldatenmodelle · Mehr sehen »

Lineare Regression

Die lineare Regression (kurz: LR) ist ein Spezialfall der Regressionsanalyse, also ein statistisches Verfahren, mit dem versucht wird, eine beobachtete abhängige Variable durch eine oder mehrere unabhängige Variablen zu erklären.

Neu!!: Varianzanalyse und Lineare Regression · Mehr sehen »

Logarithmus

Logarithmische Skaleneinteilung eines Rechenschiebers (Detail) e (rot) und 1/2 (blau) Logarithmus zur Basis 10. Als Logarithmus (Plural: Logarithmen; von, „Verständnis, Lehre, Verhältnis“, und ἀριθμός, arithmós, „Zahl“) einer Zahl bezeichnet man den Exponenten, mit dem eine vorher festgelegte Zahl, die Basis, potenziert werden muss, um die gegebene Zahl, den Numerus, zu erhalten.

Neu!!: Varianzanalyse und Logarithmus · Mehr sehen »

Ludwig Fahrmeir

Ludwig Fahrmeir (* 23. Januar 1945 in Tutzing) ist ein deutscher Statistiker.

Neu!!: Varianzanalyse und Ludwig Fahrmeir · Mehr sehen »

Median-Test

Der Median-Test, auch als Mood’s Median-Test, Westenberg-Mood-Median-Test oder Brown-Mood-Median-Test bezeichnet, ist ein statistischer Test, mit dem untersucht werden kann, ob zwei oder mehr unabhängige Stichproben aus Grundgesamtheiten mit gleichem Median stammen.

Neu!!: Varianzanalyse und Median-Test · Mehr sehen »

Messabweichung

Die Messabweichung ist in der Messtechnik und Metrologie definiert als die Differenz zwischen einem Messwert und einem Referenzwert.

Neu!!: Varianzanalyse und Messabweichung · Mehr sehen »

Mittelwert

Ein Mittelwert (kurz auch nur Mittel; anderes Wort Durchschnitt) ist eine Zahl, die aus gegebenen Zahlen nach einer bestimmten Rechenvorschrift ermittelt wird.

Neu!!: Varianzanalyse und Mittelwert · Mehr sehen »

Nichtparametrische Statistik

Die nichtparametrische Statistik, parameterfreie Statistik oder auch verteilungsfreie Statistik beschäftigt sich mit parameterfreien statistischen Modellen und parameterfreien statistischen Tests.

Neu!!: Varianzanalyse und Nichtparametrische Statistik · Mehr sehen »

Nominalskala

Ein Merkmal skaliert nominal (v. lat. nomen „Name“), wenn seine möglichen Ausprägungen zwar unterschieden werden können, aber keine natürliche Rangfolge aufweisen.

Neu!!: Varianzanalyse und Nominalskala · Mehr sehen »

Normalverteilung

Die Normal- oder Gauß-Verteilung (nach Carl Friedrich Gauß) ist in der Stochastik ein wichtiger Typ stetiger Wahrscheinlichkeitsverteilungen.

Neu!!: Varianzanalyse und Normalverteilung · Mehr sehen »

Parameter (Statistik)

In der Statistik fassen aggregierende Parameter oder Maßzahlen die wesentlichen Eigenschaften einer Häufigkeitsverteilung, z. B.

Neu!!: Varianzanalyse und Parameter (Statistik) · Mehr sehen »

Permutationstest

Ein Permutationstest ist in der nichtparametrischen Statistik ein exakter Test, bei dem zufällige Stichprobenwiederholungen unter Annahme der Nullhypothese identischer Verteilungen H_0: F.

Neu!!: Varianzanalyse und Permutationstest · Mehr sehen »

Post-hoc-Test

Post-hoc-Tests sind Signifikanztests aus der mathematischen Statistik.

Neu!!: Varianzanalyse und Post-hoc-Test · Mehr sehen »

Punktschätzer

Als Punktschätzer bezeichnet man in der mathematischen Statistik eine Schätzfunktion, die jeder Stichprobe einen Wert zuordnet, der eine gewisse Eigenschaft des zugrundeliegenden Wahrscheinlichkeitsmaßes schätzen soll.

Neu!!: Varianzanalyse und Punktschätzer · Mehr sehen »

Quade-Test

Der Quade-Test, auch als Spannweitenrangtest von Quade bezeichnet, ist ein statistischer Test zur Untersuchung von drei oder mehr gepaarten Stichproben auf Gleichheit des Lageparameters.

Neu!!: Varianzanalyse und Quade-Test · Mehr sehen »

Quantil (Wahrscheinlichkeitstheorie)

Freiheitsgraden (schiefe Verteilung). Den jeweiligen Wahrscheinlichkeiten werden ihre Quantile zugeordnet; die Fläche unter der abgebildeten Dichte von minus unendlich bis zum Quantil ist der jeweilige Wert. Ein Quantil ist ein Lagemaß in der Statistik für Wahrscheinlichkeitsverteilungen oder gleichwertig für Zufallsvariablen.

Neu!!: Varianzanalyse und Quantil (Wahrscheinlichkeitstheorie) · Mehr sehen »

Realisierung (Stochastik)

Eine (zufällige) Realisierung oder Realisation ist ein Begriff aus der Stochastik, einem Teilgebiet der Mathematik.

Neu!!: Varianzanalyse und Realisierung (Stochastik) · Mehr sehen »

Residuenquadratsumme

Die Summe der blauen Abweichungsquadrate ist die totale Quadratsumme und die Summe der roten Abweichungsquadrate ist die Residuenquadratsumme. Die Residuenquadratsumme, Quadratsumme der Residuen oder auch Summe der Residuenquadrate bezeichnet in der Statistik die Summe der quadrierten Abweichungen zwischen Beobachtungswerten und den vorhergesagten Werten aller Beobachtungen (Kleinste-Quadrate-Residuen).

Neu!!: Varianzanalyse und Residuenquadratsumme · Mehr sehen »

Ronald Aylmer Fisher

Ronald Fisher (1913) Sir Ronald Aylmer Fisher (* 17. Februar 1890 in London, England; † 29. Juli 1962 in Adelaide, Australien) war ein britischer Statistiker, Genetiker, Evolutionstheoretiker und Eugeniker.

Neu!!: Varianzanalyse und Ronald Aylmer Fisher · Mehr sehen »

Scheirer-Ray-Hare-Test

Der Scheirer-Ray-Hare-Test oder SRH-Test ist ein statistischer Test, mit dem untersucht werden kann, ob eine Messgröße durch zwei oder mehr Faktoren beeinflusst wird.

Neu!!: Varianzanalyse und Scheirer-Ray-Hare-Test · Mehr sehen »

Shapiro-Wilk-Test

Der Shapiro-Wilk-Test ist ein statistischer Signifikanztest, der die Hypothese überprüft, dass die zugrunde liegende Grundgesamtheit einer Stichprobe normalverteilt ist.

Neu!!: Varianzanalyse und Shapiro-Wilk-Test · Mehr sehen »

Skalenniveau

Das Skalenniveau oder Messniveau oder die Skalendignität (selten Skalenqualität) ist in der Empirie eine wichtige Eigenschaft von Merkmalen bzw.

Neu!!: Varianzanalyse und Skalenniveau · Mehr sehen »

Statistik

Statistik „ist die Lehre von Methoden zum Umgang mit quantitativen Informationen“ (Daten).

Neu!!: Varianzanalyse und Statistik · Mehr sehen »

Statistische Signifikanz

Statistisch signifikant wird das Ergebnis eines statistischen Tests genannt, wenn Stichprobendaten so stark von einer vorher festgelegten Annahme (der Nullhypothese) abweichen, dass diese Annahme nach einer vorher festgelegten Regel verworfen wird.

Neu!!: Varianzanalyse und Statistische Signifikanz · Mehr sehen »

Störfaktor

Störvariable Z als Ursache für X und Y Störfaktor (nicht zu verwechseln mit Störparameter oder Störgröße), auch Störvariable oder Drittvariable genannt, ist ein Begriff aus der Empirie bei Experimenten.

Neu!!: Varianzanalyse und Störfaktor · Mehr sehen »

Störgröße und Residuum

Theoretische wahre Gerade y und geschätzte Regressionsgerade \hat y. Das Residuum \hat \varepsilon_i ist die Differenz zwischen dem Messwert y_i und Schätzwert \haty_i. In der Statistik sind Störgröße und Residuum zwei eng verwandte Konzepte.

Neu!!: Varianzanalyse und Störgröße und Residuum · Mehr sehen »

Summe

Das große griechische Sigma wird oft verwendet, um Folgen von Zahlen zu addieren. Es wird dann „Summenzeichen“ genannt. Eine Summe bezeichnet in der Mathematik das Ergebnis einer Addition sowie auch die Darstellung der Addition.

Neu!!: Varianzanalyse und Summe · Mehr sehen »

Summe der Abweichungsquadrate

Abweichungsquadrate in Blau In der Statistik ist die Summe der Abweichungsquadrate (SAQ bzw. sum of squared deviations, kurz SSD), auch Abweichungsquadratsumme, kurz Summe der Quadrate oder Quadratsumme (SQ oder Q bzw. sum of squares, kurz SS) genannt, die Summe der quadratischen Abweichungen der Messwerte von ihrem arithmetischen Mittel.

Neu!!: Varianzanalyse und Summe der Abweichungsquadrate · Mehr sehen »

T-Test

Der t-Test ist ein Begriff aus der mathematischen Statistik, er bezeichnet eine Gruppe von Hypothesentests mit t-verteilter Testprüfgröße.

Neu!!: Varianzanalyse und T-Test · Mehr sehen »

Teststatistik

Eine Teststatistik, auch Prüfgröße, Testgröße, Testprüfgröße oder Prüffunktion genannt, ist eine spezielle reellwertige Funktion in der Testtheorie, einem Teilgebiet der mathematischen Statistik.

Neu!!: Varianzanalyse und Teststatistik · Mehr sehen »

Totale Quadratsumme

Die Summe der blauen Abweichungsquadrate ist die totale Quadratsumme. In der Statistik, und dort insbesondere in der Regressionsanalyse, ist die gesamte bzw.

Neu!!: Varianzanalyse und Totale Quadratsumme · Mehr sehen »

Trennschärfe eines Tests

Trennschärfe eines Tests beschreibt die Entscheidungsfähigkeit eines statistischen Tests.

Neu!!: Varianzanalyse und Trennschärfe eines Tests · Mehr sehen »

Umbrella-Test

Der Umbrella-Test nach Mack und Wolfe stellt die Verallgemeinerung des Jonkheere-Terpstra-Testes dar.

Neu!!: Varianzanalyse und Umbrella-Test · Mehr sehen »

Univariat

Der mathematische Begriff univariat bezeichnet die Abhängigkeit von nur einer Variablen.

Neu!!: Varianzanalyse und Univariat · Mehr sehen »

Varianz (Stochastik)

normalverteilter Zufallsvariablen X (rot) und Y (grün) mit gleichem Erwartungswert \mu_X.

Neu!!: Varianzanalyse und Varianz (Stochastik) · Mehr sehen »

Wilcoxon-Mann-Whitney-Test

Der Wilcoxon-Mann-Whitney-Test (auch: Mann-Whitney-U-Test, U-Test, Wilcoxon-Rangsummentest) ist die zusammenfassende Bezeichnung für zwei äquivalente nichtparametrische statistische Tests für Rangdaten (ordinalskalierte Daten).

Neu!!: Varianzanalyse und Wilcoxon-Mann-Whitney-Test · Mehr sehen »

Wilcoxon-Vorzeichen-Rang-Test

Der Wilcoxon-Vorzeichen-Rang-Test ist ein nichtparametrischer statistischer Test.

Neu!!: Varianzanalyse und Wilcoxon-Vorzeichen-Rang-Test · Mehr sehen »

Zentraler Grenzwertsatz

Annäherung von symmetrischen (oben) und schiefen (unten) standardisierten Binomialverteilungen mit den Parametern n und p (rot) an die Standardnormalverteilung (grün) Der zentrale Grenzwertsatz (von Lindeberg-Lévy) (auch CLT von), genauer zentraler Grenzverteilungssatz, ist ein bedeutendes Resultat der Wahrscheinlichkeitstheorie.

Neu!!: Varianzanalyse und Zentraler Grenzwertsatz · Mehr sehen »

Zufallsvariable

In der Stochastik ist eine Zufallsvariable (auch zufällige Variable, zufällige Größe, zufällige Veränderliche, zufälliges Element, Zufallselement, Zufallsveränderliche) eine Größe, deren Wert vom Zufall abhängig ist.

Neu!!: Varianzanalyse und Zufallsvariable · Mehr sehen »

Leitet hier um:

ANOVA, Analysis of variance, Anova, Einfaktorielle ANOVA, MANOVA, Multivariate analysis of variance, Univariate Varianzanalyse, Zweifaktorielle ANOVA.

AusgehendeEingehende
Hallo! Wir sind auf Facebook! »