Logo
Unionpedia
Kommunikation
Jetzt bei Google Play
Neu! Laden Sie Unionpedia auf Ihrem Android™-Gerät herunter!
Installieren
Schneller Zugriff als Browser!
 

Regressionsparameter

Index Regressionsparameter

Regressionsparameter, auch Regressionskoeffizienten oder Regressionsgewichte genannt, messen den Einfluss einer Variablen in einer Regressionsgleichung.

14 Beziehungen: Abhängige und unabhängige Variable, Ceteris paribus, Elastizität (Wirtschaft), Erwartungswert, Jürgen Bortz, Klassisches lineares Modell der Normalregression, Lineare Regression, Multikollinearität, Multiple lineare Regression, Regressionsanalyse, Standardisierung (Statistik), Störgröße und Residuum, Steigung, Varianz (Stochastik).

Abhängige und unabhängige Variable

Funktion typischerweise durch einen Graphen mit der unabhängigen Variablen auf der horizontalen Achse und der abhängigen Variable auf der vertikalen Achse dargestellt. Bei dieser Funktion ist ''y'' die abhängige Variable und ''x'' die unabhängige Variable. In der Mathematik ist eine abhängige Variable eine Variable, deren Wert vom Effekt (einer) anderer(en) Variable(n) abhängt.

Neu!!: Regressionsparameter und Abhängige und unabhängige Variable · Mehr sehen »

Ceteris paribus

Die lateinische Phrase ceteris paribus (Abkürzungen: c. oder cet.) bedeutet sinngemäß „unter sonst gleichen Bedingungen“.

Neu!!: Regressionsparameter und Ceteris paribus · Mehr sehen »

Elastizität (Wirtschaft)

In den Wirtschaftswissenschaften ist eine Elastizität ein Maß, das die relative Änderung einer abhängigen Variablen auf eine relative Änderung einer ihrer unabhängigen Variablen angibt.

Neu!!: Regressionsparameter und Elastizität (Wirtschaft) · Mehr sehen »

Erwartungswert

Der Erwartungswert (selten und doppeldeutig Mittelwert) ist ein Grundbegriff der Stochastik.

Neu!!: Regressionsparameter und Erwartungswert · Mehr sehen »

Jürgen Bortz

Jürgen Bortz (* 8. März 1943 in Kyritz; † 22. September 2007 in Berlin) war ein deutscher Psychologe und Statistiker.

Neu!!: Regressionsparameter und Jürgen Bortz · Mehr sehen »

Klassisches lineares Modell der Normalregression

In der Statistik wird als Klassische Normalregression eine Regression bezeichnet, die zusätzlich zu den Gauß-Markov-Annahmen die Annahme der Normalverteiltheit der Störgrößen beinhaltet.

Neu!!: Regressionsparameter und Klassisches lineares Modell der Normalregression · Mehr sehen »

Lineare Regression

Die lineare Regression (kurz: LR) ist ein Spezialfall der Regressionsanalyse, also ein statistisches Verfahren, mit dem versucht wird, eine beobachtete abhängige Variable durch eine oder mehrere unabhängige Variablen zu erklären.

Neu!!: Regressionsparameter und Lineare Regression · Mehr sehen »

Multikollinearität

Multikollinearität liegt vor, wenn zwei oder mehr erklärende Variablen eine sehr starke Korrelation miteinander haben.

Neu!!: Regressionsparameter und Multikollinearität · Mehr sehen »

Multiple lineare Regression

In der Statistik ist die multiple lineare Regression, auch mehrfache lineare Regression (kurz: MLR) oder lineare Mehrfachregression genannt, ein regressionsanalytisches Verfahren und ein Spezialfall der linearen Regression.

Neu!!: Regressionsparameter und Multiple lineare Regression · Mehr sehen »

Regressionsanalyse

Die Regressionsanalyse ist ein Instrumentarium statistischer Analyseverfahren, die zum Ziel haben, Beziehungen zwischen einer abhängigen (auch erklärte Variable, vorhergesagte Variable, Antwortvariable oder Regressand genannt) und einer oder mehreren unabhängigen Variablen (auch erklärende Variable, Prädiktor, Kontrollvariable oder Regressor) zu modellieren.

Neu!!: Regressionsparameter und Regressionsanalyse · Mehr sehen »

Standardisierung (Statistik)

Dichten einer standardisierten (blau) und zweier nicht standardisierter Normalverteilungen (rot und violett) Unter Standardisierung (in einführenden Statistikkursen gelegentlich als z-Transformation bezeichnet) versteht man in der mathematischen Statistik eine Transformation einer Zufallsvariablen, so dass die resultierende standardisierte Zufallsvariable den Erwartungswert null und die Varianz eins besitzt.

Neu!!: Regressionsparameter und Standardisierung (Statistik) · Mehr sehen »

Störgröße und Residuum

Theoretische wahre Gerade y und geschätzte Regressionsgerade \hat y. Das Residuum \hat \varepsilon_i ist die Differenz zwischen dem Messwert y_i und Schätzwert \haty_i. In der Statistik sind Störgröße und Residuum zwei eng verwandte Konzepte.

Neu!!: Regressionsparameter und Störgröße und Residuum · Mehr sehen »

Steigung

Die Steigung einer linearen Funktion entspricht dem Quotienten \tfrac\Delta y\Delta x In der Mathematik, insbesondere in der Analysis, ist die Steigung (auch als Anstieg bezeichnet) ein Maß für die Steilheit einer Geraden oder einer Kurve.

Neu!!: Regressionsparameter und Steigung · Mehr sehen »

Varianz (Stochastik)

normalverteilter Zufallsvariablen X (rot) und Y (grün) mit gleichem Erwartungswert \mu_X.

Neu!!: Regressionsparameter und Varianz (Stochastik) · Mehr sehen »

Leitet hier um:

Beta-Wert, Intercept, Interzept, Regressionsgewicht, Regressionskoeffizient, Regressionskonstante, Steigungskoeffizient, Steigungsparameter.

AusgehendeEingehende
Hallo! Wir sind auf Facebook! »