14 Beziehungen: Abhängige und unabhängige Variable, Ceteris paribus, Elastizität (Wirtschaft), Erwartungswert, Jürgen Bortz, Klassisches lineares Modell der Normalregression, Lineare Regression, Multikollinearität, Multiple lineare Regression, Regressionsanalyse, Standardisierung (Statistik), Störgröße und Residuum, Steigung, Varianz (Stochastik).
Abhängige und unabhängige Variable
Funktion typischerweise durch einen Graphen mit der unabhängigen Variablen auf der horizontalen Achse und der abhängigen Variable auf der vertikalen Achse dargestellt. Bei dieser Funktion ist ''y'' die abhängige Variable und ''x'' die unabhängige Variable. In der Mathematik ist eine abhängige Variable eine Variable, deren Wert vom Effekt (einer) anderer(en) Variable(n) abhängt.
Neu!!: Regressionsparameter und Abhängige und unabhängige Variable · Mehr sehen »
Ceteris paribus
Die lateinische Phrase ceteris paribus (Abkürzungen: c. oder cet.) bedeutet sinngemäß „unter sonst gleichen Bedingungen“.
Neu!!: Regressionsparameter und Ceteris paribus · Mehr sehen »
Elastizität (Wirtschaft)
In den Wirtschaftswissenschaften ist eine Elastizität ein Maß, das die relative Änderung einer abhängigen Variablen auf eine relative Änderung einer ihrer unabhängigen Variablen angibt.
Neu!!: Regressionsparameter und Elastizität (Wirtschaft) · Mehr sehen »
Erwartungswert
Der Erwartungswert (selten und doppeldeutig Mittelwert) ist ein Grundbegriff der Stochastik.
Neu!!: Regressionsparameter und Erwartungswert · Mehr sehen »
Jürgen Bortz
Jürgen Bortz (* 8. März 1943 in Kyritz; † 22. September 2007 in Berlin) war ein deutscher Psychologe und Statistiker.
Neu!!: Regressionsparameter und Jürgen Bortz · Mehr sehen »
Klassisches lineares Modell der Normalregression
In der Statistik wird als Klassische Normalregression eine Regression bezeichnet, die zusätzlich zu den Gauß-Markov-Annahmen die Annahme der Normalverteiltheit der Störgrößen beinhaltet.
Neu!!: Regressionsparameter und Klassisches lineares Modell der Normalregression · Mehr sehen »
Lineare Regression
Die lineare Regression (kurz: LR) ist ein Spezialfall der Regressionsanalyse, also ein statistisches Verfahren, mit dem versucht wird, eine beobachtete abhängige Variable durch eine oder mehrere unabhängige Variablen zu erklären.
Neu!!: Regressionsparameter und Lineare Regression · Mehr sehen »
Multikollinearität
Multikollinearität liegt vor, wenn zwei oder mehr erklärende Variablen eine sehr starke Korrelation miteinander haben.
Neu!!: Regressionsparameter und Multikollinearität · Mehr sehen »
Multiple lineare Regression
In der Statistik ist die multiple lineare Regression, auch mehrfache lineare Regression (kurz: MLR) oder lineare Mehrfachregression genannt, ein regressionsanalytisches Verfahren und ein Spezialfall der linearen Regression.
Neu!!: Regressionsparameter und Multiple lineare Regression · Mehr sehen »
Regressionsanalyse
Die Regressionsanalyse ist ein Instrumentarium statistischer Analyseverfahren, die zum Ziel haben, Beziehungen zwischen einer abhängigen (auch erklärte Variable, vorhergesagte Variable, Antwortvariable oder Regressand genannt) und einer oder mehreren unabhängigen Variablen (auch erklärende Variable, Prädiktor, Kontrollvariable oder Regressor) zu modellieren.
Neu!!: Regressionsparameter und Regressionsanalyse · Mehr sehen »
Standardisierung (Statistik)
Dichten einer standardisierten (blau) und zweier nicht standardisierter Normalverteilungen (rot und violett) Unter Standardisierung (in einführenden Statistikkursen gelegentlich als z-Transformation bezeichnet) versteht man in der mathematischen Statistik eine Transformation einer Zufallsvariablen, so dass die resultierende standardisierte Zufallsvariable den Erwartungswert null und die Varianz eins besitzt.
Neu!!: Regressionsparameter und Standardisierung (Statistik) · Mehr sehen »
Störgröße und Residuum
Theoretische wahre Gerade y und geschätzte Regressionsgerade \hat y. Das Residuum \hat \varepsilon_i ist die Differenz zwischen dem Messwert y_i und Schätzwert \haty_i. In der Statistik sind Störgröße und Residuum zwei eng verwandte Konzepte.
Neu!!: Regressionsparameter und Störgröße und Residuum · Mehr sehen »
Steigung
Die Steigung einer linearen Funktion entspricht dem Quotienten \tfrac\Delta y\Delta x In der Mathematik, insbesondere in der Analysis, ist die Steigung (auch als Anstieg bezeichnet) ein Maß für die Steilheit einer Geraden oder einer Kurve.
Neu!!: Regressionsparameter und Steigung · Mehr sehen »
Varianz (Stochastik)
normalverteilter Zufallsvariablen X (rot) und Y (grün) mit gleichem Erwartungswert \mu_X.
Neu!!: Regressionsparameter und Varianz (Stochastik) · Mehr sehen »
Leitet hier um:
Beta-Wert, Intercept, Interzept, Regressionsgewicht, Regressionskoeffizient, Regressionskonstante, Steigungskoeffizient, Steigungsparameter.