Logo
Unionpedia
Kommunikation
Jetzt bei Google Play
Neu! Laden Sie Unionpedia auf Ihrem Android™-Gerät herunter!
Frei
Schneller Zugriff als Browser!
 

Lineare Regression

Index Lineare Regression

Die lineare Regression (kurz: LR) ist ein Spezialfall der Regressionsanalyse, also ein statistisches Verfahren, mit dem versucht wird, eine beobachtete abhängige Variable durch eine oder mehrere unabhängige Variablen zu erklären.

35 Beziehungen: Abhängige und unabhängige Variable, Autokorrelation, Ökonometrie, Überanpassung, Dünnbesetzte Matrix, Francis Galton, Gompertz-Funktion, Homoskedastizität und Heteroskedastizität, Konfidenzintervall, Kovarianzmatrix, Lineare Paneldatenmodelle, Lineares Modell, Linearkombination, Logistische Funktion, Logistische Regression, Ludwig Fahrmeir, Methode der kleinsten Quadrate, Multinomiale logistische Regression, Nebenbedingung, Paneldaten, Paneldatenanalyse, Probit-Modell, Punktwolke, Regression zur Mitte, Regressionsanalyse, Regressionsparameter, Regularisierung, Statistik, Statistischer Test, Stefan Lang (Statistiker), Thomas Kneib, Tobit-Modell, Verallgemeinerte Kleinste-Quadrate-Schätzung, Verallgemeinerte lineare Modelle, Zinseszins.

Abhängige und unabhängige Variable

Funktion typischerweise durch einen Graphen mit der unabhängigen Variablen auf der horizontalen Achse und der abhängigen Variable auf der vertikalen Achse dargestellt. Bei dieser Funktion ist ''y'' die abhängige Variable und ''x'' die unabhängige Variable. In der Mathematik ist eine abhängige Variable eine Variable, deren Wert vom Effekt (einer) anderer(en) Variable(n) abhängt.

Neu!!: Lineare Regression und Abhängige und unabhängige Variable · Mehr sehen »

Autokorrelation

Die Autokorrelation (auch Kreuzautokorrelation) ist ein Begriff aus der Stochastik und der Signalverarbeitung und beschreibt die Korrelation einer Funktion oder eines Signals mit sich selbst zu einem früheren Zeitpunkt.

Neu!!: Lineare Regression und Autokorrelation · Mehr sehen »

Ökonometrie

Die Ökonometrie ist ein Teilgebiet der Wirtschaftswissenschaften, das die ökonomische Theorie sowie mathematische Methoden und statistische Daten zusammenführt, um wirtschaftstheoretische Modelle empirisch zu überprüfen und ökonomische Phänomene quantitativ zu analysieren.

Neu!!: Lineare Regression und Ökonometrie · Mehr sehen »

Überanpassung

Blau: Fehler bzgl. Trainingsdatensätzen Rot: Fehler bzgl. Testdatensätzen Wenn der Fehler bzgl. der Testdatensätze steigt, während der Fehler bzgl. der Trainingsdatensätze fällt, dann befindet man sich möglicherweise in einer Überanpassungssituation. Überanpassung (overfitting) bezeichnet eine bestimmte Korrektur eines Modells an einen vorgegebenen Datensatz.

Neu!!: Lineare Regression und Überanpassung · Mehr sehen »

Dünnbesetzte Matrix

Finite-Elemente-Rechnung, Nichtnulleinträge erscheinen in Schwarz In der numerischen Mathematik bezeichnet man als dünnbesetzte oder schwachbesetzte Matrix eine Matrix, bei der so viele Einträge aus Nullen bestehen, dass man nach Möglichkeiten sucht, dies insbesondere hinsichtlich Algorithmen sowie Speicherung auszunutzen.

Neu!!: Lineare Regression und Dünnbesetzte Matrix · Mehr sehen »

Francis Galton

Francis Galton Sir Francis Galton (* 16. Februar 1822 in Sparkbrook, Birmingham; † 17. Januar 1911 in Haslemere, Surrey) war ein britischer Naturforscher und Schriftsteller.

Neu!!: Lineare Regression und Francis Galton · Mehr sehen »

Gompertz-Funktion

Die nach ihrem Entdecker, dem britischen Mathematiker Benjamin Gompertz, benannte Gompertz-Funktion ist eine asymmetrische Sättigungsfunktion, die sich im Gegensatz zur logistischen Funktion dadurch auszeichnet, dass sie sich ihrer rechten bzw.

Neu!!: Lineare Regression und Gompertz-Funktion · Mehr sehen »

Homoskedastizität und Heteroskedastizität

Heteroskedastizität: Hier wird die Streuung der Punkte um die Gerade nach rechts hin größer. Heteroskedastizität, auch Varianzheterogenität oder Heteroskedastie („zerstreut“, „verteilt“, „zerstreubar“), bedeutet in der Statistik, dass die Varianz der Störterme nicht konstant ist.

Neu!!: Lineare Regression und Homoskedastizität und Heteroskedastizität · Mehr sehen »

Konfidenzintervall

normalverteilten Grundgesamtheit. Davon überdecken 94 Intervalle den exakten Erwartungswert μ.

Neu!!: Lineare Regression und Konfidenzintervall · Mehr sehen »

Kovarianzmatrix

zweidimensionalen Gauß-Verteilung mit der Kovarianzmatrix \mathbf\Sigma.

Neu!!: Lineare Regression und Kovarianzmatrix · Mehr sehen »

Lineare Paneldatenmodelle

Welchen Einfluss hat Bildung auf das Einkommen einer Person?Paneldaten und für sie entwickelte Modelle werden zur Beantwortung solcher und anderer Fragen benutzt. Lineare Paneldatenmodelle sind statistische Modelle, die bei der Analyse von Paneldaten benutzt werden, bei denen mehrere Individuen über mehrere Zeitperioden beobachtet werden.

Neu!!: Lineare Regression und Lineare Paneldatenmodelle · Mehr sehen »

Lineares Modell

In der Statistik wird die Bezeichnung lineares Modell (kurz: LM) auf unterschiedliche Arten verwendet und in unterschiedlichen Kontexten.

Neu!!: Lineare Regression und Lineares Modell · Mehr sehen »

Linearkombination

Der Vektor \vec v ist die Linearkombination 2\vec u_1 + 1.5\vec u_2 v ist eine Linearkombination der beiden Vektoren v_1 und v_2. Die grüne Ebene stellt die ''lineare Hülle'' der beiden Vektoren dar. Unter einer Linearkombination versteht man in der linearen Algebra einen Vektor, der sich durch gegebene Vektoren unter Verwendung der Vektoraddition und der skalaren Multiplikation ausdrücken lässt.

Neu!!: Lineare Regression und Linearkombination · Mehr sehen »

Logistische Funktion

Logistische Funktion für den Fall G.

Neu!!: Lineare Regression und Logistische Funktion · Mehr sehen »

Logistische Regression

Unter logistischer Regression oder Logit-Modell versteht man in der Statistik Regressionsanalysen zur (meist multiplen) Modellierung der Verteilung abhängiger diskreter Variablen.

Neu!!: Lineare Regression und Logistische Regression · Mehr sehen »

Ludwig Fahrmeir

Ludwig Fahrmeir (* 23. Januar 1945 in Tutzing) ist ein deutscher Statistiker.

Neu!!: Lineare Regression und Ludwig Fahrmeir · Mehr sehen »

Methode der kleinsten Quadrate

Die Methode der kleinsten Quadrate (kurz: MKQ) oder KQ-Methode (method of least squares oder lediglich least squares, kurz: LS); zur Abgrenzung von daraus abgeleiteten Erweiterungen wie z. B.

Neu!!: Lineare Regression und Methode der kleinsten Quadrate · Mehr sehen »

Multinomiale logistische Regression

In der Statistik ist die multinomiale logistische Regression, auch multinomiales Logit-Modell, multinomiale Logit-Regression (MNL), polytome logistische Regression, polychotome logistische Regression, Softmax-Regression oder Maximum-Entropie-Klassifikator genannt, ein regressionsanalytisches Verfahren.

Neu!!: Lineare Regression und Multinomiale logistische Regression · Mehr sehen »

Nebenbedingung

Als Nebenbedingungen (im Operations Research auch eingedeutscht verwendet) werden in verschiedenen Einzelwissenschaften solche Bedingungen bezeichnet, die sich von der eigentlichen Hauptbedingung unterscheiden, zusätzlich zu erfüllen sind und dabei die Hauptbedingung einschränken.

Neu!!: Lineare Regression und Nebenbedingung · Mehr sehen »

Paneldaten

Bei Paneldaten handelt es sich um zweidimensionale Daten, die im Rahmen einer Panelstudie erhoben werden.

Neu!!: Lineare Regression und Paneldaten · Mehr sehen »

Paneldatenanalyse

Die Paneldatenanalyse ist die statistische Analyse von Paneldaten im Rahmen der Panelforschung.

Neu!!: Lineare Regression und Paneldatenanalyse · Mehr sehen »

Probit-Modell

Das Probit-Modell ist in der Statistik die Spezifikation eines verallgemeinerten linearen Modells.

Neu!!: Lineare Regression und Probit-Modell · Mehr sehen »

Punktwolke

Animiertes Punktwolkenmodell eines Torus Eine Punktwolke oder ein Punkthaufen ist eine Menge von Punkten eines Vektorraums, die eine unorganisierte räumliche Struktur („Wolke“) aufweist.

Neu!!: Lineare Regression und Punktwolke · Mehr sehen »

Regression zur Mitte

Regression zur Mitte ist ein Begriff der Statistik; er bezeichnet das Phänomen, dass nach einem extrem ausgefallenen Messwert die nachfolgende Messung wahrscheinlich wieder näher am Durchschnitt liegt, falls der Zufall einen Einfluss auf die Messgröße hat.

Neu!!: Lineare Regression und Regression zur Mitte · Mehr sehen »

Regressionsanalyse

Die Regressionsanalyse ist ein Instrumentarium statistischer Analyseverfahren, die zum Ziel haben, Beziehungen zwischen einer abhängigen (auch erklärte Variable, vorhergesagte Variable, Antwortvariable oder Regressand genannt) und einer oder mehreren unabhängigen Variablen (auch erklärende Variable, Prädiktor, Kontrollvariable oder Regressor) zu modellieren.

Neu!!: Lineare Regression und Regressionsanalyse · Mehr sehen »

Regressionsparameter

Regressionsparameter, auch Regressionskoeffizienten oder Regressionsgewichte genannt, messen den Einfluss einer Variablen in einer Regressionsgleichung.

Neu!!: Lineare Regression und Regressionsparameter · Mehr sehen »

Regularisierung

Regularisierung steht in der Mathematik für.

Neu!!: Lineare Regression und Regularisierung · Mehr sehen »

Statistik

Statistik „ist die Lehre von Methoden zum Umgang mit quantitativen Informationen“ (Daten).

Neu!!: Lineare Regression und Statistik · Mehr sehen »

Statistischer Test

Ein statistischer Test dient in der Testtheorie, einem Teilgebiet der mathematischen Statistik, dazu, anhand vorliegender Beobachtungen eine begründete Entscheidung über die Gültigkeit oder Ungültigkeit einer Hypothese zu treffen.

Neu!!: Lineare Regression und Statistischer Test · Mehr sehen »

Stefan Lang (Statistiker)

Stefan Lang (* 30. November 1970 in Regensburg) ist ein deutscher Statistiker.

Neu!!: Lineare Regression und Stefan Lang (Statistiker) · Mehr sehen »

Thomas Kneib

Thomas Kneib (* 1976) ist ein deutscher Statistiker.

Neu!!: Lineare Regression und Thomas Kneib · Mehr sehen »

Tobit-Modell

Das Tobit-Modell ist ein auf James Tobin zurückgehendes ökonometrisches Modell zur Analyse beschränkt abhängiger Variablen (zensierte Daten).

Neu!!: Lineare Regression und Tobit-Modell · Mehr sehen »

Verallgemeinerte Kleinste-Quadrate-Schätzung

In der Statistik ist die Verallgemeinerte Kleinste-Quadrate-Schätzung (kurz VKQ-Schätzung) oder verallgemeinerte Methode der kleinsten Quadrate, kurz VMKQ, (generalized least squares, kurz GLS) eine Prozedur, um unbekannte wahre Regressionsparameter in einer linearen Regressionsgleichung, unter problematischen Voraussetzungen (vorliegen von Autokorrelation und Heteroskedastizität), effizient zu schätzen.

Neu!!: Lineare Regression und Verallgemeinerte Kleinste-Quadrate-Schätzung · Mehr sehen »

Verallgemeinerte lineare Modelle

Verallgemeinerte lineare Modelle (VLM), auch generalisierte lineare Modelle (GLM oder GLiM) sind in der Statistik eine von John Nelder und Robert Wedderburn (1972) eingeführte wichtige Klasse von nichtlinearen Modellen, die eine Verallgemeinerung des klassischen linearen Regressionsmodells in der Regressionsanalyse darstellt.

Neu!!: Lineare Regression und Verallgemeinerte lineare Modelle · Mehr sehen »

Zinseszins

Zinseszins ist im Finanzwesen ein Zins, der auf fällige, dem Kapital hinzugefügte (kapitalisierte) Zinsen erhoben wird, die damit zum geltenden Zinssatz zusammen mit dem Kapital erneut verzinst werden.

Neu!!: Lineare Regression und Zinseszins · Mehr sehen »

Leitet hier um:

Anpassungsgerade, Geradenfit, Glättungsgerade, Regressionsgerade.

AusgehendeEingehende
Hallo! Wir sind auf Facebook! »