Logo
Unionpedia
Kommunikation
Jetzt bei Google Play
Neu! Laden Sie Unionpedia auf Ihrem Android™-Gerät herunter!
Frei
Schneller Zugriff als Browser!
 

Differentielle Entropie

Index Differentielle Entropie

Die differentielle Entropie ist ein Begriff aus der Informationstheorie und stellt ein Maß für die Entropie einer kontinuierlichen Zufallsvariable dar, ähnlich der Shannon-Entropie für diskrete Zufallsvariablen.

16 Beziehungen: Additives weißes gaußsches Rauschen, Dreiecksverteilung, Edwin Thompson Jaynes, Entropie (Informationstheorie), Gleichverteilung, Größe der Dimension Zahl, Informationsgehalt, Informationstheorie, Kanal (Informationstheorie), Laplace-Verteilung, Normalverteilung, Varianz (Stochastik), Wahrscheinlichkeitsdichtefunktion, Wahrscheinlichkeitsmaß, Worst Case, Zufallsvariable.

Additives weißes gaußsches Rauschen

Als additives weißes gaußsches Rauschen, kurz AWGR oder AWGN (englisch additive white Gaussian noise) wird ein Kanalmodell bezeichnet, bei dem der Einfluss des Kanals auf das Nutzsignal modelliert wird durch ein Rauschsignal mit konstanter spektraler Rauschleistungsdichte (weißes Rauschen) und gaußverteilter Signalamplitude, welches sich dem Nutzsignal überlagert (addiert).

Neu!!: Differentielle Entropie und Additives weißes gaußsches Rauschen · Mehr sehen »

Dreiecksverteilung

Die Dreiecksverteilung (oder Simpsonverteilung, nach Thomas Simpson) ist eine stetige Wahrscheinlichkeitsverteilung, die in der Wahrscheinlichkeitstheorie und Statistik verwendet wird.

Neu!!: Differentielle Entropie und Dreiecksverteilung · Mehr sehen »

Edwin Thompson Jaynes

Edwin Thompson Jaynes, ca. 1960 Edwin Thompson Jaynes (* 5. Juli 1922 in Waterloo, Iowa; † 30. April 1998 in St. Louis, Missouri) war ein US-amerikanischer Physiker.

Neu!!: Differentielle Entropie und Edwin Thompson Jaynes · Mehr sehen »

Entropie (Informationstheorie)

Entropie (nach dem Kunstwort ἐντροπία)Kulturgeschichte der Physik, Károly Simonyi, Urania-Verlag, Leipzig 1990, ISBN 3-332-00254-6, S. 372.

Neu!!: Differentielle Entropie und Entropie (Informationstheorie) · Mehr sehen »

Gleichverteilung

Der Begriff Gleichverteilung stammt aus der Wahrscheinlichkeitstheorie und beschreibt eine Wahrscheinlichkeitsverteilung mit bestimmten Eigenschaften.

Neu!!: Differentielle Entropie und Gleichverteilung · Mehr sehen »

Größe der Dimension Zahl

Eine Größe der Dimension Zahl ist eine physikalische Größe, die durch eine reine Zahl angegeben werden kann.

Neu!!: Differentielle Entropie und Größe der Dimension Zahl · Mehr sehen »

Informationsgehalt

Der Informationsgehalt (oder auch Überraschungswert) einer Nachricht ist eine logarithmische Größe, die angibt, wie viel Information in dieser Nachricht übertragen wurde.

Neu!!: Differentielle Entropie und Informationsgehalt · Mehr sehen »

Informationstheorie

Die Informationstheorie ist eine mathematische Theorie aus dem Bereich der Wahrscheinlichkeitstheorie und Statistik, die auf den US-amerikanischen Mathematiker Claude Shannon zurückgeht.

Neu!!: Differentielle Entropie und Informationstheorie · Mehr sehen »

Kanal (Informationstheorie)

Ein Kanal (oder Informationskanal, Übertragungskanal, Übertragungsweg; auch Shannon’sches Kanalmodell) ist in der Informationstheorie ein Medium, durch das Daten und Informationen vom Absender zum Empfänger über einen Übertragungsweg geleitet werden.

Neu!!: Differentielle Entropie und Kanal (Informationstheorie) · Mehr sehen »

Laplace-Verteilung

Dichtefunktionen der Laplace-Verteilung für unterschiedliche Parameter Die Laplace-Verteilung (benannt nach Pierre-Simon Laplace, einem französischen Mathematiker und Astronomen) ist eine stetige Wahrscheinlichkeitsverteilung.

Neu!!: Differentielle Entropie und Laplace-Verteilung · Mehr sehen »

Normalverteilung

Die Normal- oder Gauß-Verteilung (nach Carl Friedrich Gauß) ist in der Stochastik ein wichtiger Typ stetiger Wahrscheinlichkeitsverteilungen.

Neu!!: Differentielle Entropie und Normalverteilung · Mehr sehen »

Varianz (Stochastik)

normalverteilter Zufallsvariablen X (rot) und Y (grün) mit gleichem Erwartungswert \mu_X.

Neu!!: Differentielle Entropie und Varianz (Stochastik) · Mehr sehen »

Wahrscheinlichkeitsdichtefunktion

Die Wahrscheinlichkeit, dass eine Zufallsvariable einen Wert zwischen a und b annimmt, entspricht dem Inhalt der Fläche S unter dem Graph der Wahrscheinlichkeits­dichtefunktion f. Eine Wahrscheinlichkeitsdichtefunktion, oft kurz Dichtefunktion, Wahrscheinlichkeitsdichte, Verteilungsdichte oder nur Dichte genannt und mit WDF oder englisch PDF (probability density function) abgekürzt, ist eine spezielle reellwertige Funktion in der Stochastik.

Neu!!: Differentielle Entropie und Wahrscheinlichkeitsdichtefunktion · Mehr sehen »

Wahrscheinlichkeitsmaß

Ein Wahrscheinlichkeitsmaß dient dazu, den Begriff der Wahrscheinlichkeit zu quantifizieren und Ereignissen, die durch Mengen modelliert werden, eine Zahl im Intervall zuzuordnen.

Neu!!: Differentielle Entropie und Wahrscheinlichkeitsmaß · Mehr sehen »

Worst Case

Korean Airlines 801 am 6. August 1997 Worst Case ist der Anglizismus für das schlechteste oder das ungünstigste (anzunehmende) Ereignis, das in der Zukunft in einem bestimmten Fachgebiet eintreten könnte.

Neu!!: Differentielle Entropie und Worst Case · Mehr sehen »

Zufallsvariable

In der Stochastik ist eine Zufallsvariable (auch zufällige Variable, zufällige Größe, zufällige Veränderliche, zufälliges Element, Zufallselement, Zufallsveränderliche) eine Größe, deren Wert vom Zufall abhängig ist.

Neu!!: Differentielle Entropie und Zufallsvariable · Mehr sehen »

AusgehendeEingehende
Hallo! Wir sind auf Facebook! »