16 Beziehungen: Additives weißes gaußsches Rauschen, Dreiecksverteilung, Edwin Thompson Jaynes, Entropie (Informationstheorie), Gleichverteilung, Größe der Dimension Zahl, Informationsgehalt, Informationstheorie, Kanal (Informationstheorie), Laplace-Verteilung, Normalverteilung, Varianz (Stochastik), Wahrscheinlichkeitsdichtefunktion, Wahrscheinlichkeitsmaß, Worst Case, Zufallsvariable.
Additives weißes gaußsches Rauschen
Als additives weißes gaußsches Rauschen, kurz AWGR oder AWGN (englisch additive white Gaussian noise) wird ein Kanalmodell bezeichnet, bei dem der Einfluss des Kanals auf das Nutzsignal modelliert wird durch ein Rauschsignal mit konstanter spektraler Rauschleistungsdichte (weißes Rauschen) und gaußverteilter Signalamplitude, welches sich dem Nutzsignal überlagert (addiert).
Neu!!: Differentielle Entropie und Additives weißes gaußsches Rauschen · Mehr sehen »
Dreiecksverteilung
Die Dreiecksverteilung (oder Simpsonverteilung, nach Thomas Simpson) ist eine stetige Wahrscheinlichkeitsverteilung, die in der Wahrscheinlichkeitstheorie und Statistik verwendet wird.
Neu!!: Differentielle Entropie und Dreiecksverteilung · Mehr sehen »
Edwin Thompson Jaynes
Edwin Thompson Jaynes, ca. 1960 Edwin Thompson Jaynes (* 5. Juli 1922 in Waterloo, Iowa; † 30. April 1998 in St. Louis, Missouri) war ein US-amerikanischer Physiker.
Neu!!: Differentielle Entropie und Edwin Thompson Jaynes · Mehr sehen »
Entropie (Informationstheorie)
Entropie (nach dem Kunstwort ἐντροπία)Kulturgeschichte der Physik, Károly Simonyi, Urania-Verlag, Leipzig 1990, ISBN 3-332-00254-6, S. 372.
Neu!!: Differentielle Entropie und Entropie (Informationstheorie) · Mehr sehen »
Gleichverteilung
Der Begriff Gleichverteilung stammt aus der Wahrscheinlichkeitstheorie und beschreibt eine Wahrscheinlichkeitsverteilung mit bestimmten Eigenschaften.
Neu!!: Differentielle Entropie und Gleichverteilung · Mehr sehen »
Größe der Dimension Zahl
Eine Größe der Dimension Zahl ist eine physikalische Größe, die durch eine reine Zahl angegeben werden kann.
Neu!!: Differentielle Entropie und Größe der Dimension Zahl · Mehr sehen »
Informationsgehalt
Der Informationsgehalt (oder auch Überraschungswert) einer Nachricht ist eine logarithmische Größe, die angibt, wie viel Information in dieser Nachricht übertragen wurde.
Neu!!: Differentielle Entropie und Informationsgehalt · Mehr sehen »
Informationstheorie
Die Informationstheorie ist eine mathematische Theorie aus dem Bereich der Wahrscheinlichkeitstheorie und Statistik, die auf den US-amerikanischen Mathematiker Claude Shannon zurückgeht.
Neu!!: Differentielle Entropie und Informationstheorie · Mehr sehen »
Kanal (Informationstheorie)
Ein Kanal (oder Informationskanal, Übertragungskanal, Übertragungsweg; auch Shannon’sches Kanalmodell) ist in der Informationstheorie ein Medium, durch das Daten und Informationen vom Absender zum Empfänger über einen Übertragungsweg geleitet werden.
Neu!!: Differentielle Entropie und Kanal (Informationstheorie) · Mehr sehen »
Laplace-Verteilung
Dichtefunktionen der Laplace-Verteilung für unterschiedliche Parameter Die Laplace-Verteilung (benannt nach Pierre-Simon Laplace, einem französischen Mathematiker und Astronomen) ist eine stetige Wahrscheinlichkeitsverteilung.
Neu!!: Differentielle Entropie und Laplace-Verteilung · Mehr sehen »
Normalverteilung
Die Normal- oder Gauß-Verteilung (nach Carl Friedrich Gauß) ist in der Stochastik ein wichtiger Typ stetiger Wahrscheinlichkeitsverteilungen.
Neu!!: Differentielle Entropie und Normalverteilung · Mehr sehen »
Varianz (Stochastik)
normalverteilter Zufallsvariablen X (rot) und Y (grün) mit gleichem Erwartungswert \mu_X.
Neu!!: Differentielle Entropie und Varianz (Stochastik) · Mehr sehen »
Wahrscheinlichkeitsdichtefunktion
Die Wahrscheinlichkeit, dass eine Zufallsvariable einen Wert zwischen a und b annimmt, entspricht dem Inhalt der Fläche S unter dem Graph der Wahrscheinlichkeits­dichtefunktion f. Eine Wahrscheinlichkeitsdichtefunktion, oft kurz Dichtefunktion, Wahrscheinlichkeitsdichte, Verteilungsdichte oder nur Dichte genannt und mit WDF oder englisch PDF (probability density function) abgekürzt, ist eine spezielle reellwertige Funktion in der Stochastik.
Neu!!: Differentielle Entropie und Wahrscheinlichkeitsdichtefunktion · Mehr sehen »
Wahrscheinlichkeitsmaß
Ein Wahrscheinlichkeitsmaß dient dazu, den Begriff der Wahrscheinlichkeit zu quantifizieren und Ereignissen, die durch Mengen modelliert werden, eine Zahl im Intervall zuzuordnen.
Neu!!: Differentielle Entropie und Wahrscheinlichkeitsmaß · Mehr sehen »
Worst Case
Korean Airlines 801 am 6. August 1997 Worst Case ist der Anglizismus für das schlechteste oder das ungünstigste (anzunehmende) Ereignis, das in der Zukunft in einem bestimmten Fachgebiet eintreten könnte.
Neu!!: Differentielle Entropie und Worst Case · Mehr sehen »
Zufallsvariable
In der Stochastik ist eine Zufallsvariable (auch zufällige Variable, zufällige Größe, zufällige Veränderliche, zufälliges Element, Zufallselement, Zufallsveränderliche) eine Größe, deren Wert vom Zufall abhängig ist.
Neu!!: Differentielle Entropie und Zufallsvariable · Mehr sehen »