Logo
Unionpedia
Kommunikation
Jetzt bei Google Play
Neu! Laden Sie Unionpedia auf Ihrem Android™-Gerät herunter!
Frei
Schneller Zugriff als Browser!
 

Bedingte Entropie

Index Bedingte Entropie

In der Informationstheorie ist die bedingte Entropie ein Maß für die „Ungewissheit“ über den Wert einer Zufallsvariablen X, welche verbleibt, nachdem das Ergebnis einer anderen Zufallsvariable Y bekannt wird.

15 Beziehungen: Abzählbare Menge, Bedingte Entropie, Bedingte Wahrscheinlichkeit, Bit, Entropie (Informationstheorie), Funktion (Mathematik), Informationsgehalt, Informationstheorie, Markow-Kette, Nit (Informationseinheit), Quellentropie, Stochastisch unabhängige Zufallsvariablen, Transinformation, Zielmenge, Zufallsvariable.

Abzählbare Menge

In der Mengenlehre wird eine Menge A als abzählbar unendlich bezeichnet, wenn sie die gleiche Mächtigkeit hat wie die Menge der natürlichen Zahlen \mathbb.

Neu!!: Bedingte Entropie und Abzählbare Menge · Mehr sehen »

Bedingte Entropie

In der Informationstheorie ist die bedingte Entropie ein Maß für die „Ungewissheit“ über den Wert einer Zufallsvariablen X, welche verbleibt, nachdem das Ergebnis einer anderen Zufallsvariable Y bekannt wird.

Neu!!: Bedingte Entropie und Bedingte Entropie · Mehr sehen »

Bedingte Wahrscheinlichkeit

Bedingte Wahrscheinlichkeit (auch konditionale Wahrscheinlichkeit) ist die Wahrscheinlichkeit des Eintretens eines Ereignisses A unter der Bedingung, dass das Eintreten eines anderen Ereignisses B bereits bekannt ist.

Neu!!: Bedingte Entropie und Bedingte Wahrscheinlichkeit · Mehr sehen »

Bit

Der Begriff Bit (Kofferwort aus) Duden, Bibliographisches Institut, 2016 wird in der Informatik, der Informationstechnik, der Nachrichtentechnik sowie verwandten Fachgebieten in folgenden Bedeutungen verwendet.

Neu!!: Bedingte Entropie und Bit · Mehr sehen »

Entropie (Informationstheorie)

Entropie (nach dem Kunstwort ἐντροπία)Kulturgeschichte der Physik, Károly Simonyi, Urania-Verlag, Leipzig 1990, ISBN 3-332-00254-6, S. 372.

Neu!!: Bedingte Entropie und Entropie (Informationstheorie) · Mehr sehen »

Funktion (Mathematik)

In der Mathematik ist eine Funktion oder Abbildung eine Beziehung (Relation) zwischen zwei Mengen, die jedem Element der einen Menge (Funktionsargument, unabhängige Variable, x-Wert) genau ein Element der anderen Menge (Funktionswert, abhängige Variable, y-Wert) zuordnet.

Neu!!: Bedingte Entropie und Funktion (Mathematik) · Mehr sehen »

Informationsgehalt

Der Informationsgehalt (oder auch Überraschungswert) einer Nachricht ist eine logarithmische Größe, die angibt, wie viel Information in dieser Nachricht übertragen wurde.

Neu!!: Bedingte Entropie und Informationsgehalt · Mehr sehen »

Informationstheorie

Die Informationstheorie ist eine mathematische Theorie aus dem Bereich der Wahrscheinlichkeitstheorie und Statistik, die auf den US-amerikanischen Mathematiker Claude Shannon zurückgeht.

Neu!!: Bedingte Entropie und Informationstheorie · Mehr sehen »

Markow-Kette

Markow-Kette mit drei Zuständen und unvollständigen Verbindungen Eine Markow-Kette (auch Markow-Prozess, nach Andrei Andrejewitsch Markow; andere Schreibweisen Markov-Kette, Markoff-Kette, Markof-Kette) ist ein stochastischer Prozess.

Neu!!: Bedingte Entropie und Markow-Kette · Mehr sehen »

Nit (Informationseinheit)

Nit, auch als Nat oder als Naperian Digit bzw.

Neu!!: Bedingte Entropie und Nit (Informationseinheit) · Mehr sehen »

Quellentropie

Quellentropie ist ein Begriff aus der Stochastik.

Neu!!: Bedingte Entropie und Quellentropie · Mehr sehen »

Stochastisch unabhängige Zufallsvariablen

Die stochastische Unabhängigkeit von Zufallsvariablen ist ein zentrales Konzept der Wahrscheinlichkeitstheorie und der Statistik, das die stochastische Unabhängigkeit von Ereignissen und die Unabhängigkeit von Mengensystemen verallgemeinert.

Neu!!: Bedingte Entropie und Stochastisch unabhängige Zufallsvariablen · Mehr sehen »

Transinformation

Transinformation oder gegenseitige Information (engl. mutual information) ist eine Größe aus der Informationstheorie, die die Stärke des statistischen Zusammenhangs zweier Zufallsgrößen angibt.

Neu!!: Bedingte Entropie und Transinformation · Mehr sehen »

Zielmenge

Abbildung 1: Eine Funktion von A nach B. In der Mathematik wird bei einer Funktion f \colon A \to B, die die Elemente einer Menge A auf Elemente einer Menge B abbildet, B als Zielmenge oder WertevorratReinhard Dobbener: Analysis.

Neu!!: Bedingte Entropie und Zielmenge · Mehr sehen »

Zufallsvariable

In der Stochastik ist eine Zufallsvariable (auch zufällige Variable, zufällige Größe, zufällige Veränderliche, zufälliges Element, Zufallselement, Zufallsveränderliche) eine Größe, deren Wert vom Zufall abhängig ist.

Neu!!: Bedingte Entropie und Zufallsvariable · Mehr sehen »

Leitet hier um:

Bedingte Unsicherheit, Blockentropie.

AusgehendeEingehende
Hallo! Wir sind auf Facebook! »