15 Beziehungen: Abzählbare Menge, Bedingte Entropie, Bedingte Wahrscheinlichkeit, Bit, Entropie (Informationstheorie), Funktion (Mathematik), Informationsgehalt, Informationstheorie, Markow-Kette, Nit (Informationseinheit), Quellentropie, Stochastisch unabhängige Zufallsvariablen, Transinformation, Zielmenge, Zufallsvariable.
Abzählbare Menge
In der Mengenlehre wird eine Menge A als abzählbar unendlich bezeichnet, wenn sie die gleiche Mächtigkeit hat wie die Menge der natürlichen Zahlen \mathbb.
Neu!!: Bedingte Entropie und Abzählbare Menge · Mehr sehen »
Bedingte Entropie
In der Informationstheorie ist die bedingte Entropie ein Maß für die „Ungewissheit“ über den Wert einer Zufallsvariablen X, welche verbleibt, nachdem das Ergebnis einer anderen Zufallsvariable Y bekannt wird.
Neu!!: Bedingte Entropie und Bedingte Entropie · Mehr sehen »
Bedingte Wahrscheinlichkeit
Bedingte Wahrscheinlichkeit (auch konditionale Wahrscheinlichkeit) ist die Wahrscheinlichkeit des Eintretens eines Ereignisses A unter der Bedingung, dass das Eintreten eines anderen Ereignisses B bereits bekannt ist.
Neu!!: Bedingte Entropie und Bedingte Wahrscheinlichkeit · Mehr sehen »
Bit
Der Begriff Bit (Kofferwort aus) Duden, Bibliographisches Institut, 2016 wird in der Informatik, der Informationstechnik, der Nachrichtentechnik sowie verwandten Fachgebieten in folgenden Bedeutungen verwendet.
Neu!!: Bedingte Entropie und Bit · Mehr sehen »
Entropie (Informationstheorie)
Entropie (nach dem Kunstwort ἐντροπία)Kulturgeschichte der Physik, Károly Simonyi, Urania-Verlag, Leipzig 1990, ISBN 3-332-00254-6, S. 372.
Neu!!: Bedingte Entropie und Entropie (Informationstheorie) · Mehr sehen »
Funktion (Mathematik)
In der Mathematik ist eine Funktion oder Abbildung eine Beziehung (Relation) zwischen zwei Mengen, die jedem Element der einen Menge (Funktionsargument, unabhängige Variable, x-Wert) genau ein Element der anderen Menge (Funktionswert, abhängige Variable, y-Wert) zuordnet.
Neu!!: Bedingte Entropie und Funktion (Mathematik) · Mehr sehen »
Informationsgehalt
Der Informationsgehalt (oder auch Überraschungswert) einer Nachricht ist eine logarithmische Größe, die angibt, wie viel Information in dieser Nachricht übertragen wurde.
Neu!!: Bedingte Entropie und Informationsgehalt · Mehr sehen »
Informationstheorie
Die Informationstheorie ist eine mathematische Theorie aus dem Bereich der Wahrscheinlichkeitstheorie und Statistik, die auf den US-amerikanischen Mathematiker Claude Shannon zurückgeht.
Neu!!: Bedingte Entropie und Informationstheorie · Mehr sehen »
Markow-Kette
Markow-Kette mit drei Zuständen und unvollständigen Verbindungen Eine Markow-Kette (auch Markow-Prozess, nach Andrei Andrejewitsch Markow; andere Schreibweisen Markov-Kette, Markoff-Kette, Markof-Kette) ist ein stochastischer Prozess.
Neu!!: Bedingte Entropie und Markow-Kette · Mehr sehen »
Nit (Informationseinheit)
Nit, auch als Nat oder als Naperian Digit bzw.
Neu!!: Bedingte Entropie und Nit (Informationseinheit) · Mehr sehen »
Quellentropie
Quellentropie ist ein Begriff aus der Stochastik.
Neu!!: Bedingte Entropie und Quellentropie · Mehr sehen »
Stochastisch unabhängige Zufallsvariablen
Die stochastische Unabhängigkeit von Zufallsvariablen ist ein zentrales Konzept der Wahrscheinlichkeitstheorie und der Statistik, das die stochastische Unabhängigkeit von Ereignissen und die Unabhängigkeit von Mengensystemen verallgemeinert.
Neu!!: Bedingte Entropie und Stochastisch unabhängige Zufallsvariablen · Mehr sehen »
Transinformation
Transinformation oder gegenseitige Information (engl. mutual information) ist eine Größe aus der Informationstheorie, die die Stärke des statistischen Zusammenhangs zweier Zufallsgrößen angibt.
Neu!!: Bedingte Entropie und Transinformation · Mehr sehen »
Zielmenge
Abbildung 1: Eine Funktion von A nach B. In der Mathematik wird bei einer Funktion f \colon A \to B, die die Elemente einer Menge A auf Elemente einer Menge B abbildet, B als Zielmenge oder WertevorratReinhard Dobbener: Analysis.
Neu!!: Bedingte Entropie und Zielmenge · Mehr sehen »
Zufallsvariable
In der Stochastik ist eine Zufallsvariable (auch zufällige Variable, zufällige Größe, zufällige Veränderliche, zufälliges Element, Zufallselement, Zufallsveränderliche) eine Größe, deren Wert vom Zufall abhängig ist.
Neu!!: Bedingte Entropie und Zufallsvariable · Mehr sehen »