16 Beziehungen: Äquivokation, Bedingte Entropie, Claude Shannon, Diskrete Wahrscheinlichkeitsverteilung, Entropie (Informationstheorie), Horst Rinne, Informationsgehalt, Informationstheorie, Kanal (Informationstheorie), Kanalkapazität, Kullback-Leibler-Divergenz, Markow-Kette, Randverteilung, Redundanz (Informationstheorie), Relevanz, Zufallsvariable.
Äquivokation
Äquivokation (von lateinisch aequus,gleich‘ und vocare,rufen‘) ist die Information, die bei der Übertragung über einen Kanal zwischen einer Informationsquelle (Sender) und einer Informationssenke (Empfänger) verloren geht.
Neu!!: Transinformation und Äquivokation · Mehr sehen »
Bedingte Entropie
In der Informationstheorie ist die bedingte Entropie ein Maß für die „Ungewissheit“ über den Wert einer Zufallsvariablen X, welche verbleibt, nachdem das Ergebnis einer anderen Zufallsvariable Y bekannt wird.
Neu!!: Transinformation und Bedingte Entropie · Mehr sehen »
Claude Shannon
Claude Shannon (um 1963) Claude Elwood Shannon (* 30. April 1916 in Petoskey, Michigan; † 24. Februar 2001 in Medford, Massachusetts) war ein US-amerikanischer Mathematiker und Elektrotechniker.
Neu!!: Transinformation und Claude Shannon · Mehr sehen »
Diskrete Wahrscheinlichkeitsverteilung
Eine diskrete (Wahrscheinlichkeits-)Verteilung bzw.
Neu!!: Transinformation und Diskrete Wahrscheinlichkeitsverteilung · Mehr sehen »
Entropie (Informationstheorie)
Entropie (nach dem Kunstwort ἐντροπία)Kulturgeschichte der Physik, Károly Simonyi, Urania-Verlag, Leipzig 1990, ISBN 3-332-00254-6, S. 372.
Neu!!: Transinformation und Entropie (Informationstheorie) · Mehr sehen »
Horst Rinne
Horst Rinne (* 19. Januar 1939 in Hildesheim; † 28. Januar 2023) war ein deutscher Wirtschaftswissenschaftler und Statistiker.
Neu!!: Transinformation und Horst Rinne · Mehr sehen »
Informationsgehalt
Der Informationsgehalt (oder auch Überraschungswert) einer Nachricht ist eine logarithmische Größe, die angibt, wie viel Information in dieser Nachricht übertragen wurde.
Neu!!: Transinformation und Informationsgehalt · Mehr sehen »
Informationstheorie
Die Informationstheorie ist eine mathematische Theorie aus dem Bereich der Wahrscheinlichkeitstheorie und Statistik, die auf den US-amerikanischen Mathematiker Claude Shannon zurückgeht.
Neu!!: Transinformation und Informationstheorie · Mehr sehen »
Kanal (Informationstheorie)
Ein Kanal (oder Informationskanal, Übertragungskanal, Übertragungsweg; auch Shannon’sches Kanalmodell) ist in der Informationstheorie ein Medium, durch das Daten und Informationen vom Absender zum Empfänger über einen Übertragungsweg geleitet werden.
Neu!!: Transinformation und Kanal (Informationstheorie) · Mehr sehen »
Kanalkapazität
Die Kanalkapazität ist Teil der informationstheoretischen Beschreibung eines Übertragungskanals.
Neu!!: Transinformation und Kanalkapazität · Mehr sehen »
Kullback-Leibler-Divergenz
Die Begriffe Kullback-Leibler-Divergenz (kurz KL-Divergenz), Kullback-Leibler-Abstand und relative Entropie bezeichnen ein Maß für die Unterschiedlichkeit zweier Wahrscheinlichkeitsverteilungen.
Neu!!: Transinformation und Kullback-Leibler-Divergenz · Mehr sehen »
Markow-Kette
Markow-Kette mit drei Zuständen und unvollständigen Verbindungen Eine Markow-Kette (auch Markow-Prozess, nach Andrei Andrejewitsch Markow; andere Schreibweisen Markov-Kette, Markoff-Kette, Markof-Kette) ist ein stochastischer Prozess.
Neu!!: Transinformation und Markow-Kette · Mehr sehen »
Randverteilung
zweidimensionalen Normalverteilung sowie der beiden Marginalverteilungen (rot und blau). Als Randverteilungen oder Marginalverteilung werden in der Stochastik die Wahrscheinlichkeitsverteilungen von Teilfamilien einer gegebenen Familie von Zufallsvariablen bezeichnet.
Neu!!: Transinformation und Randverteilung · Mehr sehen »
Redundanz (Informationstheorie)
Der Begriff der Redundanz (von, „überlaufen, sich reichlich ergießen“) beschreibt in der Informationstheorie diejenigen Informationen oder Daten, die in einer Informationsquelle mehrfach vorhanden sind.
Neu!!: Transinformation und Redundanz (Informationstheorie) · Mehr sehen »
Relevanz
Relevanz (lat./ital.: re-levare „ wieder bzw. erneut in die Höhe heben“) ist eine Bezeichnung für die Bedeutsamkeit und damit sekundär auch eine situationsbezogene Wichtigkeit, die jemand etwas in einem bestimmten Zusammenhang beimisst.
Neu!!: Transinformation und Relevanz · Mehr sehen »
Zufallsvariable
In der Stochastik ist eine Zufallsvariable (auch zufällige Variable, zufällige Größe, zufällige Veränderliche, zufälliges Element, Zufallselement, Zufallsveränderliche) eine Größe, deren Wert vom Zufall abhängig ist.
Neu!!: Transinformation und Zufallsvariable · Mehr sehen »
Leitet hier um:
Gegenseitige Information, Mutual Information, Synentropie, Wechselseitige information.