Logo
Unionpedia
Kommunikation
Jetzt bei Google Play
Neu! Laden Sie Unionpedia auf Ihrem Android™-Gerät herunter!
Installieren
Schneller Zugriff als Browser!
 

Transinformation

Index Transinformation

Transinformation oder gegenseitige Information (engl. mutual information) ist eine Größe aus der Informationstheorie, die die Stärke des statistischen Zusammenhangs zweier Zufallsgrößen angibt.

16 Beziehungen: Äquivokation, Bedingte Entropie, Claude Shannon, Diskrete Wahrscheinlichkeitsverteilung, Entropie (Informationstheorie), Horst Rinne, Informationsgehalt, Informationstheorie, Kanal (Informationstheorie), Kanalkapazität, Kullback-Leibler-Divergenz, Markow-Kette, Randverteilung, Redundanz (Informationstheorie), Relevanz, Zufallsvariable.

Äquivokation

Äquivokation (von lateinisch aequus,gleich‘ und vocare,rufen‘) ist die Information, die bei der Übertragung über einen Kanal zwischen einer Informationsquelle (Sender) und einer Informationssenke (Empfänger) verloren geht.

Neu!!: Transinformation und Äquivokation · Mehr sehen »

Bedingte Entropie

In der Informationstheorie ist die bedingte Entropie ein Maß für die „Ungewissheit“ über den Wert einer Zufallsvariablen X, welche verbleibt, nachdem das Ergebnis einer anderen Zufallsvariable Y bekannt wird.

Neu!!: Transinformation und Bedingte Entropie · Mehr sehen »

Claude Shannon

Claude Shannon (um 1963) Claude Elwood Shannon (* 30. April 1916 in Petoskey, Michigan; † 24. Februar 2001 in Medford, Massachusetts) war ein US-amerikanischer Mathematiker und Elektrotechniker.

Neu!!: Transinformation und Claude Shannon · Mehr sehen »

Diskrete Wahrscheinlichkeitsverteilung

Eine diskrete (Wahrscheinlichkeits-)Verteilung bzw.

Neu!!: Transinformation und Diskrete Wahrscheinlichkeitsverteilung · Mehr sehen »

Entropie (Informationstheorie)

Entropie (nach dem Kunstwort ἐντροπία)Kulturgeschichte der Physik, Károly Simonyi, Urania-Verlag, Leipzig 1990, ISBN 3-332-00254-6, S. 372.

Neu!!: Transinformation und Entropie (Informationstheorie) · Mehr sehen »

Horst Rinne

Horst Rinne (* 19. Januar 1939 in Hildesheim; † 28. Januar 2023) war ein deutscher Wirtschaftswissenschaftler und Statistiker.

Neu!!: Transinformation und Horst Rinne · Mehr sehen »

Informationsgehalt

Der Informationsgehalt (oder auch Überraschungswert) einer Nachricht ist eine logarithmische Größe, die angibt, wie viel Information in dieser Nachricht übertragen wurde.

Neu!!: Transinformation und Informationsgehalt · Mehr sehen »

Informationstheorie

Die Informationstheorie ist eine mathematische Theorie aus dem Bereich der Wahrscheinlichkeitstheorie und Statistik, die auf den US-amerikanischen Mathematiker Claude Shannon zurückgeht.

Neu!!: Transinformation und Informationstheorie · Mehr sehen »

Kanal (Informationstheorie)

Ein Kanal (oder Informationskanal, Übertragungskanal, Übertragungsweg; auch Shannon’sches Kanalmodell) ist in der Informationstheorie ein Medium, durch das Daten und Informationen vom Absender zum Empfänger über einen Übertragungsweg geleitet werden.

Neu!!: Transinformation und Kanal (Informationstheorie) · Mehr sehen »

Kanalkapazität

Die Kanalkapazität ist Teil der informationstheoretischen Beschreibung eines Übertragungskanals.

Neu!!: Transinformation und Kanalkapazität · Mehr sehen »

Kullback-Leibler-Divergenz

Die Begriffe Kullback-Leibler-Divergenz (kurz KL-Divergenz), Kullback-Leibler-Abstand und relative Entropie bezeichnen ein Maß für die Unterschiedlichkeit zweier Wahrscheinlichkeitsverteilungen.

Neu!!: Transinformation und Kullback-Leibler-Divergenz · Mehr sehen »

Markow-Kette

Markow-Kette mit drei Zuständen und unvollständigen Verbindungen Eine Markow-Kette (auch Markow-Prozess, nach Andrei Andrejewitsch Markow; andere Schreibweisen Markov-Kette, Markoff-Kette, Markof-Kette) ist ein stochastischer Prozess.

Neu!!: Transinformation und Markow-Kette · Mehr sehen »

Randverteilung

zweidimensionalen Normalverteilung sowie der beiden Marginalverteilungen (rot und blau). Als Randverteilungen oder Marginalverteilung werden in der Stochastik die Wahrscheinlichkeitsverteilungen von Teilfamilien einer gegebenen Familie von Zufallsvariablen bezeichnet.

Neu!!: Transinformation und Randverteilung · Mehr sehen »

Redundanz (Informationstheorie)

Der Begriff der Redundanz (von, „überlaufen, sich reichlich ergießen“) beschreibt in der Informationstheorie diejenigen Informationen oder Daten, die in einer Informationsquelle mehrfach vorhanden sind.

Neu!!: Transinformation und Redundanz (Informationstheorie) · Mehr sehen »

Relevanz

Relevanz (lat./ital.: re-levare „ wieder bzw. erneut in die Höhe heben“) ist eine Bezeichnung für die Bedeutsamkeit und damit sekundär auch eine situationsbezogene Wichtigkeit, die jemand etwas in einem bestimmten Zusammenhang beimisst.

Neu!!: Transinformation und Relevanz · Mehr sehen »

Zufallsvariable

In der Stochastik ist eine Zufallsvariable (auch zufällige Variable, zufällige Größe, zufällige Veränderliche, zufälliges Element, Zufallselement, Zufallsveränderliche) eine Größe, deren Wert vom Zufall abhängig ist.

Neu!!: Transinformation und Zufallsvariable · Mehr sehen »

Leitet hier um:

Gegenseitige Information, Mutual Information, Synentropie, Wechselseitige information.

AusgehendeEingehende
Hallo! Wir sind auf Facebook! »