Logo
Unionpedia
Kommunikation
Jetzt bei Google Play
Neu! Laden Sie Unionpedia auf Ihrem Android™-Gerät herunter!
Frei
Schneller Zugriff als Browser!
 

Entropie (Informationstheorie)

Index Entropie (Informationstheorie)

Entropie (nach dem Kunstwort ἐντροπία)Kulturgeschichte der Physik, Károly Simonyi, Urania-Verlag, Leipzig 1990, ISBN 3-332-00254-6, S. 372.

51 Beziehungen: Algorithmische Informationstheorie, Algorithmische Tiefe, Algorithmus, Alphabet (Informatik), Auffälligkeit (Informationstheorie), Bedingte Entropie, Boltzmann-Konstante, Buchstabenhäufigkeit, Claude Shannon, Code, Datenkompression, Differentielle Entropie, Division mit Rest, Entropie, Entropie (Informationstheorie), Entropiekodierung, Entropierate, Entropieschätzung, Ereignis (Wahrscheinlichkeitstheorie), Ergebnisraum, Erwartungswert, Eta, Gregory Chaitin, Grenzwert (Folge), Grenzwert (Funktion), Huffman-Kodierung, Informationsgehalt, Informationstheorie, Kanal (Informationstheorie), Kolmogorow-Komplexität, Kreuzentropie, Kullback-Leibler-Divergenz, Markow-Kette, Maxwellscher Dämon, Münzwurf, Norbert Bischof, Quellentropie, Rényi-Entropie, Redundanz (Informationstheorie), Shannon (Einheit), Statistische Mechanik, Stochastisch unabhängige Ereignisse, Ternärsystem, Thermodynamik, Transinformation, Ungewissheit, Wahrscheinlichkeit, Warren Weaver, Zeitkomplexität, Zufall, ..., Zufallsvariable. Erweitern Sie Index (1 mehr) »

Algorithmische Informationstheorie

Die algorithmische Informationstheorie ist eine Theorie aus der theoretischen Informatik, die im Gegensatz zur klassischen Informationstheorie die Kolmogorow-Komplexität zur Bestimmung des Informationsgehalts verwendet.

Neu!!: Entropie (Informationstheorie) und Algorithmische Informationstheorie · Mehr sehen »

Algorithmische Tiefe

Die Algorithmische oder Logische Tiefe ist ein Maß für die Komplexität einer Datenmenge oder Nachricht, also für den Informationsgehalt.

Neu!!: Entropie (Informationstheorie) und Algorithmische Tiefe · Mehr sehen »

Algorithmus

sowjetischen Briefmarke anlässlich seines 1200-jährigen Geburtsjubiläums Ein Algorithmus (benannt nach al-Chwarizmi, von arabisch: Choresmier) ist eine eindeutige Handlungsvorschrift zur Lösung eines Problems oder einer Klasse von Problemen.

Neu!!: Entropie (Informationstheorie) und Algorithmus · Mehr sehen »

Alphabet (Informatik)

In der Informatik und der mathematischen Logik ist ein Alphabet eine endliche Menge voneinander unterscheidbarer Symbole, die auch Zeichen oder Buchstaben genannt werden.

Neu!!: Entropie (Informationstheorie) und Alphabet (Informatik) · Mehr sehen »

Auffälligkeit (Informationstheorie)

Die Auffälligkeit ist ein Maß für den Beitrag eines Zeichens an der Gesamtentropie eines Systems, das um 1965 von dem deutschen Kybernetiker Helmar Frank eingeführt wurde.

Neu!!: Entropie (Informationstheorie) und Auffälligkeit (Informationstheorie) · Mehr sehen »

Bedingte Entropie

In der Informationstheorie ist die bedingte Entropie ein Maß für die „Ungewissheit“ über den Wert einer Zufallsvariablen X, welche verbleibt, nachdem das Ergebnis einer anderen Zufallsvariable Y bekannt wird.

Neu!!: Entropie (Informationstheorie) und Bedingte Entropie · Mehr sehen »

Boltzmann-Konstante

Die Boltzmann-Konstante (Formelzeichen k oder k_\mathrm) ist ein Umrechnungsfaktor von absoluter Temperatur in Energie.

Neu!!: Entropie (Informationstheorie) und Boltzmann-Konstante · Mehr sehen »

Buchstabenhäufigkeit

Die Buchstabenhäufigkeit (Graphemhäufigkeit) ist eine statistische Größe, die angibt, wie oft ein bestimmter Buchstabe in einem Text oder einer Sammlung von Texten (Korpus) vorkommt.

Neu!!: Entropie (Informationstheorie) und Buchstabenhäufigkeit · Mehr sehen »

Claude Shannon

Claude Shannon (um 1963) Claude Elwood Shannon (* 30. April 1916 in Petoskey, Michigan; † 24. Februar 2001 in Medford, Massachusetts) war ein US-amerikanischer Mathematiker und Elektrotechniker.

Neu!!: Entropie (Informationstheorie) und Claude Shannon · Mehr sehen »

Code

Ein Code oder Kode (deutsche Aussprache oder) ist eine Abbildungsvorschrift, die jedem Zeichen eines Zeichenvorrats (Urbildmenge) eindeutig ein Zeichen oder eine Zeichenfolge aus einem möglicherweise anderen Zeichenvorrat (Bildmenge) zuordnet.

Neu!!: Entropie (Informationstheorie) und Code · Mehr sehen »

Datenkompression

Die Datenkompression (wohl lehnübersetzt und eingedeutscht aus dem englischen data compression) – auch (weiter eingedeutscht) Datenkomprimierung genannt – ist ein Vorgang, bei dem die Menge digitaler Daten verdichtet oder reduziert wird.

Neu!!: Entropie (Informationstheorie) und Datenkompression · Mehr sehen »

Differentielle Entropie

Die differentielle Entropie ist ein Begriff aus der Informationstheorie und stellt ein Maß für die Entropie einer kontinuierlichen Zufallsvariable dar, ähnlich der Shannon-Entropie für diskrete Zufallsvariablen.

Neu!!: Entropie (Informationstheorie) und Differentielle Entropie · Mehr sehen »

Division mit Rest

Die Division mit Rest ist ein mathematischer Satz aus der Algebra und der Zahlentheorie.

Neu!!: Entropie (Informationstheorie) und Division mit Rest · Mehr sehen »

Entropie

Beim Schmelzen von Eis wird die geordnete Eiskristallstruktur in eine ungeordnete Bewegung einzelner Wassermoleküle überführt: ''Die Entropie des Wassers im Eiswürfel nimmt dabei zu'' (Rudolf Clausius 1862) Die Entropie ist eine in der Thermodynamik definierte physikalische Größe von fundamentaler Bedeutung.

Neu!!: Entropie (Informationstheorie) und Entropie · Mehr sehen »

Entropie (Informationstheorie)

Entropie (nach dem Kunstwort ἐντροπία)Kulturgeschichte der Physik, Károly Simonyi, Urania-Verlag, Leipzig 1990, ISBN 3-332-00254-6, S. 372.

Neu!!: Entropie (Informationstheorie) und Entropie (Informationstheorie) · Mehr sehen »

Entropiekodierung

Die Entropiekodierung ist eine Methode zur verlustfreien Datenkompression, die einen aus einzelnen Zeichen bestehenden Text in eine Bitfolge umwandelt.

Neu!!: Entropie (Informationstheorie) und Entropiekodierung · Mehr sehen »

Entropierate

Die Entropierate ermöglicht in der Informationstheorie unabhängig von der Länge einer Nachricht eine Messung der Entropie bezogen auf ein Zeichen.

Neu!!: Entropie (Informationstheorie) und Entropierate · Mehr sehen »

Entropieschätzung

Das Themengebiet der Entropieschätzung befasst sich mit den unterschiedlichen Methoden für die statistische Schätzung der Shannon-Entropie auf der Basis von endlichen Stichproben.

Neu!!: Entropie (Informationstheorie) und Entropieschätzung · Mehr sehen »

Ereignis (Wahrscheinlichkeitstheorie)

Ein Ereignis (auch Zufallsereignis) ist in der Wahrscheinlichkeitstheorie ein Teil einer Menge von Ergebnissen eines Zufallsexperiments, dem eine Wahrscheinlichkeit zugeordnet werden kann.

Neu!!: Entropie (Informationstheorie) und Ereignis (Wahrscheinlichkeitstheorie) · Mehr sehen »

Ergebnisraum

Als Ergebnisraum, Ergebnismenge oder Stichprobenraum \Omega bezeichnet man im mathematischen Teilgebiet der Stochastik die Menge aller möglichen Ergebnisse eines Zufallsexperiments.

Neu!!: Entropie (Informationstheorie) und Ergebnisraum · Mehr sehen »

Erwartungswert

Der Erwartungswert (selten und doppeldeutig Mittelwert) ist ein Grundbegriff der Stochastik.

Neu!!: Entropie (Informationstheorie) und Erwartungswert · Mehr sehen »

Eta

Das Eta (griechisches Neutrum ἦτα ē̂ta, neugriechisch Ήτα Íta; Majuskel Η, Minuskel η) ist der 7.

Neu!!: Entropie (Informationstheorie) und Eta · Mehr sehen »

Gregory Chaitin

Gregory Chaitin, 2008 Gregory J. Chaitin (* 25. Juni 1947 in Chicago) ist ein US-amerikanischer Mathematiker und Philosoph.

Neu!!: Entropie (Informationstheorie) und Gregory Chaitin · Mehr sehen »

Grenzwert (Folge)

Beispiel einer Folge, die im Unendlichen gegen einen Grenzwert strebt Der Grenzwert oder Limes einer Folge von Zahlen ist eine Zahl, der die Folgenglieder beliebig nahekommen und zwar so, dass in jeder Umgebung des Grenzwerts fast alle Folgenglieder liegen.

Neu!!: Entropie (Informationstheorie) und Grenzwert (Folge) · Mehr sehen »

Grenzwert (Funktion)

In der Mathematik ist der Limes oder Grenzwert einer Funktion an einer bestimmten Stelle der Wert, dem sich die Funktion in der Umgebung der betrachteten Stelle annähert.

Neu!!: Entropie (Informationstheorie) und Grenzwert (Funktion) · Mehr sehen »

Huffman-Kodierung

Die Huffman-Kodierung ist eine Form der Entropiekodierung, die 1952 von David A. Huffman entwickelt und in der Abhandlung A Method for the Construction of Minimum-Redundancy Codes publiziert wurde.

Neu!!: Entropie (Informationstheorie) und Huffman-Kodierung · Mehr sehen »

Informationsgehalt

Der Informationsgehalt (oder auch Überraschungswert) einer Nachricht ist eine logarithmische Größe, die angibt, wie viel Information in dieser Nachricht übertragen wurde.

Neu!!: Entropie (Informationstheorie) und Informationsgehalt · Mehr sehen »

Informationstheorie

Die Informationstheorie ist eine mathematische Theorie aus dem Bereich der Wahrscheinlichkeitstheorie und Statistik, die auf den US-amerikanischen Mathematiker Claude Shannon zurückgeht.

Neu!!: Entropie (Informationstheorie) und Informationstheorie · Mehr sehen »

Kanal (Informationstheorie)

Ein Kanal (oder Informationskanal, Übertragungskanal, Übertragungsweg; auch Shannon’sches Kanalmodell) ist in der Informationstheorie ein Medium, durch das Daten und Informationen vom Absender zum Empfänger über einen Übertragungsweg geleitet werden.

Neu!!: Entropie (Informationstheorie) und Kanal (Informationstheorie) · Mehr sehen »

Kolmogorow-Komplexität

Die Kolmogorow-Komplexität (nach Andrei Nikolajewitsch Kolmogorow) ist ein Maß für die Strukturiertheit einer Zeichenkette und ist durch die Länge des kürzesten Programms gegeben, das diese Zeichenkette erzeugt.

Neu!!: Entropie (Informationstheorie) und Kolmogorow-Komplexität · Mehr sehen »

Kreuzentropie

Die Kreuzentropie ist in der Informationstheorie und der mathematischen Statistik ein Maß für die Qualität eines Modells für eine Wahrscheinlichkeitsverteilung.

Neu!!: Entropie (Informationstheorie) und Kreuzentropie · Mehr sehen »

Kullback-Leibler-Divergenz

Die Begriffe Kullback-Leibler-Divergenz (kurz KL-Divergenz), Kullback-Leibler-Abstand und relative Entropie bezeichnen ein Maß für die Unterschiedlichkeit zweier Wahrscheinlichkeitsverteilungen.

Neu!!: Entropie (Informationstheorie) und Kullback-Leibler-Divergenz · Mehr sehen »

Markow-Kette

Markow-Kette mit drei Zuständen und unvollständigen Verbindungen Eine Markow-Kette (auch Markow-Prozess, nach Andrei Andrejewitsch Markow; andere Schreibweisen Markov-Kette, Markoff-Kette, Markof-Kette) ist ein stochastischer Prozess.

Neu!!: Entropie (Informationstheorie) und Markow-Kette · Mehr sehen »

Maxwellscher Dämon

Der maxwellsche Dämon oder Maxwell-Dämon ist ein vom schottischen Physiker James Clerk Maxwell 1871 veröffentlichtes Gedankenexperiment, mit dem er den Zweiten Hauptsatz der Thermodynamik in Frage stellt.

Neu!!: Entropie (Informationstheorie) und Maxwellscher Dämon · Mehr sehen »

Münzwurf

Euromünze Der Münzwurf ist ein Zufallsexperiment, bei dem eine Münze in die Luft geworfen wird, um eine Entscheidung aufgrund der nach dem Auffangen oder der Landung oben liegenden Seite zu treffen („Kopf“ oder „Zahl“).

Neu!!: Entropie (Informationstheorie) und Münzwurf · Mehr sehen »

Norbert Bischof

Norbert Bischof (* 6. März 1930 in Breslau) ist ein deutscher Psychologe und Systemtheoretiker.

Neu!!: Entropie (Informationstheorie) und Norbert Bischof · Mehr sehen »

Quellentropie

Quellentropie ist ein Begriff aus der Stochastik.

Neu!!: Entropie (Informationstheorie) und Quellentropie · Mehr sehen »

Rényi-Entropie

In der Informationstheorie ist die Rényi-Entropie (benannt nach Alfréd Rényi) eine Verallgemeinerung der Shannon-Entropie.

Neu!!: Entropie (Informationstheorie) und Rényi-Entropie · Mehr sehen »

Redundanz (Informationstheorie)

Der Begriff der Redundanz (von, „überlaufen, sich reichlich ergießen“) beschreibt in der Informationstheorie diejenigen Informationen oder Daten, die in einer Informationsquelle mehrfach vorhanden sind.

Neu!!: Entropie (Informationstheorie) und Redundanz (Informationstheorie) · Mehr sehen »

Shannon (Einheit)

Shannon (abgekürzt Sh) ist die nach dem amerikanischen Mathematiker und Begründer der Informationstheorie Claude Elwood Shannon benannte Einheit für den Informationsgehalt einer Nachricht.

Neu!!: Entropie (Informationstheorie) und Shannon (Einheit) · Mehr sehen »

Statistische Mechanik

Die statistische Mechanik war ursprünglich ein Anwendungsgebiet der Mechanik bzw.

Neu!!: Entropie (Informationstheorie) und Statistische Mechanik · Mehr sehen »

Stochastisch unabhängige Ereignisse

Die stochastische Unabhängigkeit von Ereignissen ist ein fundamentales wahrscheinlichkeitstheoretisches Konzept, das die Vorstellung von sich nicht gegenseitig beeinflussenden Zufallsereignissen formalisiert: Zwei Ereignisse heißen stochastisch unabhängig, wenn sich die Wahrscheinlichkeit dafür, dass das eine Ereignis eintritt, nicht dadurch ändert, dass das andere Ereignis eintritt beziehungsweise nicht eintritt.

Neu!!: Entropie (Informationstheorie) und Stochastisch unabhängige Ereignisse · Mehr sehen »

Ternärsystem

Das Ternärsystem, 3-adische System, auch Dreiersystem und selten triadisches System genannt, ist ein Stellenwertsystem zur Basis 3.

Neu!!: Entropie (Informationstheorie) und Ternärsystem · Mehr sehen »

Thermodynamik

Typischer thermodynamischer Vorgang am Beispiel der prinzipiellen Wirkungsweise eines durch Dampf betriebenen Motors (rot.

Neu!!: Entropie (Informationstheorie) und Thermodynamik · Mehr sehen »

Transinformation

Transinformation oder gegenseitige Information (engl. mutual information) ist eine Größe aus der Informationstheorie, die die Stärke des statistischen Zusammenhangs zweier Zufallsgrößen angibt.

Neu!!: Entropie (Informationstheorie) und Transinformation · Mehr sehen »

Ungewissheit

Unter Ungewissheit versteht man in der Entscheidungstheorie die mangelnde Kenntnis über die künftige Entwicklung eines Umweltzustands.

Neu!!: Entropie (Informationstheorie) und Ungewissheit · Mehr sehen »

Wahrscheinlichkeit

Die Wahrscheinlichkeit ist ein allgemeines Maß der Erwartung für ein unsicheres Ereignis.

Neu!!: Entropie (Informationstheorie) und Wahrscheinlichkeit · Mehr sehen »

Warren Weaver

Warren Weaver (* 17. Juli 1894 in Reedsburg, Wisconsin; † 24. November 1978 in New Milford, Connecticut) war ein US-amerikanischer Mathematiker und Vater der maschinellen Übersetzung.

Neu!!: Entropie (Informationstheorie) und Warren Weaver · Mehr sehen »

Zeitkomplexität

Unter der Zeitkomplexität eines Problems wird in der Informatik die Anzahl der Rechenschritte verstanden, die ein optimaler Algorithmus zur Lösung dieses Problems benötigt, in Abhängigkeit von der Länge der Eingabe.

Neu!!: Entropie (Informationstheorie) und Zeitkomplexität · Mehr sehen »

Zufall

Von Zufall spricht man, wenn für ein einzelnes Ereignis oder das Zusammentreffen mehrerer Ereignisse keine kausale Erklärung gefunden werden kann.

Neu!!: Entropie (Informationstheorie) und Zufall · Mehr sehen »

Zufallsvariable

In der Stochastik ist eine Zufallsvariable (auch zufällige Variable, zufällige Größe, zufällige Veränderliche, zufälliges Element, Zufallselement, Zufallsveränderliche) eine Größe, deren Wert vom Zufall abhängig ist.

Neu!!: Entropie (Informationstheorie) und Zufallsvariable · Mehr sehen »

Leitet hier um:

Entropie (Kryptologie), Informationsdichte, Informationsentropie, Informationstheoretische Entropie, Maximale Entropie, Maximalentropie, Shannon-Entropie, Shannonentropie.

AusgehendeEingehende
Hallo! Wir sind auf Facebook! »