7 Beziehungen: Alphabet (Informatik), Blockcode, Code, Kodierungstheorie, Linearer Code, Redundanz (Informationstheorie), Wort (theoretische Informatik).
Alphabet (Informatik)
In der Informatik und der mathematischen Logik ist ein Alphabet eine endliche Menge voneinander unterscheidbarer Symbole, die auch Zeichen oder Buchstaben genannt werden.
Neu!!: Informationsrate und Alphabet (Informatik) · Mehr sehen »
Blockcode
Systematischer Blockcode aus voneinander getrennten Informations- und Prüfsymbolen Blockcodes sind eine Art der Kanalkodierung der Familie der (fehlererkennenden und) fehlerkorrigierenden Codes.
Neu!!: Informationsrate und Blockcode · Mehr sehen »
Code
Ein Code oder Kode (deutsche Aussprache oder) ist eine Abbildungsvorschrift, die jedem Zeichen eines Zeichenvorrats (Urbildmenge) eindeutig ein Zeichen oder eine Zeichenfolge aus einem möglicherweise anderen Zeichenvorrat (Bildmenge) zuordnet.
Neu!!: Informationsrate und Code · Mehr sehen »
Kodierungstheorie
Die Kodierungstheorie ist die mathematische Theorie der fehlererkennenden und -korrigierenden Codes.
Neu!!: Informationsrate und Kodierungstheorie · Mehr sehen »
Linearer Code
Ein linearer Code ist in der Kodierungstheorie ein spezieller Blockcode, bei dem die Codewörter Elemente eines endlichdimensionalen Vektorraums \mathbb_q^n über einem endlichen Körper \mathbb_q sind.
Neu!!: Informationsrate und Linearer Code · Mehr sehen »
Redundanz (Informationstheorie)
Der Begriff der Redundanz (von, „überlaufen, sich reichlich ergießen“) beschreibt in der Informationstheorie diejenigen Informationen oder Daten, die in einer Informationsquelle mehrfach vorhanden sind.
Neu!!: Informationsrate und Redundanz (Informationstheorie) · Mehr sehen »
Wort (theoretische Informatik)
In der theoretischen Informatik ist ein Wort eine endliche Folge von Symbolen eines Alphabets.
Neu!!: Informationsrate und Wort (theoretische Informatik) · Mehr sehen »