Bedingte Entropie
Broschiertes Buch

Bedingte Entropie

Informationstheorie, Zufallsvariable

Herausgegeben: Yama Étienne, Erik
Versandkostenfrei!
Versandfertig in 6-10 Tagen
34,00 €
inkl. MwSt.
PAYBACK Punkte
0 °P sammeln!
In der Informationstheorie ist die bedingte Entropie ein Maß für die Ungewissheit über den Wert einer Zufallsvariablen X, welche verbleibt, nachdem das Ergebnis einer anderen Zufallsvariable Y bekannt wird. Die bedingte Entropie wird H(X Y) geschrieben und hat einen Wert zwischen 0 und H(X), der ursprünglichen Entropie von X. Sie wird in der gleichen Maßeinheit wie die Entropie gemessen. Speziell hat sie den Wert 0, wenn aus Y der Wert von X funktional bestimmt werden kann, und den Wert H(X), wenn X und Y stochastisch unabhängig sind.