Bedingte Entropie
CHF 46.40
Auf Lager
SKU
FHAFNDHMGC8
Geliefert zwischen Mi., 08.10.2025 und Do., 09.10.2025
Details
In der Informationstheorie ist die bedingte Entropie ein Maß für die Ungewissheit über den Wert einer Zufallsvariablen X, welche verbleibt, nachdem das Ergebnis einer anderen Zufallsvariable Y bekannt wird. Die bedingte Entropie wird H(X Y) geschrieben und hat einen Wert zwischen 0 und H(X), der ursprünglichen Entropie von X. Sie wird in der gleichen Maßeinheit wie die Entropie gemessen. Speziell hat sie den Wert 0, wenn aus Y der Wert von X funktional bestimmt werden kann, und den Wert H(X), wenn X und Y stochastisch unabhängig sind.
Weitere Informationen
- Allgemeine Informationen
- GTIN 09786137964439
- Auflage Aufl.
- Editor Yama Tienne, Erik
- Sprache Deutsch
- Größe H229mm x B152mm x T5mm
- Jahr 2011
- EAN 9786137964439
- Format Kartonierter Einband (Kt)
- ISBN 978-613-7-964
- Titel Bedingte Entropie
- Untertitel Informationstheorie, Zufallsvariable
- Gewicht 127g
- Herausgeber Betascript Publishing
- Anzahl Seiten 80
- Genre Naturwissenschaften allgemein
Bewertungen
Schreiben Sie eine Bewertung