Bedingte Entropie

CHF 46.40
Auf Lager
SKU
FHAFNDHMGC8
Stock 1 Verfügbar
Shipping Kostenloser Versand ab CHF 50
Geliefert zwischen Mi., 08.10.2025 und Do., 09.10.2025

Details

In der Informationstheorie ist die bedingte Entropie ein Maß für die Ungewissheit über den Wert einer Zufallsvariablen X, welche verbleibt, nachdem das Ergebnis einer anderen Zufallsvariable Y bekannt wird. Die bedingte Entropie wird H(X Y) geschrieben und hat einen Wert zwischen 0 und H(X), der ursprünglichen Entropie von X. Sie wird in der gleichen Maßeinheit wie die Entropie gemessen. Speziell hat sie den Wert 0, wenn aus Y der Wert von X funktional bestimmt werden kann, und den Wert H(X), wenn X und Y stochastisch unabhängig sind.
Cart 30 Tage Rückgaberecht
Cart Garantie

Weitere Informationen

  • Allgemeine Informationen
    • GTIN 09786137964439
    • Auflage Aufl.
    • Editor Yama Tienne, Erik
    • Sprache Deutsch
    • Größe H229mm x B152mm x T5mm
    • Jahr 2011
    • EAN 9786137964439
    • Format Kartonierter Einband (Kt)
    • ISBN 978-613-7-964
    • Titel Bedingte Entropie
    • Untertitel Informationstheorie, Zufallsvariable
    • Gewicht 127g
    • Herausgeber Betascript Publishing
    • Anzahl Seiten 80
    • Genre Naturwissenschaften allgemein

Bewertungen

Schreiben Sie eine Bewertung
Nur registrierte Benutzer können Bewertungen schreiben. Bitte loggen Sie sich ein oder erstellen Sie ein Konto.