Die Entropie natürlichsprachlicher Zeichenströme gibt uns einen Einblick in deren Informationsgehalt auf syntaktischer Ebene. Sie bietet somit die Möglichkeit, interessante Rückschlüsse zu ziehen wie etwa auf die mit der Entropie unmittelbar einhergehende Redundanz der Kodierung. Der Autor Matthias Mensch gibt einen fundierten Überblick über die Eigenschaften des diskreten, ungestörten Kanals im Sinne von Claude Elwood Shannons Mathematischer Theorie der Kommunikation. Zudem wird die theoretische Aufbereitung auf konkrete Entropieberechnungen von deutsch- und englischsprachigen Texten bezogen. Auf die automatisierte Berechnung und das dazu erstellte Programm wird ebenso eingegangen.Das Buch richtet sich an alle, die sich für eine, auch didaktisch verwertbare, Aufarbeitung des Begriffs der Entropie und dessen konkrete Berechnung interessieren.