1m Bereich der Nachrichtentechnik hat die Informationstheorie im Verlaufe von knapp 20 Jahren eine umfassende Bedeutung erlangt. Diese Bedeutung beruht darauf, daB es sich hier nicht urn eine Theorie der Elektrotechnik, also die Theorie eines Nachrichtenmittels, sondern urn eine Theorie der Nachrichten selbst handelt. Seit den Arbeiten von SHANNON hat es nicht an Bemuhungen gefehlt, die Informationstheorie aus ihrer abstrakten Ferne an die Physik und die Technik der Nachrichtenmittel heranzuziehen und mit den hier gel tenden theoretischen Grundlagen in Beziehung zu setzen. An erster Stelle muB…mehr
1m Bereich der Nachrichtentechnik hat die Informationstheorie im Verlaufe von knapp 20 Jahren eine umfassende Bedeutung erlangt. Diese Bedeutung beruht darauf, daB es sich hier nicht urn eine Theorie der Elektrotechnik, also die Theorie eines Nachrichtenmittels, sondern urn eine Theorie der Nachrichten selbst handelt. Seit den Arbeiten von SHANNON hat es nicht an Bemuhungen gefehlt, die Informationstheorie aus ihrer abstrakten Ferne an die Physik und die Technik der Nachrichtenmittel heranzuziehen und mit den hier gel tenden theoretischen Grundlagen in Beziehung zu setzen. An erster Stelle muB hierbei der Arbeiten von SZILARD und BRIOULLIN gedacht werden. Wenn die Uberlegungen, wie es in dies em Buch geschehen ist, an dieser Stelle beginnen, baut sich zwanglos ein innerlich widerspruchs freies System von Begriffen und Beziehungen auf, das weit uber die Nach richtentechnik im engeren Sinne hinaus die gesamten Naturwissenschaf ten uberdeckt und auch die biologischen Systeme mit in die Physik ein bezieht. Der Grund fur diese Universalitat liegt in der allgemeinen Bedeutung des zweiten Hauptsatzes der Thermodynamik, wobei die durch den so genannten Laplaceschen Damon bezeichnete Lucke gerade durch die Informationstheorie geschlossen wird. Die allgemeine theoretische Grundlage aller abstrakten Uberlegun gen ist die Wahrscheinlichkeitstheorie und die Theorie der Zufallsprozes se. Diese Theorien bilden ein in sich geschlossenes mathematisches Lehr gebaude, das die Theorie determinierter Funktionen als einen Sonderfall mit umschlieBt.Hinweis: Dieser Artikel kann nur an eine deutsche Lieferadresse ausgeliefert werden.
Johannes Peters, geboren 1978, studierte von 2004 bis 2009 Rechtswissenschaften an der Friedrich-Schiller-Universität Jena. Nach dem Referendarexamen im Februar 2009 war der Autor als Wissenschaftlicher Mitarbeiter am Lehrstuhl für Strafrecht, Strafprozessrecht und Geschichte des Strafrechts von Prof. Dr. Dr. Dr. h. c. Günter Jerouschek tätig.
Inhaltsangabe
I - Die Umwelt als Quelle und als Verbraucher von Information.- 1. Einführung in die gedanklichen Voraussetzungen.- 2. Die Reproduzierbarkeit des Weltbildes der klassischen Physik.- 3. Die Physik bei hohen Geschwindigkeiten (Relativitätstheorie).- 4. Die Quantisierung der Energie.- 5. Die Quantisierung der Materie (Elementarteilchen).- 6. Die elektromagnetische Welle.- 7. Wechselwirkungen in der Physik.- 8. Über makro - und mikrophysikalische Zustände in der Thermodynamik.- 9. Thermodynamische Ausgleichsvorgänge.- 10. Der Informationsbegriff in seiner allgemeinsten Form.- 11. Anhang zum I. Kapitel: Unschärfebeziehungen.- II - Die Gesetze des Zufalls.- 12. Von Determiniertheit Zufall und Wahrscheinlichkeit.- 13. Häufigkeit und Wahrscheinlichkeit.- 14. Die Grundregeln über das Rechnen mit der Wahrscheinlichkeit.- 15. Beispiele zur Anwendung von Grundregeln.- 16. Der Ergebnisraum.- 17. Die Übertragung der Wahrscheinlichkeit auf die determinierte Funktion des Ergebnisses.- 18. Der Erwartungswert.- 19. Die charakteristische Funktion.- 20. Das »elementare« Rechnen mit Zufallsgrößen.- 21. Stochastische Abhängigkeiten.- 22. Versuche, die eine endlichfache Wiederholung desselben Versuches sind.- 23. Die wahrscheinlichen relativen Häufigkeiten bei großen Wiederholungszahlen.- 24. Der wahrscheinliche mittlere Fehler.- 25. Der zentrale Grenzwertsatz.- 26. Im Bereich zwischen Zufall und Sicherheit.- III - Zufallsprozesse.- 27. Einleitende Bemerkungen über Zufallsprozesse.- 28. Beispiele von Zufallsprozessen.- 29. Beschreibung eines Zufallsprozesses.- 30. Physikalisch reale Zufallsprozesse.- 31. Die Freiheitsgrade eines Prozesses mit begrenzter Bandbreite.- 32.Erfassung eines Bereiches zwischen den streng determinierten und den stochastischen Prozessen.- 33. Einwirkung eines linearen Systems auf einen Prozeß (Betrachtung im Frequenzbereich).- 34. Zum Dirac-Stoß.- 35. Mathematische Eigenschaften realisierbarer Übertragungssysteme.- 36. Beziehungen zwischen Laufzeit und Dämpfung.- 37. Die Autokorrelationsfunktion.- 38. Kovarianz und Korrelation.- 39. Einführung eines Zufallsvektors.- 40. Zum Rechnen mit dem Zufallsvektor.- 41. Die Korrelationsfunktionen.- 42. Zusammenfassender Einblick auf die voraufgegangenen Überlegungen.- IV - Grundlagen der Informations-Theorie.- 43. Definition der Information.- 44. Die Quelle diskreter Informationswerte.- 45. Die informationstheoretische Entropie bei Nebenbedingungen.- 46. Die informationstheoretische Entropie auf einen Ergebnisraum mit n Dimensionen.- 47. Redundanz und Irrelevanz.- 48. Der Kanal.- 49. Die Transinformation.- 50. Die Kanalkapazität.- 51. Der Shannonsche Satz.- 52. Folgerungen aus dem Shannonschen Satz.- V - Weiterführung und Anwendungen der Informations-Theorie.- 53. Verallgemeinerung des Informationsbegriffes auf stetig verteilte Signalmengen.- 54. Die Entropie bei stetiger Verteilung.- 55. Abhängigkeit der Entropie einer stetigen Verteilung von Änderungen des Maßstabes.- 56. Der »Nullpunkt« der Entropie einer stetigen Verteilung.- 57. Die Transinformation bei stetiger Verteilung.- 58. Die Transinformation bei gemischter Verteilung.- 59. Extremwerte der Entropie bei Nebenbedingungen.- 60. Die Transinformation eines stetigen Kanals.- 61. Die optimale Bandbreite.- 62. Technische Approximation des Informationsflusses an die Kanalkapazität.- 63. Die Information beimMessen, Steuern und Regeln.- 64. Die Raum-Nachrichtentechnik und Informationstheorie.- 65. Radartechnik und Informationstheorie.- 66. Extraktion der Information aus Radar-Signalen.- 67. Das neuzeitliche Weltbild der Informationstheorie.- Schrifttumsverzeichnis.
I - Die Umwelt als Quelle und als Verbraucher von Information.- 1. Einführung in die gedanklichen Voraussetzungen.- 2. Die Reproduzierbarkeit des Weltbildes der klassischen Physik.- 3. Die Physik bei hohen Geschwindigkeiten (Relativitätstheorie).- 4. Die Quantisierung der Energie.- 5. Die Quantisierung der Materie (Elementarteilchen).- 6. Die elektromagnetische Welle.- 7. Wechselwirkungen in der Physik.- 8. Über makro - und mikrophysikalische Zustände in der Thermodynamik.- 9. Thermodynamische Ausgleichsvorgänge.- 10. Der Informationsbegriff in seiner allgemeinsten Form.- 11. Anhang zum I. Kapitel: Unschärfebeziehungen.- II - Die Gesetze des Zufalls.- 12. Von Determiniertheit Zufall und Wahrscheinlichkeit.- 13. Häufigkeit und Wahrscheinlichkeit.- 14. Die Grundregeln über das Rechnen mit der Wahrscheinlichkeit.- 15. Beispiele zur Anwendung von Grundregeln.- 16. Der Ergebnisraum.- 17. Die Übertragung der Wahrscheinlichkeit auf die determinierte Funktion des Ergebnisses.- 18. Der Erwartungswert.- 19. Die charakteristische Funktion.- 20. Das »elementare« Rechnen mit Zufallsgrößen.- 21. Stochastische Abhängigkeiten.- 22. Versuche, die eine endlichfache Wiederholung desselben Versuches sind.- 23. Die wahrscheinlichen relativen Häufigkeiten bei großen Wiederholungszahlen.- 24. Der wahrscheinliche mittlere Fehler.- 25. Der zentrale Grenzwertsatz.- 26. Im Bereich zwischen Zufall und Sicherheit.- III - Zufallsprozesse.- 27. Einleitende Bemerkungen über Zufallsprozesse.- 28. Beispiele von Zufallsprozessen.- 29. Beschreibung eines Zufallsprozesses.- 30. Physikalisch reale Zufallsprozesse.- 31. Die Freiheitsgrade eines Prozesses mit begrenzter Bandbreite.- 32.Erfassung eines Bereiches zwischen den streng determinierten und den stochastischen Prozessen.- 33. Einwirkung eines linearen Systems auf einen Prozeß (Betrachtung im Frequenzbereich).- 34. Zum Dirac-Stoß.- 35. Mathematische Eigenschaften realisierbarer Übertragungssysteme.- 36. Beziehungen zwischen Laufzeit und Dämpfung.- 37. Die Autokorrelationsfunktion.- 38. Kovarianz und Korrelation.- 39. Einführung eines Zufallsvektors.- 40. Zum Rechnen mit dem Zufallsvektor.- 41. Die Korrelationsfunktionen.- 42. Zusammenfassender Einblick auf die voraufgegangenen Überlegungen.- IV - Grundlagen der Informations-Theorie.- 43. Definition der Information.- 44. Die Quelle diskreter Informationswerte.- 45. Die informationstheoretische Entropie bei Nebenbedingungen.- 46. Die informationstheoretische Entropie auf einen Ergebnisraum mit n Dimensionen.- 47. Redundanz und Irrelevanz.- 48. Der Kanal.- 49. Die Transinformation.- 50. Die Kanalkapazität.- 51. Der Shannonsche Satz.- 52. Folgerungen aus dem Shannonschen Satz.- V - Weiterführung und Anwendungen der Informations-Theorie.- 53. Verallgemeinerung des Informationsbegriffes auf stetig verteilte Signalmengen.- 54. Die Entropie bei stetiger Verteilung.- 55. Abhängigkeit der Entropie einer stetigen Verteilung von Änderungen des Maßstabes.- 56. Der »Nullpunkt« der Entropie einer stetigen Verteilung.- 57. Die Transinformation bei stetiger Verteilung.- 58. Die Transinformation bei gemischter Verteilung.- 59. Extremwerte der Entropie bei Nebenbedingungen.- 60. Die Transinformation eines stetigen Kanals.- 61. Die optimale Bandbreite.- 62. Technische Approximation des Informationsflusses an die Kanalkapazität.- 63. Die Information beimMessen, Steuern und Regeln.- 64. Die Raum-Nachrichtentechnik und Informationstheorie.- 65. Radartechnik und Informationstheorie.- 66. Extraktion der Information aus Radar-Signalen.- 67. Das neuzeitliche Weltbild der Informationstheorie.- Schrifttumsverzeichnis.
Es gelten unsere Allgemeinen Geschäftsbedingungen: www.buecher.de/agb
Impressum
www.buecher.de ist ein Internetauftritt der buecher.de internetstores GmbH
Geschäftsführung: Monica Sawhney | Roland Kölbl | Günter Hilger
Sitz der Gesellschaft: Batheyer Straße 115 - 117, 58099 Hagen
Postanschrift: Bürgermeister-Wegele-Str. 12, 86167 Augsburg
Amtsgericht Hagen HRB 13257
Steuernummer: 321/5800/1497
USt-IdNr: DE450055826