Johannes Peters
Einführung in die allgemeine Informationstheorie (eBook, PDF)
-22%11
42,99 €
54,99 €**
42,99 €
inkl. MwSt.
**Preis der gedruckten Ausgabe (Broschiertes Buch)
Sofort per Download lieferbar
21 °P sammeln
-22%11
42,99 €
54,99 €**
42,99 €
inkl. MwSt.
**Preis der gedruckten Ausgabe (Broschiertes Buch)
Sofort per Download lieferbar
Alle Infos zum eBook verschenken
21 °P sammeln
Als Download kaufen
54,99 €****
-22%11
42,99 €
inkl. MwSt.
**Preis der gedruckten Ausgabe (Broschiertes Buch)
Sofort per Download lieferbar
21 °P sammeln
Jetzt verschenken
Alle Infos zum eBook verschenken
54,99 €****
-22%11
42,99 €
inkl. MwSt.
**Preis der gedruckten Ausgabe (Broschiertes Buch)
Sofort per Download lieferbar
Alle Infos zum eBook verschenken
21 °P sammeln
Johannes Peters
Einführung in die allgemeine Informationstheorie (eBook, PDF)
- Format: PDF
- Merkliste
- Auf die Merkliste
- Bewerten Bewerten
- Teilen
- Produkt teilen
- Produkterinnerung
- Produkterinnerung

Bitte loggen Sie sich zunächst in Ihr Kundenkonto ein oder registrieren Sie sich bei
bücher.de, um das eBook-Abo tolino select nutzen zu können.
Hier können Sie sich einloggen
Hier können Sie sich einloggen
Sie sind bereits eingeloggt. Klicken Sie auf 2. tolino select Abo, um fortzufahren.

Bitte loggen Sie sich zunächst in Ihr Kundenkonto ein oder registrieren Sie sich bei bücher.de, um das eBook-Abo tolino select nutzen zu können.
- Geräte: PC
- ohne Kopierschutz
- eBook Hilfe
- Größe: 23.63MB
Andere Kunden interessierten sich auch für
- -22%11Horst VölzInformation verstehen (eBook, PDF)42,99 €
- -11%11Wilfried DankmeierGrundkurs Codierung (eBook, PDF)39,99 €
- -33%11Heinz ZemanekDas geistige Umfeld der Informationstechnik (eBook, PDF)33,26 €
- -30%11K. SteinbuchAutomat und Mensch (eBook, PDF)38,66 €
- Wolfgang SchlageterEinführung in die Theoretische Informatik (eBook, PDF)14,99 €
- Venkatesan GuruswamiList Decoding of Error-Correcting Codes (eBook, PDF)40,95 €
- Yunong ZhangZhang Functions and Various Models (eBook, PDF)40,95 €
- -22%11
- -22%11
-
Produktdetails
- Verlag: Springer Berlin Heidelberg
- Seitenzahl: 266
- Erscheinungstermin: 13. März 2013
- Deutsch
- ISBN-13: 9783642865008
- Artikelnr.: 53384224
Dieser Download kann aus rechtlichen Gründen nur mit Rechnungsadresse in A, B, BG, CY, CZ, D, DK, EW, E, FIN, F, GR, HR, H, IRL, I, LT, L, LR, M, NL, PL, P, R, S, SLO, SK ausgeliefert werden.
- Herstellerkennzeichnung Die Herstellerinformationen sind derzeit nicht verfügbar.
Johannes Peters, geboren 1978, studierte von 2004 bis 2009 Rechtswissenschaften an der Friedrich-Schiller-Universität Jena. Nach dem Referendarexamen im Februar 2009 war der Autor als Wissenschaftlicher Mitarbeiter am Lehrstuhl für Strafrecht, Strafprozessrecht und Geschichte des Strafrechts von Prof. Dr. Dr. Dr. h. c. Günter Jerouschek tätig.
I - Die Umwelt als Quelle und als Verbraucher von Information.- 1. Einführung in die gedanklichen Voraussetzungen.- 2. Die Reproduzierbarkeit des Weltbildes der klassischen Physik.- 3. Die Physik bei hohen Geschwindigkeiten (Relativitätstheorie).- 4. Die Quantisierung der Energie.- 5. Die Quantisierung der Materie (Elementarteilchen).- 6. Die elektromagnetische Welle.- 7. Wechselwirkungen in der Physik.- 8. Über makro - und mikrophysikalische Zustände in der Thermodynamik.- 9. Thermodynamische Ausgleichsvorgänge.- 10. Der Informationsbegriff in seiner allgemeinsten Form.- 11. Anhang zum I. Kapitel: Unschärfebeziehungen.- II - Die Gesetze des Zufalls.- 12. Von Determiniertheit Zufall und Wahrscheinlichkeit.- 13. Häufigkeit und Wahrscheinlichkeit.- 14. Die Grundregeln über das Rechnen mit der Wahrscheinlichkeit.- 15. Beispiele zur Anwendung von Grundregeln.- 16. Der Ergebnisraum.- 17. Die Übertragung der Wahrscheinlichkeit auf die determinierte Funktion des Ergebnisses.- 18. Der Erwartungswert.- 19. Die charakteristische Funktion.- 20. Das »elementare« Rechnen mit Zufallsgrößen.- 21. Stochastische Abhängigkeiten.- 22. Versuche, die eine endlichfache Wiederholung desselben Versuches sind.- 23. Die wahrscheinlichen relativen Häufigkeiten bei großen Wiederholungszahlen.- 24. Der wahrscheinliche mittlere Fehler.- 25. Der zentrale Grenzwertsatz.- 26. Im Bereich zwischen Zufall und Sicherheit.- III - Zufallsprozesse.- 27. Einleitende Bemerkungen über Zufallsprozesse.- 28. Beispiele von Zufallsprozessen.- 29. Beschreibung eines Zufallsprozesses.- 30. Physikalisch reale Zufallsprozesse.- 31. Die Freiheitsgrade eines Prozesses mit begrenzter Bandbreite.- 32.Erfassung eines Bereiches zwischen den streng determinierten und den stochastischen Prozessen.- 33. Einwirkung eines linearen Systems auf einen Prozeß (Betrachtung im Frequenzbereich).- 34. Zum Dirac-Stoß.- 35. Mathematische Eigenschaften realisierbarer Übertragungssysteme.- 36. Beziehungen zwischen Laufzeit und Dämpfung.- 37. Die Autokorrelationsfunktion.- 38. Kovarianz und Korrelation.- 39. Einführung eines Zufallsvektors.- 40. Zum Rechnen mit dem Zufallsvektor.- 41. Die Korrelationsfunktionen.- 42. Zusammenfassender Einblick auf die voraufgegangenen Überlegungen.- IV - Grundlagen der Informations-Theorie.- 43. Definition der Information.- 44. Die Quelle diskreter Informationswerte.- 45. Die informationstheoretische Entropie bei Nebenbedingungen.- 46. Die informationstheoretische Entropie auf einen Ergebnisraum mit n Dimensionen.- 47. Redundanz und Irrelevanz.- 48. Der Kanal.- 49. Die Transinformation.- 50. Die Kanalkapazität.- 51. Der Shannonsche Satz.- 52. Folgerungen aus dem Shannonschen Satz.- V - Weiterführung und Anwendungen der Informations-Theorie.- 53. Verallgemeinerung des Informationsbegriffes auf stetig verteilte Signalmengen.- 54. Die Entropie bei stetiger Verteilung.- 55. Abhängigkeit der Entropie einer stetigen Verteilung von Änderungen des Maßstabes.- 56. Der »Nullpunkt« der Entropie einer stetigen Verteilung.- 57. Die Transinformation bei stetiger Verteilung.- 58. Die Transinformation bei gemischter Verteilung.- 59. Extremwerte der Entropie bei Nebenbedingungen.- 60. Die Transinformation eines stetigen Kanals.- 61. Die optimale Bandbreite.- 62. Technische Approximation des Informationsflusses an die Kanalkapazität.- 63. Die Information beimMessen, Steuern und Regeln.- 64. Die Raum-Nachrichtentechnik und Informationstheorie.- 65. Radartechnik und Informationstheorie.- 66. Extraktion der Information aus Radar-Signalen.- 67. Das neuzeitliche Weltbild der Informationstheorie.- Schrifttumsverzeichnis.
I - Die Umwelt als Quelle und als Verbraucher von Information.- 1. Einführung in die gedanklichen Voraussetzungen.- 2. Die Reproduzierbarkeit des Weltbildes der klassischen Physik.- 3. Die Physik bei hohen Geschwindigkeiten (Relativitätstheorie).- 4. Die Quantisierung der Energie.- 5. Die Quantisierung der Materie (Elementarteilchen).- 6. Die elektromagnetische Welle.- 7. Wechselwirkungen in der Physik.- 8. Über makro - und mikrophysikalische Zustände in der Thermodynamik.- 9. Thermodynamische Ausgleichsvorgänge.- 10. Der Informationsbegriff in seiner allgemeinsten Form.- 11. Anhang zum I. Kapitel: Unschärfebeziehungen.- II - Die Gesetze des Zufalls.- 12. Von Determiniertheit Zufall und Wahrscheinlichkeit.- 13. Häufigkeit und Wahrscheinlichkeit.- 14. Die Grundregeln über das Rechnen mit der Wahrscheinlichkeit.- 15. Beispiele zur Anwendung von Grundregeln.- 16. Der Ergebnisraum.- 17. Die Übertragung der Wahrscheinlichkeit auf die determinierte Funktion des Ergebnisses.- 18. Der Erwartungswert.- 19. Die charakteristische Funktion.- 20. Das »elementare« Rechnen mit Zufallsgrößen.- 21. Stochastische Abhängigkeiten.- 22. Versuche, die eine endlichfache Wiederholung desselben Versuches sind.- 23. Die wahrscheinlichen relativen Häufigkeiten bei großen Wiederholungszahlen.- 24. Der wahrscheinliche mittlere Fehler.- 25. Der zentrale Grenzwertsatz.- 26. Im Bereich zwischen Zufall und Sicherheit.- III - Zufallsprozesse.- 27. Einleitende Bemerkungen über Zufallsprozesse.- 28. Beispiele von Zufallsprozessen.- 29. Beschreibung eines Zufallsprozesses.- 30. Physikalisch reale Zufallsprozesse.- 31. Die Freiheitsgrade eines Prozesses mit begrenzter Bandbreite.- 32.Erfassung eines Bereiches zwischen den streng determinierten und den stochastischen Prozessen.- 33. Einwirkung eines linearen Systems auf einen Prozeß (Betrachtung im Frequenzbereich).- 34. Zum Dirac-Stoß.- 35. Mathematische Eigenschaften realisierbarer Übertragungssysteme.- 36. Beziehungen zwischen Laufzeit und Dämpfung.- 37. Die Autokorrelationsfunktion.- 38. Kovarianz und Korrelation.- 39. Einführung eines Zufallsvektors.- 40. Zum Rechnen mit dem Zufallsvektor.- 41. Die Korrelationsfunktionen.- 42. Zusammenfassender Einblick auf die voraufgegangenen Überlegungen.- IV - Grundlagen der Informations-Theorie.- 43. Definition der Information.- 44. Die Quelle diskreter Informationswerte.- 45. Die informationstheoretische Entropie bei Nebenbedingungen.- 46. Die informationstheoretische Entropie auf einen Ergebnisraum mit n Dimensionen.- 47. Redundanz und Irrelevanz.- 48. Der Kanal.- 49. Die Transinformation.- 50. Die Kanalkapazität.- 51. Der Shannonsche Satz.- 52. Folgerungen aus dem Shannonschen Satz.- V - Weiterführung und Anwendungen der Informations-Theorie.- 53. Verallgemeinerung des Informationsbegriffes auf stetig verteilte Signalmengen.- 54. Die Entropie bei stetiger Verteilung.- 55. Abhängigkeit der Entropie einer stetigen Verteilung von Änderungen des Maßstabes.- 56. Der »Nullpunkt« der Entropie einer stetigen Verteilung.- 57. Die Transinformation bei stetiger Verteilung.- 58. Die Transinformation bei gemischter Verteilung.- 59. Extremwerte der Entropie bei Nebenbedingungen.- 60. Die Transinformation eines stetigen Kanals.- 61. Die optimale Bandbreite.- 62. Technische Approximation des Informationsflusses an die Kanalkapazität.- 63. Die Information beimMessen, Steuern und Regeln.- 64. Die Raum-Nachrichtentechnik und Informationstheorie.- 65. Radartechnik und Informationstheorie.- 66. Extraktion der Information aus Radar-Signalen.- 67. Das neuzeitliche Weltbild der Informationstheorie.- Schrifttumsverzeichnis.