Ist Information eine unabhängige Größe, wie Masse, Impuls oder elektrische Ladung? Professor T. Stonier ist davon überzeugt. Information existiert, unabhängig davon, ob jemand sie versteht. Mehr als 2000 Jahre konnte niemand ägyptische Hieroglyphen entziffern, die Information war aber enthalten. Niemand wird bezweifeln, daß ein DNA-Kristall mehr Information trägt als ein Salzkristall derselben Masse. Der entscheidende Punkt ist, daß die Bildung eines DNA-Kristalls mehr Energie benötigt. Energie wird verbraucht, um Information zu erzeugen, d.h. um den Organisationsgrad eines Systems zu erhöhen…mehr
Ist Information eine unabhängige Größe, wie Masse, Impuls oder elektrische Ladung? Professor T. Stonier ist davon überzeugt. Information existiert, unabhängig davon, ob jemand sie versteht. Mehr als 2000 Jahre konnte niemand ägyptische Hieroglyphen entziffern, die Information war aber enthalten. Niemand wird bezweifeln, daß ein DNA-Kristall mehr Information trägt als ein Salzkristall derselben Masse. Der entscheidende Punkt ist, daß die Bildung eines DNA-Kristalls mehr Energie benötigt. Energie wird verbraucht, um Information zu erzeugen, d.h. um den Organisationsgrad eines Systems zu erhöhen bzw. seine Entropie zu reduzieren. Tom Stonier stellt den Begriff von Information und ihre Bedeutung von einer neuen Warte dar. Wer mit Information zu tun hat, sollte dieses Buch lesen. Die Zeit schreibt zur englischen Ausgabe: "... unterstützt er seine Thesen mit einleuchtenden Beispielen und Metaphern, die auch Nichtphysikern das Lesen seines Buches zum logischen Vergnügen machen. Nebenbeilernen wir bei ihm eine Menge Physik und Molekulargenetik."Hinweis: Dieser Artikel kann nur an eine deutsche Lieferadresse ausgeliefert werden.
1. Information: Abstraktion oder Realität?.- 1.1 Einleitung.- 1.2 Kann es Information außerhalb des menschlichen Gehirns geben?.- 1.3 Kann Information außerhalb des menschlichen Gehirns verarbeitet werden?.- 1.4 Formen menschlicher Information und ihrer Kommunikation.- 1.5 Biologische Informationssysteme.- 1.6 Anorganische Informationssysteme.- 1.7 Nicht-menschliche Informationsverarbeitung.- 1.8 Einige erkenntnistheoretische Überlegungen.- 2. Informationsphysik: Eine Einführung.- 2.1 Die Realität von Information.- 2.2 Der Kern des Konzepts.- 2.3 Information - die verborgene Dimension.- 3. Information und Entropie. Die mathematische Beziehung.- 3.1 Information und Organisation.- 3.2 Der Zweite Hauptsatz der Thermodynamik.- 3.3 Die statistische Bedeutung der Entropie.- 3.4 Information als inverse Exponentialfunktion der Entropie.- 3.5 Die Konstante c.- 4. Messen der unterschiedlichen Information veränderter physikalischer Zustände.- 4.1 Das Messen des Informationsgehaltes eines Kristalls.- 4.2 Proteine als Informationssysteme.- 4.3 Die Denaturierung von Trypsin.- 4.4 Schluß.- 5. Information und Entropie: Weitere Konsequenzen.- 5.1 Einleitung.- 5.2 Information und Entropie aus der Sicht des Nachrichtentechnikers.- 5.3 Positive Entropie.- 5.4 Negative Entropie.- 5.5 Größenordnungen der Information.- 5.6 Die Evolution des Universums.- 6. Weitere Überlegungen zur Wechselbeziehung zwischen Information und Energie.- 6.1 Einleitung.- 6.2 Reine Energie: Wärme, die Antithese der Information.- 6.3 Informationsgehalt von Energie.- 6.4 Bewegung, Entfernung und Zeit.- 6.5 Information und potentielle Energie.- 6.6 Die wechselseitige Umwandlung von Energie und Information.- 6.7 Informationsmaschinen.- 6.8 Strukturelle und kinetische Information.- 6.9 Transformationenzwischen kinetischer und struktureller Information.- 7. Information und Arbeit.- 7.1 Einleitung.- 7.2 Die Beziehung zwischen Arbeit und Information.- 7.3 Energiewandler.- 7.4 Arbeit in biologischen Systemen.- 7.5 Neubewertung der Arbeitsgleichungen.- 7.6 Messung des Informationsgehaltes elektrischer Arbeit.- 8. Zusammenfassung und Schluß.- 8.1 Einleitung.- 8.2 Grundthesen.- 8.3 Geschichtlicher Rückblick.- 8.4 Warum hat man die Information übersehen?.- 8.5 Die Notwendigkeit von Modellen und Theorien.- 8.6 Die Bedeutung der Informationsphysik für eine allgemeine Informationstheorie.- 8.7 Abschließende Überlegungen.
1. Information: Abstraktion oder Realität?.- 1.1 Einleitung.- 1.2 Kann es Information außerhalb des menschlichen Gehirns geben?.- 1.3 Kann Information außerhalb des menschlichen Gehirns verarbeitet werden?.- 1.4 Formen menschlicher Information und ihrer Kommunikation.- 1.5 Biologische Informationssysteme.- 1.6 Anorganische Informationssysteme.- 1.7 Nicht-menschliche Informationsverarbeitung.- 1.8 Einige erkenntnistheoretische Überlegungen.- 2. Informationsphysik: Eine Einführung.- 2.1 Die Realität von Information.- 2.2 Der Kern des Konzepts.- 2.3 Information - die verborgene Dimension.- 3. Information und Entropie. Die mathematische Beziehung.- 3.1 Information und Organisation.- 3.2 Der Zweite Hauptsatz der Thermodynamik.- 3.3 Die statistische Bedeutung der Entropie.- 3.4 Information als inverse Exponentialfunktion der Entropie.- 3.5 Die Konstante c.- 4. Messen der unterschiedlichen Information veränderter physikalischer Zustände.- 4.1 Das Messen des Informationsgehaltes eines Kristalls.- 4.2 Proteine als Informationssysteme.- 4.3 Die Denaturierung von Trypsin.- 4.4 Schluß.- 5. Information und Entropie: Weitere Konsequenzen.- 5.1 Einleitung.- 5.2 Information und Entropie aus der Sicht des Nachrichtentechnikers.- 5.3 Positive Entropie.- 5.4 Negative Entropie.- 5.5 Größenordnungen der Information.- 5.6 Die Evolution des Universums.- 6. Weitere Überlegungen zur Wechselbeziehung zwischen Information und Energie.- 6.1 Einleitung.- 6.2 Reine Energie: Wärme, die Antithese der Information.- 6.3 Informationsgehalt von Energie.- 6.4 Bewegung, Entfernung und Zeit.- 6.5 Information und potentielle Energie.- 6.6 Die wechselseitige Umwandlung von Energie und Information.- 6.7 Informationsmaschinen.- 6.8 Strukturelle und kinetische Information.- 6.9 Transformationenzwischen kinetischer und struktureller Information.- 7. Information und Arbeit.- 7.1 Einleitung.- 7.2 Die Beziehung zwischen Arbeit und Information.- 7.3 Energiewandler.- 7.4 Arbeit in biologischen Systemen.- 7.5 Neubewertung der Arbeitsgleichungen.- 7.6 Messung des Informationsgehaltes elektrischer Arbeit.- 8. Zusammenfassung und Schluß.- 8.1 Einleitung.- 8.2 Grundthesen.- 8.3 Geschichtlicher Rückblick.- 8.4 Warum hat man die Information übersehen?.- 8.5 Die Notwendigkeit von Modellen und Theorien.- 8.6 Die Bedeutung der Informationsphysik für eine allgemeine Informationstheorie.- 8.7 Abschließende Überlegungen.
Es gelten unsere Allgemeinen Geschäftsbedingungen: www.buecher.de/agb
Impressum
www.buecher.de ist ein Internetauftritt der buecher.de internetstores GmbH
Geschäftsführung: Monica Sawhney | Roland Kölbl | Günter Hilger
Sitz der Gesellschaft: Batheyer Straße 115 - 117, 58099 Hagen
Postanschrift: Bürgermeister-Wegele-Str. 12, 86167 Augsburg
Amtsgericht Hagen HRB 13257
Steuernummer: 321/5800/1497