In den 1940er Jahren kam es am Institute for Advanced Study in Princeton zu einer einzigartigen Zusammenarbeit wissenschaftlicher Genies, die als Keimzelle der digitalen Welt gelten kann. Zu ihnen gehörten Albert Einstein, Robert Oppenheimer, Kurt Gödel, Alan Turing und John von Neumann. In engem Austausch arbeiteten sie an streng geheimen Projekten, darunter dem Bau der Atombombe und der Entwicklung des Computers, weitgehend finanziert vom US-Militär. Auf der Basis jahrelanger Recherchen erzählt der amerikanische Wissenschaftshistoriker George Dyson erstmals die faszinierende Geschichte dieser Anfänge des digitalen Zeitalters.
Anschaulich zeigt Dyson, welch enormer Anstrengungen der versammelten Mathematiker, Physiker und Chemiker, aber auch welcher Zufälle es bedurfte, um auf den Weg zu bringen, was uns heute als selbstverständlich erscheint. Was das Buch über die spannende Wissenschaftsgeschichte hinaus so lesenswert macht, ist die liebevolle Beschreibung der beteiligten Personen - ihrer Eigenarten, ihrer Temperamente, ihrer Visionen und Auseinandersetzungen, ihrer Begeisterung über jeden erfolgreichen Schritt. Ein Muss für alle, die sich fragen, wie und wo das Zeitalter der Digitalisierung in der Menschheits- und Kulturgeschichte zu verorten ist.
Anschaulich zeigt Dyson, welch enormer Anstrengungen der versammelten Mathematiker, Physiker und Chemiker, aber auch welcher Zufälle es bedurfte, um auf den Weg zu bringen, was uns heute als selbstverständlich erscheint. Was das Buch über die spannende Wissenschaftsgeschichte hinaus so lesenswert macht, ist die liebevolle Beschreibung der beteiligten Personen - ihrer Eigenarten, ihrer Temperamente, ihrer Visionen und Auseinandersetzungen, ihrer Begeisterung über jeden erfolgreichen Schritt. Ein Muss für alle, die sich fragen, wie und wo das Zeitalter der Digitalisierung in der Menschheits- und Kulturgeschichte zu verorten ist.
Frankfurter Allgemeine Zeitung | Besprechung von 04.10.2014Hokuspokus Algorithmus
Von der mathematischen Idee zum Computer: George Dyson erzählt, wem wir das Digitalzeitalter zu verdanken haben.
Von Dietmar Dath
Vom todernsten Kriegsspiel der großen Mächte übers Warentermingeschehen an den Börsen bis zur Abschätzung von Ausbreitungsgeschwindigkeiten epidemischer Krankheiten wird der Computer heute als Werkzeug zur Inbesitznahme des Kommenden verstanden und genutzt. Es gibt zu jeder Situation mehr als eine mögliche Zukunft, und weil man das, was sehr komplexe Situationen ausmacht, nicht alles im Kopf behalten und dann auch noch prognostisch prozessieren kann (eins hin, fünf im Sinn), überlässt man das "number crunching" und "brute force computing" den Automaten.
Weniger bekannt als diese inzwischen alltagsübliche Lage ist, dass sie nur die Hälfte eines symmetrischen Bildes darstellt: Aus der Gegenwart folgen nicht nur mit unterschiedlicher Wahrscheinlichkeit viele verschiedene Zukünfte, sie kann sich auch, mit ebenso breit gestreuter Plausibilität, mehr als einer Vergangenheit verdanken - das Gegebene allein verrät selten zwingend, was ihm so alles vorausging.
Als historische statt futurologische Instrumente benutzen heutige Rechner vor allem die Paläobiologie, die vergangene Gensequenzen aus heutigen zurückrechnet, die Vorgeschichte der Rechner selbst dagegen wird weit seltener diskutiert als das, was uns ihretwegen alles bevorsteht - obwohl die Evolutionsforschung der Maschinen vor der naturgeschichtlichen den reizvollen Vorteil genießt, dass wir die Namen der Schöpfer des Apparategenoms kennen und sie uns erhellende Dokumente über ihr Wissen, Können, Treiben und Wollen hinterlassen haben.
George Dyson nimmt sich diese Dokumente in seiner gründlichen, aber nie faktenhubernden oder detailkrämernden Studie "Turings Kathedrale" so gewissenhaft vor wie Darwin seine Blüten und Vogelschnäbel, aus dem einzigen Gesichtspunkt, der geeignet ist, die Vorgeschichte des Computers, wie wir ihn kennen, anders und schlüssiger zu organisieren als über öde Guinnessbuch-Prioritätenwettlaufergebnisse (à la "Hat dieser als Erster einen Schalter gebastelt", "Hat jener als Erster ein Programm geschrieben" oder "Was verdanken wir alles Konrad Zuse?").
Der Computer ist die gegenständlich gewordene Wahrheit einer mathematischen Idee. Über deren Anlass und ihre Weiterungen, also die Arbeit von Alan Turing, John von Neumann und anderen großen Ermöglichern des heutigen Sachstands, der eben nicht nur ein technischer, sondern zugleich ein Erkenntnisstand ist, wird man kaum irgendwo mit weniger Gleichungs- oder Programmsprachenballast unterrichtet als in diesem schönen Buch, das nebenbei, über die Engführung einer Erzählung von der Entwicklung der schlimmsten Bomben, die es je gab, mit dem ihr so nah verwandten Bericht von der Geburt automatischen Rechnens, auch noch erklärt, was Produktivität mit Zerstörung zu tun hat. Mit einem Wort - unentbehrlich.
George Dyson: "Turings Kathedrale". Die Ursprünge des digitalen Zeitalters.
Aus dem Amerikanischen von Karl Heinz Siber. Propyläen Verlag, Berlin 2014. 400 S., geb., 26,- [Euro].
Alle Rechte vorbehalten. © F.A.Z. GmbH, Frankfurt am Main
Von der mathematischen Idee zum Computer: George Dyson erzählt, wem wir das Digitalzeitalter zu verdanken haben.
Von Dietmar Dath
Vom todernsten Kriegsspiel der großen Mächte übers Warentermingeschehen an den Börsen bis zur Abschätzung von Ausbreitungsgeschwindigkeiten epidemischer Krankheiten wird der Computer heute als Werkzeug zur Inbesitznahme des Kommenden verstanden und genutzt. Es gibt zu jeder Situation mehr als eine mögliche Zukunft, und weil man das, was sehr komplexe Situationen ausmacht, nicht alles im Kopf behalten und dann auch noch prognostisch prozessieren kann (eins hin, fünf im Sinn), überlässt man das "number crunching" und "brute force computing" den Automaten.
Weniger bekannt als diese inzwischen alltagsübliche Lage ist, dass sie nur die Hälfte eines symmetrischen Bildes darstellt: Aus der Gegenwart folgen nicht nur mit unterschiedlicher Wahrscheinlichkeit viele verschiedene Zukünfte, sie kann sich auch, mit ebenso breit gestreuter Plausibilität, mehr als einer Vergangenheit verdanken - das Gegebene allein verrät selten zwingend, was ihm so alles vorausging.
Als historische statt futurologische Instrumente benutzen heutige Rechner vor allem die Paläobiologie, die vergangene Gensequenzen aus heutigen zurückrechnet, die Vorgeschichte der Rechner selbst dagegen wird weit seltener diskutiert als das, was uns ihretwegen alles bevorsteht - obwohl die Evolutionsforschung der Maschinen vor der naturgeschichtlichen den reizvollen Vorteil genießt, dass wir die Namen der Schöpfer des Apparategenoms kennen und sie uns erhellende Dokumente über ihr Wissen, Können, Treiben und Wollen hinterlassen haben.
George Dyson nimmt sich diese Dokumente in seiner gründlichen, aber nie faktenhubernden oder detailkrämernden Studie "Turings Kathedrale" so gewissenhaft vor wie Darwin seine Blüten und Vogelschnäbel, aus dem einzigen Gesichtspunkt, der geeignet ist, die Vorgeschichte des Computers, wie wir ihn kennen, anders und schlüssiger zu organisieren als über öde Guinnessbuch-Prioritätenwettlaufergebnisse (à la "Hat dieser als Erster einen Schalter gebastelt", "Hat jener als Erster ein Programm geschrieben" oder "Was verdanken wir alles Konrad Zuse?").
Der Computer ist die gegenständlich gewordene Wahrheit einer mathematischen Idee. Über deren Anlass und ihre Weiterungen, also die Arbeit von Alan Turing, John von Neumann und anderen großen Ermöglichern des heutigen Sachstands, der eben nicht nur ein technischer, sondern zugleich ein Erkenntnisstand ist, wird man kaum irgendwo mit weniger Gleichungs- oder Programmsprachenballast unterrichtet als in diesem schönen Buch, das nebenbei, über die Engführung einer Erzählung von der Entwicklung der schlimmsten Bomben, die es je gab, mit dem ihr so nah verwandten Bericht von der Geburt automatischen Rechnens, auch noch erklärt, was Produktivität mit Zerstörung zu tun hat. Mit einem Wort - unentbehrlich.
George Dyson: "Turings Kathedrale". Die Ursprünge des digitalen Zeitalters.
Aus dem Amerikanischen von Karl Heinz Siber. Propyläen Verlag, Berlin 2014. 400 S., geb., 26,- [Euro].
Alle Rechte vorbehalten. © F.A.Z. GmbH, Frankfurt am Main
Perlentaucher-Notiz zur WELT-Rezension
Dass der Autor mitunter Zukunft und Vergangenheit verklärt und im letzten Drittel seines Buches die heutige digitale Welt als Ergebnis früher Fusionen zwischen Mathematik und Militär in Princeton versteht, möchte Georg von Wallwitz ihm gerne nachsehen. Was der Wissenschaftshistoriker George Dyson zuvor nämlich entlang der Biografie des Mathematikers John von Neumann und des amerikanischen Atomprogramms erzählt, scheint ihm gut recherchiert und mit Klatsch und Tratsch aus den damaligen Thinktanks gut ausbalanciert angereichert, also unterhaltsam und lesbar, auch wenn es der Autor mitunter an Distanz fehlen lässt und die atomare Bewaffnung kaum moralisch bewertet, wie der Rezensent kritisch erwähnt. Die Dynamik der Princetoner Gruppe um Neumann wird für den Rezensenten anschaulich, das Buch scheint ihm spannend und schließt für ihn eine Wissenslücke.
© Perlentaucher Medien GmbH
© Perlentaucher Medien GmbH