Der Weg in die digitale Kultur Damit die Welt mit Computern verwaltet und organisiert werden kann, muss sie in den digitalen Raum der Maschinen überführt werden. Der Historiker David Gugerli erzählt die Geschichte dieses großen Umzugs anhand von prägnanten Beispielen. Er schildert, wie Techniker, Manager, Berater und User miteinander gestritten haben, wie sie ihre Wirklichkeit formatiert und welche neue Unübersichtlichkeit sie dabei erzeugt haben. Sie haben Rechner verbunden, Daten kombiniert, Programme umgeschrieben und aus dem Computer fürs Personal einen Personal Computer gemacht - warum und wie, zeigt dieser glänzend geschriebene Essay. »Wer befürchtet, dass Computer >den Menschen< bald verdrängen werden, muss dieses Buch lesen.« Professor Timothy Lenoir, Stanford University
Dieser Download kann aus rechtlichen Gründen nur mit Rechnungsadresse in A, B, CY, D, DK, EW, E, FIN, F, GR, IRL, I, L, M, NL, P, S, SLO, SK ausgeliefert werden.
Frankfurter Allgemeine Zeitung | Besprechung von 23.05.2018Als die Welt neu formatiert wurde
Vom Prozessor zum Netzwerk zum PC: David Gugerli zeichnet nach, wie die Computer sich unersetzlich machten.
Im Frühjahr 1955 wandte sich die französische Niederlassung von IBM ratsuchend an einen Altphilologen. Er sollte doch bitte darüber nachdenken, wie sich eine neue Maschine bezeichnen lassen könnte. Ein kommerzielle Maschine, die nicht mehr für Wissenschaftler oder Militärs gedacht war mit ihren Differentialgleichungen, Verschlüsselungen und aufwendigen numerischen Verfahren, sondern die als Universalmaschine für die Verarbeitung von Informationen aller Art antrat. Die Antwort von Jacques Perret kam schnell und führte letztlich dazu, dass die Franzosen (wie auch die Spanier) um die Einbürgerung des englischen "Computer" herumkamen und dem "ordinateur" den Vorzug gaben - eigentlich ein Adjektiv, das der Philologe in Littrés Wörterbuch entdeckt hatte, wo es als Bezeichnung für die Tätigkeit Gottes belegt war. Mit der Feminisierung zu "ordinatrice" würde man überdies diesen theologischen Hintergrund loswerden, fügte Perret damals noch an. Aber der gefiel den Managern von IBM vielleicht sogar, jedenfalls blieb es bei der männlichen Form.
Diesen Hintergrund einer Namensfindung berührt David Gugerli, Technikhistoriker an der ETH Zürich, ziemlich am Beginn seines Essays über die "Entstehung digitaler Wirklichkeit". Was er in ihm ins Auge fasst, ist die Geschichte der Computer seit den fünfziger Jahren, von Remington Rands 1951 vorgestelltem UNIVAC (Universal Automatic Computer) bis zu den frühen neunziger Jahren, als zu den Legionen von Servern auch bereits die PCs gekommen waren. Er fasst sie bündig als die Geschichte eines schrittweisen Umzugs der Welt in den digitalen Raum, in die black boxes der Computer. Von Unternehmen über staatliche Verwaltungen bis zur privaten Lebensführung und Kommunikation ist schließlich alles auf die Computer gekommen. Nichts scheint uns mittlerweile selbstverständlicher.
Populären Geschichten der Computer gerät diese Entwicklung schnell zur Darstellung eines ziemlich stolperfreien Siegeszugs, in dem sich zündende Ideen mit unternehmerischem Einsatz verknüpften. Gugerli aber interessieren gerade die Stolpereien, an denen sich ablesen lässt, dass diese Geschichte auf keinen gebahnten und glatten Wegen verlief. Er erzählt an ausgewählten Beispielen dieser Entwicklung von den Schwierigkeiten und Engpässen und den Debatten darüber, wie diese Probleme aufgelöst werden sollten, um die an die Maschinen geknüpften Versprechungen (doch noch) einzulösen.
Wozu am Rande eben auch die Geschichte von der französischen Namensgebung gehörte. Sie war keine Marotte der IBM-Manager, sondern zielte darauf, den Kunden gleich deutlich zu machen, dass es nun nicht mehr ums Rechnen ging, mit dem die Computer bisher beeindruckt hatten, sondern um universal angelegte Datenverarbeitung, die vor allem mit Sortieren, Klassifizieren und Entscheiden einherging. Selbst wenn man dafür auch darauf hätte hinweisen können, dass die elektromechanische Berechnung von Flugkurven oder kritischen Uranmassen im Grunde auch nichts anderes war als das Vergleichen von klassifizierten Registereinträgen mit anschließender Entscheidung über einen neuen Eintrag.
Aber gut gewählte Namen änderten nichts an den konkreten Problemen mit den neuen Universalmaschinen, denen Gugerli folgt. Zum einen mussten nun, um nur die ersten Etappen in seinem Parcours anzuführen, Arbeitsbeschreibungen für die immer zahlreicher notwendig werdenden Programmierer gefunden werden, worüber sich gut streiten ließ; oder auch darüber, wie viel an dröger Programmierarbeit in die Rechner verlegt werden sollte, was deren Kapazität beeinträchtigte. Obwohl dann weniger die Verarbeitungskapazität zum Problem wurde als das Hinterherhinken der Programmanpassungen für die geforderten Aufgaben.
Computer, die die meiste Zeit stillstanden, weil Programmierer überlegten und nachbesserten, waren aber keine verlockende Option. Gravierende Engpässe traten zudem beim Input auf, für den die Rohdaten erst einmal mit aufwendigen Verfahren in ein geeignetes Bearbeitungsformat zu bringen waren. Die Antworten auf diese Probleme - Programmiersprachen, Compiler, Time-Sharing-Konzepte, Betriebssysteme und so fort - lassen sich alle in Geschichten der Computerentwicklung nachlesen. Aber in Gugerlis Essay treten sie nicht auf als Etappen einer im Rückblick überschauten Erfolgsgeschichte, sondern als Auswege aus Verlegenheiten, die man nicht vorhergesehen hatte. Wobei es zudem von divergierenden Erwartungen und Konzepten abhing, wie genau diese Verlegenheiten gefasst und welche Lösungen in Anschlag gebracht wurden.
Vor allem führt Gugerli vor, dass es durchaus nicht einfach darum ging, den digitalen Raum der Computer entsprechend bestehende Anforderungen, etwa von Unternehmen und Verwaltungen, einzurichten, sondern dass die Maschinen ihrerseits beträchtliche Umbauten im Aufbau der Organisationen verlangten: Die "Welt" musste neu formatiert werden, um computerbasiert behandelt zu werden. Effizienz war dabei das Versprechen, aber erreicht wurde sie nie auf Anhieb und oft erst mit großem Personal- und Arbeitsaufwand.
Gugerli folgt der Verlagerung der Aufmerksamkeit vom Prozessor zur Software in den späten sechziger Jahren, weiter zu miteinander verbundenen Rechnern und Netzwerken in den Siebzigern, schließlich zur parallel dazu anlaufenden Entwicklung von persönlichen Kleinrechnern und den in den Achtzigern sich dann klärenden Vorstellungen, was PCs eigentlich sein sollen. Damit, so der Autor, sei der Umzug der Welt in den digitalen Raum bewerkstelligt gewesen; und von den Neunzigern an habe man über die - als zukunftsweisend oder fatal erachtete - Autonomie der ins Digitale transferierten Wirklichkeit zu debattieren beginnen können.
Nicht auszuschließen, dass Kenner des weitläufigen Terrains, das Gugerli hier, elegant und pointiert formulierend, durchquert, mit dem Autor über den einen oder anderen Punkt streiten würden. Aber der Laie, der von Internetprotokollen bloß die Kürzel kennt und dem ein Speicher halt ein Speicher ist, kann sich jedenfalls kaum eine bündigere Darstellung wünschen, die ihn mit der Entstehungsgeschichte seiner digitalen Umgebungen bekanntmacht.
HELMUT MAYER
David Gugerli: "Wie die Welt in den Computer kam". Zur Entstehung digitaler Wirklichkeit.
S. Fischer Verlag, Frankfurt am Main 2018. 250 S., Abb., geb., 24,- [Euro].
Alle Rechte vorbehalten. © F.A.Z. GmbH, Frankfurt am Main
Vom Prozessor zum Netzwerk zum PC: David Gugerli zeichnet nach, wie die Computer sich unersetzlich machten.
Im Frühjahr 1955 wandte sich die französische Niederlassung von IBM ratsuchend an einen Altphilologen. Er sollte doch bitte darüber nachdenken, wie sich eine neue Maschine bezeichnen lassen könnte. Ein kommerzielle Maschine, die nicht mehr für Wissenschaftler oder Militärs gedacht war mit ihren Differentialgleichungen, Verschlüsselungen und aufwendigen numerischen Verfahren, sondern die als Universalmaschine für die Verarbeitung von Informationen aller Art antrat. Die Antwort von Jacques Perret kam schnell und führte letztlich dazu, dass die Franzosen (wie auch die Spanier) um die Einbürgerung des englischen "Computer" herumkamen und dem "ordinateur" den Vorzug gaben - eigentlich ein Adjektiv, das der Philologe in Littrés Wörterbuch entdeckt hatte, wo es als Bezeichnung für die Tätigkeit Gottes belegt war. Mit der Feminisierung zu "ordinatrice" würde man überdies diesen theologischen Hintergrund loswerden, fügte Perret damals noch an. Aber der gefiel den Managern von IBM vielleicht sogar, jedenfalls blieb es bei der männlichen Form.
Diesen Hintergrund einer Namensfindung berührt David Gugerli, Technikhistoriker an der ETH Zürich, ziemlich am Beginn seines Essays über die "Entstehung digitaler Wirklichkeit". Was er in ihm ins Auge fasst, ist die Geschichte der Computer seit den fünfziger Jahren, von Remington Rands 1951 vorgestelltem UNIVAC (Universal Automatic Computer) bis zu den frühen neunziger Jahren, als zu den Legionen von Servern auch bereits die PCs gekommen waren. Er fasst sie bündig als die Geschichte eines schrittweisen Umzugs der Welt in den digitalen Raum, in die black boxes der Computer. Von Unternehmen über staatliche Verwaltungen bis zur privaten Lebensführung und Kommunikation ist schließlich alles auf die Computer gekommen. Nichts scheint uns mittlerweile selbstverständlicher.
Populären Geschichten der Computer gerät diese Entwicklung schnell zur Darstellung eines ziemlich stolperfreien Siegeszugs, in dem sich zündende Ideen mit unternehmerischem Einsatz verknüpften. Gugerli aber interessieren gerade die Stolpereien, an denen sich ablesen lässt, dass diese Geschichte auf keinen gebahnten und glatten Wegen verlief. Er erzählt an ausgewählten Beispielen dieser Entwicklung von den Schwierigkeiten und Engpässen und den Debatten darüber, wie diese Probleme aufgelöst werden sollten, um die an die Maschinen geknüpften Versprechungen (doch noch) einzulösen.
Wozu am Rande eben auch die Geschichte von der französischen Namensgebung gehörte. Sie war keine Marotte der IBM-Manager, sondern zielte darauf, den Kunden gleich deutlich zu machen, dass es nun nicht mehr ums Rechnen ging, mit dem die Computer bisher beeindruckt hatten, sondern um universal angelegte Datenverarbeitung, die vor allem mit Sortieren, Klassifizieren und Entscheiden einherging. Selbst wenn man dafür auch darauf hätte hinweisen können, dass die elektromechanische Berechnung von Flugkurven oder kritischen Uranmassen im Grunde auch nichts anderes war als das Vergleichen von klassifizierten Registereinträgen mit anschließender Entscheidung über einen neuen Eintrag.
Aber gut gewählte Namen änderten nichts an den konkreten Problemen mit den neuen Universalmaschinen, denen Gugerli folgt. Zum einen mussten nun, um nur die ersten Etappen in seinem Parcours anzuführen, Arbeitsbeschreibungen für die immer zahlreicher notwendig werdenden Programmierer gefunden werden, worüber sich gut streiten ließ; oder auch darüber, wie viel an dröger Programmierarbeit in die Rechner verlegt werden sollte, was deren Kapazität beeinträchtigte. Obwohl dann weniger die Verarbeitungskapazität zum Problem wurde als das Hinterherhinken der Programmanpassungen für die geforderten Aufgaben.
Computer, die die meiste Zeit stillstanden, weil Programmierer überlegten und nachbesserten, waren aber keine verlockende Option. Gravierende Engpässe traten zudem beim Input auf, für den die Rohdaten erst einmal mit aufwendigen Verfahren in ein geeignetes Bearbeitungsformat zu bringen waren. Die Antworten auf diese Probleme - Programmiersprachen, Compiler, Time-Sharing-Konzepte, Betriebssysteme und so fort - lassen sich alle in Geschichten der Computerentwicklung nachlesen. Aber in Gugerlis Essay treten sie nicht auf als Etappen einer im Rückblick überschauten Erfolgsgeschichte, sondern als Auswege aus Verlegenheiten, die man nicht vorhergesehen hatte. Wobei es zudem von divergierenden Erwartungen und Konzepten abhing, wie genau diese Verlegenheiten gefasst und welche Lösungen in Anschlag gebracht wurden.
Vor allem führt Gugerli vor, dass es durchaus nicht einfach darum ging, den digitalen Raum der Computer entsprechend bestehende Anforderungen, etwa von Unternehmen und Verwaltungen, einzurichten, sondern dass die Maschinen ihrerseits beträchtliche Umbauten im Aufbau der Organisationen verlangten: Die "Welt" musste neu formatiert werden, um computerbasiert behandelt zu werden. Effizienz war dabei das Versprechen, aber erreicht wurde sie nie auf Anhieb und oft erst mit großem Personal- und Arbeitsaufwand.
Gugerli folgt der Verlagerung der Aufmerksamkeit vom Prozessor zur Software in den späten sechziger Jahren, weiter zu miteinander verbundenen Rechnern und Netzwerken in den Siebzigern, schließlich zur parallel dazu anlaufenden Entwicklung von persönlichen Kleinrechnern und den in den Achtzigern sich dann klärenden Vorstellungen, was PCs eigentlich sein sollen. Damit, so der Autor, sei der Umzug der Welt in den digitalen Raum bewerkstelligt gewesen; und von den Neunzigern an habe man über die - als zukunftsweisend oder fatal erachtete - Autonomie der ins Digitale transferierten Wirklichkeit zu debattieren beginnen können.
Nicht auszuschließen, dass Kenner des weitläufigen Terrains, das Gugerli hier, elegant und pointiert formulierend, durchquert, mit dem Autor über den einen oder anderen Punkt streiten würden. Aber der Laie, der von Internetprotokollen bloß die Kürzel kennt und dem ein Speicher halt ein Speicher ist, kann sich jedenfalls kaum eine bündigere Darstellung wünschen, die ihn mit der Entstehungsgeschichte seiner digitalen Umgebungen bekanntmacht.
HELMUT MAYER
David Gugerli: "Wie die Welt in den Computer kam". Zur Entstehung digitaler Wirklichkeit.
S. Fischer Verlag, Frankfurt am Main 2018. 250 S., Abb., geb., 24,- [Euro].
Alle Rechte vorbehalten. © F.A.Z. GmbH, Frankfurt am Main
Perlentaucher-Notiz zur NZZ-Rezension
Rezensent Stefan Betschon hat David Gugerlis Computergeschichte mit Gewinn gelesen. Auch wenn der Kritiker von den Anfängen der Informatik bis zur Erfindung des Internets viel bereits an anderer Stelle gelesen hat, lobt er das Vorgehen des Technikhistorikers, Computergeschichte von den "Motiven der Entwickler" und den "Intentionen der Anwender" her zu denken. Dass der Computer nicht einmal, sondern mehrfach erfunden wurde, da sich Entwickler und Anwender immer wieder neu über Leistungsmöglichkeiten verständigen mussten, erfährt der Rezensent hier ebenso wie er von großen Erwartungen und ersten Krisen, etwa beim Apollo-Projekt liest. "Flüssig" geschrieben und reich an Materialien verspricht das Buch anregende Lektüre, schließt der Kritiker.
© Perlentaucher Medien GmbH
© Perlentaucher Medien GmbH
tolle Einblicke auf das, was Computer sind und sein sollten. Philipp Schnee Deutschlandfunk Kultur 20180719