Big Data verändert alles. Spätestens seit den Enthüllungen Edward Snowdens ist klar: Eine unersättliche Überwachungsmaschinerie hat uns im Griff. Gewaltige unstrukturierte Datenmengen, die unser Leben abbilden, werden systematisch ausgewertet. Alles wird zu digitaler Information. Die Welt der Algorithmen beherrscht uns längst. Sie verändert unser Leben und unser Denken.Klaus Mainzer zeigt in diesem Buch, wie es bei dem Vorhaben, die Welt zu berechnen, zu einer Revolution der Denkart kam. Während Generationen von Mathematikern, Physikern und Philosophen auf der Suche nach der Weltformel mit Gleichungen arbeiteten und in den Kategorien von Ursache und Wirkung dachten, ist die "new science" dadurch charakterisiert, dass an die Stelle mathematischer Beweise und Theorien Computerexperimente und Algorithmen treten. "Korrelation" statt "Begründung", lautet die Devise des neuen Denkens. Die Korrelationen in Big Data sollen bislang verborgene Zusammenhänge aufdecken. Nach diesem Prinzip, schreibt das US-Magazin Time, will die 2013 von Google neu gegründete Medizinfirma "Calico" an der Lebensverlängerung des Menschen arbeiten, indem nicht die Ursachen von Alter und Krankheit untersucht, sondern Unmengen medizinischer Daten mit Algorithmen ausgewertet werden.Eine beispielslose Erfolgsgeschichte also? Mainzer stellt in diesem Buch die faszinierende neue Art der Wissensgewinnung vor, aber er macht auch die Gegenrechnung auf. Sein Buch ist ein Plädoyer für die Besinnung auf die Grundlagen, Theorien, Gesetze und die Geschichte, die zu der Welt führen, in der wir heute leben.
Perlentaucher-Notiz zur WELT-Rezension
Norbert Zähringer atmet auf: Was der Philosoph und Wissenschaftstheoretiker Klaus Mainzer in seinem Abriss über die wissenschaftlichen Grundlagen und Gesetze der "Berechnung der Welt" von der Antike über Leibniz und Konrad Zuse bis heute schreibt, bedeutet ihm, dass auch "Big Data" nicht so heiß gegessen wie gekocht werden wird. Nicht immer kommt der Rezensent beim Lesen ohne Nachschlagen aus, insofern sei Mainzer durchaus fordernd, räumt Zähringer ein. Allerdings erkennt Zähringer auch das hier verborgene Erkenntnispotenzial: Wie wenig wir wissen von den uns umgebenden Technologien, erfahre der Leser auf die Art. Denn auch das lernt Zähringer von Mainzer: Die soziale und physikalische Welt muss uns ein Stück weit verschlossen bleiben, kennen wir nicht die Gesetzmäßigkeiten hinter Big Data.
© Perlentaucher Medien GmbH
© Perlentaucher Medien GmbH
Frankfurter Allgemeine Zeitung | Besprechung von 06.05.2014Datenmuster erklären noch nichts
Klaus Mainzer erläutert, es mit der Berechenbarkeit der Welt auf sich hat
"Das Ende der Theorie", so lautet der Titel eines vor sechs Jahren erschienenen Essays von Chris Anderson, damals Chefredakteur von "Wired". Die These war einfach zugeschnitten: Angesichts der sich rasant vervielfachenden Datenmengen und Kapazitäten zu ihrer Verarbeitung - also des Regimes von Big Data - könne man sich aufwendige Theorien und mit ihnen verknüpfte Modelle in Hinkunft sparen. Korrelationen genügen, denn sie würden unter den nun eingetretenen Bedingungen, wo nicht mehr aus Stichproben gefolgert werden muss, sondern Gesamtkollektive nach Mustern durchforstet werden können, zum unüberbietbaren Prognoseinstrument. Die maschinell bearbeitete Empirie der Daten ersetzt die theoretische Erklärung.
Dass sich die Theorie so schnell nicht verabschieden lässt, liegt zwar auf der Hand - aber als provokanter Einwurf funktionierte Andersons Text vorzüglich. Zumal man dabei auch gleich an andere Entwürfe denken konnte, etwa an eine dank maschineller Rechenleistungen empirisch verfahrende Mathematik oder an eine digitale Physik, deren maschinell ausgetestete Empirie in verblüffend reichen, dabei aber nach ganz einfachen Regeln generierten Datenmustern besteht: Stephen Wolframs "neue Wissenschaft" der zellulären Automaten, die dem deutschen Computerentwickler Konrad Zuse bereits Ende der sechziger Jahre vorschwebte.
Klaus Mainzer, Wissenschaftstheoretiker und Philosoph an der TU München, dem man auf mathematischem wie physikalischem Terrain kein X für ein U vormachen kann, geht in seinem neuen Buch von solchen antitheoretischen Ambitionen als Kontrastfolie aus - um vor Augen zu führen, warum auf Theorie und Modelle nicht zu verzichten ist. Der Weg, den er dazu einschlägt, führt nur am Rande auf direkte Auseinandersetzung mit diesen Ambitionen. Mainzer legt vielmehr eine bündige historische Darstellung vor, die Konzepte der Berechenbarkeit von Prozessen - oder gar: der Welt - Revue passieren lässt, und zwar von Euklid bis zu neuesten Entwicklungen auf dem Feld der Berechnung sozialer Prozesse mit Big-Data-Methoden.
Der Weg des Autors ist also historisch weitläufig, doch durchmessen wird er im Stechschritt knapp abgezirkelter Erläuterungen. Wozu gehört, fügen wir es gleich warnend an, dass sehr viele technische Begriffe auf denkbar knappe Weise vorgestellt und dann gleich in Verwendung genommen werden - so dass Leser ohne einige Semester in Mathematik und Physik vermutlich leicht ins Trudeln kommen. Auf einem Parcours, der so anspruchsvoll ausfällt, dass wir uns hier mit einigen Stichworten begnügen: von der physikalischen Standardtheorie zurück zur klassischen Mechanik, ein Seitenblick auf Chaos und dynamische Systeme, dann weiter zur Quantenwelt, vorher aber Abzweigung zu Hilberts axiomatischem Programm der Mathematik als Auftakt zu Gödel, Turing und John von Neumanns Automaten, schließlich über einen Abriss der Wahrscheinlichkeitstheorie zum Regime von Big Data, soziotechnischen Systemen und den "Berechnungen" unserer selbst als gesellschaftliche Akteure.
Auf diesem Parcours ist viel Handfestes zu lernen, und ernst zu nehmen ist auch die Warnung des Autors, die Empirie der Korrelationen als Paradigma und Praxis nicht durchgehen zu lassen - wozu es den ganzen historischen Durchgang freilich nicht unbedingt gebraucht hätte. So ist die Versicherung des Verlags, dass das Buch Hintergrundwissen zur Ausforschung der Gesellschaft und zum NSA-Skandal gibt, zwar nicht falsch, bloß muss man sich dieses Wissen wirklich sehr hintergründig vorstellen. Man möchte ja gelingende Aufklärung über den militärisch-wirtschaftlichen Überwachungskomplex eher nicht an die Bedingung knüpfen, dass die Gödelschen Unvollständigkeitssätze, Turings Halteproblem, zelluläre Quantenautomaten oder der zentrale Grenzwertsatz verstanden sind.
Andererseits kann das natürlich auch nicht schaden, zumal die Konzepte von Berechenbarkeit, die dabei ins Spiel kommen, faszinierend sind - als Beispiele der technischen Bändigung hoch ansetzender und ziemlich spekulativ klingender Fragen. So wie jene, bei der Mainzer zuletzt landet, bei der allerdings Formalisierung nicht mehr weiterhilft, nämlich warum die Mathematik offenbar so gut auf die Welt passt. Je nach Perspektive kann man sie als falsch gestellt oder sehr tief ansehen. Auch nicht gerade etwas, dem man wegen der NSA nachsinnen muss - aber schon interessant.
HELMUT MAYER.
Klaus Mainzer: "Die Berechnung der Welt". Von der Weltformel zu Big Data. Verlag C. H. Beck, München 2014. 340 S., Abb., geb., 24,95 [Euro].
Alle Rechte vorbehalten. © F.A.Z. GmbH, Frankfurt am Main
Klaus Mainzer erläutert, es mit der Berechenbarkeit der Welt auf sich hat
"Das Ende der Theorie", so lautet der Titel eines vor sechs Jahren erschienenen Essays von Chris Anderson, damals Chefredakteur von "Wired". Die These war einfach zugeschnitten: Angesichts der sich rasant vervielfachenden Datenmengen und Kapazitäten zu ihrer Verarbeitung - also des Regimes von Big Data - könne man sich aufwendige Theorien und mit ihnen verknüpfte Modelle in Hinkunft sparen. Korrelationen genügen, denn sie würden unter den nun eingetretenen Bedingungen, wo nicht mehr aus Stichproben gefolgert werden muss, sondern Gesamtkollektive nach Mustern durchforstet werden können, zum unüberbietbaren Prognoseinstrument. Die maschinell bearbeitete Empirie der Daten ersetzt die theoretische Erklärung.
Dass sich die Theorie so schnell nicht verabschieden lässt, liegt zwar auf der Hand - aber als provokanter Einwurf funktionierte Andersons Text vorzüglich. Zumal man dabei auch gleich an andere Entwürfe denken konnte, etwa an eine dank maschineller Rechenleistungen empirisch verfahrende Mathematik oder an eine digitale Physik, deren maschinell ausgetestete Empirie in verblüffend reichen, dabei aber nach ganz einfachen Regeln generierten Datenmustern besteht: Stephen Wolframs "neue Wissenschaft" der zellulären Automaten, die dem deutschen Computerentwickler Konrad Zuse bereits Ende der sechziger Jahre vorschwebte.
Klaus Mainzer, Wissenschaftstheoretiker und Philosoph an der TU München, dem man auf mathematischem wie physikalischem Terrain kein X für ein U vormachen kann, geht in seinem neuen Buch von solchen antitheoretischen Ambitionen als Kontrastfolie aus - um vor Augen zu führen, warum auf Theorie und Modelle nicht zu verzichten ist. Der Weg, den er dazu einschlägt, führt nur am Rande auf direkte Auseinandersetzung mit diesen Ambitionen. Mainzer legt vielmehr eine bündige historische Darstellung vor, die Konzepte der Berechenbarkeit von Prozessen - oder gar: der Welt - Revue passieren lässt, und zwar von Euklid bis zu neuesten Entwicklungen auf dem Feld der Berechnung sozialer Prozesse mit Big-Data-Methoden.
Der Weg des Autors ist also historisch weitläufig, doch durchmessen wird er im Stechschritt knapp abgezirkelter Erläuterungen. Wozu gehört, fügen wir es gleich warnend an, dass sehr viele technische Begriffe auf denkbar knappe Weise vorgestellt und dann gleich in Verwendung genommen werden - so dass Leser ohne einige Semester in Mathematik und Physik vermutlich leicht ins Trudeln kommen. Auf einem Parcours, der so anspruchsvoll ausfällt, dass wir uns hier mit einigen Stichworten begnügen: von der physikalischen Standardtheorie zurück zur klassischen Mechanik, ein Seitenblick auf Chaos und dynamische Systeme, dann weiter zur Quantenwelt, vorher aber Abzweigung zu Hilberts axiomatischem Programm der Mathematik als Auftakt zu Gödel, Turing und John von Neumanns Automaten, schließlich über einen Abriss der Wahrscheinlichkeitstheorie zum Regime von Big Data, soziotechnischen Systemen und den "Berechnungen" unserer selbst als gesellschaftliche Akteure.
Auf diesem Parcours ist viel Handfestes zu lernen, und ernst zu nehmen ist auch die Warnung des Autors, die Empirie der Korrelationen als Paradigma und Praxis nicht durchgehen zu lassen - wozu es den ganzen historischen Durchgang freilich nicht unbedingt gebraucht hätte. So ist die Versicherung des Verlags, dass das Buch Hintergrundwissen zur Ausforschung der Gesellschaft und zum NSA-Skandal gibt, zwar nicht falsch, bloß muss man sich dieses Wissen wirklich sehr hintergründig vorstellen. Man möchte ja gelingende Aufklärung über den militärisch-wirtschaftlichen Überwachungskomplex eher nicht an die Bedingung knüpfen, dass die Gödelschen Unvollständigkeitssätze, Turings Halteproblem, zelluläre Quantenautomaten oder der zentrale Grenzwertsatz verstanden sind.
Andererseits kann das natürlich auch nicht schaden, zumal die Konzepte von Berechenbarkeit, die dabei ins Spiel kommen, faszinierend sind - als Beispiele der technischen Bändigung hoch ansetzender und ziemlich spekulativ klingender Fragen. So wie jene, bei der Mainzer zuletzt landet, bei der allerdings Formalisierung nicht mehr weiterhilft, nämlich warum die Mathematik offenbar so gut auf die Welt passt. Je nach Perspektive kann man sie als falsch gestellt oder sehr tief ansehen. Auch nicht gerade etwas, dem man wegen der NSA nachsinnen muss - aber schon interessant.
HELMUT MAYER.
Klaus Mainzer: "Die Berechnung der Welt". Von der Weltformel zu Big Data. Verlag C. H. Beck, München 2014. 340 S., Abb., geb., 24,95 [Euro].
Alle Rechte vorbehalten. © F.A.Z. GmbH, Frankfurt am Main