Dieser Download kann aus rechtlichen Gründen nur mit Rechnungsadresse in A, B, BG, CY, CZ, D, DK, EW, E, FIN, F, GR, HR, H, IRL, I, LT, L, LR, M, NL, PL, P, R, S, SLO, SK ausgeliefert werden.
In den Daten steckt die Zukunft. Und die Gegenwart auch. Zwei Bände diskutieren die rasanten Entwicklungen auf dem Terrain von Big Data.
Daten sind nicht einfach gegeben. Man muss sie erzeugen oder an sie herankommen, es gilt sie zu sammeln, aufzuzeichnen und zu speichern, damit sie ausgewertet werden können. Die längste Zeit war das eine eher aufwendige Angelegenheit. Es kostete Zeit und Geld, so dass man sich meist gut zu überlegen hatte, wie man zu einem aussagekräftigen Datensatz für bestimmte Fragestellungen kam: zu soliden Daten, aus denen sich dann die gewünschten Maßzahlen gewinnen oder die gehegten Vermutungen über deren Zusammenhänge bestätigen oder widerlegen ließen. Und von Aufgaben wie Volkszählungen einmal abgesehen, hieß das auf dem Feld der Untersuchungen großer Populationen, dass man die möglichst genaue Erhebung notgedrungen auf eine Stichprobe einzuschränken hatte, aus der dann statistisch abgesicherte Folgerungen zu ziehen waren.
So lange liegt dieses Regime der Datenverarbeitung nicht zurück, und es wird auch durchaus noch gepflegt. Aber der Trend geht seit knapp zwei Jahrzehnten in eine andere Richtung, nicht langsam und methodisch bedächtig, sondern mit immer größerer Geschwindigkeit, angetrieben durch steil abstürzende Kosten für die Generierung riesiger Datenmengen und deren mittlerweile mögliche maschinelle Auswertungen - beides Effekte des ungebrochen rasanten Kostenverfalls für Rechner- und Speicherkapazitäten (auch für billige Sensoren) sowie neuer Geschäftsmodelle, mit denen Daten herangeschaufelt werden.
Gewirtschaftet wird nun mit Datenmengen, deren Verarbeitung noch vor kurzem für "Superrechner" reserviert war: Das Terrain der Big Data wird erschlossen. Welche Konsequenzen diese Entwicklung hat und aller Wahrscheinlichkeit noch haben wird, gegen welche absehbaren Ausweitungen Schutzmechanismen aufzubauen sind, darüber sind die Debatten in Gang gekommen. Ein Verständnis des neuen Datenregimes in den Grundzügen ist dafür die Voraussetzung. In dem gerade auf Deutsch erschienenen Buch von Viktor Mayer-Schönberger, gegenwärtig Professor für Internet Governance and Regulation in Oxford, und Kenneth Cukier, als Redakteur des "Economist" mit Big Data beschäftigt, findet man es mit seinen Geschäftsund Projektmodellen bündig dargestellt.
Drei wesentliche Neuerungen geben dabei den Leitfaden ab. Zum einen werde das methodische Prinzip des statistischen Schließens aus einer Stichprobe tendenziell hinfällig. Die Probe wird zur Gesamtheit eines Datenpools erweitert, mit dessen Generierung gar keine bestimmte Vermutung oder Hypothese mehr verknüpft ist. Daten werden ohnehin laufend gespendet - man denke nur an Mobilfunkanbieter oder an Datenimperien à la Google oder Facebook -, und ihre Verknüpfung, Verarbeitung und Speicherung ist billig genug, um sie maschinell und mit laufend modifizierten Algorithmen immer wieder auf Muster, also Korrelationen, hin zu untersuchen. Wobei diese Daten, das ist der zweite Punkt, von ganz unterschiedlicher, also auch minderer Qualität sein können.
Es gilt im Allgemeinen: Die Masse macht's, und wird sie mit genügend Rechnerkapazität umgewälzt, genügen sogar relativ einfache Algorithmen. Schlagendes Beispiel sind Googles Übersetzungsalgorithmen. Und schließlich ist die neue Währung der mit Big Data gewonnenen Einsichten und profitablen Geschäftsideen nicht mehr eine bewährte Hypothese oder Theorie, sondern schlicht das Herausrechnen von Korrelationen in riesigen Datenpools. Die Korrelationen zeigen, wie ein Aggregat reagiert, mitunter nahe an Echtzeit, welche Stellschrauben also man zu seiner Manipulation nützen kann. Die Frage, warum das eigentlich funktioniert, wird zwar nicht gleich hinfällig, rentiert sich aber doch oft zunehmend weniger. Big Data, so könnte man es resümieren, unterstützt auch ein neues praktisch-epistemisches Regime.
Die Frage, wie einschneidend die Entwicklung von solcherart "datengetriebener" Analyse ist und ob mit ihr wirklich die regulative Idee der theoretischen Erfassung "harter" kausaler Abhängigkeiten schrittweise obsolet wird, ist einer der Punkte, an denen man zu einem anderen eben erschienenen Buch über Big Data hinüberwechseln kann. Der Journalist Tobias Moorstedt und der Suhrkamp-Lektor Heinrich Geiselberger haben den neuen Formen des Datenregimes einen vielstimmigen und gut komponierten Band gewidmet, mit bereits publizierten, zum ersten Mal übersetzten und auch originalen Beiträgen.
Man findet unter ihnen auch Chris Andersons vor fünf Jahren erschienenen Text über "Das Ende der Theorie", nämlich über ihre Ablösung durch datengesättigte Korrelationen. Das lassen so schlicht zwar auch Mayer-Schönberger/Cukier nicht durchgehen, aber im Sammelband findet man die Frage nach den Konsequenzen für wissenschaftliche Methodik gleich mehrfach beleuchtet. Was wichtig schon deshalb ist, weil Wissenschaften nun einmal konkret nur im Plural zu verhandeln sind. So wird zum einen das Feld der "Digital Humanities" vorgestellt, während andere Beiträge den Versprechungen datengetriebener Prognostik großen Stils und deren Verknüpfung mit Vorstellungen von Sozialtechnik und Steuerung nachgehen.
Beide Bände kartographieren das gesamte Feld des neuen Datenfurors, teilweise sogar darüber hinaus; der Sammelband naturgemäß etwas farbiger, mit markanten Texten, die durch ihre unterschiedlichen Perspektiven und kritischen Akzente auch gleich die Spielräume von Interpretationen, Erwartungen und Befürchtungen aufzeigen (das beigegebene Glossar ist überdies nützlich). Und vergleichen kann man auf diese Weise auch Vorstellungen darüber, wie sich Prinzipien des Datenschutzes in das Regime von Big Data implementieren lassen sollten. Dass es mit dem Wortlaut des Gesetzestextes zur "informationellen Selbstbestimmung" nicht zu schaffen ist, darüber sind sich Mayer-Schönberger/Cukier und Thilo Weichert, der Datenschutzbeauftragte von Schleswig-Holstein, einig. Big Data lebt schließlich davon, dass die eigentlich zustimmungspflichtigen Verarbeitungszwecke gerade nicht bereits im Moment der Etablierung von Datenpools fixiert sind. Was an Empfehlungen zur Selbstbindung der Datenwirtschaft, Etablierung unabhängiger Experten sowie gesetzlichen und mit Bußandrohungen verknüpften Regulierungen aufgeboten wird, nimmt sich freilich angesichts der fortlaufenden Enthüllungen über geheimdienstliche Big-Data-Bewirtschaftungen notgedrungen etwas blauäugig aus.
HELMUT MAYER.
Viktor Mayer-Schönberger und Kenneth Cukier; "Big Data". Die Revolution, die unser Leben verändern wird.
Aus dem Englischen von Dagmar Mallett. Redline Verlag, München 2013. 297 S., geb., 24,99 [Euro].
"Big Data". Das neue Versprechen der Allwissenheit.
Hrsg. von Heinrich Geiselberger und Tobias Moorstedt. Suhrkamp Verlag, Berlin 2013. 309 S., br., 14,- [Euro].
Alle Rechte vorbehalten. © F.A.Z. GmbH, Frankfurt am Main
Perlentaucher-Notiz zur F.A.Z.-Rezension
© Perlentaucher Medien GmbH