Ob Kaufverhalten, Grippewellen oder welche Farbe am ehesten verrät, ob ein Gebrauchtwagen in einem guten Zustand ist - noch nie gab es eine solche Menge an Daten und noch nie bot sich die Chance, durch Recherche und Kombination in der Daten¬flut blitzschnell Zusammenhänge zu entschlüsseln. Big Data bedeutet nichts weniger als eine Revolution für Gesellschaft, Wirtschaft und Politik. Es wird die Weise, wie wir über Gesundheit, Erziehung, Innovation und vieles mehr denken, völlig umkrempeln. Und Vorhersagen möglich machen, die bisher undenkbar waren.
Die Experten Viktor Mayer-Schönberger und Kenneth Cukier beschreiben in ihrem Buch, was Big Data ist, welche Möglichkeiten sich eröffnen, vor welchen Umwälzungen wir alle stehen - und verschweigen auch die dunkle Seite wie das Ausspähen von persönlichen Daten und den drohenden Verlust der Privatsphäre nicht.
Die Experten Viktor Mayer-Schönberger und Kenneth Cukier beschreiben in ihrem Buch, was Big Data ist, welche Möglichkeiten sich eröffnen, vor welchen Umwälzungen wir alle stehen - und verschweigen auch die dunkle Seite wie das Ausspähen von persönlichen Daten und den drohenden Verlust der Privatsphäre nicht.
"In Big Data zeichnen Cukier und Mayer-Schönberger eine Welt, die sich mit Unterstützung von Computern immer besser vorhersagen und kontrollieren lässt, die wir aber immer weniger verstehen. Sie setzen erste wichtige Impulse für die dringende Debatte, wie wir als Gesellschaft damit umgehen." -- Spiegel Online
Frankfurter Allgemeine Zeitung | Besprechung von 24.10.2013Sind Korrelationen denn alles?
In den Daten steckt die Zukunft. Und die Gegenwart auch. Zwei Bände diskutieren die rasanten Entwicklungen auf dem Terrain von Big Data.
Daten sind nicht einfach gegeben. Man muss sie erzeugen oder an sie herankommen, es gilt sie zu sammeln, aufzuzeichnen und zu speichern, damit sie ausgewertet werden können. Die längste Zeit war das eine eher aufwendige Angelegenheit. Es kostete Zeit und Geld, so dass man sich meist gut zu überlegen hatte, wie man zu einem aussagekräftigen Datensatz für bestimmte Fragestellungen kam: zu soliden Daten, aus denen sich dann die gewünschten Maßzahlen gewinnen oder die gehegten Vermutungen über deren Zusammenhänge bestätigen oder widerlegen ließen. Und von Aufgaben wie Volkszählungen einmal abgesehen, hieß das auf dem Feld der Untersuchungen großer Populationen, dass man die möglichst genaue Erhebung notgedrungen auf eine Stichprobe einzuschränken hatte, aus der dann statistisch abgesicherte Folgerungen zu ziehen waren.
So lange liegt dieses Regime der Datenverarbeitung nicht zurück, und es wird auch durchaus noch gepflegt. Aber der Trend geht seit knapp zwei Jahrzehnten in eine andere Richtung, nicht langsam und methodisch bedächtig, sondern mit immer größerer Geschwindigkeit, angetrieben durch steil abstürzende Kosten für die Generierung riesiger Datenmengen und deren mittlerweile mögliche maschinelle Auswertungen - beides Effekte des ungebrochen rasanten Kostenverfalls für Rechner- und Speicherkapazitäten (auch für billige Sensoren) sowie neuer Geschäftsmodelle, mit denen Daten herangeschaufelt werden.
Gewirtschaftet wird nun mit Datenmengen, deren Verarbeitung noch vor kurzem für "Superrechner" reserviert war: Das Terrain der Big Data wird erschlossen. Welche Konsequenzen diese Entwicklung hat und aller Wahrscheinlichkeit noch haben wird, gegen welche absehbaren Ausweitungen Schutzmechanismen aufzubauen sind, darüber sind die Debatten in Gang gekommen. Ein Verständnis des neuen Datenregimes in den Grundzügen ist dafür die Voraussetzung. In dem gerade auf Deutsch erschienenen Buch von Viktor Mayer-Schönberger, gegenwärtig Professor für Internet Governance and Regulation in Oxford, und Kenneth Cukier, als Redakteur des "Economist" mit Big Data beschäftigt, findet man es mit seinen Geschäftsund Projektmodellen bündig dargestellt.
Drei wesentliche Neuerungen geben dabei den Leitfaden ab. Zum einen werde das methodische Prinzip des statistischen Schließens aus einer Stichprobe tendenziell hinfällig. Die Probe wird zur Gesamtheit eines Datenpools erweitert, mit dessen Generierung gar keine bestimmte Vermutung oder Hypothese mehr verknüpft ist. Daten werden ohnehin laufend gespendet - man denke nur an Mobilfunkanbieter oder an Datenimperien à la Google oder Facebook -, und ihre Verknüpfung, Verarbeitung und Speicherung ist billig genug, um sie maschinell und mit laufend modifizierten Algorithmen immer wieder auf Muster, also Korrelationen, hin zu untersuchen. Wobei diese Daten, das ist der zweite Punkt, von ganz unterschiedlicher, also auch minderer Qualität sein können.
Es gilt im Allgemeinen: Die Masse macht's, und wird sie mit genügend Rechnerkapazität umgewälzt, genügen sogar relativ einfache Algorithmen. Schlagendes Beispiel sind Googles Übersetzungsalgorithmen. Und schließlich ist die neue Währung der mit Big Data gewonnenen Einsichten und profitablen Geschäftsideen nicht mehr eine bewährte Hypothese oder Theorie, sondern schlicht das Herausrechnen von Korrelationen in riesigen Datenpools. Die Korrelationen zeigen, wie ein Aggregat reagiert, mitunter nahe an Echtzeit, welche Stellschrauben also man zu seiner Manipulation nützen kann. Die Frage, warum das eigentlich funktioniert, wird zwar nicht gleich hinfällig, rentiert sich aber doch oft zunehmend weniger. Big Data, so könnte man es resümieren, unterstützt auch ein neues praktisch-epistemisches Regime.
Die Frage, wie einschneidend die Entwicklung von solcherart "datengetriebener" Analyse ist und ob mit ihr wirklich die regulative Idee der theoretischen Erfassung "harter" kausaler Abhängigkeiten schrittweise obsolet wird, ist einer der Punkte, an denen man zu einem anderen eben erschienenen Buch über Big Data hinüberwechseln kann. Der Journalist Tobias Moorstedt und der Suhrkamp-Lektor Heinrich Geiselberger haben den neuen Formen des Datenregimes einen vielstimmigen und gut komponierten Band gewidmet, mit bereits publizierten, zum ersten Mal übersetzten und auch originalen Beiträgen.
Man findet unter ihnen auch Chris Andersons vor fünf Jahren erschienenen Text über "Das Ende der Theorie", nämlich über ihre Ablösung durch datengesättigte Korrelationen. Das lassen so schlicht zwar auch Mayer-Schönberger/Cukier nicht durchgehen, aber im Sammelband findet man die Frage nach den Konsequenzen für wissenschaftliche Methodik gleich mehrfach beleuchtet. Was wichtig schon deshalb ist, weil Wissenschaften nun einmal konkret nur im Plural zu verhandeln sind. So wird zum einen das Feld der "Digital Humanities" vorgestellt, während andere Beiträge den Versprechungen datengetriebener Prognostik großen Stils und deren Verknüpfung mit Vorstellungen von Sozialtechnik und Steuerung nachgehen.
Beide Bände kartographieren das gesamte Feld des neuen Datenfurors, teilweise sogar darüber hinaus; der Sammelband naturgemäß etwas farbiger, mit markanten Texten, die durch ihre unterschiedlichen Perspektiven und kritischen Akzente auch gleich die Spielräume von Interpretationen, Erwartungen und Befürchtungen aufzeigen (das beigegebene Glossar ist überdies nützlich). Und vergleichen kann man auf diese Weise auch Vorstellungen darüber, wie sich Prinzipien des Datenschutzes in das Regime von Big Data implementieren lassen sollten. Dass es mit dem Wortlaut des Gesetzestextes zur "informationellen Selbstbestimmung" nicht zu schaffen ist, darüber sind sich Mayer-Schönberger/Cukier und Thilo Weichert, der Datenschutzbeauftragte von Schleswig-Holstein, einig. Big Data lebt schließlich davon, dass die eigentlich zustimmungspflichtigen Verarbeitungszwecke gerade nicht bereits im Moment der Etablierung von Datenpools fixiert sind. Was an Empfehlungen zur Selbstbindung der Datenwirtschaft, Etablierung unabhängiger Experten sowie gesetzlichen und mit Bußandrohungen verknüpften Regulierungen aufgeboten wird, nimmt sich freilich angesichts der fortlaufenden Enthüllungen über geheimdienstliche Big-Data-Bewirtschaftungen notgedrungen etwas blauäugig aus.
HELMUT MAYER.
Viktor Mayer-Schönberger und Kenneth Cukier; "Big Data". Die Revolution, die unser Leben verändern wird.
Aus dem Englischen von Dagmar Mallett. Redline Verlag, München 2013. 297 S., geb., 24,99 [Euro].
"Big Data". Das neue Versprechen der Allwissenheit.
Hrsg. von Heinrich Geiselberger und Tobias Moorstedt. Suhrkamp Verlag, Berlin 2013. 309 S., br., 14,- [Euro].
Alle Rechte vorbehalten. © F.A.Z. GmbH, Frankfurt am Main
In den Daten steckt die Zukunft. Und die Gegenwart auch. Zwei Bände diskutieren die rasanten Entwicklungen auf dem Terrain von Big Data.
Daten sind nicht einfach gegeben. Man muss sie erzeugen oder an sie herankommen, es gilt sie zu sammeln, aufzuzeichnen und zu speichern, damit sie ausgewertet werden können. Die längste Zeit war das eine eher aufwendige Angelegenheit. Es kostete Zeit und Geld, so dass man sich meist gut zu überlegen hatte, wie man zu einem aussagekräftigen Datensatz für bestimmte Fragestellungen kam: zu soliden Daten, aus denen sich dann die gewünschten Maßzahlen gewinnen oder die gehegten Vermutungen über deren Zusammenhänge bestätigen oder widerlegen ließen. Und von Aufgaben wie Volkszählungen einmal abgesehen, hieß das auf dem Feld der Untersuchungen großer Populationen, dass man die möglichst genaue Erhebung notgedrungen auf eine Stichprobe einzuschränken hatte, aus der dann statistisch abgesicherte Folgerungen zu ziehen waren.
So lange liegt dieses Regime der Datenverarbeitung nicht zurück, und es wird auch durchaus noch gepflegt. Aber der Trend geht seit knapp zwei Jahrzehnten in eine andere Richtung, nicht langsam und methodisch bedächtig, sondern mit immer größerer Geschwindigkeit, angetrieben durch steil abstürzende Kosten für die Generierung riesiger Datenmengen und deren mittlerweile mögliche maschinelle Auswertungen - beides Effekte des ungebrochen rasanten Kostenverfalls für Rechner- und Speicherkapazitäten (auch für billige Sensoren) sowie neuer Geschäftsmodelle, mit denen Daten herangeschaufelt werden.
Gewirtschaftet wird nun mit Datenmengen, deren Verarbeitung noch vor kurzem für "Superrechner" reserviert war: Das Terrain der Big Data wird erschlossen. Welche Konsequenzen diese Entwicklung hat und aller Wahrscheinlichkeit noch haben wird, gegen welche absehbaren Ausweitungen Schutzmechanismen aufzubauen sind, darüber sind die Debatten in Gang gekommen. Ein Verständnis des neuen Datenregimes in den Grundzügen ist dafür die Voraussetzung. In dem gerade auf Deutsch erschienenen Buch von Viktor Mayer-Schönberger, gegenwärtig Professor für Internet Governance and Regulation in Oxford, und Kenneth Cukier, als Redakteur des "Economist" mit Big Data beschäftigt, findet man es mit seinen Geschäftsund Projektmodellen bündig dargestellt.
Drei wesentliche Neuerungen geben dabei den Leitfaden ab. Zum einen werde das methodische Prinzip des statistischen Schließens aus einer Stichprobe tendenziell hinfällig. Die Probe wird zur Gesamtheit eines Datenpools erweitert, mit dessen Generierung gar keine bestimmte Vermutung oder Hypothese mehr verknüpft ist. Daten werden ohnehin laufend gespendet - man denke nur an Mobilfunkanbieter oder an Datenimperien à la Google oder Facebook -, und ihre Verknüpfung, Verarbeitung und Speicherung ist billig genug, um sie maschinell und mit laufend modifizierten Algorithmen immer wieder auf Muster, also Korrelationen, hin zu untersuchen. Wobei diese Daten, das ist der zweite Punkt, von ganz unterschiedlicher, also auch minderer Qualität sein können.
Es gilt im Allgemeinen: Die Masse macht's, und wird sie mit genügend Rechnerkapazität umgewälzt, genügen sogar relativ einfache Algorithmen. Schlagendes Beispiel sind Googles Übersetzungsalgorithmen. Und schließlich ist die neue Währung der mit Big Data gewonnenen Einsichten und profitablen Geschäftsideen nicht mehr eine bewährte Hypothese oder Theorie, sondern schlicht das Herausrechnen von Korrelationen in riesigen Datenpools. Die Korrelationen zeigen, wie ein Aggregat reagiert, mitunter nahe an Echtzeit, welche Stellschrauben also man zu seiner Manipulation nützen kann. Die Frage, warum das eigentlich funktioniert, wird zwar nicht gleich hinfällig, rentiert sich aber doch oft zunehmend weniger. Big Data, so könnte man es resümieren, unterstützt auch ein neues praktisch-epistemisches Regime.
Die Frage, wie einschneidend die Entwicklung von solcherart "datengetriebener" Analyse ist und ob mit ihr wirklich die regulative Idee der theoretischen Erfassung "harter" kausaler Abhängigkeiten schrittweise obsolet wird, ist einer der Punkte, an denen man zu einem anderen eben erschienenen Buch über Big Data hinüberwechseln kann. Der Journalist Tobias Moorstedt und der Suhrkamp-Lektor Heinrich Geiselberger haben den neuen Formen des Datenregimes einen vielstimmigen und gut komponierten Band gewidmet, mit bereits publizierten, zum ersten Mal übersetzten und auch originalen Beiträgen.
Man findet unter ihnen auch Chris Andersons vor fünf Jahren erschienenen Text über "Das Ende der Theorie", nämlich über ihre Ablösung durch datengesättigte Korrelationen. Das lassen so schlicht zwar auch Mayer-Schönberger/Cukier nicht durchgehen, aber im Sammelband findet man die Frage nach den Konsequenzen für wissenschaftliche Methodik gleich mehrfach beleuchtet. Was wichtig schon deshalb ist, weil Wissenschaften nun einmal konkret nur im Plural zu verhandeln sind. So wird zum einen das Feld der "Digital Humanities" vorgestellt, während andere Beiträge den Versprechungen datengetriebener Prognostik großen Stils und deren Verknüpfung mit Vorstellungen von Sozialtechnik und Steuerung nachgehen.
Beide Bände kartographieren das gesamte Feld des neuen Datenfurors, teilweise sogar darüber hinaus; der Sammelband naturgemäß etwas farbiger, mit markanten Texten, die durch ihre unterschiedlichen Perspektiven und kritischen Akzente auch gleich die Spielräume von Interpretationen, Erwartungen und Befürchtungen aufzeigen (das beigegebene Glossar ist überdies nützlich). Und vergleichen kann man auf diese Weise auch Vorstellungen darüber, wie sich Prinzipien des Datenschutzes in das Regime von Big Data implementieren lassen sollten. Dass es mit dem Wortlaut des Gesetzestextes zur "informationellen Selbstbestimmung" nicht zu schaffen ist, darüber sind sich Mayer-Schönberger/Cukier und Thilo Weichert, der Datenschutzbeauftragte von Schleswig-Holstein, einig. Big Data lebt schließlich davon, dass die eigentlich zustimmungspflichtigen Verarbeitungszwecke gerade nicht bereits im Moment der Etablierung von Datenpools fixiert sind. Was an Empfehlungen zur Selbstbindung der Datenwirtschaft, Etablierung unabhängiger Experten sowie gesetzlichen und mit Bußandrohungen verknüpften Regulierungen aufgeboten wird, nimmt sich freilich angesichts der fortlaufenden Enthüllungen über geheimdienstliche Big-Data-Bewirtschaftungen notgedrungen etwas blauäugig aus.
HELMUT MAYER.
Viktor Mayer-Schönberger und Kenneth Cukier; "Big Data". Die Revolution, die unser Leben verändern wird.
Aus dem Englischen von Dagmar Mallett. Redline Verlag, München 2013. 297 S., geb., 24,99 [Euro].
"Big Data". Das neue Versprechen der Allwissenheit.
Hrsg. von Heinrich Geiselberger und Tobias Moorstedt. Suhrkamp Verlag, Berlin 2013. 309 S., br., 14,- [Euro].
Alle Rechte vorbehalten. © F.A.Z. GmbH, Frankfurt am Main
Perlentaucher-Notiz zur F.A.Z.-Rezension
Früher war es eine ziemlich aufwendige Angelegenheit, Daten zu erheben und auszuwerten, weiß Helmut Mayer. Mit dem rasanten Preissturz von Rechen- und Speicherleistung hat sich das aber geändert, berichtet Mayer, der gleich zwei Bücher bespricht, die sich mit den Folgen dieses Wandels befassen:"Big Data" von Viktor Mayer-Schönbergers und Kenneth Cukier sowie den gleichnamigen Sammelband von Heinrich Geiselberger und Tobias Moorstedt. Von Schönberger und Cukier, der eine Oxfordprofessor für Internet Governance, der andere Redakteur beim Economist, erfährt der Rezensent, dass mit der massenhaften Datenverarbeitung vor allem eine Währung den Markt dominiert: die Korrelation. Diese geben nämlich Hinweise darauf, wo die Stellschrauben eines Aggregates liegen, erklärt Mayer, die Frage des 'Warum' tritt hinter die praktische Möglichkeit der Einflussnahme zurück.
© Perlentaucher Medien GmbH
© Perlentaucher Medien GmbH