The product of years of investigative journalism by two brilliant New York Times staffers, this is a stunning expose of the inner workings of Facebook as it faces up to the challenges of scandal, criticism and controversy.
Hinweis: Dieser Artikel kann nur an eine deutsche Lieferadresse ausgeliefert werden.
Hinweis: Dieser Artikel kann nur an eine deutsche Lieferadresse ausgeliefert werden.
Frankfurter Allgemeine Zeitung | Besprechung von 07.09.2021Ein einziger großer Fehler
Künstliche Intelligenz soll es letztlich richten: Sheera Frenkel und Cecilia Kang erzählen die Entwicklung von Facebook als Geschichte einer Überforderung.
Erst wusste niemand so recht, was Mark Zuckerberg mit Facebook in die Welt gesetzt hatte. Immer wieder schien auch das Unternehmen nicht oder erst spät zu erkennen, wohin die Features und Fortentwicklungen seines sozialen Netzwerks führen würden. Und immer wieder war offenbar die größte Sorge des Konzerns, der Profit könnte leiden, wenn Facebook mit der gebotenen Entschlossenheit gegen den propagandistischen Missbrauch seines sozialen Netzwerks vorginge oder auch nur das Ausmaß der Manipulations-, Desinformations- und Agitationsversuche eingestünde, die hier tagein, tagaus unternommen werden: So lässt sich die jahrelange Recherche zusammenfassen, die Sheera Frenkel und Cecilia Kang in ihrem Buch bündeln.
Zu den entscheidenden Enthüllungen der beiden Journalistinnen der New York Times gehört, auf welches Unverständnis und welchen Widerstand manche der Entscheidungen Zuckerbergs im Unternehmen selbst stießen - und wie der "Facebook-Spirit", Menschen besser miteinander zu verbinden, von einer begeistert geteilten Vision zur zynisch klingenden hohlen Formel verkümmerte. Irgendwann, schreiben Sheera Frenkel und Cecilia Kang, war es vielen Angestellten peinlich geworden, zuzugeben, dass sie für Facebook arbeiteten. Nachdem selbst ein Post Trumps ungesperrt geblieben war, der Demonstranten nach dem gewaltsamen Tod von George Floyd über Facebook mit Schusswaffengebrauch gedroht hatte, fragten Mitarbeiter in den firmeninternen Foren nach Jobangeboten beim Konkurrenten Twitter, einer sogar nach einem Job "bei irgendeiner Firma, die gezeigt hat, dass sie gewillt ist, zu ihrer moralischen Verantwortung in der Welt zu stehen - denn Facebook scheint diese Firma ja nicht zu sein". "Wir erlauben Politikern, unsere Plattform als Waffe einzusetzen", hatten mehrere hundert Mitarbeiter im Herbst 2019 in einem offenen Brief an Mark Zuckerberg festgestellt. Kurz zuvor hatte das Unternehmen verkündet, "führende Politiker" auf der Plattform weiterhin "umfassend, ungefiltert und ungeprüft" zu Wort kommen zu lassen: Der Weg war frei für Trumps beispiellose Kampagne, die in der Behauptung gipfelte, die Wahl sei ihm "gestohlen" worden.
"Am Wahltag und am Tag danach", zitieren Frenkel und Kang den ehemaligen Sicherheitschef von Facebook, Alex Stamos, "sahen wir konzertierte Anstrengungen des Präsidenten und seiner Anhänger, die noch weitaus erfolgreicher waren als das, was die Russen 2016 angestellt hatten." Damals, als Donald Trump und Hillary Clinton für das Präsidentenamt kandidierten, hatte das Team von Stamos festgestellt, dass Hacker versucht hatten, sich Zugang zu Facebook-Konten aus dem demokratischen Umfeld zu verschaffen. Die Spur dieser Angriffe ließ sich nach Russland zurückverfolgen. Der Report dieser Auffälligkeiten blieb auf dem Weg zur Konzernspitze in der Rechtsabteilung von Facebook hängen. Über die Facebook-Seite "DCLeaks" wurden gestohlene Informationen der Demokraten verbreitet - und Trump kommentierte den Skandal genüsslich: "Russland, wenn du zuhörst, ich hoffe, du wirst die 30 000 E-Mails finden, die verschwunden sind. Ich denke, unsere Presse dürfte dich dafür reich belohnen."
Erst als Abgeordnete im Kongress öffentlich feststellten, Facebook halte Beweise für eine russische Einmischung in den Präsidentschaftswahlkampf zurück, zeigten Mitarbeiter des Unternehmens Politikern beider Parteien in einem Keller bezahlte Anzeigen wie die berühmte "Muslime für Clinton"-Montage, mit denen aus Russland Stimmung gemacht wurde - etwa zwölf Bilder, ausgedruckt, nur zur Ansicht.
Die Liste der Propaganda-Posts, die mit den Mitteln Facebooks ein Millionenpublikum erreichten, ist lang: vom manipulierten Video, das Nancy Pelosi vermeintlich betrunken zeigt, zu Trumps Lobpreisungen von Desinfektionsmitteln zum Kampf gegen Corona, von Holocaust-Leugnung zum QAnon-Kult, von Provokationen autoritärer Politiker wie Erdogan in der Türkei und Maduro in Venezuela zu Desinformationskampagnen in Myanmar, die den Hass gegen die Rohingya anfachten.
Mehr als vierhundert Personen haben Frenkel und Kang für ihr ebenso packendes wie bestürzendes Buch befragt, E-Mails, Memos und interne Dokumente ausgewertet. Technische Entwicklungen und neue Angebote werden in ihren Auswirkungen auf Nutzerverhalten und Manipulationsanfälligkeit vorgestellt. Der Schwerpunkt des Buchs liegt auf dem Missbrauch der Angebote, den Reaktionen des Unternehmens und denen der Öffentlichkeit. Die Gelegenheiten des Konzerns zur Selbstinszenierung indes werden weitgehend ausgespart: Der Umzug in den neuen Hauptsitz in Menlo Park im zweiten Halbjahr 2011 findet ebenso wenig Beachtung wie der Börsengang im Frühjahr 2012.
Szenisch schließt das Buch mit der Bilanzpressekonferenz am 27. Januar 2021, bei der Sheryl Sandberg ungeachtet aller Vorbehalte gegen das Unternehmen im Katastrophenjahr 2020 einen Umsatzsprung von 33 Prozent im vierten Quartal bekannt gibt, auf 28 Milliarden Dollar, während Mark Zuckerberg einräumt, "die Leute" wollten nicht, "dass der ständige politische Streit ihr persönliches Erlebnis auf unserer Plattform völlig beherrscht", und eine geringere Gewichtung politischer Inhalte im News Feed der Nutzer ankündigt.
Bei seiner Anhörung im amerikanischen Kongress Anfang April 2018 hatte Zuckerberg noch um Entschuldigung gebeten: für Falschmeldungen und Hass-Postings, für mangelhafte Datensicherheit und die Hilflosigkeit angesichts russischer Manipulationsversuche vor der Präsidentenwahl 2016. "Wir haben unsere Verantwortung nicht umfassend genug wahrgenommen", hatte der Facebook-Chef damals eingestanden, "und das war ein großer Fehler."
Immer wieder gelobt das Unternehmen Besserung, und es versucht Verbesserungen, auch heute noch: Nach der Machtübernahme der Taliban hat das soziale Netzwerk in Afghanistan die Freundeslisten der Nutzer im Land verborgen, damit Facebook-Nutzer einander durch sie nicht unwissentlich verraten und in Gefahr bringen können. Vor den Midterm-Wahlen in den Vereinigten Staaten soll eine unabhängige Wahlkommission eingesetzt werden, die vergleichbar mit dem Gremium für Nutzerbeschwerden in Zweifelsfällen entscheidet, welche Inhalte gesperrt werden.
Andererseits will dem Unternehmen offensichtlich nicht gelingen, falschen Informationen über die Wirksamkeit von Ivermectin zur Behandlung von Covid-Erkrankten Einhalt zu gebieten, und gerade erst wurden Facebook-Nutzer, die sich ein Video mit der Überschrift "Weißer Mann ruft Polizei wegen schwarzer Männer am Hafen" angesehen hatten, anschließend per Automatismus gefragt, ob sie "weiterhin Videos über Primaten sehen möchten". Ungeachtet solcher Misserfolge scheint der Einsatz Künstlicher Intelligenz immer noch Zuckerbergs Mittel der Wahl zur Lösung inhaltlicher Probleme zu sein.
Eine naheliegende Lösung der Probleme des Unternehmens indes bekämpft Facebook nach Kräften - und die Kräfte sind groß: Die Verbraucherschutzorganisation Algorithm Watch wurde im August bei einem Versuch, den Newsfeed-Algorithmus von Instagram zu erforschen, von den Anwälten des Unternehmens gestoppt. Algorithm Watch hatte Nutzer gebeten, ein Browser-Add-on zu installieren, das ausliest, was sie angezeigt bekommen. Forschern der New York University, die mit ähnlichem Ansatz die Ausspielung von Werbung bei Facebook untersuchen wollten, wurden unter Verweis auf die Privatsphäre der Nutzer-Accounts gesperrt.
Obwohl von ihrer Lösung die Stabilität von Gesellschaften und die Sicherheit von Menschenleben abhängen können, zeigt Facebook das eine um das andere Mal, dass es die eigenen Probleme nicht selbst in den Griff bekommt. Doch Transparenz, die Möglichkeit, dass zumindest unabhängige Forscher sehen können, was Facebook selbst an Daten und Dilemmata sieht, scheut das Unternehmen wie der Teufel das Weihwasser. FRIDTJOF KÜCHEMANN
Sheera Frenkel und Cecilia Kang: "Inside Facebook". Die hässliche Wahrheit.
Aus dem Englischen von Henning Dedekind u. a.
S. Fischer Verlag, Frankfurt am Main 2021. 384 S., geb., 24,- Euro
Alle Rechte vorbehalten. © F.A.Z. GmbH, Frankfurt am Main
Künstliche Intelligenz soll es letztlich richten: Sheera Frenkel und Cecilia Kang erzählen die Entwicklung von Facebook als Geschichte einer Überforderung.
Erst wusste niemand so recht, was Mark Zuckerberg mit Facebook in die Welt gesetzt hatte. Immer wieder schien auch das Unternehmen nicht oder erst spät zu erkennen, wohin die Features und Fortentwicklungen seines sozialen Netzwerks führen würden. Und immer wieder war offenbar die größte Sorge des Konzerns, der Profit könnte leiden, wenn Facebook mit der gebotenen Entschlossenheit gegen den propagandistischen Missbrauch seines sozialen Netzwerks vorginge oder auch nur das Ausmaß der Manipulations-, Desinformations- und Agitationsversuche eingestünde, die hier tagein, tagaus unternommen werden: So lässt sich die jahrelange Recherche zusammenfassen, die Sheera Frenkel und Cecilia Kang in ihrem Buch bündeln.
Zu den entscheidenden Enthüllungen der beiden Journalistinnen der New York Times gehört, auf welches Unverständnis und welchen Widerstand manche der Entscheidungen Zuckerbergs im Unternehmen selbst stießen - und wie der "Facebook-Spirit", Menschen besser miteinander zu verbinden, von einer begeistert geteilten Vision zur zynisch klingenden hohlen Formel verkümmerte. Irgendwann, schreiben Sheera Frenkel und Cecilia Kang, war es vielen Angestellten peinlich geworden, zuzugeben, dass sie für Facebook arbeiteten. Nachdem selbst ein Post Trumps ungesperrt geblieben war, der Demonstranten nach dem gewaltsamen Tod von George Floyd über Facebook mit Schusswaffengebrauch gedroht hatte, fragten Mitarbeiter in den firmeninternen Foren nach Jobangeboten beim Konkurrenten Twitter, einer sogar nach einem Job "bei irgendeiner Firma, die gezeigt hat, dass sie gewillt ist, zu ihrer moralischen Verantwortung in der Welt zu stehen - denn Facebook scheint diese Firma ja nicht zu sein". "Wir erlauben Politikern, unsere Plattform als Waffe einzusetzen", hatten mehrere hundert Mitarbeiter im Herbst 2019 in einem offenen Brief an Mark Zuckerberg festgestellt. Kurz zuvor hatte das Unternehmen verkündet, "führende Politiker" auf der Plattform weiterhin "umfassend, ungefiltert und ungeprüft" zu Wort kommen zu lassen: Der Weg war frei für Trumps beispiellose Kampagne, die in der Behauptung gipfelte, die Wahl sei ihm "gestohlen" worden.
"Am Wahltag und am Tag danach", zitieren Frenkel und Kang den ehemaligen Sicherheitschef von Facebook, Alex Stamos, "sahen wir konzertierte Anstrengungen des Präsidenten und seiner Anhänger, die noch weitaus erfolgreicher waren als das, was die Russen 2016 angestellt hatten." Damals, als Donald Trump und Hillary Clinton für das Präsidentenamt kandidierten, hatte das Team von Stamos festgestellt, dass Hacker versucht hatten, sich Zugang zu Facebook-Konten aus dem demokratischen Umfeld zu verschaffen. Die Spur dieser Angriffe ließ sich nach Russland zurückverfolgen. Der Report dieser Auffälligkeiten blieb auf dem Weg zur Konzernspitze in der Rechtsabteilung von Facebook hängen. Über die Facebook-Seite "DCLeaks" wurden gestohlene Informationen der Demokraten verbreitet - und Trump kommentierte den Skandal genüsslich: "Russland, wenn du zuhörst, ich hoffe, du wirst die 30 000 E-Mails finden, die verschwunden sind. Ich denke, unsere Presse dürfte dich dafür reich belohnen."
Erst als Abgeordnete im Kongress öffentlich feststellten, Facebook halte Beweise für eine russische Einmischung in den Präsidentschaftswahlkampf zurück, zeigten Mitarbeiter des Unternehmens Politikern beider Parteien in einem Keller bezahlte Anzeigen wie die berühmte "Muslime für Clinton"-Montage, mit denen aus Russland Stimmung gemacht wurde - etwa zwölf Bilder, ausgedruckt, nur zur Ansicht.
Die Liste der Propaganda-Posts, die mit den Mitteln Facebooks ein Millionenpublikum erreichten, ist lang: vom manipulierten Video, das Nancy Pelosi vermeintlich betrunken zeigt, zu Trumps Lobpreisungen von Desinfektionsmitteln zum Kampf gegen Corona, von Holocaust-Leugnung zum QAnon-Kult, von Provokationen autoritärer Politiker wie Erdogan in der Türkei und Maduro in Venezuela zu Desinformationskampagnen in Myanmar, die den Hass gegen die Rohingya anfachten.
Mehr als vierhundert Personen haben Frenkel und Kang für ihr ebenso packendes wie bestürzendes Buch befragt, E-Mails, Memos und interne Dokumente ausgewertet. Technische Entwicklungen und neue Angebote werden in ihren Auswirkungen auf Nutzerverhalten und Manipulationsanfälligkeit vorgestellt. Der Schwerpunkt des Buchs liegt auf dem Missbrauch der Angebote, den Reaktionen des Unternehmens und denen der Öffentlichkeit. Die Gelegenheiten des Konzerns zur Selbstinszenierung indes werden weitgehend ausgespart: Der Umzug in den neuen Hauptsitz in Menlo Park im zweiten Halbjahr 2011 findet ebenso wenig Beachtung wie der Börsengang im Frühjahr 2012.
Szenisch schließt das Buch mit der Bilanzpressekonferenz am 27. Januar 2021, bei der Sheryl Sandberg ungeachtet aller Vorbehalte gegen das Unternehmen im Katastrophenjahr 2020 einen Umsatzsprung von 33 Prozent im vierten Quartal bekannt gibt, auf 28 Milliarden Dollar, während Mark Zuckerberg einräumt, "die Leute" wollten nicht, "dass der ständige politische Streit ihr persönliches Erlebnis auf unserer Plattform völlig beherrscht", und eine geringere Gewichtung politischer Inhalte im News Feed der Nutzer ankündigt.
Bei seiner Anhörung im amerikanischen Kongress Anfang April 2018 hatte Zuckerberg noch um Entschuldigung gebeten: für Falschmeldungen und Hass-Postings, für mangelhafte Datensicherheit und die Hilflosigkeit angesichts russischer Manipulationsversuche vor der Präsidentenwahl 2016. "Wir haben unsere Verantwortung nicht umfassend genug wahrgenommen", hatte der Facebook-Chef damals eingestanden, "und das war ein großer Fehler."
Immer wieder gelobt das Unternehmen Besserung, und es versucht Verbesserungen, auch heute noch: Nach der Machtübernahme der Taliban hat das soziale Netzwerk in Afghanistan die Freundeslisten der Nutzer im Land verborgen, damit Facebook-Nutzer einander durch sie nicht unwissentlich verraten und in Gefahr bringen können. Vor den Midterm-Wahlen in den Vereinigten Staaten soll eine unabhängige Wahlkommission eingesetzt werden, die vergleichbar mit dem Gremium für Nutzerbeschwerden in Zweifelsfällen entscheidet, welche Inhalte gesperrt werden.
Andererseits will dem Unternehmen offensichtlich nicht gelingen, falschen Informationen über die Wirksamkeit von Ivermectin zur Behandlung von Covid-Erkrankten Einhalt zu gebieten, und gerade erst wurden Facebook-Nutzer, die sich ein Video mit der Überschrift "Weißer Mann ruft Polizei wegen schwarzer Männer am Hafen" angesehen hatten, anschließend per Automatismus gefragt, ob sie "weiterhin Videos über Primaten sehen möchten". Ungeachtet solcher Misserfolge scheint der Einsatz Künstlicher Intelligenz immer noch Zuckerbergs Mittel der Wahl zur Lösung inhaltlicher Probleme zu sein.
Eine naheliegende Lösung der Probleme des Unternehmens indes bekämpft Facebook nach Kräften - und die Kräfte sind groß: Die Verbraucherschutzorganisation Algorithm Watch wurde im August bei einem Versuch, den Newsfeed-Algorithmus von Instagram zu erforschen, von den Anwälten des Unternehmens gestoppt. Algorithm Watch hatte Nutzer gebeten, ein Browser-Add-on zu installieren, das ausliest, was sie angezeigt bekommen. Forschern der New York University, die mit ähnlichem Ansatz die Ausspielung von Werbung bei Facebook untersuchen wollten, wurden unter Verweis auf die Privatsphäre der Nutzer-Accounts gesperrt.
Obwohl von ihrer Lösung die Stabilität von Gesellschaften und die Sicherheit von Menschenleben abhängen können, zeigt Facebook das eine um das andere Mal, dass es die eigenen Probleme nicht selbst in den Griff bekommt. Doch Transparenz, die Möglichkeit, dass zumindest unabhängige Forscher sehen können, was Facebook selbst an Daten und Dilemmata sieht, scheut das Unternehmen wie der Teufel das Weihwasser. FRIDTJOF KÜCHEMANN
Sheera Frenkel und Cecilia Kang: "Inside Facebook". Die hässliche Wahrheit.
Aus dem Englischen von Henning Dedekind u. a.
S. Fischer Verlag, Frankfurt am Main 2021. 384 S., geb., 24,- Euro
Alle Rechte vorbehalten. © F.A.Z. GmbH, Frankfurt am Main