"Man muss das Leben tanzen."

"Facebook spricht unser Reptilienhirn an"

Prominente Vertreter der Tech-Branche kritisieren Facebook scharf. Darunter ist auch eine Gruppe von Mitarbeitern der ersten Stunde von Facebook und Google. Sie möchten, dass die Firmen gezielt gegen negative Auswirkungen sozialer Netzwerke und von Smartphones vorgehen. Dafür haben sie die Kampagne namens "Die Wahrheit über Tech" gestartet. Von Helmut Martin-Jung

Mehr…

Das vergangene Jahr war für Facebooks Image ziemlich hart, im Heimatmarkt tat dem Unternehmen besonders die Diskussion um die Beeinflussung der Präsidentschaftswahl aus Russland weh. Doch auch dieses Jahr steht das soziale Netzwerk vor Problemen. Mehr und mehr prominente Vertreter der eigenen Branche melden sich zu Wort und kritisieren Facebook scharf. Und nun hat sich sogar eine Gruppe von Mitarbeitern der ersten Stunde bei Facebook und Google gebildet, die gezielt gegen negative Auswirkungen sozialer Netzwerke und von Smartphones vorgehen wollen. Sie nennt sich Center for Humane Technology, etwa: Zentrum für menschenfreundliche Technik, und hat bereits sieben Millionen Dollar für eine Kampagne namens "Die Wahrheit über Tech" gesammelt. Sie will Schüler, Lehrer und Eltern ansprechen. Der Gruppe, die mit der medienkritischen Non-Profit-Organisation Common Sense zusammenarbeitet, wurden außerdem Sendezeit und Medienpräsenz im Wert von 50 Millionen Dollar zugesagt. "Wir waren dabei", sagte Tristan Harris, der früher für die Firmenethik bei Google zuständig war, der New York Times, "wir wissen, was die Firmen erfassen. Wir wissen, wie sie reden und wie die Technik dahinter funktioniert." Die größten Supercomputer der Welt seien in den Händen zweier Unternehmen, Google und Facebook, "und worauf setzen wir sie an? Auf die Hirne der Menschen, auf Kinder". Prominente Mitglieder Der Zusammenschluss der Silicon-Valley-Veteranen ist nur die jüngste mehrerer kritischer Äußerungen in Bezug auf soziale Medien und extensive Smartphone-Nutzung. Erst kürzlich hatte der Chef des Firmensoftware-Herstellers Salesforce, Marc Benioff, gefordert, man solle Facebook behandeln wie die Tabakindustrie. Facebook mache süchtig und es schade den Menschen. Apple-Chef Tim Cook bekannte, er wolle nicht, dass sein Neffe soziale Netzwerke benutze.

Dem Center for Humane Technology haben sich prominente Mitglieder angeschlossen, darunter zum Beispiel der frühere Facebook-Manager Justin Rosenstein, der den "Gefällt-mir"-Knopf erfunden hat. Roger McNamee, einer der frühen Investoren bei Facebook, bereut es mittlerweile sehr, dass es unter anderem mit seinem Geld möglich wurde, etwas wie das soziale Netzwerk zu schaffen: "Facebook spricht unser Reptilienhirn an - vor allem Furcht und Wut. Und mit den Smartphones haben sie einen ständig am Wickel solange man wach ist." Als erstes konkretes Projekt will die Gruppe der Kritiker eine Webseite veröffentlichen, die schädliche Effekte verschiedener Technologien zeigen und Programmierern als Leitfaden dienen soll. Außerdem will die Gruppe auch Lobbyarbeit betreiben mit dem Ziel, die Macht der großen Digitalkonzerne zu beschränken. Dazu sollen Gesetzesvorhaben unterstützt werden wie etwa das des demokratischen Senators Edward J. Markey: Er will eine Untersuchung des Einflusses von Technik auf Kinder durchsetzen. Erst vor einigen Tagen hatten sich mehrere Kinderärzte und Psychologen an Facebook mit der Forderung gewandt, eine Chat-App wieder einzustellen, die sich an Kinder von sechs Jahren richtet. Der "Messenger Kids", den Eltern für ihre Kinder einrichten müssen, ziele auf eine verletzliche Gruppe, die von ihrer Entwicklung her nicht darauf vorbereitet sei, an einem sozialen Netzwerk teilzunehmen, heißt es in einem Schreiben an Facebook.

Auf die Zahlen von Facebook haben diese Aktionen bis jetzt keinen Einfluss. Das Unternehmen verdient prächtig mit Werbung. Immerhin aber ist erstmals in der Geschichte der Firma die Zahl der täglich aktiven Nutzer in den USA und Kanada zurückgegangen. Als Anzeichen für einen Niedergang taugen diese Zahlen aber freilich nicht.

Weniger…

Facebook versorgt den Stammtisch mit Crystal Meth

Das Netzwerk will emotionaler werden - angeblich, damit Nutzer dort "sinnvoll Zeit verbringen". Dabei geht es Facebook um etwas ganz anderes. Kommentar von Andrian Kreye

Mehr…

Wenn Facebook seine Algorithmen ändert, sind die Folgen für seine zwei Milliarden Nutzer gewaltig. Das soziale Netzwerk kann mit solchen Veränderungen der automatisierten Abläufe auf seinem Portal die kollektive Laune seiner Nutzer beeinflussen. Bereits 2012 hatte das Unternehmen das in einem Experiment erfolgreich erprobt. Als Facebook-Gründer Mark Zuckerberg nun ankündigte, man werde die Gewichtung der Nachrichten, die Nutzer zu sehen bekommen, neu justieren, erinnerte das deutlich an diese Menschenversuche. In Zukunft sollen die Nutzer mehr Texte, Fotos, Videos und Links zu sehen bekommen, die von Freunden und Familie stammen. Vor allem aber sollen jene Posts bevorzugt werden, die Reaktionen auslösen, also kommentiert und weitergeleitet werden. Kurz gesagt, Facebook soll emotionalisiert werden. Das allerdings ist keine gute Idee.

Mark Zuckerberg klingt zwar fürsorglich, fast klassenkämpferisch. Er wolle verhindern, dass Firmen, Marken und Medien die Beiträge normaler Nutzer verdrängen. In Wahrheit geht es ums Geschäft. Im Gegensatz zum Konkurrenten Google, der sich als Holdingfirma Alphabet neu definiert hat, kann Facebook mit seinem Fokus auf Anzeigen kaum noch wachsen. Das muss es als börsennotiertes Unternehmen aber. Doch fast jeder Mensch, der Zugang zum Internet hat, ist bei Facebook angemeldet. Wenn also die Zahl der Nutzer nicht mehr steigen kann, muss es eben das Volumen der Nutzungen. Das aber funktioniert nur über Emotionen. Auf Facebook dominieren Empörung, Wut und Angst Was das bedeutet, hat der US-Wahlkampf 2016 gezeigt. Am besten funktionieren auf den sozialen Netzwerken Empörung, Wut und Angst. Das bringt die Nutzer zum Weiterleiten und Kommentieren. Humor und Begeisterung stehen da weit hintan. Das steckt tief in der DNA des Unternehmens. In seiner ganz frühen Form, die Zuckerberg und seine Freunde in ihren Studentenbuden an der Harvard-Universität programmierten, war das soziale Netzwerk ein Mobbingportal, um Frauen zu bewerten. Betrachtet man die Wutwellen während des US-Wahlkampfes, so erscheint es, als habe sich dieser digitale Urschleim bis heute gehalten. Zuckerbergs Plan, Facebook zu emotionalisieren, wirkt deswegen, als würde er einem aufgebrachten Stammtisch einen Beutel Crystal Meth hinstellen und den Erzürnten viel Vergnügen damit wünschen. Die werden in der Nacht sicher länger bleiben. Allerdings werden sie sich wahrscheinlich auch an die Gurgel gehen. Das geschieht im Internet zwar nur virtuell. Der Effekt auf ganze Gesellschaften ist jedoch durchaus ernst zu nehmen.

Ehemalige Facebook-Mitarbeiter warnen vor Facebook Soziale Netzwerke können süchtig machen, und die Betreiber wissen das. Facebook-Mitgründer Sean Parker warnte im Herbst davor, dass man solche Mechanismen bewusst programmiert habe. Der größte Hohn der Ankündigung ist deswegen der letzte Satz von Zuckerberg: "We can help make sure that Facebook is a time well spent." (Wir können dabei helfen sicher zu stellen, dass man auf Facebook sinnvoll Zeit verbringt). "Time Well Spent" ist der Name der Organisation, die Tristan Harris gründete. Der ehemalige Designer für sogenannte Nutzererfahrungen im Internet war der erste der prominenten Silicon-Valley-Aussteiger, die seit einigen Monaten vor den Suchtgefahren des Internets und den Folgen für Demokratie und Gesellschaft warnen. So viel Zynismus hätte man einem Unternehmer im Jahr 2018 nicht mehr zugetraut.

Weniger…

Youtubes Lügenalgorithmus

Ein Programmierer hat den Algorithmus von Youtube analysiert. Zeigt die Videoplattform sensationslüsterne Inhalte lieber als nüchterne Analysen? Von Michael Moorstedt

Mehr…

Die Videos, mit denen die weltgrößte Online-Unterhaltungsplattform zuletzt in die Schlagzeilen kam, wirken wie die Inhaltsangabe eines Horrorfilms. Da gab es Rowdys zu sehen, die sich über die Leiche eines Selbstmörders lustig machen, Comicfiguren, die Bleichmittel trinken oder blutige Schlägereien unter Schulkindern. Zu sagen, Youtube habe momentan ein PR-Problem, ist eine fahrlässige Untertreibung. Das Unternehmen behilft sich mit den bekannten und vermeintlich bewährten Mitteln: mehr schlecht bezahlte Moderatoren und automatisierte Programme. Seit letzter Woche kennzeichnet man auch Videos staatlicher Nachrichtenorganisationen, um für mehr Transparenz zu sorgen. Man habe verstanden, so schrieb Youtube-Chefin Susan Wojcicki, dass man eine "gesellschaftliche Verantwortung" habe und lasse sich deshalb von vielen Stellen beraten, wie man dieser gerecht werden könne. Vielleicht aber bekämpfen all diese Maßnahmen nur die Symptome, nicht die Ursachen. Zu denen gehört unbedingt der Algorithmus, der festlegt, welche Videos den Nutzern vorgeschlagen werden. In der automatisierten Aufmerksamkeitsökonomie, die die Regeln auf Youtube - und allen anderen sozialen Netzwerken - bestimmt, wird das belohnt und gefördert, was den Nutzer vor dem Bildschirm bindet. Das sogenannte User Engagement ist die alles bestimmende Messzahl. Nur durch sie kann man mehr Werbung verkaufen. Anscheinend werden spaltende Inhalte nach oben geschwemmt Der französische Programmierer Guillaume Chaslot hat an diesem Algorithmus mitgearbeitet. Drei Jahre war er bei Youtube beschäftigt, 2013 wurde er entlassen. Nachdem es Außenstehenden so gut wie unmöglich ist, einen Einblick in die Wirkmechanismen des Algorithmus zu bekommen, muss man sich relativ rabiater Methoden bedienen, um ihn nachzuvollziehen: Klicken und sehen, was passiert. Also schrieb Chaslot eine Software, die das Verhalten eines prototypischen Youtube-Nutzers simulieren sollte. Es startet mit einer Textsuche und arbeitet sich dann durch den Video-Strang, die der Empfehlungsalgorithmus an erster Stelle präsentiert. 18 Monate lang ließ Chaslot sein Programm sich durch Tausende von Videos klicken. Und er behauptet, ein Muster erkennen zu können. Es scheine so, als würden die im Youtube-Maschinenraum werkelnden Mechanismen systematisch spaltende, sensationslüsterne und verschwörerische Inhalte nach oben schwemmen. "Fiktion übertrifft Wirklichkeit", sagt Chaslot. Auf der Website Algotransparency.org listet er die Ergebnisse seines Programms auf. Zu so gut wie jeder beliebten Verschwörungstheorie gibt es dort eine eigene Kategorie: Ist die Erde flach? Gab es die Dinosaurier wirklich? Lösen Impfungen Autismus aus? Und wie ist das eigentlich mit der globalen Erwärmung? Die Ergebnisse tendieren sehr stark in Richtung des Fantastischen. Wahrheit klickt sich nicht gut.

Das gilt nicht nur für wissenschaftliche Fragen, sondern auch für die politische Sphäre. So etwa vor der US-Präsidentschaftswahl 2016. Von den 600 am häufigsten empfohlenen Videos, die sich mit den beiden Kandidaten beschäftigen, hätten mehr als 80 Prozent eine starke Pro-Trump-Gewichtung. Auch zur Bundestagswahl 2017 listet die Website die beliebtesten Videos auf. Die Titel der Top 20 lesen sich erstaunlich kohärent: Da wird Merkel "zerlegt", während der AfD-Mann Meuthen "begeistert", von "linksgrüner Ideologie" ist die Rede und vom "eigenen Grab", das sich sämtliche Unions- und SPD-Wähler selbst schaufeln. Mit den Ergebnissen konfrontiert, zeigt man sich bei Youtube uneinsichtig. Die Empfehlungen seien Reflexion dessen, wonach die Menschen eben suchen. Dass man selbst Teil eines sich selbst verstärkenden Kreislaufs ist, will man anscheinend nicht einsehen. Die Youtube-Replik sei das Gleiche, schrieb die Soziologin Zeynep Tufekci auf Twitter, als würde eine Schulkantine nur noch Süßigkeiten anbieten und sich darauf berufen, dass die Kinder das doch mögen.

Weniger…