Bild in Lightbox öffnen (open image in lightbox). Szenenbild aus der Netflix-Doku über soziale Medien: Kommunikation oder Verhaltensmanipulation?       Foto: Netflix/AP

Die Aussteiger

Interview zur Technologiedebatte      

Tristan Harris und Roger McNamee kritisieren die Technologie, die sie im Silicon Valley einst selbst mitgeschaffen haben. Ein Gespräch über Verhaltensmanipulationen, Einsamkeit und Verantwortung.  

von Jannis Brühl, Süddeutsche vom 15. September 2020

Die Debatte um die Probleme, die digitale Technologien mit sich bringen, nahm vor einigen Jahren erst dann richtig Fahrt auf, als Aussteiger aus der digitalen Industrie begannen, vor ihren eigenen Produkten zu warnen. Zwei dieser Rebellen des Silicon Valley sind Schlüsselfiguren im Dokumentarfilm "Das Dilemma mit den sozialen Medien". Einige Zeit vor dem Filmstart auf Netflix waren sie bei der Münchner Digitalkonferenz DLD zu Gast, um ihre Thesen zu vertreten. Tristan Harris studierte in Stanford, wie Digitaltechnik das Verhalten ihrer Nutzer manipulieren kann. In seinem Job bei Google bekam er ein schlechtes Gewissen. Roger McNamee wurde mit Investitionen in Tech-Firmen reich. Früh investierte er in Facebook und beriet den jungen Mark Zuckerberg. Nach dem US-Wahlkampf 2016 wurde er zum Tech-Kritiker.

Mehr…

SZ:  Mit welchen Tricks halten die Unternehmen uns vor den Bildschirmen?     

Tristan Harris: Es ist das Belohnungssystem eines Glücksspielautomaten: Das unendliche Scrollen, die Benachrichtigungen, die soziale Manipulation mit dem Gefühl, Ihre Freunde warten auf Sie oder haben irgendwas kommentiert. Es ist schwer, diesen Features zu widerstehen. Nehmen sie die Comeback-E-Mail: Sie haben einen Dienst länger nicht benutzt, dann bekommen sie mehr Mails von ihm. Wie ein Dealer, der sagt: "Oh, Sie benutzen das Zeug nicht so oft, ich melde mich deshalb öfter und werde immer aggressiver."

Bei Ihren Auftritten  reden Sie  über Vertrauen. Was hat das mit der Sache zu tun?      

Harris: Unser Vertrauen in Informationen kollabiert. Das ist viel wichtiger als die Frage nach Farben und Benachrichtigungen auf unseren Handys.

Roger McNamee: Die Technologie wird ausgeklügelter, die Unternehmen stoßen in wertvollere Gebiete vor. Google baut Smart Cities und Verkehrstechnik, Amazon sprachgesteuerte Geräte - die uns überwachen -, und Gesundheits-Software. Mit all diesen Daten werden sie Ihr Verhalten manipulieren.      

Harris: Wenn Sie nicht für das Produkt bezahlen, sind Sie selbst das Produkt. "Gratis" ist das teuerste Geschäftsmodell.

Die Algorithmen der Plattformen schaden angeblich der Demokratie. Wieso? Algorithmen sind doch erst einmal nur Rechenoperationen.       

McNamee:  Die Verstärkung durch Algorithmen verursacht das Problem. Sie propagieren die Inhalte, die die stärksten Reaktionen hervorrufen: Hass, Desinformation, Verschwörungstheorien. Nicht weil Facebook sie gezielt aussucht, sondern weil der Algorithmus nach allem sucht, was Reaktionen auslöst.

Harris: Videos von Verschwörungstheoretikern wie Alex Jones wurden öfter empfohlen als alle seriösen Nachrichtenseiten zusammen. Das ist einfach lächerlich.      

Die Konzerne haben aber auf Ihre Kritik reagiert. Facebook und Youtube haben Kriterien geändert, nach der ihre Algorithmen sortieren.

Harris: Schadensbegrenzung. Die Gesellschaft wurde ja schon sechs Jahre in Hass und Verschwörungstheorien mariniert. Schauen Sie sich um: Alle spielen verrückt.

Mister Harris, nachdem Sie bei Google intern Bedenken über die Technologie geäußert hatten, wurde die Stelle des "Design-Ethikers" für Sie geschaffen. Hat sich nichts geändert?

Harris: Die Maschine tut weiter, was sie tun muss. Aber es ist nicht so, dass die Menschen dahinter böse sind.

Wissen die Firmenchefs nicht, was sie da tun?

Harris: Sie sind wie Geiseln in einem Video von Geiselnehmern, reden sinnloses Zeug. Denn außerhalb der Kamera steht jemand mit einer Waffe und zielt auf ihren Kopf. Die Waffe ist das Geschäftsmodell. Deshalb kann nur Druck von außen diesen Kapitalismus der Überwachung unserer Aufmerksamkeit beenden.     

Mister McNamee, Sie berieten einst Mark Zuckerberg. Wie sieht er die Welt?

McNamee: Zunächst: Ich stimme Tristan nicht zu. Ich glaube, diese Leute sind im Herzen Ingenieure. Sie glauben an Effizienz und Optimierung. Das klappt gut für ein kleines System wie einen Motor. Aber nicht, wenn man diese Prinzipien auf die ganze Gesellschaft anwendet. Mark oder die Google-Gründer identifizieren sich wirklich mit ihren Missionen: Google führt alle Informationen der Welt zusammen, Facebook alle Menschen in einem Netzwerk. Aber sie sehen es ausschließlich unter Effizienz-Gesichtspunkten. Das ist gefährlich, weil Effizienz Reibung beseitigen soll. Dabei ist Reibung die Essenz von Expertise, Kunst, Wissenschaft - ja, Fortpflanzung! Wenn jeder von uns seine eigenen Entscheidungen trifft, ist das ineffizient. Viel effizienter ist, dass ein Algorithmus entscheidet.      

Wie ein Diktator?

McNamee: Ja, es hat etwas Autoritäres. Sie versuchen etwa in Smart Cities buchstäblich, Demokratie durch Algorithmen zu ersetzen. Es sind keine schlechten Menschen, aber ihr Wertesystem ist anders.      

Harris: Ihr Wertesystem ist inkompatibel mit der Wahrheit, und die braucht eine stabile Gesellschaft.

Konkret: Sie treten für eine "humane" Technologie ein. Wie kann die aussehen?       

McNamee: Man müsste algorithmische Verstärkung abschaffen. Nachrichten-Feeds wieder nach Thema und Veröffentlichungszeitpunkt sortieren, sodass sie einem nicht ihre Standpunkte aufdrängen. Dann sind die Leute zwar immer noch süchtig, aber sie bekommen weniger Gift ab.

Harris: Wirklich humane Technik würde verstehen, wie verletzlich Menschen sind. Erkennen, wenn Sie einsam sind. Denn überlastete Geister sind anfällig. Endlos scrollbare Apps nutzen das aus. Deep Fakes - von Algorithmen manipulierte Videos - tricksen uns aus, bis wir wahr und falsch nicht mehr unterscheiden können. Um das zu verhindern, muss man buchstäblich unser System hacken, Verwundbarkeiten finden und schließen.      

Was für Apps kämen dabei heraus?

Harris: Smartphone-Technik, die Erfahrungen von Angesicht zu Angesicht priorisiert. Ein GPS, das einen an Orte mit Menschen bringt, und so viele menschliche Ausdrucksformen wie möglich nutzt: Anrufe vor Textnachrichten, echte Treffen vor Tinder-Gewische über bearbeitete Gesichtsfotos. Mit Menschen zusammenzukommen, die einem etwas bedeuten, sollte so einfach sein wie Wikipedia zu nutzen.      

McNamee: Das Gegenteil des Systems, das wir heute haben.

Harris: Facebook ist in der besten Position, etwas zu ändern. Sie wissen genau, dass alle gleichzeitig einsam sind.

Aber das ist genau, was Zuckerberg verspricht: Menschen zusammenzubringen.      

Harris: Was er nicht mal ansatzweise tut. 2005 war Facebook nur ein Adressbuch. Er könnte das Netzwerk wieder zu einem einfachen Werkzeug machen, das die Gesellschaft stärkt. Stattdessen wird unsere Aufmerksamkeit abgesaugt. Dieses Modell kombiniert Sucht, Wut und Hass.

Aber wären neue Apps nicht nur weitere Formen der Manipulation, wie die Tricks, die Sie damals im Verhaltenslabor in Stanford studiert haben?      

Harris: Es gibt kein Nicht-Beeinflussen der Psyche. Sie beeinflussen gerade meinen Geist, und ich Ihren. Aber diese philosophische Diskussion könnten wir noch Jahre führen, während die Demokratie um uns herum zusammenbricht. Deshalb möchte ich mich nicht auf das persönliche Nutzungsverhalten konzentrieren.

McNamee: Der Zug ist abgefahren.      

Harris: Viele Amerikaner glauben, "Chemtrails" aus Flugzeugen verursachen den Klimawandel. Das zeigt, dass sich unsere Fähigkeit auflöst, uns auf Fakten zu einigen. Viele wählen Politiker auf Basis von Illusionen, impfen ihre Kinder nicht mehr. Dieses System hat uns radikalisiert. Ich versuche, den Menschen zu zeigen, dass das ein künstlicher Prozess über Jahre war, damit sie aus der Matrix ausbrechen können.

Und wenn die Leute sagen: "Ich mag mein Facebook, wie es ist. Warum soll es aussehen, wie Tristan Harris es sich vorstellt?"      

Harris: Ob Rauchen oder Zucker, wenn Sie jemandem sagen, dass etwas schlecht für ihn ist, wird er sein Verhalten nicht ändern. Ich will den Leuten zeigen, dass bestimmte Dinge aus Marketingdokumenten stammen, von Werbeabteilungen erdacht wurden. Niemand will sich manipuliert fühlen.

Wie haben die Technik-Jünger in Kalifornien auf Ihre Ideen reagiert?      

Harris: Man könnte meinen, dass uns viele in der Branche hassen. Aber es herrscht viel Respekt. Im Innern der Konzerne gibt es viele, die denken wie wir. Sie kommen zu unseren Treffen, weil sie glauben, dass wir die richtigen Probleme ansprechen.

Nun läuft Ihre Kampagne seit mehr als drei Jahren. Apple zeigt heute an, wie oft man sein Handy benutzt hat. Zuckerberg hat Ihr Motto "time well spent" wörtlich übernommen ...      

Harris: Das größte Problem bleibt: Facebook ist eine Maschine, die die Demokratie tötet. Und dagegen tut der Konzern nichts, es ist ja sein Geschäftsmodell. Er müsste den Nachrichten-Feed oder die Werbung für längere Zeit abschalten, zumindest während Wahlkämpfen.

Aber die Demokratie lebt doch noch.

McNamee: Das wunderbare an Kontinentaleuropa ist, dass seine politischen Institutionen stark genug sind, allen scharfen Attacken zum Trotz. Die AfD hatte 85 Prozent der Anteile an "Shares" auf Facebook, aber nur zwölf Prozent der Wählerstimmen. In den USA, Großbritannien, Brasilien und Indien hat die Technik aber den Ausgang von Wahlen beeinflusst.      

Müssten neue Regeln in den USA oder der EU her, oder besser eine globale Lösung?

McNamee: Sehen Sie sich den ganzen Nonsens an, all die Business-Pläne mit angeblich garantiert guten Ergebnissen. Dabei zeigt das Beispiel Gesichtserkennung, dass es oft gar keinen unproblematischen Anwendungsfall gibt. Gesichtserkennung wenigstens fünf Jahre lang zu verbieten, wie die EU es zwischenzeitlich diskutiert hat, wäre fantastisch. Informationstechnologie ist wie das Bauwesen im 17. Jahrhundert, nachdem Städte aus Holz abgebrannt waren: Es mussten breitere Straßen und Häuser aus Stein her. Im 19. Jahrhundert wurde geregelt, dass Medikamente nicht verunreinigt sein dürfen. In den Siebzigern, dass kein Quecksilber ins Wasser gekippt werden darf. Solche Dinge sind zu gefährlich, um sie unreguliert zu lassen.      

Mister McNamee, haben Sie noch Facebook-Aktien?

McNamee: Nein. Ich wollte lange nicht verkaufen, weil ich dachte: Wenn mein Aktivismus den Aktienpreis nach unten treibt, sollte ich mit allen anderen leiden. Allerdings wurde dann klar, dass ich gar keinen Einfluss auf den Kurs habe.      

Sie haben einen "hippokratischen Eid" für Programmierer ins Spiel gebracht. Was meinen Sie damit? 

McNamee: "Übernimm die Verantwortung". Ein Bauingenieur kann zur Verantwortung gezogen werden, wenn ein Gebäude einstürzt. Programmierer gehen kein persönliches Risiko ein.      

Harris: Es sollte sein wie bei den Programmierern von Boeing: Die mussten auf dem Jungfernflug des Flugzeugs, für das sie die Software geschrieben hatten, mitfliegen.


Weniger…

Schau genau

Wahrheit ist unbarmherzig, hat Albert Camus geschrieben. Heute allerdings ist die Wahrheit etwas, das auch mal in mehreren Varianten existieren kann. Über die sinkende Bereitschaft in unserer Gesellschaft, Tatsachen noch von Meinungen zu unterscheiden. Von Meredith Haaf Schließen Meredith Haaf Meredith Haaf, Jahrgang 1983, ist Redakteurin im Ressort Meinung. Sie hat Geschichte und Philosophie studiert, und beschäftigt sich am liebsten mit den Gebieten, in denen sich das Private und das Politische treffen. Süddeutsche vom 25. Januar 2020 von Meredith Haaf

Mehr…

Es gibt sie noch, die Wahrheiten, über die man wunderbar streiten kann, natürlich. Zum Beispiel, dass der FC Bayern der beste Fußballverein der Welt ist, der Disney-Film "Die Eiskönigin" ein Meisterwerk oder dass Mischgetränke wie Radler und Spezi zu den schlechtesten Ideen der Menschheit gehören. Wer das für reine Meinung hält, möge das Gegenteil behaupten, es stimmt dadurch nicht weniger. Sobald es aber, was es in politisch erregten Zeiten dauernd tut, über Fußball, Film und Freizeitlimonaden hinausgeht, fällt in letzter Zeit ein Problem auf, wenn es um die Frage der Wahrheit geht: Was sie im öffentlichen Leben noch bedeutet, wird immer schwieriger zu beantworten.

Dass das so ist, konnte man etwa an der Art und Weise beobachten, wie in den vergangenen Wochen über die Silvesternacht in Leipzig-Connewitz diskutiert wurde, als es zu harten Auseinandersetzungen zwischen linken Randalierern und der Polizei mit einigen Verletzten kam. Die Polizei meldete einen Mordversuch an einem Beamten, der sich als Verletzung am Ohr entpuppte. Die SPD-Vorsitzende kritisierte die Polizei für ihren Einsatz, bevor darüber Genaueres bekannt war. Ein paar Tage später kursierten in rechten Online-Foren Meldungen über den angeblichen Tod des Polizisten.

Dass an all dem nichts so richtig ungewöhnlich war, zeigt: Offenbar fällt der Umgang mit Fakten für viele in den Bereich der Geschmacksfragen.

Ähnlich ist es mit den Erkenntnissen der Wissenschaft. Was man aus Klimadebatten kennt, konnte man vergangenes Jahr im Frühsommer zu einem anderen Thema an der Medizinischen Universität in Wien beobachten. Bei einer kleinen Fachkonferenz ging es um das Verhältnis zwischen evidenzbasierter Medizin - die ihre Wirksamkeit empirisch nachweist - und der sogenannten Komplementärmedizin, also Chiropraxis, Homöopathie oder Osteopathie, die sich vor allem auf Traditionen berufen. Das Verhältnis ist, gelinde gesagt, angespannt: Im Semester zuvor hatte die Universitätsleitung ein Wahlfach Homöopathie gestrichen - Studierende hatten es heftig als unwissenschaftlich kritisiert.

"Das ist nicht meine Wahrheit", sagte die Frau zum Entsetzen des Schulmediziners

Für die Konferenz hatten die angehenden Mediziner Vorträge vorbereitet: Was sind die Hauptargumente von Impfgegnern? Was können Globuli? Schließlich sprach ein blitzgescheiter Mittzwanziger, der bis in die Spitzen seines Hipsterhaarknödels vor chefärztlicher Ambition strotzte, über Traditionelle Chinesische Medizin (TCM): Deren Wirksamkeit sei empirisch nicht nachzuweisen. Die anwesenden Professoren und Expertinnen spendeten Beifall, doch dann meldete sich eine Zuhörerin zu Wort, deren Leiden durch TCM gelindert worden war: "Sie reden hier die ganze Zeit von Empirie, aber Sie werten meine Erfahrung ab", sagte sie. Offenbar saßen im Auditorium viele traditionell chinesisch oder homöopathisch Geheilte, jedenfalls wurde zustimmend geraunt. Persönliche Erlebnisse seien nun mal keine Basis für Wissenschaft, wandte der Medizinstudent ein. "Das sind Ihre westlichen Standards, das ist nicht meine Wahrheit", sagte eine andere Frau. Es war, als würde plötzlich nicht mehr in einem Auditorium debattiert, sondern von verschiedenen Planeten aus. Längst ging es nicht mehr darum, wie sich Ärzte zu Kügelchen, Nadeln oder Schüßler-Salzen verhalten sollten. Sondern um eine Frage, die sich immer häufiger in die Reizdebatten unserer Zeit - Sexismus, Erziehung, Diskriminierung, Klimapolitik - einschleicht: Wessen Wahrheit zählt?

Schon in der Frage liegt ein gewisser Affront, denn in ihr steckt Machtdenken: Wahrheit wird gemeinhin zu jenen letzten begrifflichen Bastionen gerechnet, die nicht individualisierbar, besitzfähig oder gar konsumierbar sein sollen oder dürfen. Hannah Arendt grenzt in ihrem Essay "Wahrheit und Politik" die Wahrheit von der Meinung so ab: Das eine beanspruche absolute Gültigkeit, das andere sei wandelbar. Wissen erwirbt man, Wahrheit erkennt man; eine Meinung bildet man sich. Daneben aber, schreibt Arendt, gebe es noch die Tatsachenwahrheit. Also die Erkenntnis über die Welt, die durch Fakten belegbar und dokumentiert ist. Realität, die bezeugt werden kann und von Menschen und Institutionen vermittelt wird, die der Wahrhaftigkeit verpflichtet sind. Wahrheit und Politik stünden miteinander traditionell "auf Kriegsfuß"; einer Politik aber, die Tatsachen absichtsvoll wie Meinungen behandelt, mangele es an Würde.

Nun haben wir es derzeit in vielen, auch demokratischen Gesellschaften offensichtlich mit solch einer Politik zu tun. Dabei versteht sich von selbst, dass eine offene, demokratische Gesellschaft beides braucht: Wahrheit als Fundament, auf dem man sich verständigt. Die Meinungen für die Bewegung. Denn das ist der Unterschied: Über die Wahrheit kann man nicht streiten (jedenfalls meistens, siehe oben). Über Meinungen aber schon. Doch wie es aussieht, haben offene Gesellschaften eine Anfälligkeit dafür, das eine mit dem anderen zu verwechseln. Man merkt das an einer Tendenz, die man in klassischen und sozialen Medien sowie bei bürgerlichen Abendessen beobachtet: Da werden politische Positionen mit glaubensritterlichem Eifer gegen jeden Einwand verteidigt. Und immer wieder hört man den Satz: "Es gibt ja auch so etwas wie eine subjektive Wahrheit."

Dieser Begriff wird oft der postmodernen Theorie zugeschrieben, die freilegt, wie das Wissen einer Gesellschaft über Mensch und Welt von Machtverhältnissen geprägt ist. Es geht um die Kritik an dem, was der Literaturwissenschaftler Albrecht Koschorke als "Wahrheitsregime" bezeichnet: Machtvolle Instanzen, Werte und Ideologien bilden den Rahmen, der vorgibt, welches Wissen als wahr anerkannt und durchgesetzt wird. Die katholische Kirche befand so einst über die Wahrheit einer Hexenanklage, die Kolonialmächte verkündeten die Wahrheit, dass andere Völker ihnen unterlegen sind. Mithilfe der postmodernen Theorie lässt sich die Illusion von Objektivität zerstören, mit der Machtverhältnisse stabilisiert wurden: Weiße beherrschen Schwarze, weil sie sich für "objektiv" überlegen halten; Männer beherrschen Frauen, weil sie "objektiv" das stärkere Geschlecht sind.

Das Schlagwort der "subjektiven Wahrheit" stammt aus der esoterischen Bewegung. Es wurde in den Siebzigerjahren von dem Österreicher Paul Feyerabend popularisiert, der sich mit der These, echte Forschung brauche keine Methode, als anti-autoritärer Wissenschaftsphilosoph einen Namen machte. Vorgeblich ging es darum, Minderheiten und Individuen gegenüber den Institutionen zu stärken. Und manchmal trifft es ja auch zu: Natürlich hat etwa eine junge Mutter, die mit Globuli und Akupunktur das Stillfieber überstanden hat, eine eigene Wahrnehmung, die nicht falsch wird, weil ihre Ärztin das Fieber eher mit Paracetamol gesenkt hätte.

In einer Zeit allerdings, in der das Individuum deutlich hörbarer als früher ist und Menschen schon im Kindesalter lernen, sich und ihre Bedürfnisse überaus ernst zu nehmen, fällt dann doch etwas auf an dem Konzept der subjektiven Wahrheit: Im Grunde genommen ist es selbst autoritär. Die junge Mutter etwa sagt: "Das ist für mich so, mehr gibt es dazu nicht zu sagen." Objektive Maßstäbe kann man da nicht anlegen. Kritisieren oder sich gar über sie streiten kann man auch nicht.

Angela Merkel: "Wir müssen die Emotionen mit den Fakten versöhnen."

Deswegen hat die "subjektive Wahrheit" weder in wissenschaftlichen noch in politischen Fragen etwas verloren. Denn natürlich muss es verschiedene legitime politische Haltungen geben - dein Unrechtsstaat ist meine Volksrepublik; dein böser SUV ist meine Familienkarre; deine Gleichstellung ist mein Quotenirrsinn. Nur sind das - wie ehrlicherweise auch die Mangelhaftigkeit von Mischgetränken - Meinungen, die mehr oder weniger gut begründbar sind, sich aber eben auch ändern können. Das spüren zum Beispiel Menschen, die vor fünf Jahren noch sorglos jede Woche quer durch die Republik flogen und heute erfahren müssen, was "Flugscham" bedeutet.

Die amerikanische Historikerin Jill Lepore hat ihrem großen Buch über die Vereinigten Staaten von Amerika den Titel "Diese Wahrheiten" gegeben. Es sei eine fundamentale Voraussetzung moderner Demokratien, sich auf rechtliche und menschliche Grundsätze zu einigen und ihnen den Geltungsanspruch von Wahrheiten zu verschaffen. Im Gründungsdokument der USA versicherten die Unterzeichner, dass sie "diese Wahrheiten" für selbstverständlich und unanfechtbar hielten: "Dass alle Menschen gleich & unabhängig geschaffen sind, dass sie (...) natürliche und unveräußerliche Rechte besitzen" und dass eine rechtmäßige Regierung vom Volk legitimiert werde. Nur eine Gesellschaft, die in diesen Fragen zu einem Konsens kommt, kann mit dem freien Spiel der Meinungen beginnen, argumentiert Lepore.

Bei ihrer Rede in Davos hat es Angela Merkel gerade thematisiert: "Wir müssen die Emotionen mit den Fakten versöhnen, und das ist vielleicht die größte gesellschaftliche Aufgabe." Es könne "zum Verhängnis werden", wenn jeder Mensch sich in seiner Blase, also seinem alltäglichen gesellschaftlichen Umfeld, aufhalte. Es gebe etwa eine "Sprachlosigkeit" zwischen Menschen, die den Klimawandel leugneten und denjenigen, für die Klimaschutz höchste Dringlichkeit habe. Dies mache ihr Sorgen. Die narzisstische Tendenz zur subjektiven Wahrheit wird verstärkt durch eine andere Entwicklung: "Wir treten gerade aus dem alten Wahrheitsregime heraus und in ein neues ein", sagt Albrecht Koschorke. Der Bezug der Bevölkerung zu den bisherigen Sortierinstanzen wie Redaktionen oder Forschungseinrichtungen schwindet. Weniger Zeitungen werden gekauft, der öffentlich-rechtliche Rundfunk steht in der Dauerkritik, die Arbeit von Forschern wird als politisch gefärbt abgelehnt - nicht immer, weil es dafür einen Anhaltspunkt gibt, sondern oft, weil sie nicht ins eigene Programm passt.

Heute wird jedes politische Problem ganz persönlich genommen

Dafür gibt es einerseits wichtige Gründe: Klassische Medien machen gelegentlich Fehler, reagieren selbst vorschnell, setzen die Schwerpunkte, die sie wichtig finden, die aber dem einen oder der anderen einfach nicht passen. Und es gibt attraktive Alternativen: Youtuber, Podcaster, Netzaktivisten versorgen ihr Publikum mit Informationen, den Rest erledigen hochindividualisierte Feeds und Algorithmen.

Die Informationsfreiheit ist größer denn je. Erst durch die Kritik an den alten Wahrheitsregimes konnten diejenigen, die bisher nicht viel zu verlautbaren hatten, ihre Stimme finden. Auf diese Weise begannen etwa Feministinnen, Gegenerzählungen zur männlichen Wahrheit über das weibliche Leben zu suchen, eine Kultur der narrativen Selbstermächtigung ist entstanden: Man muss nicht mehr alles schlucken, was die anderen, der Arzt, die Politiker, die Professorin erzählen.

Aber die Verwirrung darüber, was stimmt und was nicht, wächst eben auch. Weil gerade in den sozialen Netzwerken jede Information auch immer mit einem Lager assoziiert ist, wird es immer schwieriger, sie anzuerkennen, wenn sie aus dem falschen Lager kommt: Aha, das hat die Feministin getwittert. Soso, der alte weiße Mann teilt den Artikel, das kann ja nicht stimmen. Eine bequeme Lösung ist es, sich nur noch auf die "eigene Wahrheit" zu beziehen, wenn man politisch spricht. Schon weil die gemeinsame Basis, auf der man mit anderen streitet, schrumpft. Wenn die eine nur Medien liest, die am liebsten über Ausländerkriminalität berichten, und der andere nur Leuten folgt, die sich über diese Medien aufregen, dann haben sie vermutlich wenig, was sie beide gehört oder gelesen haben. Und damit auch wenig Möglichkeiten, überhaupt mal ins Gespräch zu kommen.

Erinnert sich noch jemand daran, als Politikverdrossenheit ein Problem war? Heute gehört es zum guten Twitter-Ton, jedes politische Problem sehr persönlich zu nehmen und persönliche Probleme mit einer politischen Analyse zu verbinden. Und es gehört zu einer vorbildlichen politischen Haltung, gesellschaftliche Probleme mit dem eigenen Verhalten lösen zu wollen: nachhaltiger Konsum, geschlechtergerechtes Privatleben, nachbarschaftliches Engagement.

Wenn das Weltbild nicht mehr vom Selbstbild zu trennen ist, wird es schwierig, noch so gut begründete Tatsachen anzuerkennen, die nicht ins eigene Weltbild passen. Natürlich ist es schwieriger geworden zu wissen, was wahr ist - deshalb hat jeder Einzelne die Verantwortung, zwischen belegbaren Tatsachen, seiner Meinung und seiner Wahrheit zu unterscheiden, um für sie geradestehen zu können.

Wahrheit ist unbarmherzig, hat Albert Camus geschrieben. Egal was man davon hält: Man sollte nicht annehmen, dass sie dazu da ist, das eigene Leben bequem und die eigenen Ansichten plausibel zu machen. Die Wahrheit wird oft mit dem Licht der Sonne verglichen, aber vielleicht ist sie eher wie die Luft zum Atmen: Jeder braucht sie, keinem gehört sie, manchmal stinkt sie - und ohne sie geht es nicht.

Weniger…

"Facebook spricht unser Reptilienhirn an"

Prominente Vertreter der Tech-Branche kritisieren Facebook scharf. Darunter ist auch eine Gruppe von Mitarbeitern der ersten Stunde von Facebook und Google. Sie möchten, dass die Firmen gezielt gegen negative Auswirkungen sozialer Netzwerke und von Smartphones vorgehen. Dafür haben sie die Kampagne namens "Die Wahrheit über Tech" gestartet. Von Helmut Martin-Jung

Mehr…

Das vergangene Jahr war für Facebooks Image ziemlich hart, im Heimatmarkt tat dem Unternehmen besonders die Diskussion um die Beeinflussung der Präsidentschaftswahl aus Russland weh. Doch auch dieses Jahr steht das soziale Netzwerk vor Problemen. Mehr und mehr prominente Vertreter der eigenen Branche melden sich zu Wort und kritisieren Facebook scharf. Und nun hat sich sogar eine Gruppe von Mitarbeitern der ersten Stunde bei Facebook und Google gebildet, die gezielt gegen negative Auswirkungen sozialer Netzwerke und von Smartphones vorgehen wollen. Sie nennt sich Center for Humane Technology, etwa: Zentrum für menschenfreundliche Technik, und hat bereits sieben Millionen Dollar für eine Kampagne namens "Die Wahrheit über Tech" gesammelt. Sie will Schüler, Lehrer und Eltern ansprechen. Der Gruppe, die mit der medienkritischen Non-Profit-Organisation Common Sense zusammenarbeitet, wurden außerdem Sendezeit und Medienpräsenz im Wert von 50 Millionen Dollar zugesagt. "Wir waren dabei", sagte Tristan Harris, der früher für die Firmenethik bei Google zuständig war, der New York Times, "wir wissen, was die Firmen erfassen. Wir wissen, wie sie reden und wie die Technik dahinter funktioniert." Die größten Supercomputer der Welt seien in den Händen zweier Unternehmen, Google und Facebook, "und worauf setzen wir sie an? Auf die Hirne der Menschen, auf Kinder". Prominente Mitglieder Der Zusammenschluss der Silicon-Valley-Veteranen ist nur die jüngste mehrerer kritischer Äußerungen in Bezug auf soziale Medien und extensive Smartphone-Nutzung. Erst kürzlich hatte der Chef des Firmensoftware-Herstellers Salesforce, Marc Benioff, gefordert, man solle Facebook behandeln wie die Tabakindustrie. Facebook mache süchtig und es schade den Menschen. Apple-Chef Tim Cook bekannte, er wolle nicht, dass sein Neffe soziale Netzwerke benutze.

Dem Center for Humane Technology haben sich prominente Mitglieder angeschlossen, darunter zum Beispiel der frühere Facebook-Manager Justin Rosenstein, der den "Gefällt-mir"-Knopf erfunden hat. Roger McNamee, einer der frühen Investoren bei Facebook, bereut es mittlerweile sehr, dass es unter anderem mit seinem Geld möglich wurde, etwas wie das soziale Netzwerk zu schaffen: "Facebook spricht unser Reptilienhirn an - vor allem Furcht und Wut. Und mit den Smartphones haben sie einen ständig am Wickel solange man wach ist." Als erstes konkretes Projekt will die Gruppe der Kritiker eine Webseite veröffentlichen, die schädliche Effekte verschiedener Technologien zeigen und Programmierern als Leitfaden dienen soll. Außerdem will die Gruppe auch Lobbyarbeit betreiben mit dem Ziel, die Macht der großen Digitalkonzerne zu beschränken. Dazu sollen Gesetzesvorhaben unterstützt werden wie etwa das des demokratischen Senators Edward J. Markey: Er will eine Untersuchung des Einflusses von Technik auf Kinder durchsetzen. Erst vor einigen Tagen hatten sich mehrere Kinderärzte und Psychologen an Facebook mit der Forderung gewandt, eine Chat-App wieder einzustellen, die sich an Kinder von sechs Jahren richtet. Der "Messenger Kids", den Eltern für ihre Kinder einrichten müssen, ziele auf eine verletzliche Gruppe, die von ihrer Entwicklung her nicht darauf vorbereitet sei, an einem sozialen Netzwerk teilzunehmen, heißt es in einem Schreiben an Facebook.

Auf die Zahlen von Facebook haben diese Aktionen bis jetzt keinen Einfluss. Das Unternehmen verdient prächtig mit Werbung. Immerhin aber ist erstmals in der Geschichte der Firma die Zahl der täglich aktiven Nutzer in den USA und Kanada zurückgegangen. Als Anzeichen für einen Niedergang taugen diese Zahlen aber freilich nicht.

Weniger…

Facebook versorgt den Stammtisch mit Crystal Meth

Das Netzwerk will emotionaler werden - angeblich, damit Nutzer dort "sinnvoll Zeit verbringen". Dabei geht es Facebook um etwas ganz anderes. Kommentar von Andrian Kreye

Mehr…

Wenn Facebook seine Algorithmen ändert, sind die Folgen für seine zwei Milliarden Nutzer gewaltig. Das soziale Netzwerk kann mit solchen Veränderungen der automatisierten Abläufe auf seinem Portal die kollektive Laune seiner Nutzer beeinflussen. Bereits 2012 hatte das Unternehmen das in einem Experiment erfolgreich erprobt. Als Facebook-Gründer Mark Zuckerberg nun ankündigte, man werde die Gewichtung der Nachrichten, die Nutzer zu sehen bekommen, neu justieren, erinnerte das deutlich an diese Menschenversuche. In Zukunft sollen die Nutzer mehr Texte, Fotos, Videos und Links zu sehen bekommen, die von Freunden und Familie stammen. Vor allem aber sollen jene Posts bevorzugt werden, die Reaktionen auslösen, also kommentiert und weitergeleitet werden. Kurz gesagt, Facebook soll emotionalisiert werden. Das allerdings ist keine gute Idee.

Mark Zuckerberg klingt zwar fürsorglich, fast klassenkämpferisch. Er wolle verhindern, dass Firmen, Marken und Medien die Beiträge normaler Nutzer verdrängen. In Wahrheit geht es ums Geschäft. Im Gegensatz zum Konkurrenten Google, der sich als Holdingfirma Alphabet neu definiert hat, kann Facebook mit seinem Fokus auf Anzeigen kaum noch wachsen. Das muss es als börsennotiertes Unternehmen aber. Doch fast jeder Mensch, der Zugang zum Internet hat, ist bei Facebook angemeldet. Wenn also die Zahl der Nutzer nicht mehr steigen kann, muss es eben das Volumen der Nutzungen. Das aber funktioniert nur über Emotionen. Auf Facebook dominieren Empörung, Wut und Angst Was das bedeutet, hat der US-Wahlkampf 2016 gezeigt. Am besten funktionieren auf den sozialen Netzwerken Empörung, Wut und Angst. Das bringt die Nutzer zum Weiterleiten und Kommentieren. Humor und Begeisterung stehen da weit hintan. Das steckt tief in der DNA des Unternehmens. In seiner ganz frühen Form, die Zuckerberg und seine Freunde in ihren Studentenbuden an der Harvard-Universität programmierten, war das soziale Netzwerk ein Mobbingportal, um Frauen zu bewerten. Betrachtet man die Wutwellen während des US-Wahlkampfes, so erscheint es, als habe sich dieser digitale Urschleim bis heute gehalten. Zuckerbergs Plan, Facebook zu emotionalisieren, wirkt deswegen, als würde er einem aufgebrachten Stammtisch einen Beutel Crystal Meth hinstellen und den Erzürnten viel Vergnügen damit wünschen. Die werden in der Nacht sicher länger bleiben. Allerdings werden sie sich wahrscheinlich auch an die Gurgel gehen. Das geschieht im Internet zwar nur virtuell. Der Effekt auf ganze Gesellschaften ist jedoch durchaus ernst zu nehmen.

Ehemalige Facebook-Mitarbeiter warnen vor Facebook Soziale Netzwerke können süchtig machen, und die Betreiber wissen das. Facebook-Mitgründer Sean Parker warnte im Herbst davor, dass man solche Mechanismen bewusst programmiert habe. Der größte Hohn der Ankündigung ist deswegen der letzte Satz von Zuckerberg: "We can help make sure that Facebook is a time well spent." (Wir können dabei helfen sicher zu stellen, dass man auf Facebook sinnvoll Zeit verbringt). "Time Well Spent" ist der Name der Organisation, die Tristan Harris gründete. Der ehemalige Designer für sogenannte Nutzererfahrungen im Internet war der erste der prominenten Silicon-Valley-Aussteiger, die seit einigen Monaten vor den Suchtgefahren des Internets und den Folgen für Demokratie und Gesellschaft warnen. So viel Zynismus hätte man einem Unternehmer im Jahr 2018 nicht mehr zugetraut.

Weniger…

Youtubes Lügenalgorithmus

Ein Programmierer hat den Algorithmus von Youtube analysiert. Zeigt die Videoplattform sensationslüsterne Inhalte lieber als nüchterne Analysen? Von Michael Moorstedt

Mehr…

Die Videos, mit denen die weltgrößte Online-Unterhaltungsplattform zuletzt in die Schlagzeilen kam, wirken wie die Inhaltsangabe eines Horrorfilms. Da gab es Rowdys zu sehen, die sich über die Leiche eines Selbstmörders lustig machen, Comicfiguren, die Bleichmittel trinken oder blutige Schlägereien unter Schulkindern. Zu sagen, Youtube habe momentan ein PR-Problem, ist eine fahrlässige Untertreibung. Das Unternehmen behilft sich mit den bekannten und vermeintlich bewährten Mitteln: mehr schlecht bezahlte Moderatoren und automatisierte Programme. Seit letzter Woche kennzeichnet man auch Videos staatlicher Nachrichtenorganisationen, um für mehr Transparenz zu sorgen. Man habe verstanden, so schrieb Youtube-Chefin Susan Wojcicki, dass man eine "gesellschaftliche Verantwortung" habe und lasse sich deshalb von vielen Stellen beraten, wie man dieser gerecht werden könne. Vielleicht aber bekämpfen all diese Maßnahmen nur die Symptome, nicht die Ursachen. Zu denen gehört unbedingt der Algorithmus, der festlegt, welche Videos den Nutzern vorgeschlagen werden. In der automatisierten Aufmerksamkeitsökonomie, die die Regeln auf Youtube - und allen anderen sozialen Netzwerken - bestimmt, wird das belohnt und gefördert, was den Nutzer vor dem Bildschirm bindet. Das sogenannte User Engagement ist die alles bestimmende Messzahl. Nur durch sie kann man mehr Werbung verkaufen. Anscheinend werden spaltende Inhalte nach oben geschwemmt Der französische Programmierer Guillaume Chaslot hat an diesem Algorithmus mitgearbeitet. Drei Jahre war er bei Youtube beschäftigt, 2013 wurde er entlassen. Nachdem es Außenstehenden so gut wie unmöglich ist, einen Einblick in die Wirkmechanismen des Algorithmus zu bekommen, muss man sich relativ rabiater Methoden bedienen, um ihn nachzuvollziehen: Klicken und sehen, was passiert. Also schrieb Chaslot eine Software, die das Verhalten eines prototypischen Youtube-Nutzers simulieren sollte. Es startet mit einer Textsuche und arbeitet sich dann durch den Video-Strang, die der Empfehlungsalgorithmus an erster Stelle präsentiert. 18 Monate lang ließ Chaslot sein Programm sich durch Tausende von Videos klicken. Und er behauptet, ein Muster erkennen zu können. Es scheine so, als würden die im Youtube-Maschinenraum werkelnden Mechanismen systematisch spaltende, sensationslüsterne und verschwörerische Inhalte nach oben schwemmen. "Fiktion übertrifft Wirklichkeit", sagt Chaslot. Auf der Website Algotransparency.org listet er die Ergebnisse seines Programms auf. Zu so gut wie jeder beliebten Verschwörungstheorie gibt es dort eine eigene Kategorie: Ist die Erde flach? Gab es die Dinosaurier wirklich? Lösen Impfungen Autismus aus? Und wie ist das eigentlich mit der globalen Erwärmung? Die Ergebnisse tendieren sehr stark in Richtung des Fantastischen. Wahrheit klickt sich nicht gut.

Das gilt nicht nur für wissenschaftliche Fragen, sondern auch für die politische Sphäre. So etwa vor der US-Präsidentschaftswahl 2016. Von den 600 am häufigsten empfohlenen Videos, die sich mit den beiden Kandidaten beschäftigen, hätten mehr als 80 Prozent eine starke Pro-Trump-Gewichtung. Auch zur Bundestagswahl 2017 listet die Website die beliebtesten Videos auf. Die Titel der Top 20 lesen sich erstaunlich kohärent: Da wird Merkel "zerlegt", während der AfD-Mann Meuthen "begeistert", von "linksgrüner Ideologie" ist die Rede und vom "eigenen Grab", das sich sämtliche Unions- und SPD-Wähler selbst schaufeln. Mit den Ergebnissen konfrontiert, zeigt man sich bei Youtube uneinsichtig. Die Empfehlungen seien Reflexion dessen, wonach die Menschen eben suchen. Dass man selbst Teil eines sich selbst verstärkenden Kreislaufs ist, will man anscheinend nicht einsehen. Die Youtube-Replik sei das Gleiche, schrieb die Soziologin Zeynep Tufekci auf Twitter, als würde eine Schulkantine nur noch Süßigkeiten anbieten und sich darauf berufen, dass die Kinder das doch mögen.

Weniger…