Am Abend des 17. Februar 2018 veröffentlichte die angesehene Historikerin Mary Beard auf Twitter ein Foto von sich, auf dem sie weinte. Beard, die in Cambridge lehrt, hat fast 200.000 Twitter-Follower. Sie war verzweifelt. Ein Tweet, in dem sie einen Kommentar über den Oxfam-Skandal in Haiti abgegeben hatte, löste einen Shitstorm aus. Sie habe aus tiefstem Herzen gesprochen, twitterte sie anschließend, und natürlich könne sie sich irren. „Aber der Mist, den ich als Antwort darauf bekomme, ist einfach nicht in Ordnung; wirklich nicht.“
In den folgenden Tagen erhielt Beard Unterstützung von hochkarätigen Persönlichkeiten. Greg Jenner, ebenfalls ein bekannter Historiker, twitterte über seine eigenen Erfahrungen mit einem Twittersturm: „Ich werde nie vergessen, wie traumatisch es war, plötzlich von Fremden gehasst zu werden. Mal ganz abgesehen von moralischen Fragen – ob ich falsch oder richtig lag mit meiner Meinung – staunte ich (später, als ich mich erholt hatte), wie sehr mich das Ganze seelisch aus dem Gleichgewicht gebracht hat.“
Diejenigen, die Beard auf Twitter unterstützten, wurden dann selbst attackiert, und zwar unabhängig davon, ob die Unterstützer ihren ersten Tweet richtig fanden oder nicht. Priyamvada Gopal, eine Kollegin Beards und von asiatischer Herkunft, hatte Beards ursprünglichen Tweet ebenfalls kritisiert und legte ihre Antwort in einem Online-Artikel da. Anschließend wurde auch sie mit einer Flut an Beschimpfungen überzogen.
Es gibt erdrückende Beweise dafür, dass Frauen und Angehörige ethnischer Minderheiten unverhältnismäßig stark auf Twitter beschimpft werden. Trifft auf eine Person gleich beides zu, kann das Mobbing besonders intensiv werden. Die schwarze Abgeordnete Diane Abbott hat das in Großbritannien in einer extremen Form erfahren: Fast die Hälfte aller ausfallenden Tweets an weibliche Abgeordnete gingen im Vorfeld der Parlamentswahlen 2017 an sie. Schwarze und asiatische Frauen im Parlament bekamen im Durchschnitt 35 Prozent mehr beleidigende Tweets ab als ihre weißen weiblichen Kollegen, selbst, wenn man Abbott von der Gesamtzahl ausklammert.
Die ständige Flut von Anfeindungen, zu denen auch Mord- und Vergewaltigungsdrohungen gehören, bringt Menschen zum Schweigen, vertreibt sie von Online-Plattformen und reduziert die Vielfalt der Stimmen und Meinungen im Internet immer noch weiter. Es gibt keinerlei Anzeichen dafür, dass das besser wird. Eine Umfrage im vergangenen Jahr ergab, dass 40 Prozent der amerikanischen Erwachsenen persönlich online beleidigt wurden, fast die Hälfte von ihnen wurden schwer belästigt, einschließlich körperlicher Drohungen und Stalking. 70 Prozent der Frauen bezeichneten Online-Attacken als „großes Problem“.
Je mehr Menschen reagieren, umso mehr Werbung ist möglich
Ein Grund dafür liegt darin, dass die Geschäftsmodelle der Social Media Plattformen wie YouTube und Facebook Inhalte fördern, die bei anderen Nutzern eine Resonanz hervorrufen. Denn mehr Engagement bedeutet ganz einfach mehr Möglichkeiten für Werbung. Dies aber hat zur Folge, dass die Plattformen kontroverse und stark emotionale oder extreme Inhalte begünstigen. Diese wiederum können Online-„Blasen“ verstärken, in denen Menschen Gruppen bilden, die nur ihre eigenen Ansichten widerspiegeln und verbreiten wollen. In der Folge verbreiten sich extreme Inhalte immer stärker, es bildet sich eine Nische für „Fake News“. Forscher konnten in den vergangenen Monaten vielfach zeigen, dass verschiedene Interessengruppen – darunter russische Agenten – versucht haben, die öffentliche Meinung zu manipulieren, indem sie in diese Blasen in den sozialen Medien eindrangen.
Wir Menschen haben die Fähigkeit, Ideen über Netzwerke zu kommunizieren. So haben wir es geschafft, die moderne Welt aufzubauen. Das Internet gibt uns nie dagewesene Möglichkeiten der Zusammenarbeit und Kommunikation innerhalb der gesamten Menschheit. Aber anstatt die massive Erweiterung unserer sozialen Kreise im Netz zu begrüßen, scheinen wir auf Tribalismus und Konflikte zurückzugreifen. Der Glaube daran, dass das Internet die Menschheit in einem großartigen, kollaborativen Netzwerk zusammenbringen könnte, scheint naiv zu sein.
Während wir im Allgemeinen mit Fremden höflich und respektvoll umgehen, können wir uns online anscheinend leichter daneben benehmen. Wie also können wir die Techniken der Zusammenarbeit wieder neu erlernen, die es uns in der Vergangenheit ermöglicht haben, gemeinsame Grundlagen zu finden und als Spezies voranzukommen?
Finanziell stehst du besser da, wenn du egoistischer bist
Ich klicke auf einen Betrag, bin im Handumdrehen verarmt und gehe weiter zur nächsten Frage. Denn ich weiß, dass wir alle gegen die Uhr spielen. Meine Teamkollegen sind weit weg, und ich weiß nicht, wer sie sind. Ich habe keine Ahnung, ob wir alle zusammenhalten oder ob man mich für einen Deppen hält. Aber ich mache weiter. Weil ich weiß, dass die anderen von mir abhängen.
Das Spiel, bei dem ich hier mitmische, nennt man ein „Spiel um öffentliche Güter“, Veranstalter ist das Labor für menschliche Zusammenarbeit an der Yale University. Die Forscher nutzen das Spiel, um zu verstehen, wie und warum wir Menschen zusammenarbeiten. Und ob wir unser prosoziales Verhalten – also Verhalten zugunsten anderer – verbessern können.
Im Laufe der Jahre haben Wissenschaftler verschiedene Theorien darüber aufgestellt, was Menschen dazu bringt, so gut zusammenzuarbeiten, dass wir starke Gesellschaften bilden. Dass wir allgemein nett zueinander sind, liegt nach heutiger Ansicht der meisten Forscher aus evolutionärer Sicht an einem individuellen Überlebensvorteil, den Menschen erfahren, wenn sie als Gruppe zusammenarbeiten. Die Laborgruppe in Yale erforscht einen außergewöhnlichen menschlichen Impuls: Nämlich, dass wir manchmal anderen gegenüber nett sind, auch wenn das auf unsere eigenen Kosten geht.
Das Spiel, das ich auf der Online-Plattform Amazon Mechanical Turk spiele, ist eines der laufenden Experimente des Labors. Ich gehöre zu einem Team von vier Leuten an verschiedenen Orten, jeder von uns bekommt einen bestimmten Geldbetrag zum Spielen, der bei allen gleich hoch ist. Dann sollen wir entscheiden, wie viel Geld wir in eine Gemeinschaftskasse einzahlen – wir wissen, dass dieser Einsatz dann verdoppelt und gleichmäßig unter uns aufgeteilt wird.
Um ein soziales Dilemma wie dieses zu bewältigen, braucht es – wie bei jeder Zusammenarbeit – ein gewisses Maß an Vertrauen darin, dass die anderen in deiner Gruppe dir freundlich gesinnt sind. Wenn jeder in der Gruppe sein ganzes Geld beisteuert, wird die Gesamtsumme verdoppelt, in vier Teile umverteilt und jeder verdoppelt seinen Einsatz. Win-Win!
„Wenn man es aber aus der Perspektive des Einzelnen betrachtet“, sagt Laborleiter David Rand, „wird jeder Dollar, den man beisteuert, auf zwei Dollar verdoppelt und dann in vier Teile aufgeteilt – was bedeutet, dass jede Person nur 50 Cent auf den Dollar zurückbekommt.“
Allen gemeinsam geht es besser, wenn sie zu einem Gruppenprojekt beitragen, das niemand allein schaffen kann. Im richtigen Leben könnte das ein Krankenhaus oder ein gemeinschaftlich genutzter Bewässerungsgraben sein. Trotzdem entstehen Kosten auf individueller Ebene. Finanziell stehst du besser da, wenn du egoistischer bist.
„Nicht lange nachdenken, sondern einfach den Knopf drücken!“
Für Rands Team haben Tausende dieses Spiel getestet. So wie ich wird die Hälfte davon gebeten, über ihren Beitrag schnell – innerhalb von zehn Sekunden – zu entscheiden. Die andere Hälfte darf sich Zeit nehmen und ihre Entscheidung sorgfältig überdenken. Es stellt sich heraus, dass Menschen viel großzügiger sind, wenn sie ihrem Bauchgefühl folgen, als wenn sie Zeit zum Nachdenken haben.
„Es gibt viele Beweise dafür, dass Zusammenarbeit ein zentrales Element der menschlichen Evolution ist“, sagt Rand. Individuen profitieren von der Zusammenarbeit der Gruppe und haben eine höhere Überlebenschance. Die Möglichkeit, in der Gruppe zu bleiben und davon zu profitieren, hängt davon ab, ob wir an Kooperation glauben.
„In den kleinen Gemeinschaften, in denen unsere Vorfahren gelebt haben, ging es bei allen Interaktionen um Menschen, die wir bald wiedersehen würden und mit denen wir wieder zusammenarbeiten mussten“, sagt Rand. Das bremste jede Versuchung aus, aggressiv zu handeln oder andere Leute zu übervorteilen. „Es machte auf eigennützige Weise Sinn, kooperativ zu sein.“
Zusammenarbeit schafft mehr Zusammenarbeit – das ist ein für alle Seiten vorteilhafter Kreislauf. Sei nett zu anderen Menschen: Es ist effizienter und weniger aufwändig, sich an diese Grundregeln zu halten, als jedes Mal neu herauszufinden, ob es langfristig gut für uns ist, wenn wir uns diesmal freundlich verhalten. Deshalb ist die spontane Reaktion von Menschen im Yale-Experiment, dass sie großzügig sind.
Im Laufe unseres Lebens lernen wir von der Gesellschaft um uns herum, dass wir und wie wir kooperativ wir sein sollen. Aber unser erlerntes Verhalten kann sich schnell ändern.
Die Teilnehmer des Experiments, die die Schnellfeuerrunde spielen, sind meist großzügig und erhalten daraus stattliche Dividenden. Das verstärkt ihre großzügige Herangehensweise noch. Bei denen aber, die ihre Entscheidungen egoistischer treffen und so für eine klamme Gemeinschaftskasse sorgen, verstärkt das die Vorstellung, dass es sich nicht lohnt, sich auf die Gruppe zu verlassen.
In den sozialen Medien kannst du anonym fies sein
In einem weiteren Experiment vergab Rand also eine kleine Summe an Teilnehmer, die bereits eine Runde des Spiels hinter sich hatten. Dann sollten diese sagen, wie viel sie einem anonymen Fremden überlassen würden. Diesmal gab es keinen zusätzlichen Anreiz; das Geben war reine Wohltätigkeit.
Es stellte sich heraus, dass es auch hier große Unterschiede gab. Die Teilnehmer, die sich in der ersten Stufe des Spiels schon an Zusammenarbeit gewöhnt hatten, gaben in der zweiten Stufe doppelt so viel Geld ab wie die Menschen, deren Egoismus bestätigt worden war. „Wir beeinflussen also das Innenleben und das Verhalten der Menschen“, sagt Rand. „Wie sie sich benehmen, auch wenn niemand zusieht und wenn es keine Institution gibt, die sie bestrafen oder belohnen kann.“
Rands Team hat auch getestet, wie Menschen in verschiedenen Ländern dieses Spiel spielen. Ziel war zu sehen, wie die Stärke sozialer Institutionen – also Regierung, Familie, Bildung und Rechtssysteme – das Verhalten von Menschen beeinflusst. In Kenia, wo die Korruption im öffentlichen Sektor hoch ist, gaben die Spieler Fremden zunächst weniger großzügig als Spieler in den USA, wo die Korruption niedriger ist. Dies deutet darauf hin, dass Menschen, die sich auf relativ gerechte soziale Institutionen verlassen können, sich mehr sozial engagieren. Diejenigen, die sich auf Institutionen weniger verlassen können, sind protektionistischer. Nachdem sie jedoch nur eine Runde der kooperationsfördernden Version des Spiels um öffentliche Güter gespielt hatten, entsprach die Großzügigkeit der Kenianer der der Amerikaner. Umgekehrt war es genau so: Amerikaner, die das Spiel auf Egoismus getrimmt hatte, gaben weniger.
Gibt es also etwas in der Online-Kultur sozialer Medien, das manche Menschen dazu bringt, sich bösartig zu verhalten? Alte Jäger-Sammler-Gesellschaften sind zum Überleben auf Kooperation und Teilen angewiesen und haben oft Regeln dafür, wann sie wem über ihr soziales Netzwerk Nahrung anbieten. Soziale Medien hingegen haben schwache Institutionen. Sie bieten räumliche Distanz, relative Anonymität und wenig Reputations- oder Strafrisiko für schlechtes Verhalten: Wenn du gemein bist, wird niemand, den du kennst, es mitkriegen.
Wer sich moralisch empört, fühlt sich gut
In Molly Crocketts Psychologielabor an der Yale-Universität untersuchen Forscher moralische Entscheidungen in der Gesellschaft. Ein Schwerpunkt liegt auf der Frage, wie soziale Emotionen online umgesetzt werden, insbesondere moralische Empörung. Studien von Gehirn-Scans zeigen: Wenn Menschen moralisch empört sind, wird das Belohnungszentrum ihres Hirns aktiviert – sie fühlen sich gut dabei. Dies verstärkt ihr Verhalten, so dass sie sich in Zukunft wahrscheinlich ähnlich verhalten. Wenn sie also jemanden sehen, der gegen eine soziale Norm verstößt und seinen Hund auf einem Spielplatz Gassi führt und den Täter öffentlich damit konfrontieren, fühlen sie sich danach gut. Zwar birgt es Risiken, einen Verstoß gegen die sozialen Normen deiner Gemeinschaft anzuprangern – du kannst angegriffen werden –, aber es verbessert auch deinen Ruf.
In unserem relativ friedlichen Leben sind wir selten mit ungeheuerlichem Verhalten konfrontiert. Also bringen wir selten unsere moralische Empörung zum Ausdruck. Aber ein Klick auf Twitter oder Facebook zeigt ein ganz anderes Bild. Neuere Forschungen belegen, dass Nachrichten, in denen moralische oder emotionale Begriffe und Wörter vorkommen, sich häufiger in sozialen Medien verbreiten – jedes moralische oder emotionale Wort in einem Tweet erhöht die Wahrscheinlichkeit, dass es retweetet wird, um 20 Prozent.
„Inhalte, die Empörung auslösen und Empörung ausdrücken, werden viel eher geteilt“, sagt Crockett. Was wir also online geschaffen haben, ist „ein Ökosystem, das nach den unverschämtesten Inhalten sucht, gepaart mit einer Plattform, auf der es einfacher denn je ist, Empörung auszudrücken“.
Im Gegensatz zur Offline-Welt geht man im Internet kein persönliches Risiko ein, wenn man einen anderen Menschen konfrontiert oder bloßstellt. Nötig sind nur ein paar Klicks auf eine Schaltfläche, und man muss noch nicht mal physisch in der Nähe der Person sein. Folglich wird online viel mehr Empörung ausgedrückt. Und sie füttert sich selbst.
„Wenn du jemanden dafür bestrafst, dass er gegen eine Norm verstößt, macht dich das für andere vertrauenswürdiger. Du kannst deine moralischen Vorstellungen verbreiten, indem du deine Empörung zum Ausdruck bringst und Verstöße gegen die soziale Norm bestrafst“, sagt Crockett. „Und die Menschen glauben, dass sie Gutes verbreiten, indem sie sich empören – dass sie von einem Standpunkt der Moral und Rechtschaffenheit daherkommen.“
„Offline kannst du dein Ansehen nur bei denen steigern, die gerade in der Nähe sind. Online überträgt sich dieser Effekt auf dein gesamtes soziales Netzwerk, und das erhöht drastisch das Gefühl der Belohnung, wenn du deiner Empörung Luft machst.“
Algorithmen kontrollieren unsere Wertvorstellungen
Dies wird noch verstärkt durch das Feedback, das Menschen auf Social Media erhalten, durch Likes und Retweets und dergleichen. „Unsere Hypothese ist, dass das Konzept dieser Plattformen das Ausdrücken von Empörung zur Gewohnheit machen könnte. Eine Gewohnheit ist etwas, das man ohne Rücksicht auf Folgen macht – es ist egal, was als nächstes passiert, das ist nur eine blinde Reaktion auf einen Reiz“, erklärt Crockett.
„Ich denke, wir sollten als Gesellschaft darüber diskutieren, ob wir wirklich wollen, dass unsere Wertvorstellungen von Algorithmen kontrolliert werden, deren Zweck es ist, Geld für riesige Technologieunternehmen zu verdienen“, fügt sie hinzu. „Ich denke, wir alle würden gerne glauben und fühlen, dass unsere moralischen Emotionen, Gedanken und Verhaltensweisen nicht eine Kurzschlussreaktion auf das sind, was wir gerade vor uns haben und von dem unser Smartphone-Designer denkt, dass es ihm den größten Gewinn bringen wird.“
Andererseits hat gerade die Tatsache, dass es uns online weniger kostet, Empörung zu äußern, marginalisierten und schwächeren Gruppen die Möglichkeit gegeben, sich für Dinge einzusetzen, bei denen das traditionell schwieriger ist. Die moralische Empörung über Social Media hat eine wichtige Rolle dabei gespielt, Aufmerksamkeit dafür zu generieren, dass hochrangige Männer Frauen sexuell missbraucht haben. Und im Februar 2018 halfen Teenager in Florida, die in den Sozialen Medien eine Schießerei an einer Highschool in ihrem Staat anprangerten, die öffentliche Meinung zu verändern und konnten so eine Reihe von Großunternehmen dazu bewegen, ihre Rabattprogramme für Mitglieder der National Rifle Association, der US-Waffenlobby, abzuschaffen.
„Es muss Wege geben, die Vorteile der Online-Welt aufrechtzuerhalten“, sagt Crockett, „während wir gleichzeitig genauer darüber nachdenken, wie wir diese Interaktionen neu gestalten können, um einige der unerwünschten Komponenten zu beseitigen.“
Influencer können auch für wohltätige Zwecke eingesetzt werden
Jemand, der viel über die Gestaltung unserer Wechselbeziehungen in sozialen Netzwerken nachgedacht hat, ist Nicholas Christakis, Direktor des Human Nature Lab der Universität von Yale. Sein Team untersucht, wie unsere Position in einem sozialen Netzwerk unser Verhalten beeinflusst und wie bestimmte einflussreiche Personen die Kommunikationskultur eines ganzen Netzwerks grundlegend verändern können.
Das Team sucht nach Möglichkeiten, diese Personen zu identifizieren und sie in Programme im Bereich des Gesundheitswesens einzubeziehen, die der Gemeinschaft zugute kommen könnten. In Honduras nutzen sie diesen Ansatz, um beispielsweise Impfungen zu bewerben und die Betreuung der Mütter zu verbessern. Online haben solche Menschen das Potenzial, eine Mobbing-Kultur in eine Kultur der Hilfe umzuwandeln.
Unternehmen nutzen bereits ein einfaches System zur Identifizierung sogenannter Instagram-Influencer, die ihre Marken für sie bewerben. Aber Christakis betrachtet nicht nur, wie beliebt eine Person ist, sondern auch ihre Position im Netzwerk und die Art dieses Netzes. In einigen Netzwerken ist jeder mit jedem eng verbunden, wie in einem kleinen isolierten Dorf, und würde auf einer Party alle anderen kennen; in einer Stadt hingegen leben die Menschen vielleicht enger zusammen, aber es ist weniger wahrscheinlich, dass man dort nur Bekannte auf einer Party trifft. Wie gut ein Netzwerk funktioniert, beeinflusst die Art und Weise, wie sich Verhaltensweisen und Informationen darin verbreiten, erklärt Christakis.
„Wenn man Kohlenstoffatome nimmt und sie auf eine bestimmte Weise zusammenbaut, werden sie zu Graphit, der weich und dunkel ist. Baust du die gleichen Kohlenstoffatome auf andere Weise zusammen, werden sie zu einem Diamanten, der hart und klar ist. Die Eigenschaften von Härte und Klarheit sind also keine Eigenschaften der Kohlenstoffatome – sie sind Eigenschaften einer Sammlung von Kohlenstoffatomen, und die Ausprägung hängt davon ab, wie man die Kohlenstoffatome miteinander verbindet“, sagt er. „Und so ist es auch mit Gruppen von Menschen.“
Ein Idiot im Netz beeinflusst das Verhalten aller anderen
Um dies bei Menschen zu erforschen, hat Christakis eine Software entwickelt, mit er temporäre künstliche Gesellschaften online schaffen kann. „Wir lassen Menschen hineinkommen und miteinander agieren. Dann lassen wir sie ein Spiel um öffentliche Güter spielen, um beispielsweise zu sehen, wie nett sie zu anderen Menschen sind.“
Dann manipuliert er das Netzwerk. „Indem ich die Interaktionen auf eine bestimmte Weise gestalte, kann ich dafür sorgen, dass sie ausgesprochen liebevoll zueinander sind, gut zusammenarbeiten und gesund und glücklich sind. Ich kann aber die gleichen Leute auch auf eine andere Art und Weise verbinden – und schon verhalten sie sich zueinander wie gemeine Idioten, kooperieren nicht, teilen keine Informationen und sind nicht nett zueinander.“
In einem Experiment wies er willkürlich Fremde an, das Spiel um öffentliche Güter zusammen zu spielen. Am Anfang, sagt er, waren etwa zwei Drittel der Menschen kooperativ. „Aber einige der Menschen, mit denen sie interagieren, nutzten das aus. Die einzigen Optionen der Mitspieler bestehen darin, freundlich und kooperativ zu sein – oder einen Alleingang zu machen. Genau das tun sie dann, weil sie nicht ausgenutzt werden wollen. Und am Ende des Experiments verhält sich jeder wie ein Idiot zu allen anderen.“
Christakis drehte das Ganze einfach um, indem er jeder Person ein wenig Kontrolle darüber gab, mit wem sie nach jeder Runde verbunden war. „Sie mussten zwei Entscheidungen treffen: Bin ich nett zu meinen Nachbarn oder bin ich es nicht; und halte ich an diesem Nachbarn fest oder tue ich es nicht.“ Das einzige, was jeder Spieler über seine Nachbarn wusste, war, ob er zuvor in der Runde zusammengearbeitet oder egoistisch gehandelt hatte. „Was wir zeigen konnten, ist, dass die Menschen die Verbindungen zu den Alleingängern kappen und Verbindungen zu den Kooperativen herstellen. Das Netzwerk hat sich neu gebildet und sich gewissermaßen von einer graphitartigen in eine diamantartige Struktur umgewandelt.“ Mit anderen Worten: von einer unkooperativen zu einer kooperativen, prosozialen Struktur.
Um kooperativer Online-Communities zu generieren, hat das Team von Christakis damit begonnen, Bots in ihre temporären Gesellschaften aufzunehmen. Er zeigte mir ein weiteres Spiel, in dem anonyme Spieler als Team zusammenarbeiten müssen, um ein Dilemma zu lösen, mit dem Fliesenleger vertraut sind: Jeder Spieler muss aus einer von drei Farben eine auswählen, aber die Farben der direkt miteinander verbundenen Spieler müssen unterschiedlich sein. Wenn wir das Rätsel innerhalb einer bestimmten Zeit lösen, bekommen wir alle einen Anteil am Preisgeld; wenn wir scheitern, bekommt niemand etwas. Ich spiele mit mindestens 30 anderen Leuten zusammen. Keiner von uns kann das ganze Netzwerk an Verbindungen sehen, nur die Menschen, mit denen wir direkt verbunden sind – wir müssen zusammenarbeiten, um zu gewinnen.
Ich bin mit zwei Nachbarn verbunden, deren Farben Grün und Blau sind, also nehme ich Rot. Mein linker Nachbar wechselt dann auf Rot, also wechsle ich schnell auf Blau. Das Spiel geht weiter, und ich werde immer angespannter und verfluche meine langsamen Reaktionszeiten. Ich muss häufig meine Farbe wechseln und auf unsichtbare Änderungen an anderer Stelle im Netzwerk reagieren, die eine ganze Kaskade an Änderungen entlang der Verbindungen auslösen. Die Zeit ist um, bevor wir das Rätsel lösen, das löst wütende Antworten in der Kommentarbox des Spiels von entfernten Spielern aus, die die Dummheit aller anderen anprangern. Persönlich bin ich erleichtert, dass es vorbei ist und niemanden mehr von meinem ungeschickten Spiel abhängt, um Geld zu verdienen.
Bots im Netz können uns helfen – und müssen nicht schlau sein
Christakis erzählt mir, dass einige der Netzwerke so komplex sind, dass man das Rätsel nicht innerhalb des vorgegebenen Zeitrahmens lösen kann. Ich bin jedoch nur kurz erleichtert: Die Version, die ich gespielt habe, war lösbar. Er spult das Spiel zurück und zeigt mir zum ersten Mal das ganze Netzwerk. Ich sehe jetzt, dass ich an einem unteren Zweig des Hauptknotenpunkts war. Einige der Spieler waren nur mit einer anderen Person verbunden, aber die meisten mit drei oder mehr Personen. Tausende von Menschen aus der ganzen Welt spielen diese Spiele auf Amazon Mechanical Turk. Was sie anlockt, ist ein schmaler Gewinn, den sie pro Runde erzielen können. Während ich noch das Spiel zu analysieren versuche, das ich gerade gespielt habe, verrät mir Christakis, dass drei der Spieler Bots sind. „Wir nennen sie Dumb-KI“, sagt er.
Sein Team ist nicht daran interessiert, eine superkluge Künstliche Intelligenz (KI) zu erfinden, die menschliche Wahrnehmung ersetzen kann. Stattdessen ist geplant, eine Population von intelligenten Menschen mit diesen dummen Bots zu infiltrieren, um den Menschen zu helfen, sich selbst zu helfen.
„Wir wollten sehen, ob wir die Dumb-Bots nutzen können, damit die Leute zusammenarbeiten und sich ein wenig mehr koordinieren können – wir unterstützen sie in ihrer Fähigkeit, gute Leistungen zu erbringen“, sagt Christakis. Er fand heraus, dass es den Menschen nicht half, wenn die Bots perfekt spielten. Aber wenn die Bots einige Fehler machten, erschlossen sie das Potenzial der Gruppe, eine Lösung zu finden.
„Einige dieser Bots trafen unlogische Entscheidungen. Obwohl ihre Nachbarn alle Grün hatten und sie Orange hätten wählen sollen, nahmen sie stattdessen auch Grün.“ Das wiederum ermöglichte einem der grünen Nachbarn, Orange zu wählen, „was dann wieder den nächsten Kerl freischaltet, auch er kann eine andere Farbe wählen und, wow, schon lösen wir das Problem“. Ohne den Bot wären die menschlichen Spieler wahrscheinlich alle bei Grün geblieben, ohne zu erkennen, dass genau hier das Problem lag. „Die vorübergehende Verschärfung der Konflikte erlaubt es ihren Nachbarn, bessere Entscheidungen zu treffen.“
Indem sie dem System ein wenig Rauschen hinzufügten, halfen die Bots dem Netzwerk, effizienter zu arbeiten. Vielleicht könnte eine Version dieses Modells sein, die Newsfeeds voreingenommener Menschen gelegentlich mit Artikeln zu infiltrieren, die eine andere Perspektive bieten. So könnten man diese Menschen darin unterstützen, aus ihren Social-Media-Komfort-Blasen herauszukommen und der Gesellschaft als Ganzes ermöglichen, besser zusammenzuarbeiten.
Ein Großteil des unsozialen Verhaltens im Internet ergibt sich daraus, dass Teilnehmer anonym interagieren – man riskiert viel weniger, wenn man gemein ist. Auch hier können Bots eine Lösung bieten. Ein Experiment hat ergeben, dass das Ausmaß rassistischer Tweets gegenüber schwarzen Nutzern drastisch reduziert werden konnte, wenn Bot-Konten mit weißen Profilbildern auf rassistische Tweeter reagierten. Eine typische Bot-Antwort auf einen rassistischen Tweet etwa könnte sein: „Hey Mann, denk einfach daran, dass es echte Menschen gibt, die es verletzt, wenn du solche Dinge sagst.“ Allein die Tatsache, dass diese Tweets ein wenig Empathie ins Spiel brachten, reduzierte die Zahl der rassistischen Tweets wochenlang fast auf Null.
Entwickler können Strafen oder Belohnungen einbauen
Eine weitere Möglichkeit besteht darin, eine Form der sozialen Bestrafung zu schaffen. Eine Spielefirma, League of Legends, tat genau das, indem sie eine „Tribunal“-Funktion einführte, bei der negatives Spiel von anderen Spielern bestraft wurde. Das Unternehmen berichtete, dass in einem Jahr 280.000 Spieler so „reformiert“ wurden – sie haben nach der Bestrafung durch das Tribunal also ihr Verhalten geändert und dann ein positives Ansehen in der Gemeinschaft erlangen können. Entwickler könnten auch soziale Belohnungen für gutes Verhalten einbauen und mehr kooperative Elemente fördern, die zum Aufbau von Beziehungen beitragen.
Allmählich können die Forscher bereits vorhersagen, wann eine Interaktion kurz vor dem Kippen steht – das ist der Moment, an dem eine präventive Intervention sinnvoll sein könnte. „Man könnte meinen, dass es eine Minderheit an Soziopathen online gibt, die sogenannten Trolle, und dass die all diesen Schaden anrichten“, sagt Cristian Danescu-Niculescu-Mizil vom Institut für Informationswissenschaft der Cornell-Universität. „Bei unserer Arbeit stellen wir aber fest, dass normale Menschen wie du und ich dieses unsoziale Verhalten an den Tag legen können. Für einen bestimmten Zeitraum kannst auch du ein Troll werden. Und das ist überraschend.“
Es ist auch alarmierend. Ich blättere geistig zurück durch meine eigenen Tweets und hoffe, dass ich nicht schon einmal gemobbt habe, um meinen Online-Anhängern gegenüber lustig oder cool zu erscheinen. Schließlich kann es sehr verlockend sein, jemanden zu beleidigen, der weit weg ist und den man nicht kennt, wenn man glaubt, dass es die eigene soziale Gruppe beeindrucken wird.
Danescu-Niculescu-Mizil hat Kommentarfelder unter Online-Artikeln untersucht. Er sieht zwei Hauptauslöser für Trolling: den Kontext des Austauschs – wie sich andere Benutzer verhalten – und die Stimmungslage. „Wenn du einen schlechten Tag hast, oder es zum Beispiel Montag ist, trollst du viel wahrscheinlicher“, sagt er. „An einem Samstagmorgen bist du netter.“
Nachdem Danescu-Niculescu-Mizil auch noch Daten von anderen Personen gesammelt hatte, die sich mit Trollverhalten beschäftigt haben, entwickelte er einen Algorithmus, der mit einer Genauigkeit von 80 Prozent voraussagt, wann jemand kurz davor ist, online beleidigend zu werden. Dies bietet die Möglichkeit, beispielsweise eine zeitliche Verzögerung bei der Veröffentlichung der Antwort einzuführen. Wenn Menschen zweimal nachdenken müssen, bevor sie etwas schreiben, verbessert das den Inhalt des Austauschs für alle: Man erlebt seltener, dass andere sich daneben benehmen, und verhält sich somit auch seltener selbst schlecht.
Die meisten hasserfüllten Beiträge werden ignoriert
Die gute Nachricht zum Schluss ist: Trotz des schrecklichen Verhaltens, das viele von uns online erlebt haben, sind die meisten Interaktionen nett und kooperativ. Moralische Empörung ist sinnvoll und berechtigt, um Hass-Tweets zu hinterfragen. Eine aktuelle britische Studie über Antisemitismus auf Twitter ergab, dass Beiträge, die antisemitische Tweets anfechten, viel weiter verbreitet werden als die antisemitischen Tweets selbst. Die meisten hasserfüllten Beiträge wurden ignoriert oder nur innerhalb einer kleinen Gruppe ähnlicher Accounts geteilt. Vielleicht fangen wir bereits an, die Arbeit der Bots selbst zu erledigen.
Wie Danescu-Niculescu-Mizil betont, hatten wir Tausende von Jahren Zeit, um unsere persönlichen Interaktionen zu verbessern, aber nur 20 Jahre für Social Media. „Offline gibt es allerlei Hinweise wie Gesichtsausdrücke und Körpersprache und Tonlage … während wir online nur schriftlich diskutieren. Es sollte uns nicht allzu sehr überraschen, dass es uns noch schwerfällt, den richtigen Weg zu finden.“
Wenn sich unser Online-Verhalten weiterentwickelt, könnten wir durchaus subtile Signale einführen, etwa digitale Äquivalente von Gesichtsausdrücken, um die Online-Diskussionen zu erleichtern. In der Zwischenzeit ist der beste Rat für den Umgang mit Online-Beleidigungen, ruhig zu bleiben – es ist nicht deine Schuld. Versuche nicht, dich zu rächen, sondern blockiere und ignoriere den Rüpel. Wenn du dich dazu in der Lage fühlst, sag ihm, er soll aufhören. Sprich mit deiner Familie oder deinen Freunden über das, was passiert, und bitte sie, dir zu helfen. Mache Screenshots und melde Online-Belästigungen an den Anbieter deines sozialen Netzwerks. Wenn man dich körperlich bedroht, melde das der Polizei.
Wenn Social Media überleben soll, müssen die Betreiber der Plattformen ihre Algorithmen besser steuern, vielleicht mithilfe verhaltenswissenschaftlicher Erkenntnisse, damit sie Kooperation statt Spaltung und positive Online-Erfahrungen statt Missbrauch fördern. Als Nutzer können wir lernen, uns an die neue Kommunikationsumgebung anzupassen, so dass eine zivile und produktive Zusammenarbeit online wie offline die Norm bleibt.
„Ich bin optimistisch“, sagt Danescu-Niculescu-Mizil. „Es geht hier einfach um ein anderes Spielfeld, und wir müssen uns weiterentwickeln.“
Gaia Vince hat sich als Journalistin auf Wissenschaft und Umwelt spezialisiert. Sie war Chefredakteurin der Zeitschrift „Nature Climate Change“, Nachrichtenredakteurin von „Nature“ und Online-Redakteurin bei „New Scientist“. Ihre Beiträge erscheinen in Zeitungen und Zeitschriften in Großbritannien, den USA und Australien, darunter der „Guardian“, „Science“, „Scientific American“ und „Australian Geographic“. Sie schreibt für BBC Online und konzipiert und präsentiert Wissenschaftssendungen für BBC Radio.
Dieser Artikel erschien auf Englisch im Online-Magazin Mosaic der Stiftung Wellcome. Wir haben ihn übersetzt und veröffentlichen ihn unter einer Creative Commons Lizenz (CC BY 4.0).
Übersetzung: Vera Fröhlich; Redaktion: Theresa Bäuerlein; Bildredaktion: Martin Gommel (Aufmachergrafik: © Derek Brahney for Mosaic)