18 Monate Gefängnis. Dazu verurteilte das Landgericht Würzburg vor wenigen Tagen einen Mann aus Franken, weil er gegen Juden, Ausländer und Flüchtlinge auf Facebook gehetzt hatte. Das Urteil zeigt, wie sehr digitale Debatten inzwischen eskalieren. Da beschweren sich Menschen online, es würden zu wenige Flüchtlingsheime brennen. Da wollte ein berühmter Youtuber Zugführer „alle nach Auschwitz” schicken. Laut BKA hat sich die Zahl der gemeldeten Hasspostings von 2014 auf 2015 verdreifacht. Ein Jahr, nachdem der Chef von Facebook, Mark Zuckerberg, Kanzlerin Angela Merkel zusicherte, dass der Konzern an dem Problem arbeite, hat sich laut Justizminister zu wenig getan. Noch immer wird beleidigt, gedroht, verleumdet, ohne, dass Facebook die Posts schnell löscht.
Aber eigentlich geht es bei der Debatte über „Debattenkultur” um mehr als den Hass im Netz, auch wenn dieses Extrem die meiste Aufmerksamkeit bekommt. Es geht um die Voraussetzung friedlichen Zusammenlebens in einer modernen Gesellschaft: Die Möglichkeit zweier persönlich unbekannter Menschen, sich auszutauschen, ohne verletzend zu werden. Dass das online kaum zu gelingen scheint, ist nicht die alleinige Schuld der Internetkonzerne. Wir selbst führen ja diese Debatten. Wir werden unsachlich und aggressiv, manchmal sogar ohne es zu merken. Geht es auch besser? Und falls ja: wie? Ich habe Lösungen gefunden.
Ziemlich sicher ist aber auch: Der Mensch kann nicht vernünftig diskutieren. Psychologische Studien aus den vergangenen sechzig Jahren kommen zu erstaunlich niederschmetternden Ergebnissen über unser Kommunikationsverhalten. Für sich betrachtet wirken diese Forschungen harmlos. Zusammen betrachtet ergibt sich ein trostloses Bild. Sehr verkürzt sagt die Wissenschaft: Der Mensch ist ein feiger, blasierter, stümperhafter, verbohrter Mitläufer, wenn er in eine Diskussion gerät. Man könnte auch sagen: Der Mensch ist dem Menschen ein Arschloch.
Wie zwei Menschen es trotzdem schaffen, sich nicht anzuschreien, wenn sie anderer Meinung sind, habe ich nicht in den Archiven der Psychologie gelernt, sondern in einem wunderschönen Haus in Dresden. Ausgerechnet dort, wo mit Pegida alles anzufangen schien. In Dresden hat mir Frank Richter, der Vorsitzende der Sächsischen Landeszentrale für politische Bildung, ein einfaches Rezept verraten, um wieder bessere Debatten zu führen. Wir alle haben von seiner Lösung schon einmal gehört, vergessen sie aber immer genau dann, wenn wir sie brauchen: in den Momenten hitziger Debatte.
Ich habe diesen Text geschrieben, weil ich verstehen wollte, wie ich, wie Sie, wie wir besser diskutieren können. Es betrifft ja nicht nur die eingefleischten Politik-Nerds. Wenn sich online Menschen streiten, bekommen wir das mit. Es ist nicht nur eine Frage des gesellschaftlichen Zusammenhaltes, sondern unserer ganz persönlichen Lebensqualität. Oder hören Sie gerne Menschen zu, die sich anschreien?
Die Studien, die ich gleich vorstelle, sind zum Teil sehr komplex, mit sich wiederholenden Versuchsanordnungen. Dafür sind die Ergebnisse umso spannender. Frank Richters einleuchtende Lösung ergibt sich fast logisch aus der Summe der psychologischen Forschung. Bleiben Sie also dran!
Wir werden in diesem Text erleben, dass Menschen zu Idioten werden, wenn sie nicht erkannt werden können (1), dass sich ihre Ansichten unter Gleichdenkenden radikalisieren (2), dass sie sich vor allem unter Gleichdenkenden aufhalten (3), die Internetkonzerne diese Stamm-Bildung sogar fördern (4), dass sich Menschen von ihrem Netzwerk nicht nur Informationen, sondern auch Gefühle diktieren lassen (5), sich für klug halten, obwohl sie keine Ahnung haben (6) und sich zu allem Überfluss auch noch nichts sagen lassen (7).
Fangen wir an:
1. Die Internet-Idioten-Theorie
Das Rezept ist einfach: Wir nehmen eine völlig normale Person, kleiden sie in den Mantel der Anonymität und stellen sie vor ein Publikum. Heraus kommt ein totaler Idiot. So geht die „Great-Internet-Fuckwad-Theory“, die 2004 zum ersten Mal formuliert wurde, aber im Grunde schon bei Platon zu finden ist. Zwei Comic-Autoren haben die Theorie aufgestellt, und falls Sie die Autorität von Comics anzweifeln (Warum sollten Sie das tun?), gibt es auch mehrere Studien, die zu dem gleichen Ergebnis kommen. Menschen, die in der normalen alltäglichen Kommunikation keinerlei antisoziales Verhalten zeigen, ändern ihr Verhalten, sobald niemand sie mehr erkennen und damit auch für ihr Verhalten bestrafen kann: Sie fluchen plötzlich, machen rassistische Witze oder ergehen sich in Masturbationsfantasien. Dieser Enthemmungseffekt ist deutlich älter als das Internet. Ein Artikel im New Yorker beschreibt, wie Amateurfunker in den 1970er Jahren frank und frei über Schwarze herzogen und über Vergewaltigungen spekulierten, wenn sie zu ihrem Funkgerät griffen.
Aber erst online hat das Phänomen seine ganze Wucht entfaltet. Schließlich ist Anonymität oder Pseudonymität fast auf allen Seiten Standard. Der Enthemmungseffekt ist online zu einer Plage biblischen Ausmaßes geworden – als wären die ersten moralischen Gebote der Menschheit, die Freundlichkeit gegenüber den Mitmenschen fordern, nicht selbst schon 3.000 Jahre alt. Deswegen brauchte es scheinbar noch ein Gebot, das Wheaton’sche Gesetz. Es wurde 2004 formuliert und könnte einfacher nicht sein: „Don’t be a dick.“
Allerdings gibt es auch Plattformen wie Facebook, auf denen Anonymität nicht der Standard ist. Diese sind trotzdem kein Fest der Freundlichkeit. Dort ziehen die Menschen übereinander her und es interessiert sie nicht, dass jeder ihren echten Namen lesen kann. Scheinbar gibt es nichts und vor allem niemanden in ihrem Freundeskreis, der sie davon abhalten kann und will. Wahrscheinlich ist sogar: Ihre Bekannten sind Teil des Problems und nicht Teil der Lösung. Das wird im nächsten Abschnitt deutlich.
2. Die krasse Gruppe
Die 1960er Jahre waren in den USA eine Zeit der Verunsicherung. Das Land debattierte über Gleichberechtigung, sexuelle Freiheit und die Gleichstellung der schwarzen Bevölkerung. 1955 schrieb Rosa Parks Geschichte als sie sich weigerte, in einem Bus ihren Platz für einen Weißen zu räumen. 1963 marschierte Martin Luther King nach Washington. Es war also auch die Zeit der großen, grundsätzlichen Debatten.
In Holland, Michigan, luden die beiden Sozialpsychologen David Myers und George D. Bishop drei Gruppen von High-School-Schülern an ihre Universität. Sie wollten eine Theorie testen, die in den Jahren vorher populär wurde: Wenn Menschen mit den gleichen Einstellungen aufeinandertreffen und über diese Einstellungen diskutieren, verstärken diese sich. Myers und Bishop allerdings wollten testen, ob sich Vorurteile gegenüber Schwarzen abschwächten oder verschärften. Dazu teilten sie 256 Schüler in drei Gruppen mit niedrigen, mittleren und hohen Vorurteilswerten und ließen sie jeweils über acht vorgegebene Aussagen diskutieren. Als die Psychologen die Fragebogen auswerteten, wurde ein Muster deutlich: Schüler, die nur wenige Vorurteile über Schwarze hatten, hatten hinterher noch weniger. Schüler, die viele hatten, hatten noch mehr. Beide Gruppen waren durch die Diskussion näher an ihr jeweiliges Extrem gerückt. Diesen Prozess nennen Forscher „Gruppenpolarisierung”.
Was genau ihn auslöst, ist bis heute umstritten. Einige meinen, dass man bei der Diskussion mit Gleichgesinnten neue Argumente hören kann, die die eigene Meinung stärken und deswegen extremer wird. Andere glauben, dass die Meinungen sich verschärfen, weil die Mitglieder der Gruppe gut dastehen wollen, vor ihren Gesinnungsgenossen und deswegen jeweils immer ein bisschen extremer werden, wenn sie sich zu Wort melden. In einer Meta-Analyse (Auswertung von allen Studien zum Thema) stellte Daniel Isenberg fest, dass wahrscheinlich beides wirkt.
Gruppenpolarisierung müsste kein Problem im Netz sein, schließlich ist dort jeder für sich allein. Oder er betritt Facebook. Oder Twitter. Oder ein Forum. Oder Amazon. Oder eine Nachrichtenseite. Oder eine Suchmaschine. Außer er tut irgendetwas im Netz, das über das Checken der Fußball-Ergebnisse hinausgeht. Denn dann verortet er sich sofort in einer Gruppe. Das zeigen die nächsten beiden Punkte. Deswegen ist Gruppenpolarisierung ein gewaltiges Problem im Internet.
3. Der starke Stamm
Niemanden können sie in Post-Pegida-Flüchtlingskrisen-Ukraine-Was-Soll-Das-?-DANKE MERKEL-!!!-Zeiten noch mit der Analyse überraschen, dass Deutschland wie ein gespaltenes Land wirkt. Auf der einen Seite stehen die neuen Rechten, die eine sehr strenge Auslegung des Asylrechts fordern und offen mit NS-Vokabular hantieren. Auf der anderen Seite jene, die in der Flüchtlingspolitik mehr Chancen als Gefahren erkennen oder überhaupt das ganze Problem nicht sehen. Beide Gruppen scheinen sich manchmal in ihren jeweils eigenen Realitäten zu bewegen und unfähig zu sein, noch Gemeinsamkeiten zu finden. Politikwissenschaftler und Psychologen bezeichnen so eine Situation als „extrem polarisiert“: An den Enden eines Meinungsspektrums finden sich mehr Menschen als in der Mitte. Gerade durchlaufen alle Gesellschaften des Westens einen Polarisierungs-Zyklus, aber nirgendwo ist das Phänomen so gut erforscht wie in den USA. Deswegen greife ich auf Daten aus diesem Land zurück:
Jeder Punkt repräsentiert einen politischen Blog. Die Daten stammen aus dem Jahr 2004, aber das ist egal, weil es ums Prinzip geht. Blau markiert sind demokratisch orientierte Blogs, rot sind republikanisch orientiert. Die Striche zwischen den Punkten stehen für Hyperlinks. Wie sie sehen, verlinken rot und blau kaum aufeinander. Die meisten Verweise gehen zu den politischen Gesinnungsgenossen. Nicht nur optisch wirken die beiden Sphären wie Stämme, sie verhalten sich auch so.
„Gleich und gleich gesellt sich gern.” Dieser Spruch dürfte hunderte Jahre alt sein, aber für die ziemlich moderne Erfindung Internet gilt er auch.
4. Der totale Tunnelblick
Dass Eli Pariser, ein heute 35-jähriger Amerikaner ohne technische Ausbildung, einmal ein Kritiker der Internet-Strukturen werden würde, war wenig wahrscheinlich, überhaupt nicht abzusehen und doch von erstaunlicher Konsequenz. Denn mit dem Internet hatte er Dinge vollbracht, die vorher niemand für möglich gehalten hätte. Zum Beispiel 2001 in einem Monat eine Million Stimmen für eine friedliche Reaktion auf die Anschläge des 11. September gesammelt. Oder drei Jahre später 30 Millionen Dollar für die Wahlkampagne gegen Bush – mit einem Wettbewerb um 30-Sekunden-Videoclips. Aber gerade, weil Pariser das Netz nutzte, um politische Ziele zu erreichen, musste er studieren, wie es funktioniert.
Er entwickelte 2011 ein Konzept, dessen Name inzwischen zu einem Allgemeinplatz in den Kommentarspalten dieser Welt geworden ist: die Filterblase. Pariser argumentierte, dass die von den Internet-Konzernen ständig weiter perfektionierte Personalisierung im Netz dazu führe, dass wir nur noch Dinge sehen, die uns in unseren Meinungen bestärken. Ein Beispiel: Wenn ein Umweltschützer und ein Finanzinvestor den Namen der Leverkusener Firma „Bayer” googlen, die gerade den Saatgutkonzern Monsanto übernommen hat, werden sie unterschiedliche Dinge sehen. Der Umweltschützer eher Informationen über die angebliche Gefährlichkeit der Monsanto-Produkte, der Finanzinvestor Analysen der Übernahme. Allerdings ist der wichtigste Markplatz für Informationen heute Facebook. Dort sieht es jedoch ähnlich aus wie bei Google, wie das Wall Street Journal auf beeindruckende Weise visualisiert.
Es gibt erstaunlich wenig Forschung zu diesem berühmten Phänomen. Das könnte vor allem an der Quelle für Daten liegen: Das sind die Konzerne selbst. In einer Studie, die Facebooks Forscher durchgeführt haben, kommen sie zu dem Schluss, dass es den Filterblasen-Effekt gibt, er aber viel schwächer ist als angenommen. Dazu untersuchten sie, wie oft Linke rechte Inhalte auf der Plattform sehen und umgekehrt. Sie beobachten, dass durch die Algorithmen des sozialen Netzwerks fünf bis acht Prozent der jeweiligen Inhalte ausgeblendet werden. Viel wichtiger sind in den Augen der Wissenschaftler aber die Handlungen der Nutzer. Mit wem ich mich auf Facebook umgebe und beschäftige, sei entscheidend. Eli Pariser lobte den wissenschaftlichen Standard der Studie, schränkte aber ein, dass niemand die Ergebnisse überprüfen könne, der nicht den gleichen Zugang zu Daten habe wie die Forscher.
Und er führte noch ein anderes Argument ein – eines, das entscheidend ist, um zu verstehen, wie Menschen online diskutieren und sich informieren. Es sei schwer, zwischen den Effekten des Algorithmus und dem Verhalten der Nutzer zu unterscheiden. Denn: Ist der Algorithmus nicht gerade darauf angelegt, uns auf Basis unserer vermeintlichen Vorlieben immer mehr „relevanten Content“ zu zeigen? Wenn wir nicht klickten, was wüsste dann der Computer? Mit anderen Worten: Maschine und Mensch bilden einen Kreislauf. Die ganze Verantwortung auf die Nutzer abzuschieben, passt vor allem den Aktionären von Facebook in den Kram, lässt aber die grundlegenden Erkenntnisse der Sozialpsychologie außen vor.
Denn eines ist sicher: Es gibt den Filterblasen-Effekt und er wird durch uns selbst verstärkt.
5. Die ansteckende Aggression
Genauso wie echte Stämme bilden auch die digitalen soziale Gemeinschaften. Die Mitglieder kennen, mögen, bekriegen sich, aber, wenn es gegen den gemeinsamen „Feind“, das als fremd eingeordnete Äußere geht, rauft man sich zusammen und tritt geschlossen auf. Noch interessanter ist, dass die Mitglieder dieser Stämme nicht nur Informationen im Sinne von Fakten austauschen, sondern auch Informationen im Sinne von Gefühlen. Offline ist das völlig klar, aber online konnte dieser Effekt nur vermutet werden – bis 2014 im Zeitraum von wenigen Wochen zwei Studien erschienen, die nachweisen, dass sich Emotionen über digitale Netzwerke genauso gut, wenn nicht sogar schneller verteilen können wie in echten.
Die erste Studie mag ich sehr, weil sie beweist, dass ihre Autoren das Netz wirklich gut verstanden haben. Denn sie analysieren Facebook-Posts über das Wetter. Sie haben sich angeschaut, was passierte, als es in bestimmten Städten Nordamerikas zu regnen begann: Die Menschen beschwerten sich darüber online, natürlich. Das machen Menschen. Und steckten im Schnitt einen bis zwei andere Menschen mit ihrer schlechten Laune an. Was zu dem kuriosen Ergebnis führte, dass die Bewohner des sonnenverwöhnten Kaliforniens schlechte Laune bekamen, weil es in New Hampshire an der US-Ostküste regnete. Die zweite Untersuchung konnte zeigen, dass sich auch positive Gefühle wie ein Virus ausbreiten können; es gibt sogar Anzeichen, dass sie sich online noch besser ausbreiten als negative.
Und wenn es nicht um Regen geht, sondern um Terrorangriffe, kann das wegen der großen Ausbreitung von Facebook bedeuten, dass der ganze verdammte Planet schlechte Laune bekommt.
6. Die Achterbahn des Selbstbewusstseins
Das Beste, was das Internet bisher hervorgebracht hat, ist in meinen Augen Wikipedia. Wenn sie mich fragen, sollte man den 30 Millionen (bekannten) Menschen, die das Online-Lexikon bisher geschrieben haben, den Nobelpreis für Literatur verleihen und dem Initiator des Ganzen, Jimmy Wales, noch zu Lebzeiten eine Statue vor der Berliner Staatsbibliothek errichten. Es dürfte in der Geschichte der Menschheit kein anderes Projekt gegeben haben, das so vielen Menschen so viel Wissen so schnell kostenlos zur Verfügung gestellt hat. Aber genau diese Leistung macht die Wikipedia auch zum Teil eines merkwürdigen Phänomens: der Unfähigkeit vieler Menschen, angesichts dieses prinzipiell zugänglichen Wissens die Grenzen des eigenen Wissens richtig einzuschätzen.
Schauen Sie auf diese Achterbahn-Grafik, dann verstehen Sie, was ich meine:
Auf der Y-Achse ist das Selbstbewusstsein einer Person eingezeichnet, auf der X-Achse deren Wissen. Wenn ein Mensch beginnt, sich in ein Thema einzuarbeiten, wird er in sehr kurzer Zeit sehr souverän. Aber je tiefer eine Person sich einliest, je mehr sie weiß, desto mehr wird ihr klar, wie kompliziert das Ganze eigentlich ist – ihre Selbstsicherheit lässt nach – sie weiß plötzlich, was sie nicht weiß. Erst wenn echtes Expertentum beginnt, steigt die Kurve wieder an.
Ein bisschen Googeln reicht eben tatsächlich nicht. Jeder, der schon einmal eine Sprache gelernt hat, kennt dieses Phänomen. „Guten Tag!“ und „Wie geht’s?“ und den Namen und Beruf lernen wir schnell, aber sobald wir einen Satz mit Personalpronomen und Präposition, vielleicht sogar noch in der Vergangenheitsform bilden sollen, sind wir aufgeschmissen. Wenn Sie im nächsten Sprachkurs angeben wollen, erläutern Sie das Phänomen und nennen es wissenschaftlich korrekt den „Dunning-Kruger-Effekt.“ Wenn Sie aber nicht selbst dessen Opfer werden wollen, sollten Sie noch ein bisschen weiterlesen.
Justin Kruger und David Dunning wollten in den 1990er Jahren herausfinden, warum so viele Menschen denken, dass sie brillant sind, obwohl sie objektiv betrachtet keinen blassen Schimmer haben, wovon sie reden. (Das kommt gerade im geistes- und sozialwissenschaftlichen Bereich häufig vor.) Dazu testeten sie das Wissen und die Fähigkeiten ihrer Probanden in Grammatik, Logik und Humor und baten sie anschließend, ihre Leistungen einzuschätzen. Die besten 25 Prozent aus der Gruppe unterschätzten ihre Leistung, die schlechtesten 25 Prozent überschätzten sie hingegen – nicht nur ein wenig, nicht nur um ein paar Punkte, nein. Die schlechtesten Teilnehmer hielten sich selbst sogar für überdurchschnittlich gut. Außerdem fiel es ihnen, anders als den besten Test-Teilnehmern, sehr schwer, die Leistungen der anderen korrekt einzuordnen und daraus für sich selbst Schlüsse über ihre eigenen Fähigkeiten zu ziehen.
Im nächsten Schritt gaben die Forscher ihren Teilnehmern Unterricht auf den jeweiligen Gebieten. Wenn mehr Wissen bessere Selbst-Einschätzung bedeutet, müssten die Test-Teilnehmer ja ihre eigenen Leistungen realistischer sehen. Und tatsächlich: Die besten Test-Teilnehmer korrigierten ihre Einschätzungen nach oben, die schlechtesten ihre Einschätzungen nach unten. Bildung hilft!
Allerdings müssen Sie denjenigen, den sie „bilden“ wollen, erstmal dazu kriegen, ihnen Glauben zu schenken. Das kann fast unmöglich sein, wie die vorletzte Studie zeigt, die ich vorstelle.
7. Die fatale Faktenhuberei
Alle bisher genannten Punkte wären nicht ganz so schlimm, wenn Menschen immer für Fakten und damit für einen vernunftbasierten Diskurs zugänglich wären. Leider sind sie das nicht sehr oft.
Dafür sprechen Papier-Streifen voller Spucke. Mit diesen ganz normalen, nicht manipulierten Streifen konnten die Testpersonen von Peter Ditton und David Lopez 1992 angeblich feststellen, ob sie ein Problem mit der Bauchspeicheldrüse hatten. Einer Gruppe erklärten sie, der Streifen würde sich nach 20 Sekunden grün färben, sollten sie ein Problem haben. Einer anderen, dass Grün signalisiere: keine Probleme. Die Gruppe, für die Grün=Krankheit bedeutete, wartete im Schnitt nur 20 Sekunden, ob sich der Streifen färbte und taten nichts weiter. Die andere, für die Grün = Gesundheit bedeutete, wartete deutlich länger.
Scheinbar gibt es Fakten, die wir nicht akzeptieren wollen. Etwa, dass wir krank sein könnten.
David McRaney vom (absolut fantastischen) Blog „You are not so smart“ fasst es so zusammen: „Wenn etwas zur Sammlung ihrer Glaubenssätze hinzugefügt wurde, beschützen sie es. Das tun Sie instinktiv und unbewusst, wenn Sie mit Informationen konfrontiert werden, die nicht zu Ihren Einstellungen passen. Egal, was passiert, Sie halten an ihren Ansichten fest, anstatt sie in Frage zu stellen.“
Wer an die Macht von Fakten glaubt (ich zum Beispiel, muss sich allerdings noch mit einem anderen, unangenehmen … ähh … Fakt auseinandersetzen: „Wenn jemand versucht, Sie zu korrigieren, Ihre Fehlannahmen abzuschwächen, schlägt der Versuch fehl und stärkt diese Annahmen stattdessen.“ Man muss gar nicht ins Netz schauen, um Anzeichen für dieses Verhalten zu finden, denken sie lieber mal an Peter. Peter war dieser eine Junge in ihrem Freundeskreis, der Spaß daran hatte, sich als Querdenker zu gerieren und Positionen einzunehmen, die, nun ja, nicht gerade sozial akzeptabel waren.
Die daraus resultierenden Angriffe nahm er persönlich und wurde so motiviert noch bessere Argumente für seine Position zu finden, noch mehr „Beweise“. Immer tiefer versteifte sich Peter auf eine Meinung, die er zu Beginn vielleicht nur aus Spaß an der Provokation eingenommen hat, um die anderen intellektuell zu fordern, die am Ende aber zu seiner eigenen geworden ist. In einer wegweisenden Studie haben zwei Forscher 2006 genau diesen Effekt auch für politische Meinungen feststellen können. Er wirkt vor allem bei stark ideologisierten Personen und wird ergänzt durch den „confirmation bias“ (Bestätigungsfehler), der besagt, dass wir vor allem solchen Quellen trauen, die unser eigenes Weltbild zu bestätigen scheinen.
Die Wissenschaftler nannten dieses Phänomen übrigens „Effekt der Fehlzündung“. Den Knall dieser Fehlzündung vernimmt gerade die ganze Welt.
8. Die Inseln von Habermas
Und doch gibt es im Netz auch kleine Oasen des vernünftigen Gesprächs, „Habermas’sche Inseln“ möchte ich sie nennen. Ich hoffe, dass die Krautreporter-Kommentarspalte so eine Insel ist oder wird, weiß aber sehr sicher, dass es dieser Subreddit ist: „Change my view.“ In diesem Forum posten Menschen anonym ihre Meinung, verbunden mit der Aufforderung an die Community, sie von ihr abzubringen. Das reicht vom Genialisch-Absurden („Ich denke, dass ich ein Walross mit bloßen Händen töten kann“) bis zum weltpolitisch Bedeutsamen („Der Abwurf der Atombomben war gerechtfertigt“).
Anders als bei Facebook & Co können Wissenschaftler die Daten von Reddit auswerten: Denn alles ist offen zugänglich. Ein Team der Cornell Universität hat das getan und kam zu ernüchternden Ergebnissen: Nur 30 Prozent der Postenden ließen sich überzeugen; der Rest beharrte auf seiner Meinung und wenn wir den Effekt der Fehlzündung mit einkalkulieren dürfte er sogar noch überzeugter sein als vorher. Außerdem begeben sich alle freiwillig in dieses Forum, mit dem expliziten Ziel, überzeugt zu werden. Das kann man nicht für alle Online-Diskussionen annehmen. Was also tun?
9. Was ist das Ziel einer Diskussion?
Frank Richter hatte dazu mir gegenüber gute Worte gefunden. Er ist 56 Jahre alt, nicht groß, nicht klein und schaut oft nach unten bevor er etwas sagt. Er legt sich dann tatsächlich seine Worte zurecht und redet nicht einfach los, wie viele andere Leute. Richter weiß ein bisschen was über die Diskussionen zwischen Menschen, die unterschiedlicher Meinungen sind. Denn immer wieder wird seine Landeszentrale für politische Bildung gebeten, Diskussionsveranstaltungen in Sachsen zu moderieren. Bei denen ging es vor allem um Flüchtlinge, in Dresden auch um Pegida.
Dass die Bürger Dresdens Gesprächsbedarf haben, ist klar. Pegida polarisiert die Menschen, die Debatten, die Meinungen. Deswegen beraumte die Stadt im vergangenen Jahr eine Reihe von Treffen an, bei denen die Bürger mit ihren verschiedenen Positionen zu Wort kommen sollten. Ich habe mir den Mitschnitt so eines Treffens angehört und war beeindruckt. Da sprach die Flüchtlingshelferin, die auf der Straße attackiert wird, neben dem Pegida-Theoretiker. Manche Statements waren an der Grenze des Sag- und Aushaltbaren, aber am Ende der zweistündigen Versammlung hatte ich das Gefühl, die Stadt und ihre Zerwürfnisse ein bisschen besser verstanden zu haben.
Was hat mich damals so beeindruckt? Die Gleichzeitigkeit der Meinungen. Ich dachte nach dem Anhören der Aufnahme noch genauso wie vorher über Pegida und Flüchtlingspolitik. Aber weil ich nicht die Chance hatte, sofort zu widersprechen, war ich gelassener als vorher. Ich war gezwungen, etwas einfach mal stehen zu lassen.
Denn warum diskutieren wir überhaupt im Internet? Warum streiten wir uns auf Facebook als gäbe es kein Morgen, wenn wir nicht noch diesen. Einen. Typen. Überzeugen. Dass. Er. Falsch. Liegt? Wir tun es, das zeigen die Studien, um uns unserer selbst zu vergewissern und einen Platz in einer Gruppe zu finden. Wenn wir empört in die Tasten hauen, wie verrückt das Internet nach immer neuen Texten durchforsten, die unsere Position stützen können, geht es um das Bild, das wir von uns haben. Das Gespräch, das von außen aussieht, als würden wir es mit einem anderen führen, ist in Wahrheit oft ein Selbstgespräch.
Wir diskutieren online nicht, um gemeinsam auf dem goldenen Pfad der Weisheit dem Quell aller Wahrheit entgegenzulaufen - außer wir tun es immer wieder, mit den gleichen Leuten. Mit Menschen, denen ich irgendwann anfange zu vertrauen. Dann schleicht sich die Verständigung in die Beziehung hinein. Das können wir gar nicht verhindern.
Frank Richters einfache Lösung: „Ich liebe übrigens Gespräche: Menschen kommen mit ihren Gedanken, ihrem Weltbild, ihren Begrifflichkeiten zu mir. Ich habe meine Gedanken, meine Begriffe, mein Weltbild. Jetzt reden wir. Viel in unserem Gespräch ist Missverständnis, weil wir mit den Worten, die wir benutzen, andere Dinge meinen. Aber nach und nach, je länger wir miteinander reden, desto besser können wir uns verständigen. Wahrheit ist ein Ereignis, das genau in diesem Moment eintritt, wenn man sagt: Jetzt habe ich dich verstanden. Wenn wir wieder auseinandergehen, gehen wir wieder in unsere gewohnten argumentativen Heimaten zurück. Das ist nichts Schlimmes, das ist so.“
Redaktion: Sebastian Esser, Theresa Bäuerlein; Produktion: Vera Fröhlich; Aufmacherfoto: Standbild aus Film „Police Academy“
Folgen Sie Rico Grimm auf Facebook oder Twitter für Debatten, die es hoffentlich schaffen, die eine oder andere Erkenntnis aus diesem Text zu konterkarieren.