Überzeu­gungen im Zeitalter von Filterblasen

Der Meister der Filter­blasen: Ex-US-Präsident Donald Trump. Hier bei einer Rede auf der Conser­vative Political Action Confe­rence (2015). Foto: Gage Skidmore, Lizenz: CC BY-SA 3.0

Überzeu­gungen im Zeitalter von Filterblasen

Warum glauben noch immer so viele Republi­kaner die Mär vom Wahlbetrug bei den aktuellen US-Präsi­dent­schafts­wahlen? Kann man Corona-Leugnern überhaupt mit Sachar­gu­menten beikommen? Eine Studie des Max-Planck-Instituts für Bildungs­for­schung und der Univer­sität Amsterdam liefert Antworten, was Menschen daran hindert, ihre Überzeu­gungen zu ändern. Die Ergeb­nisse sind in der Fachzeit­schrift »Procee­dings of the Royal Society of London B« veröffentlicht.

Indem wir uns mit anderen austau­schen und ihr Verhalten beobachten, lernen wir dazu, können neue Fähig­keiten erwerben und uns an verän­derte Gegeben­heiten anpassen. Aber was ist, wenn Infor­ma­tionen aus unserem sozialen Umfeld nicht mitein­ander überein­stimmen oder gar wider­sprüchlich sind? Wissen­schaftler des Max-Planck-Instituts für Bildungs­for­schung und der Univer­sität Amsterdam haben in einer jüngst veröf­fent­lichten Studie unter­sucht, wie Menschen mit Infor­ma­tionen aus verschie­denen sozialen Quellen umgehen und daraus Überzeu­gungen bilden. »Gerade das Internet hat die Struktur und Dynamik sozialer Inter­ak­tionen drama­tisch verändert. Die Verfüg­barkeit sozialer Quellen ist teils algorith­misch verzerrt – zugunsten unserer eigenen Vorlieben. Es bietet uns gleich­zeitig aber auch Zugang zu poten­ziell wider­strei­tenden Ansichten«, unter­streicht Erstautor Lucas Molleman die Bedeutung der Studie. Er ist assozi­ierter Wissen­schaftler am Forschungs­be­reich Adaptive Ratio­na­lität des Max-Planck-Instituts für Bildungs­for­schung und Postdoc an der Univer­sität Amsterdam.

Die Wissen­schaftler führten zunächst eine experi­men­telle Studie unter 95 Testper­sonen aus den USA durch. Die Teilneh­menden sollten eine angepasste Version des Berlin Estimate AdjuS­tment Task (BEAST) lösen. Bei der Aufgabe, die die Nutzung sozialer Infor­ma­tionen durch Einzel­per­sonen zuver­lässig misst, mussten sich die Teilneh­menden Bilder von Tiergruppen ansehen und die darauf zu sehende Anzahl der Tiere schätzen. Sie erhielten danach Infor­ma­tionen über die Schät­zungen anderer drei Teilneh­men­denden und konnten auf Basis dieser eine erneute Schätzung abgeben. Je stärker die Teilneh­menden ihr Urteil an das der anderen anpassten, desto eher hatten sie die sozialen Infor­ma­tionen berücksichtigt.

Die Wissen­schaftler variierten die Unter­su­chungs­be­din­gungen. Sie präsen­tierten den Teilneh­menden in 30 Runden mal mehr, mal weniger vom eigenen Urteil abwei­chende und extreme Schät­zungen. Die Ergeb­nisse zeigen: Ob soziale Infor­ma­tionen bei der eigenen Urteils­findung berück­sichtigt werden, hängt davon ob, wie stark die Schät­zungen der anderen vonein­ander abweichen und wie weit sie vom eigenen Urteil entfernt sind. Die Teilneh­menden passten ihre Schät­zungen am ehesten an, wenn die Schät­zungen der anderen eng überein­stimmten und sich nicht allzusehr vom eigenen Urteil unter­schieden. Wichen die Schät­zungen der anderen stärker vonein­ander ab, wurden diese für die eigene Urteils­findung weniger in Betracht gezogen. Generell gewich­teten die Teilneh­menden das eigene Urteil stärker als das der anderen. Insgesamt konnten drei Anpas­sungs­stra­tegien ausge­macht werden: (1) Beibe­haltung der ursprüng­lichen Schätzung, (2) Übernahme der Schätzung von einem der drei Teilneh­menden, oder (3) Kompromiss zwischen der urspüng­lichen Schätzung und den Schät­zungen der anderen. Die relative Häufigkeit dieser Strategien unter­schied sich deutlich zwischen Unter­su­chungs­be­din­gungen. Beobach­teten die Teilneh­menden einen einzelnen Gleich­ge­sinnten, der mit ihnen eng überein­stimmte, waren diese eher bereit ihre ursprüng­liche Schätzung beizu­be­halten oder die des Naheste­henden. Gab es keine engen Überein­stim­mungen, waren die Teilneh­menden eher zu Kompro­missen bereit, indem sie ihre Einschätzung in Richtung, aber selten über die Schätzung des Nächst­ge­le­genen hinaus, anpassten.

»Unser Experiment quanti­fi­ziert, wie Menschen ihre bestehenden Überzeu­gungen und die Überzeu­gungen anderer abwägen. In unserem Fall gibt es eigentlich keinen Grund anzunehmen, die eigene Schätzung sei besser als die der anderen. Was wir hier beobachten, ist in der Psycho­logie als sogenannte ‚egozen­trische Diskon­tierung‘ bekannt – nämlich, dass Menschen ihren eigenen Überzeu­gungen mehr Gewicht beimessen als denen anderer«, erklärt Koautor Alan Noveas Tump, Postdoc am Forschungs­be­reich Adaptive Ratio­na­lität des Max-Planck-Instituts für Bildungs­for­schung. »Darüber hinaus zeigt unsere Studie, dass diese Gewichtung stark davon beein­flusst wird, wie sehr die Überzeu­gungen anderer mit den eigenen Überzeu­gungen überein­stimmen: Menschen sind eher dazu geneigt Infor­ma­tionen zu beachten, die ihre eigenen Überzeu­gungen bestä­tigen«, so Tump weiter.

Auf Basis der gewon­nenen Ergeb­nisse entwi­ckelten die Wissen­schaftler ein Modell, das die beobach­teten Anpas­sungs­stra­tegien integriert und berück­sichtigt, dass Menschen soziale Infor­ma­tionen, die persön­liche Urteile bestä­tigen, besonders beachten. In anschlie­ßenden Simula­tionen ließ sich so unter­suchen, wie Menschen sich in realen Situa­tionen verhalten würden. So simulierten die Wissen­schaftler eine typische Filter­blase, in der die sozialen Infor­ma­tionen meist von Gleich­ge­sinnten stammen. Ebenso simulierten sie typische Versuche, gegen Vorur­teile anzukämpfen, indem Menschen mit Infor­ma­tionen konfron­tiert werden, die nicht ihren eigenen Überzeu­gungen entsprechen. Schließlich unter­suchten sie, wie Menschen darauf reagieren, gleich­zeitig verschie­denen Gruppen mit extremen Überzeu­gungen ausge­setzt zu sein. Ihre Simula­tionen legen nahe, dass Bestä­ti­gungs­ef­fekte dazu führen können, dass abwei­chende soziale Infor­ma­tionen ignoriert, Filter­blasen-Effekte verschärft und Menschen in ihren Einstel­lungen extremer werden können.

»Auch wenn wir die Anpassung von Überzeu­gungen in einem experi­men­tellem Rahmen unter­sucht haben, trägt unser Modell dazu bei, aktuelle Phänomene zu erklären. Unsere Studie zeigt, wie die Verar­beitung von sozialen Infor­ma­tionen Filter­blasen im Internet verstärken kann und warum öffent­liche Debatten häufig von Polari­sierung geprägt sind: Menschen werden schnell unemp­fänglich für Gegen­ar­gu­mente. Da Inter­ak­tionen immer häufiger online statt­finden, finden Menschen oft Infor­ma­tionen, die ihre bestehenden Überzeu­gungen bestä­tigen. Das macht sie weniger bereit auf Alter­na­tiven zu hören«, sagt Koautor Wouter van den Bos, assozi­ierter Wissen­schaftler am Forschungs­be­reich Adaptive Ratio­na­lität des Max-Planck-Instituts für Bildungs­for­schung und Professor an der Univer­sität Amsterdam.

In weiteren Studien möchten die Wissen­schaftler das Modell noch um weitere Aspekte der Realität präzi­sieren und heraus­finden, welche Rolle es spielt, ob die Infor­ma­tionen beispiels­weise von einem Freund, Fremden, einem Experten oder von jemandem mit der gleichen oder einer anderen politi­schen Einstellung stammen. Auch unter­suchen sie, wie andere Menschen altru­is­ti­sches Geben oder die Einhaltung sozialer Normen beeinflussen.

Origi­nal­pu­bli­kation:

Molleman, L., Tump, A. N., Gradassi, A., Herzog, S. M., Jayles, B., Kurvers, R. H. J. M., & van den Bos, W. (2020) Strategies for integrating disparate social infor­mation. Procee­dings of the Royal Society of London B: Biolo­gical Sciences. https://doi.org/10.1098/rspb.2020.2413

Textquelle: Artur Krutsch, Max-Planck-Institut für Bildungsforschung

Bildquelle: Der Meister der Filter­blasen: Ex-US-Präsident Donald Trump. Hier bei einer Rede auf der Conser­vative Political Action Confe­rence (2015). Foto: Gage Skidmore, Lizenz: CC BY-SA 3.0