Empfehlungsalgorithmen sozialer Medien fördern den Extremismus

Empfehlungsalgorithmen etwa bei Facebook fördern Echokammern dadurch, dass eher die Informationen und Quellen empfohlen werden, die zum eigenen Weltbild passen. Das gilt sowohl für Verschwörungsgläubige als auch für NutzerInnen, die sich für wissenschaftliche Informationen interessieren, sodass sich mit der Zeit Meinungsblasen bilden, die entweder der Wissenschaft vertrauen oder Verschwörungsmythen glauben. Die Nutzer in beiden Echokammern bleiben in der Folge mehrheitlich unter sich, sind eher mit Nutzern derselben Echokammer befreundet und folgen eher Seiten mit den Narrativen, denen sie auch zustimmen. Es gibt ausreichend Belege, dass Echokammern existieren und der Effekt verstärkt wird, wenn Menschen nach Informationen suchen, die zu ihren Einstellungen passen. Vor allem der Empfehlungsalgorithmus der Videoplattform YouTube fördert in gewisser Weise den Extremismus von Meinungen, denn damit die NutzerInnen möglichst lange dranbleiben, werden solche Videos empfohlen, die immer ein wenig extremer sind als die, die sie schon angesehen haben. Dadurch wird die Möglichkeit, auch an anderen Orten nach Informationen zum selben Thema zu suchen, reduziert, denn es ist viel leichter, einfach das nächste, extremere Video anzusehen als aus diesem Channel auszusteigen. Wenn man etwa auf YouTube herausfinden möchte, ob die Erde rund ist, werden eher Videos vorgeschlagen, die die Behauptung unterstützen, als solche, die Erde wäre flach. Denn diese unwissenschaftlichen Videos werden länger angesehen als solche, die bestätigen, was allgemein bekannt ist. Auf diese Weise unterstützt der YouTube-Algorithmus extreme und verschwörungsmythische Ansichten.

Literatur

https://www.quarks.de/gesellschaft/psychologie/darum-verbreiten-sich-verschwoerungsmythen-so-leicht/ (20-09-23)