VORSCHAU
PRESSETERMINE

AKTUELLES PRESSEFOTO



WETTER
Graz: bedeckt
24°
Innsbruck: Regen
22°
Linz: Regen
22°
Wien: bedeckt
20°
© wetter.net

Stadtname / PLZ

AKTIENKURSE
 
MEDIEN
Mo, 07.08.2023 06:10
Meldung drucken Artikel weiterleiten
pte20230807004 Medien/Kommunikation, Forschung/Entwicklung

Soziale Medien verstärken Extremismus

Untransparente Algorithmen richten sich in vielen Fällen zu stark an Werbeeinnahmen aus
Daumen: Soziale Medien stärken festgefahrene Meinungen (Foto: Gerd Altmann, pixabay.com)
Daumen: Soziale Medien stärken festgefahrene Meinungen (Foto: Gerd Altmann, pixabay.com)

Evanston (pte004/07.08.2023/06:10) - Social-Media-Algorithmen sind nicht auf menschliche soziale Instinkte abgestimmt, die die Zusammenarbeit fördern sollen, was eine Polarisierung und Fake News befeuern kann. Das haben Forscher der Kellogg School of Management ( https://www.kellogg.northwestern.edu ) der Northwestern University herausgefunden. Das steht im Gegensatz zu früheren Gewohnheiten, als Menschen dazu neigten, von Gleichaltrigen oder angeseheneren Individuen zu lernen, da deren Infos mit größerer Wahrscheinlichkeit zuverlässig waren und zum Gruppenerfolg führten.

Verstellen problemlos möglich

Eine Person, mit der wir online verbunden sind, ist möglicherweise nicht unbedingt kompetent und vertrauenswürdig. Doch das lässt sich nicht ohne weiteres feststellen. Menschen können sich in den sozialen Medien leicht völlig anders darstellen als sie in Wirklichkeit sind. Dabei sind Menschen, so die Forscher, eigentlich so gepolt, dass sie von anderen Dinge lernen wollen, die Zusammenarbeit und kollektive Problemlösungen fördern, weshalb sie dazu neigen, mehr von Individuen zu lernen, die sie für kompetent halten.

Im Gegensatz dazu wählen Social-Media-Algorithmen in der Regel Infos aus, die das Engagement der Nutzer steigern, um die eigenen Werbeeinnahmen aufzubessern. Das bedeutet, dass Algorithmen genau die Infos bieten, die die voreingenommene Meinungen der Nutzer verstärken. Und sie können Social-Media-Feeds mit dem übersättigen, was die Forscher als prestigeträchtige, Ingroup-, moralische und emotionale Informationen (PRIME) bezeichnen, unabhängig vom Wahrheitsgehalt der Inhalte. Infolgedessen ist es wahrscheinlicher, dass extreme politische Inhalte verstärkt werden. Hören die Nutzer keine anderen Meinungen, können sie ein falsches Verständnis der Mehrheitsmeinung verschiedener Gruppen haben.

Einblendungen genauer erklären

Um dieses Problem anzugehen, schlägt die Forschungsgruppe vor, dass Social-Media-Nutzer mehr darüber nachdenken, wie Algorithmen funktionieren und warum bestimmte Inhalte in ihrem Feed auftauchen. Meta und Co geben in der Regel nicht alle Details darüber preis, wie ihre Algorithmen Inhalte auswählen. Aber ein Anfang könnte darin bestehen, Erklärungen dafür anzubieten, warum einem Nutzer ein bestimmter Beitrag angezeigt wird. Darüber hinaus empfehlen die Fachleute den Social-Media-Anbietern, anstatt PRIME-Infors zu bevorzugen, eine Grenze dafür festzulegen, wie viele sie verstärken und priorisieren, um den Nutzern eine Vielzahl von Inhalten zu präsentieren.

(Ende)

Aussender: pressetext.redaktion
Ansprechpartner: Wolfgang Kempkens
Tel.: +43-1-81140-300
E-Mail:
Website: www.pressetext.com
pressetext.redaktion
   
So wurde bewertet:
Weitersagen
Share Share |
Social Media
ETARGET

FOCUSTHEMA


SPECIALS


Werbung
middleAdvertising