VORSCHAU
PRESSETERMINE

AKTUELLES PRESSEFOTO

IR Nachrichten
28.11.2024 07:10 UBM Development AG
27.11.2024 18:00 CA Immobilien Anlagen AG
27.11.2024 18:00 CA Immobilien Anlagen AG


WETTER
Graz: bedeckt
24°
Innsbruck: Regen
22°
Linz: Regen
22°
Wien: bedeckt
20°
© wetter.net

Stadtname / PLZ

AKTIENKURSE
 
MEDIEN
Mo, 07.08.2023 06:10
Meldung drucken Artikel weiterleiten
pte20230807004 Medien/Kommunikation, Forschung/Entwicklung

Soziale Medien verstärken Extremismus

Untransparente Algorithmen richten sich in vielen Fällen zu stark an Werbeeinnahmen aus
Daumen: Soziale Medien stärken festgefahrene Meinungen (Foto: Gerd Altmann, pixabay.com)
Daumen: Soziale Medien stärken festgefahrene Meinungen (Foto: Gerd Altmann, pixabay.com)

Evanston (pte004/07.08.2023/06:10) - Social-Media-Algorithmen sind nicht auf menschliche soziale Instinkte abgestimmt, die die Zusammenarbeit fördern sollen, was eine Polarisierung und Fake News befeuern kann. Das haben Forscher der Kellogg School of Management ( https://www.kellogg.northwestern.edu ) der Northwestern University herausgefunden. Das steht im Gegensatz zu früheren Gewohnheiten, als Menschen dazu neigten, von Gleichaltrigen oder angeseheneren Individuen zu lernen, da deren Infos mit größerer Wahrscheinlichkeit zuverlässig waren und zum Gruppenerfolg führten.

Verstellen problemlos möglich

Eine Person, mit der wir online verbunden sind, ist möglicherweise nicht unbedingt kompetent und vertrauenswürdig. Doch das lässt sich nicht ohne weiteres feststellen. Menschen können sich in den sozialen Medien leicht völlig anders darstellen als sie in Wirklichkeit sind. Dabei sind Menschen, so die Forscher, eigentlich so gepolt, dass sie von anderen Dinge lernen wollen, die Zusammenarbeit und kollektive Problemlösungen fördern, weshalb sie dazu neigen, mehr von Individuen zu lernen, die sie für kompetent halten.

Im Gegensatz dazu wählen Social-Media-Algorithmen in der Regel Infos aus, die das Engagement der Nutzer steigern, um die eigenen Werbeeinnahmen aufzubessern. Das bedeutet, dass Algorithmen genau die Infos bieten, die die voreingenommene Meinungen der Nutzer verstärken. Und sie können Social-Media-Feeds mit dem übersättigen, was die Forscher als prestigeträchtige, Ingroup-, moralische und emotionale Informationen (PRIME) bezeichnen, unabhängig vom Wahrheitsgehalt der Inhalte. Infolgedessen ist es wahrscheinlicher, dass extreme politische Inhalte verstärkt werden. Hören die Nutzer keine anderen Meinungen, können sie ein falsches Verständnis der Mehrheitsmeinung verschiedener Gruppen haben.

Einblendungen genauer erklären

Um dieses Problem anzugehen, schlägt die Forschungsgruppe vor, dass Social-Media-Nutzer mehr darüber nachdenken, wie Algorithmen funktionieren und warum bestimmte Inhalte in ihrem Feed auftauchen. Meta und Co geben in der Regel nicht alle Details darüber preis, wie ihre Algorithmen Inhalte auswählen. Aber ein Anfang könnte darin bestehen, Erklärungen dafür anzubieten, warum einem Nutzer ein bestimmter Beitrag angezeigt wird. Darüber hinaus empfehlen die Fachleute den Social-Media-Anbietern, anstatt PRIME-Infors zu bevorzugen, eine Grenze dafür festzulegen, wie viele sie verstärken und priorisieren, um den Nutzern eine Vielzahl von Inhalten zu präsentieren.

(Ende)

Aussender: pressetext.redaktion
Ansprechpartner: Wolfgang Kempkens
Tel.: +43-1-81140-300
E-Mail:
Website: www.pressetext.com
pressetext.redaktion
   
Wie fanden Sie diese Meldung?
Weitersagen
likes dislike Share Share |
Social Media
ETARGET

FOCUSTHEMA


SPECIALS


Werbung
middleAdvertising