VORSCHAU
PRESSETERMINE

AKTUELLES PRESSEFOTO

IR Nachrichten


WETTER
Graz: bedeckt
24°
Innsbruck: Regen
22°
Linz: Regen
22°
Wien: bedeckt
20°
© wetter.net

Stadtname / PLZ

AKTIENKURSE
 
MEDIEN
Do, 28.11.2024 06:10
Meldung drucken Artikel weiterleiten
pte20241128003 Medien/Kommunikation, Politik/Recht

ChatGPT verschärft bewaffnete Konflikte

Generative künstliche Intelligenz: Sprache beeinflusst laut Studie das Ergebnis von Anfragen
Angriff: User-Sprache beeinflusst von KIs angegebene Opferzahlen (Foto: hosny salah, pixabay.com)
Angriff: User-Sprache beeinflusst von KIs angegebene Opferzahlen (Foto: hosny salah, pixabay.com)

Zürich/Konstanz (pte003/28.11.2024/06:10) - Auf Arabisch nach der Anzahl getöteter Zivilisten im Nahostkonflikt gefragt, gibt die Künstliche Intelligenz ChatGPT deutlich höhere Opferzahlen an als bei derselben Frage auf Hebräisch. Das zeigt eine neue Studie der Universitäten Zürich ( https://www.uzh.ch/de.html ) und Konstanz ( https://www.uni-konstanz.de/ ). Diese systematischen Verzerrungen könnten Vorurteile in bewaffneten Konflikten verstärken und Informationsblasen befeuern, befürchten die Wissenschaftler.

Nahostkonflikt auf dem Prüfstand

Millionen Menschen kommunizieren täglich mit ChatGPT und anderen dieser Dienste. Zürich-Forscher Christoph Steinert und Konstanz-Physiker Daniel Kazenwadel wollten herausfinden, wie die Sprache der Suchanfrage das KI-Antwortverhalten beeinflusst. Sowohl auf Hebräisch als auch auf Arabisch fragten sie ChatGPT, wie viele Opfer es bei 50 zufallsbasiert ausgewählten Ereignissen - etwa dem israelischen Luftangriff auf das Nuseirat Flüchtlings-Camp am 21. August 2014 - gegeben habe.

"Wir haben herausgefunden, dass ChatGPT systematisch höhere Opferzahlen angibt, wenn es auf Arabisch gefragt wird, als bei einer Anfrage auf Hebräisch. Im Schnitt sind es 34 Prozent mehr", so Steinert. Wird ChatGPT zu israelischen Luftangriffen in Gaza befragt, gibt die KI auf Arabisch im Schnitt doppelt so viele zivile Opfer und sechsmal so viele getötete Kinder an als auf Hebräisch. Das gleiche Muster haben die Experten identifiziert, wenn sie nach Luftangriffen der türkischen Regierung auf kurdische Gebiete fragten - und zwar in den Muttersprachen beider Parteien. Zudem neigt ChatGPT dazu, Luftangriffe eher als wahllos und willkürlich zu beschreiben, heißt es.

Gesellschaftliche Auswirkungen

Das Forschungsergebnis hat nach Ansicht der Forscher weitreichende gesellschaftliche Auswirkungen: ChatGPT und andere KI-Diesnte spielen eine zunehmend zentrale Rolle in Prozessen der Informationsverbreitung. Implementiert in Suchmaschinen wie Google Gemini oder Microsoft Bing, beeinflussen sie grundlegend die Informationen, die Nutzer anhand von Suchanfragen zu den unterschiedlichsten Themen erhalten.

"Wenn Menschen mit unterschiedlichen Sprachkenntnissen durch diese Technologien unterschiedliche Infos erhalten, hat das zentralen Einfluss auf die Wahrnehmung der Welt", so Steinert. Das könne dazu führen, dass Menschen in Israel auf Basis der Infos, die sie per KI erhalten, die Luftangriffe auf Gaza als weniger verlustreich einschätzen als die arabischsprachige Bevölkerung. Die Ursache liegt darin, dass die Dienste Infos aus den teilweise einseitig gefärbten Infos in der jeweiligen Sprache beziehen.

Auch klassische Nachrichtenmedien können verzerrt berichten. Im Unterschied dazu sind aber die sprachbedingten systematischen Verzerrungen von ChatGPT und Co für die meisten User schwer zu durchschauen. "Es besteht die Gefahr, dass die zunehmende Implementierung in Suchmaschinen unterschiedliche Wahrnehmungen, Vorurteile und Informationsblasen entlang von Sprachgrenzen verstärken", erläutert Steinert. Das könnte bewaffnete Auseinandersetzungen wie den Nahostkonflikt in Zukunft weiter verschärfen.

(Ende)

Aussender: pressetext.redaktion
Ansprechpartner: Wolfgang Kempkens
Tel.: +43-1-81140-300
E-Mail:
Website: www.pressetext.com
pressetext.redaktion
   
So wurde bewertet:
Weitersagen
Share Share |
Social Media
ETARGET

FOCUSTHEMA


SPECIALS


Werbung
middleAdvertising