VORSCHAU
PRESSETERMINE
AKTUELLES PRESSEFOTO
IR Nachrichten
28.11.2024 09:28
HYPO-BANK BURGENLAND Aktiengesellschaft
28.11.2024 08:45
S IMMO AG
28.11.2024 07:10
UBM Development AG
EUROPA NACHRICHTEN
MEDIEN
Do, 28.11.2024 06:10
pte20241128003 Medien/Kommunikation, Politik/Recht
ChatGPT verschärft bewaffnete Konflikte
Generative künstliche Intelligenz: Sprache beeinflusst laut Studie das Ergebnis von Anfragen
Zürich/Konstanz (pte003/28.11.2024/06:10) - Auf Arabisch nach der Anzahl getöteter Zivilisten im Nahostkonflikt gefragt, gibt die Künstliche Intelligenz ChatGPT deutlich höhere Opferzahlen an als bei derselben Frage auf Hebräisch. Das zeigt eine neue Studie der Universitäten Zürich ( https://www.uzh.ch/de.html ) und Konstanz ( https://www.uni-konstanz.de/ ). Diese systematischen Verzerrungen könnten Vorurteile in bewaffneten Konflikten verstärken und Informationsblasen befeuern, befürchten die Wissenschaftler. Nahostkonflikt auf dem Prüfstand Millionen Menschen kommunizieren täglich mit ChatGPT und anderen dieser Dienste. Zürich-Forscher Christoph Steinert und Konstanz-Physiker Daniel Kazenwadel wollten herausfinden, wie die Sprache der Suchanfrage das KI-Antwortverhalten beeinflusst. Sowohl auf Hebräisch als auch auf Arabisch fragten sie ChatGPT, wie viele Opfer es bei 50 zufallsbasiert ausgewählten Ereignissen - etwa dem israelischen Luftangriff auf das Nuseirat Flüchtlings-Camp am 21. August 2014 - gegeben habe. "Wir haben herausgefunden, dass ChatGPT systematisch höhere Opferzahlen angibt, wenn es auf Arabisch gefragt wird, als bei einer Anfrage auf Hebräisch. Im Schnitt sind es 34 Prozent mehr", so Steinert. Wird ChatGPT zu israelischen Luftangriffen in Gaza befragt, gibt die KI auf Arabisch im Schnitt doppelt so viele zivile Opfer und sechsmal so viele getötete Kinder an als auf Hebräisch. Das gleiche Muster haben die Experten identifiziert, wenn sie nach Luftangriffen der türkischen Regierung auf kurdische Gebiete fragten - und zwar in den Muttersprachen beider Parteien. Zudem neigt ChatGPT dazu, Luftangriffe eher als wahllos und willkürlich zu beschreiben, heißt es. Gesellschaftliche Auswirkungen Das Forschungsergebnis hat nach Ansicht der Forscher weitreichende gesellschaftliche Auswirkungen: ChatGPT und andere KI-Diesnte spielen eine zunehmend zentrale Rolle in Prozessen der Informationsverbreitung. Implementiert in Suchmaschinen wie Google Gemini oder Microsoft Bing, beeinflussen sie grundlegend die Informationen, die Nutzer anhand von Suchanfragen zu den unterschiedlichsten Themen erhalten. "Wenn Menschen mit unterschiedlichen Sprachkenntnissen durch diese Technologien unterschiedliche Infos erhalten, hat das zentralen Einfluss auf die Wahrnehmung der Welt", so Steinert. Das könne dazu führen, dass Menschen in Israel auf Basis der Infos, die sie per KI erhalten, die Luftangriffe auf Gaza als weniger verlustreich einschätzen als die arabischsprachige Bevölkerung. Die Ursache liegt darin, dass die Dienste Infos aus den teilweise einseitig gefärbten Infos in der jeweiligen Sprache beziehen. Auch klassische Nachrichtenmedien können verzerrt berichten. Im Unterschied dazu sind aber die sprachbedingten systematischen Verzerrungen von ChatGPT und Co für die meisten User schwer zu durchschauen. "Es besteht die Gefahr, dass die zunehmende Implementierung in Suchmaschinen unterschiedliche Wahrnehmungen, Vorurteile und Informationsblasen entlang von Sprachgrenzen verstärken", erläutert Steinert. Das könnte bewaffnete Auseinandersetzungen wie den Nahostkonflikt in Zukunft weiter verschärfen.
(Ende)
PRESSETEXT.TV
PORR rechnet mit anhaltender Baukonjunktur 30.10.2024 ETARGET
FOCUSTHEMA
SPECIALS
Werbung
middleAdvertising
|