VORSCHAU
PRESSETERMINE

AKTUELLES PRESSEFOTO

IR Nachrichten
23.11.2024 09:00 Small- & MicroCap Investment
22.11.2024 20:57 Heidelberger Beteiligungsholding AG
22.11.2024 20:45 Heidelberger Beteiligungsholding AG


WETTER
Graz: bedeckt
24°
Innsbruck: Regen
22°
Linz: Regen
22°
Wien: bedeckt
20°
© wetter.net

Stadtname / PLZ

AKTIENKURSE
 
MEDIEN
Mo, 02.09.2024 06:00
Meldung drucken Artikel weiterleiten
pte20240902001 Medien/Kommunikation, Politik/Recht

Generative KI diskriminiert das Afro-Englische

Wissenschaftler erhalten faire Antworten in Versuchen nur auf sprachlich korrekte Anfragen
Antworten auf Fragen in Englisch (oben) und AAE (Grafik: Nature)
Antworten auf Fragen in Englisch (oben) und AAE (Grafik: Nature)

Seattle/Stanford/Chicago (pte001/02.09.2024/06:00) - Populäre KI-Sprachmodelle (LLM) zeigen Rassismus gegenüber Menschen, die afroamerikanisches Englisch (AAE) sprechen. Das haben Forscher des Allen Institute for Artificial Intelligence ( https://allenai.org/ ), der Stanford University ( https://www.stanford.edu/ ) und der University of Chicago ( https://www.uchicago.edu/ ) herausgefunden. Sie zeichnet sich im Vergleich zur Standardsprache vor allem durch Abweichungen in Grammatik und Aussprache aus.

Filter arbeiten unzureichend

Die Experten haben AAE genutzt, um den LLMs eine Eigenbeurteilung zu entlocken - und wurden eher mit negativen Adjektiven bedacht als Personen, die Anfragen in korrektem Englisch stellten. Das Problem ist erkannt, aber nicht gelöst. Entwickler von LLMs haben zwar Filter eingebaut, die verhindern sollen, dass sie offen rassistische Antworten auf Benutzeranfragen geben.

Das hat den Wissenschaftlern nach solche Antworten von LLMs zwar stark reduziert. Doch verdeckter Rassismus wie bei der Nutzung von AAE sei viel schwieriger zu erkennen und zu verhindern. Deshalb trete er in den LLM-Antworten nach wie vor auf und sei immer noch darin vorhanden.

Fünf KI-generierte Antworten

Die Forscher haben LLMs fünf Fragen einmal in korrektem Englisch und dann in AAE gestellt. Beim Vergleich der Antworten antworteten alle LLMs mit negativen Adjektiven wie "schmutzig", "faul", "dumm" oder "ignorant", sofern sie auf Fragen antworteten, die in AAE geschrieben waren, während positive Adjektive bei Fragen in Standardenglisch vorherrschten.

Das Team kommt zu dem Schluss, dass noch viel mehr getan werden muss, um den Rassismus aus den Antworten von LLMs zu entfernen, da diese beispielsweise auch zur Überprüfung von Stellenbewerbern und polizeilichen Meldungen verwendet werden. Die Ergebnisse sind in der Fachzeitschrift "Nature" veröffentlicht.

(Ende)

Aussender: pressetext.redaktion
Ansprechpartner: Wolfgang Kempkens
Tel.: +43-1-81140-300
E-Mail:
Website: www.pressetext.com
pressetext.redaktion
   
Wie fanden Sie diese Meldung?
Weitersagen
likes dislike Share Share |
Social Media
ETARGET

FOCUSTHEMA


SPECIALS


Werbung
middleAdvertising