VORSCHAU
PRESSETERMINE

AKTUELLES PRESSEFOTO

IR Nachrichten
03.05.2024 12:10 Koenig & Bauer AG
03.05.2024 11:25 Mühlbauer Holding Aktiengesellschaft
03.05.2024 11:15 Koenig & Bauer AG


WETTER
Graz: bedeckt
24°
Innsbruck: Regen
22°
Linz: Regen
22°
Wien: bedeckt
20°
© wetter.net

Stadtname / PLZ

AKTIENKURSE
 
MEDIEN
Di, 06.04.2021 11:30
Meldung drucken Artikel weiterleiten
pte20210406018 Medien/Kommunikation, Technologie/Digitalisierung

KI-Emotionserkennung: Games zeigen Risiko

Forscher der University of Cambridge wollen mit "Emojify" Debatte über Technologie anregen
KI-Analyse zum Lächeln: Echtheit bleibt zweifelhaft (Foto: cam.ac.uk , PA)
KI-Analyse zum Lächeln: Echtheit bleibt zweifelhaft (Foto: cam.ac.uk , PA)

Cambridge (pte018/06.04.2021/11:30) - Auf der Website "Emojify" http://emojify.info können User in kleinen Spielen ausprobieren, was KI-Emotionserkennung macht. Damit wollen die Forscher hinter dem Projekt die Diskussion über den Einsatz der Technologie anregen. Dazu sollen die Games verdeutlichen, welch signifikante Grenzen die Emotionserkennung hat - womit der Einsatz der KI-Technologie für mehr als nur Unterhaltungszwecke doch fragwürdig scheint.

Falsche Emotionen

"Es ist eine Form der Gesichtserkennung, aber es geht weiter als das, weil es nicht nur Personen erkennt, sondern angeblich unsere Emotionen, unsere inneren Gefühle liest", meint Projektleiterin Alexa Hagerty, Anthropologin der University of Cambridge http://cam.ac.uk und Chefin der Dovetail Labs http://dovetaillabs.com , gegenüber "The Guardian". Doch letzteres kann die KI nur sehr bedingt, wie die Spiele auf Emojify verdeutlichen sollen. Um das selbst zu testen, brauchen Nutzer der Website nur Zugriff auf ihre Webcam geben und dann unter anderem in Games geforderte Grimassen schneiden.

Eines der Spiele verlangt, mehrmals ein falsches breites Lächeln aufzusetzen. Die KI wird diese Bewegung wohl erkennen und auch entsprechend deuten - was eher Unsinn ist. Denn User werden kaum tatsächlich schnell mehrfach ihren Gemütszustand beobachtet haben, wie Hagerty betont. Wer das Spiel etwa nach der Lektüre dieses Artikel ausprobiert, wird wohl allenfalls etwas amüsiert vor der Webcam sitzen und einfach nur neugierig sein, wie falsch die KI-Emotionserkennung wirklich liegt.

Mehrdeutige Bewegungen

Ein zweites Spiel verdeutlicht, dass die KI Probleme hat, mehrere Bedeutungen einer Gesichtsbewegung zu unterscheiden. Eine Bewegung des Augenlids ist meist einfach ein Blinzeln, das dazu dient, das Auge feucht zu halten - aber es kann auch ein bewusstes Zwinkern sein. Auch hier will Emojify verdeutlichen: Die Technologie erkennt allenfalls, was sich im Gesicht abspielt und rät letztendlich, was es bedeutet.

Insgesamt soll die Website dazu beitragen, dass es zu einer umfassenderen öffentlichen Diskussion über den Einsatz von KI-Emotionserkennung kommt. Denn jedem potenziellen Nutzen steht das Risiko eklatanter Fehleinschätzungen gegenüber. Unter anderem deuten Untersuchungen darauf hin, das die Technologie bei Nicht-Weißen unzuverlässiger ist. Das ist freilich nicht unbedingt überraschend, da die der Emotionserkennung zugrundeliegende Gesichtserkennung rassistisch ist - wie 2019 ein Online-Kunstprojekt verdeutlicht hat (pressetext berichtete: http://pte.com/news/20190917012 ).

(Ende)

Aussender: pressetext.redaktion
Ansprechpartner: Thomas Pichler
Tel.: +43-1-81140-314
E-Mail:
Website: www.pressetext.com
pressetext.redaktion
   
Wie fanden Sie diese Meldung?
Weitersagen
likes dislike Share Share |
Social Media
ETARGET

FOCUSTHEMA


SPECIALS


Werbung
middleAdvertising