VORSCHAU
PRESSETERMINE
AKTUELLES PRESSEFOTO
IR Nachrichten
23.11.2024 09:00
Small- & MicroCap Investment
22.11.2024 20:57
Heidelberger Beteiligungsholding AG
22.11.2024 20:45
Heidelberger Beteiligungsholding AG
EUROPA NACHRICHTEN
MEDIEN
Fr, 20.09.2024 06:00
pte20240920001 Technologie/Digitalisierung, Forschung/Entwicklung
KI ist meistens ein schlechter Wachmann
Generative Künstliche Intelligenz erkennt Straftaten mal zweifelsfrei und dann mal wieder nicht
Cambridge/University Park (pte001/20.09.2024/06:00) - Große Sprachmodelle (LLMs) können bei der Analyse von Überwachungsvideos uneinheitliche Entscheidungen darüber treffen, ob die Situation so ernst ist, dass die Polizei alarmiert werden muss. Ähnliche Schwächen offenbaren sich auch bei anderen sensiblen Aufgaben, die generativer Künstlicher Intelligenz (KI) zur Analyse übertragen werden, so Forscher des Massachusetts Institute of Technology ( https://www.mit.edu/ )(MIT) und der Pennsylvania State University ( https://www.psu.edu/ ). Viele Schlussfolgerungen Bei Tests mit Videos, auf denen Fahrzeugeinbrüche zu sehen waren, schlugen die LLMs GPT-4, Gemini und Claude mal vor, die Polizei zu rufen, mal sahen sie keine Gefahr. Verschiedene LLMs kamen oft zu unterschiedlichen Schlussfolgerungen. Darüber hinaus empfanden einige Modelle Videos von Vierteln, in denen die meisten Bewohner weiß sind, relativ seltener als bedrohlich. Demgegenübner wurden Regionen mit vorzugsweise schwarzer Bevölkerung anders wahrgenommen. Den Experten nach haben die Modelle inhärente Vorurteile, die von der Demografie eines Stadtviertels beeinflusst werden. Diese Ergebnisse deuteten darauf hin, dass Modelle bei der Anwendung sozialer Normen auf Überwachungsvideos, die ähnliche Aktivitäten darstellen, inkonsistent seien. Dieses Phänomen, das die Forscher als Norminkonsistenz bezeichnen, macht es schwierig vorherzusagen, wie sich Modelle in verschiedenen Kontexten verhalten. Vorsicht beim Einsatz von KI "Die Vorgehensweise, generative KI-Modelle überall und insbesondere in Situationen mit hohen Risiken einzusetzen, sollte gründlicher überdacht werden, da sie sehr schädlich sein könnte", sagt Ashia Wilson, Professorin für Elektrotechnik und Computerwissenschaften und leitende Forscherin am Labor für Informations- und Entscheidungssysteme. LLMs werden derzeit kaum zur Auswertung von Videos mit kriminellen Inhalten eingesetzt. Doch sie werden verwendet, um normative Entscheidungen in anderen Bereichen mit hohen Risiken zu treffen, beispielsweise im Gesundheitswesen, bei Hypothekenkrediten und bei der Überprüfung von Bewerbern um Jobs. Es sei wahrscheinlich, dass LLMs in diesen Situationen ähnliche Inkonsistenzen aufweisen. "Es gibt diese implizite Annahme, dass diese LLMs eine Reihe von Normen und Werten gelernt haben oder lernen können. Unsere Arbeit zeigt, dass dies nicht der Fall ist. Vielleicht lernen sie nur willkürliche Muster oder Rauschen", unterstreicht Doktorand Shomik Jain abschließend.
(Ende)
PRESSETEXT.TV
PORR rechnet mit anhaltender Baukonjunktur 30.10.2024 ETARGET
FOCUSTHEMA
SPECIALS
Werbung
middleAdvertising
|