VORSCHAU
PRESSETERMINE

AKTUELLES PRESSEFOTO



WETTER
Graz: bedeckt
24°
Innsbruck: Regen
22°
Linz: Regen
22°
Wien: bedeckt
20°
© wetter.net

Stadtname / PLZ

AKTIENKURSE
 
MEDIEN
Do, 29.02.2024 06:05
Meldung drucken Artikel weiterleiten
pte20240229002 Medien/Kommunikation, Technologie/Digitalisierung

KI-Bots und Menschen immer öfter verwechselt

Wissenschaftler untersuchen subtile Möglichkeiten, gezielt Fehlinformationen zu verbreiten
Im Experiment diskutieren Menschen mit KI-Bots politische Themen (Bild: nd.edu)
Im Experiment diskutieren Menschen mit KI-Bots politische Themen (Bild: nd.edu)

Notre Dame (pte002/29.02.2024/06:05) - Immer mehr User können KI-Chats von menschlichen Konversationen nicht unterscheiden, so Forscher um Paul Brenner von der University of Notre Dame ( https://www.nd.edu ). Das Team hat eine Studie mit KI-Bots durchgeführt, die auf großen Sprachmodellen (LLM) basieren und ließen Menschen und KI-Bots über politische Themen diskutieren.

58 Prozent irren sich

Das Experiment fand in drei Runden statt. Jeweils anschließend wurden die Teilnehmer gebeten, die Diskussionspartner zu benennen, die sie für Bots hielten. In 58 Prozent der Fälle lagen die Probanden falsch. "Sie wussten, dass sie es sowohl mit Menschen als auch mit KI-Bots zu tun hatten, und sollten die wahre Natur der Bots erkennen. Wir wissen, dass Infos, die von einem Menschen stammen, der an einem Gespräch teilnimmt, stärkere Auswirkungen haben als ein maschineller Kommentar oder Verweis. Es ist wahrscheinlich, dass KI-Bots bei der Verbreitung von Fake News erfolgreich sind, weil wir sie nicht erkennen können", so Brenner.

Für die Studie haben die Experten in jeder Runde unterschiedliche LLM-basierte KI-Modelle verwendet: GPT-4 von OpenAI, Llama-2-Chat von Meta und Claude 2 von Anthropic. Die KI-Bots wurden mit zehn verschiedenen Identitäten mit realistischen, unterschiedlichen persönlichen Profilen und Meinungen zur Weltpolitik ausgestattet. Dann wurden die Bots angewiesen, das Weltgeschehen anhand der ihnen zugewiesenen Merkmale zu kommentieren, prägnante Kommentare abzugeben und globale Ereignisse mit persönlichen Erfahrungen zu verknüpfen. Das Design jedes Bots basierte auf früheren, von Menschen unterstützten Bot-Konten, die bei der Verbreitung von Fehlinformationen im Internet erfolgreich gewesen waren.

Alle Modelle gleich "gut"

Laut den Wissenschaftlern hat die spezifische LLM-Plattform, die verwendet wurde, wenig bis gar keinen Einfluss auf die Vorhersagen der Teilnehmer gehabt, als es um die Erkennung von Bots ging. Die Bot-Identitäten wurden entwickelt, um "durch die Verbreitung von Fehlinformationen in den sozialen Medien einen erheblichen Einfluss auf die Gesellschaft zu nehmen", unterstreicht Brenner. Die Gefahr sei demnach äußerst realistisch. So könnten etwa Wahlen beeinflusst werden, warnt er.

(Ende)

Aussender: pressetext.redaktion
Ansprechpartner: Wolfgang Kempkens
Tel.: +43-1-81140-300
E-Mail:
Website: www.pressetext.com
pressetext.redaktion
   
Wie fanden Sie diese Meldung?
Weitersagen
likes dislike Share Share |
Social Media
ETARGET

FOCUSTHEMA


SPECIALS


Werbung
middleAdvertising