VORSCHAU
PRESSETERMINE

AKTUELLES PRESSEFOTO

IR Nachrichten
28.11.2024 16:45 ForestFinance Capital GmbH
28.11.2024 16:15 Erste Group Bank AG
28.11.2024 09:28 HYPO-BANK BURGENLAND Aktiengesellschaft


WETTER
Graz: bedeckt
24°
Innsbruck: Regen
22°
Linz: Regen
22°
Wien: bedeckt
20°
© wetter.net

Stadtname / PLZ

AKTIENKURSE
 
MEDIEN
Do, 29.06.2023 10:30
Meldung drucken Artikel weiterleiten
pte20230629019 Medien/Kommunikation, Technologie/Digitalisierung

ChatGPT lässt Fake News schlechter erkennen

697 Probanden konnten in Untersuchung nicht feststellen, ob KI oder ein Mensch einen Tweet schrieb
Chatbot: ChatGPT kann Fake News glaubhaft vermitteln (Bild: pixabay.com, JuliusH)
Chatbot: ChatGPT kann Fake News glaubhaft vermitteln (Bild: pixabay.com, JuliusH)

Zürich (pte019/29.06.2023/10:30) - Der Einsatz des generativen Chatbots ChatGPT von OpenAI bringt Vor- und Nachteile in Bezug auf die Verständlichkeit, aber auch Glaubwürdigkeit von Informationen. Laut einer neuen Studie der Universität Zürich ( http://www.uzh.ch ) sind mit Künstlicher Intelligenz (KI) generierte, korrekte Tweets leichter verständlich als jene, die von Menschen verfasst worden sind. Und: KI-Tweets mit Fake News sind wiederum schwerer als Falschinformation zu erkennen.

Überzeugende Fake News

Die Forscher wollten wissen, ob Personen zwischen Desinformation und korrekten Infos in Form von Tweets unterscheiden können. Auch sollte ermittelt werden, ob die 697 Probanden erkennen, ob ein Tweet von einem realen Twitter-Nutzer verfasst oder von GPT-3 generiert wurde. Es ging um den Klimawandel, die Sicherheit von Impfstoffen, die Corona-Pandemie, die Theorie, die Erde sei eine Scheibe, und homöopathische Krebstherapien.

Einerseits konnte GPT-3 genaue und im Vergleich zu Tweets von realen Twitter-Nutzern leichter verständliche Infos generieren. Die Experten konnten dem Tool aber auch ein beängstigendes Talent für die Erstellung äußerst überzeugender Fake News nachweisen. Beunruhigend sei, dass die Teilnehmer nicht in der Lage waren festzustellen, ob Tweets von GPT-3 erstellt wurden oder von realen Twitter-Nutzern geschrieben wurden.

Hohes Missbrauchspotenzial

"Die Studie zeigt, dass KI-gestützte Systeme für groß angelegte Desinformationskampagnen zu jedem erdenklichen Thema missbraucht werden könnten, was nicht nur die öffentliche Gesundheit, sondern auch die Integrität von Informationsökosystemen gefährden würde, die für funktionierende Demokratien unerlässlich sind", warnen die Züricher Kommunikationswissenschaftler eindringlich in ihrer Untersuchung.

Die Forscher empfehlen strenge, evidenzbasierte und ethisch fundierte Vorschriften, um der potenziellen Bedrohung durch diese disruptiven Technologien zu begegnen. "Eine proaktive Regulierung ist entscheidend, um potenzielle Schäden durch KI-gesteuerte Desinformationskampagnen abzuwenden", so Studienleiterin Nikola Biller-Andorno abschließend.

(Ende)

Aussender: pressetext.redaktion
Ansprechpartner: Florian Fügemann
Tel.: +43-1-81140-313
E-Mail:
Website: www.pressetext.com
pressetext.redaktion
   
So wurde bewertet:
Weitersagen
Share Share |
Social Media
ETARGET

FOCUSTHEMA


SPECIALS


Werbung
middleAdvertising