VORSCHAU
PRESSETERMINE

AKTUELLES PRESSEFOTO



WETTER
Graz: bedeckt
24°
Innsbruck: Regen
22°
Linz: Regen
22°
Wien: bedeckt
20°
© wetter.net

Stadtname / PLZ

AKTIENKURSE
 
MEDIEN
Mi, 24.01.2024 13:30
Meldung drucken Artikel weiterleiten
pte20240124016 Medien/Kommunikation, Politik/Recht

KI droht international Wahlen zu verfälschen

Generative Software wird laut Studie der George Washington University zur alltäglichen Gefahr
Wahlurne: Künstliche Intelligenz droht Wahlen zu beeinflussen (Bild: Tumisu, pixabay.com)
Wahlurne: Künstliche Intelligenz droht Wahlen zu beeinflussen (Bild: Tumisu, pixabay.com)

Washington (pte016/24.01.2024/13:30) - Laut einer Prognose der George Washington University ( https://www.gwu.edu ) könnten Aktivitäten bösartiger Künstlicher Intelligenz (KI) bis Mitte 2024 zur alltäglichen Gefahr werden - insbesondere in Bezug auf die Beeinflussung von Wahlergebnissen in mehr als 50 Ländern, die in diesem Jahr stattfinden. Die wohl wichtigste ist die Präsidentenwahl in den USA, die möglicherweise Ex-Präsident Donald Trump gewinnt. Außerdem finden die Europawahl in allen Ländern der EU, Landtagswahlen in Deutschland, Nationalratswahlen in Österreich sowie Volksabstimmungen in der Schweiz statt.

Weniger menschengenerierte Infos

Bereits früher haben KI-Experten die Befürchtung geäußert, dass bis 2026 rund 90 Prozent der Infos, die im Internet verbreitet werden, nicht von Menschen geschaffen werden, sondern von Software auf KI-Basis. "Alle reden über die Gefahren der KI, aber bis zu unserer Studie gab es keine wissenschaftlichen Erkenntnisse zu dieser Bedrohung", sagt Neil Johnson, Hauptautor der Studie.

"Doch ohne ein tiefes Verständnis des Schlachtfeldes kann man keine Schlacht gewinnen", so sein Fazit. Seiner Ansicht nach genügen bereits einfache KI-Systeme, um Desinformationskampagnen zu starten. Das liege daran, dass etwa GPT-2 den menschlichen Stil und Inhalte, die bereits in extremen Online-Communitys zu sehen sind, problemlos reproduzieren kann.

Rückschlüsse aus früheren Attacken

Die Prognosen des Teams um Johnson basieren auf Proxy-Daten von zwei historischen, technologisch ähnlichen Vorfällen, bei denen es um die Manipulation elektronischer Online-Informationssysteme ging. Der erste Datensatz stammte von automatisierten Algorithmus-Angriffen auf US-Finanzmärkte im Jahr 2008, der zweite von chinesischen Cyber-Attacken auf US-Infrastruktur im Jahr 2013.

Durch die Analyse dieser Datensätze haben die Forscher die Häufigkeit von Angriffen in diesen Ereignisketten extrapoliert und diese Infos im Zusammenhang mit den heutigen Möglichkeiten der KI bewertet. Die GW-Forscher gehen davon aus, dass große Social-Media-Plattformen daran arbeiten, KI-generierte Fake News zu kontrollieren. Damit ließen sich jedoch gezielte Desinformationskampagnen von einzelnen Menschen, Gruppierungen oder Staaten nicht wirksam bekämpfen.

(Ende)

Aussender: pressetext.redaktion
Ansprechpartner: Wolfgang Kempkens
Tel.: +43-1-81140-300
E-Mail:
Website: www.pressetext.com
pressetext.redaktion
   
So wurde bewertet:
Weitersagen
Share Share |
Social Media
ETARGET

FOCUSTHEMA


SPECIALS


Werbung
middleAdvertising