VORSCHAU
PRESSETERMINE

AKTUELLES PRESSEFOTO



WETTER
Graz: bedeckt
24°
Innsbruck: Regen
22°
Linz: Regen
22°
Wien: bedeckt
20°
© wetter.net

Stadtname / PLZ

AKTIENKURSE
 
MEDIEN
Fr, 09.02.2024 06:00
Meldung drucken Artikel weiterleiten
pte20240209001 Technologie/Digitalisierung, Politik/Recht

KI würde in Kriegen die Eskalation bevorzugen

US-Experten der Stanford University sehen gefährliche Entwicklung in der militärischen Planung
Kampfjet: KI würde die tödlichsten Waffen bevorzugen (Foto: Defence-Imagery, pixabay.com)
Kampfjet: KI würde die tödlichsten Waffen bevorzugen (Foto: Defence-Imagery, pixabay.com)

Stanford/San Francisco/Claremont (pte001/09.02.2024/06:00) - Ließe man Verteidigungs- und Angriffskriege von Künstlicher Intelligenz (KI) planen, wie sie das US-Unternehmen OpenAI ( https://openai.com ) anbietet, fiele die Wahl schnell auf den Einsatz von Nuklearwaffen und andere ultimative Kriegstechniken. Das ist das Ergebnis einer Untersuchung von Forschern um Anka Reuel von der Stanford University ( https://www.stanford.edu ).

"Unberechenbar und unsinnig"

Die Experten haben KI-Modelle zu Rollenspielen in Konflikten mit realen Ländern aufgefordert. Ergebnis: Die KI bevorzugte eine militärische Eskalation und neigte zu unvorhersehbaren Entscheidungen. Bemerkenswert sei, dass die Basisversion von OpenAIs GPT-4 unberechenbares Verhalten zeigte und manchmal unsinnige Erklärungen lieferte, die an fiktive Erzählungen erinnerten, so Reuel.

Die Kriegsspiel-Simulationen, die darauf ausgelegt sind, die KI-Entscheidungsfindung in verschiedenen Konfliktszenarien zu bewerten, zeigten unerwartete Tendenzen zur Aggression. KI-Modelle begründeten Entscheidungen mit Aussagen wie "Wir haben die Waffen, also sollten wir sie nutzen".

Das sei vor dem Hintergrund zu sehen, dass KI und riesige Sprachmodelle zunehmend in militärischen Planungsprozessen genutzt werden und Militärs Partnerschaften mit Unternehmen wie Palantir ( https://www.palantir.com/de/ ), Spezialist für die Analyse von riesigen Datenmengen, und Scale AI, ( https://scale.com/ )US-Entwickler von KI-Software, eingingen.

Militärische Nutzung gewährt

Die Entscheidung von OpenAI, militärische Anwendungen seiner KI-Modelle zuzulassen, spiegelt eine sich verändernde Landschaft wider und löst Diskussionen über die ethischen und strategischen Auswirkungen der Beteiligung von KI an der Kriegsführung aus. Laut Reuel ist das Verständnis dieser Auswirkungen angesichts der sich entwickelnden KI-Fähigkeiten und -Richtlinien von größter Bedeutung.

Trotz des Potenzials von KI, die militärische Planung zu unterstützen, bestehen Bedenken hinsichtlich der Unvorhersehbarkeit und der potenziellen Risiken, die mit der Übertragung kritischer Entscheidungen an KI-Systeme verbunden sind. Lisa Koch vom Claremont McKenna College ( https://www.cmc.edu ) warnt vor den inhärenten Herausforderungen bei der Vorhersage und Kontrolle von KI-Verhalten bei militärischer Planung. Es bestehe die Gefahr, dass sich das Militär zu sehr auf KI-Empfehlungen verlässt, was möglicherweise die menschliche Handlungsfähigkeit in diplomatischen und militärischen Kontexten schwäche.

(Ende)

Aussender: pressetext.redaktion
Ansprechpartner: Wolfgang Kempkens
Tel.: +43-1-81140-300
E-Mail:
Website: www.pressetext.com
pressetext.redaktion
   
Wie fanden Sie diese Meldung?
Weitersagen
likes dislike Share Share |
Social Media
ETARGET

FOCUSTHEMA


SPECIALS


Werbung
middleAdvertising