VORSCHAU
PRESSETERMINE

AKTUELLES PRESSEFOTO



WETTER
Graz: bedeckt
24°
Innsbruck: Regen
22°
Linz: Regen
22°
Wien: bedeckt
20°
© wetter.net

Stadtname / PLZ

AKTIENKURSE
 
MEDIEN
Di, 13.02.2024 06:10
Meldung drucken Artikel weiterleiten
pte20240213003 Technologie/Digitalisierung, Kultur/Lifestyle

"KI kann existenzielle Katastrophe auslösen"

Sicherheitsexperte Yampolskiy von der University of Louisville warnt vor einer Unkontrollierbarkeit
Riskante KI: Sicherheitsexperte Yampolskiy warnt vor Gefahren (Foto: Alexandra_Koch, pixabay.com)
Riskante KI: Sicherheitsexperte Yampolskiy warnt vor Gefahren (Foto: Alexandra_Koch, pixabay.com)

Louisville (pte003/13.02.2024/06:10) - "Künstliche Intelligenz (KI) kann eine existenzielle Katastrophe auslösen", warnt Roman V. Yampolskiy, russischer Computerwissenschaftler und KI-Sicherheitsexperte der University of Louisville ( https://louisville.edu ). KI sei unzureichend verstanden, unzureichend definiert und unzureichend erforscht. Sie habe das Potenzial, die Gesellschaft dramatisch umzugestalten, "nicht immer zu unserem Vorteil" (pressetext berichtete ( https://www.pressetext.com/news/20240209001 )).

Kontrollierbarkeit unmöglich

Yampolskiy hat die wissenschaftliche KI-Literatur umfassend überprüft - und eigenen Angaben nach keinen Beweis für eine sichere Kontrollierbarkeit von KI gefunden. Und selbst wenn es einige Teilkontrollen gäbe, würden diese nicht ausreichen. "Warum gehen so viele Forscher davon aus, dass das KI-Kontrollproblem lösbar ist?" fragt der Experte und ergänzt: "Nach unserem besten Wissen gibt es dafür keinen Beweis."

Die Entwicklung der KI-Superintelligenz sei ein fast garantiertes Ereignis. Deshalb seien erhebliche Anstrengungen zur KI-Sicherheit nötig. Er argumentiert, dass unsere Fähigkeit, intelligente Software zu produzieren, unsere Fähigkeit, sie zu kontrollieren oder sogar zu überprüfen, bei weitem übersteigt. Fortschrittliche intelligente Systeme könnten niemals vollständig kontrolliert werden und stellten daher unabhängig vom Nutzen, den sie bieten, immer ein gewisses Risiko dar. Yampolskiy glaubt, dass es das Ziel der KI-Community sein sollte, dieses Risiko zu minimieren und gleichzeitig den potenziellen Nutzen zu maximieren.

Es besteht Erklärungsbedarf

Das Hauptproblem sei, dass KI und Superintelligenz sich von anderen Programmen durch ihre Fähigkeit entschieden, neue Verhaltensweisen zu erlernen, ihre Leistung anzupassen und in neuartigen Situationen halbautonom zu handeln. Gleichzeitig, so Yampolskiy, könne KI nicht erklären, was sie entschieden hat, oder Menschen könnten die gegebene Erklärung nicht verstehen. KI-Systeme seien heute schon damit beauftragt, Entscheidungen in den Bereichen Gesundheitswesen ( https://www.pressetext.com/news/20240117015 ), Investitionen, Beschäftigung, Bankwesen und Sicherheit zu treffen. Diese sollten in der Lage sein zu erklären, wie sie zu ihren Entscheidungen gekommen sind.

"Wenn wir uns daran gewöhnen, KI-Antworten ohne Erklärung zu akzeptieren und ihnen quasi blind vertrauen können wir nicht erkennen, ob sie anfängt, falsche oder manipulative Antworten zu liefern", warnt Yampolskiy. Mit zunehmender Leistungsfähigkeit der KI nehme ihre Autonomie zu, aber die Kontrolle über sie nehme ab. Um solche Gefahren abzuwenden, müssten Aufwand und Finanzierung für die KI-Sicherheitsforschung erhöht werden. "Wir werden vielleicht nie eine 100-prozentig sichere KI erreichen, aber wir können die KI sicherer machen, was viel besser ist, als nichts zu tun", so der Experte.

(Ende)

Aussender: pressetext.redaktion
Ansprechpartner: Wolfgang Kempkens
Tel.: +43-1-81140-300
E-Mail:
Website: www.pressetext.com
pressetext.redaktion
   
So wurde bewertet:
Weitersagen
Share Share |
Social Media
ETARGET

FOCUSTHEMA


SPECIALS


Werbung
middleAdvertising