VORSCHAU
PRESSETERMINE
AKTUELLES PRESSEFOTO
IR Nachrichten
26.11.2024 07:30
Zumtobel Group AG
25.11.2024 16:14
Cantourage Group SE
25.11.2024 15:26
Pierer Industrie AG
EUROPA NACHRICHTEN
MEDIEN
Di, 13.02.2024 06:10
pte20240213003 Technologie/Digitalisierung, Kultur/Lifestyle
"KI kann existenzielle Katastrophe auslösen"
Sicherheitsexperte Yampolskiy von der University of Louisville warnt vor einer Unkontrollierbarkeit
Louisville (pte003/13.02.2024/06:10) - "Künstliche Intelligenz (KI) kann eine existenzielle Katastrophe auslösen", warnt Roman V. Yampolskiy, russischer Computerwissenschaftler und KI-Sicherheitsexperte der University of Louisville ( https://louisville.edu ). KI sei unzureichend verstanden, unzureichend definiert und unzureichend erforscht. Sie habe das Potenzial, die Gesellschaft dramatisch umzugestalten, "nicht immer zu unserem Vorteil" (pressetext berichtete ( https://www.pressetext.com/news/20240209001 )). Kontrollierbarkeit unmöglich Yampolskiy hat die wissenschaftliche KI-Literatur umfassend überprüft - und eigenen Angaben nach keinen Beweis für eine sichere Kontrollierbarkeit von KI gefunden. Und selbst wenn es einige Teilkontrollen gäbe, würden diese nicht ausreichen. "Warum gehen so viele Forscher davon aus, dass das KI-Kontrollproblem lösbar ist?" fragt der Experte und ergänzt: "Nach unserem besten Wissen gibt es dafür keinen Beweis." Die Entwicklung der KI-Superintelligenz sei ein fast garantiertes Ereignis. Deshalb seien erhebliche Anstrengungen zur KI-Sicherheit nötig. Er argumentiert, dass unsere Fähigkeit, intelligente Software zu produzieren, unsere Fähigkeit, sie zu kontrollieren oder sogar zu überprüfen, bei weitem übersteigt. Fortschrittliche intelligente Systeme könnten niemals vollständig kontrolliert werden und stellten daher unabhängig vom Nutzen, den sie bieten, immer ein gewisses Risiko dar. Yampolskiy glaubt, dass es das Ziel der KI-Community sein sollte, dieses Risiko zu minimieren und gleichzeitig den potenziellen Nutzen zu maximieren. Es besteht Erklärungsbedarf Das Hauptproblem sei, dass KI und Superintelligenz sich von anderen Programmen durch ihre Fähigkeit entschieden, neue Verhaltensweisen zu erlernen, ihre Leistung anzupassen und in neuartigen Situationen halbautonom zu handeln. Gleichzeitig, so Yampolskiy, könne KI nicht erklären, was sie entschieden hat, oder Menschen könnten die gegebene Erklärung nicht verstehen. KI-Systeme seien heute schon damit beauftragt, Entscheidungen in den Bereichen Gesundheitswesen ( https://www.pressetext.com/news/20240117015 ), Investitionen, Beschäftigung, Bankwesen und Sicherheit zu treffen. Diese sollten in der Lage sein zu erklären, wie sie zu ihren Entscheidungen gekommen sind. "Wenn wir uns daran gewöhnen, KI-Antworten ohne Erklärung zu akzeptieren und ihnen quasi blind vertrauen können wir nicht erkennen, ob sie anfängt, falsche oder manipulative Antworten zu liefern", warnt Yampolskiy. Mit zunehmender Leistungsfähigkeit der KI nehme ihre Autonomie zu, aber die Kontrolle über sie nehme ab. Um solche Gefahren abzuwenden, müssten Aufwand und Finanzierung für die KI-Sicherheitsforschung erhöht werden. "Wir werden vielleicht nie eine 100-prozentig sichere KI erreichen, aber wir können die KI sicherer machen, was viel besser ist, als nichts zu tun", so der Experte.
(Ende)
PRESSETEXT.TV
PORR rechnet mit anhaltender Baukonjunktur 30.10.2024 ETARGET
FOCUSTHEMA
SPECIALS
Werbung
middleAdvertising
|