VORSCHAU
PRESSETERMINE
AKTUELLES PRESSEFOTO
IR Nachrichten
29.12.2024 10:00
Small- & MicroCap Investment
29.12.2024 09:00
Small- & MicroCap Investment
29.12.2024 08:00
Small- & MicroCap Investment
EUROPA NACHRICHTEN
MEDIEN
Mi, 16.10.2024 06:00
pte20241016001 Technologie/Digitalisierung, Politik/Recht
Regulierung von KI kann kontraproduktiv sein
Missbrauch muss laut Wissenschaftlern der Princeton University auf andere Art verhindert werden
Princeton (pte001/16.10.2024/06:00) - Forscher führender US-Hochschulen wie der Princeton University ( https://www.princeton.edu/ ) stehen einer Regulierung Künstlicher Intelligenz (KI) zum Schutz vor Missbrauch kritisch gegenüber. Denn Einschränkungen dieser Art würden mehr schaden als nützen. Auch hätten es zum Besipiel Ingenieure schwerer, Modelle zu verbessern. Aber auch sehen die Experten die Gefahr, dass die Konzentration der Macht in den Händen einiger weniger Einzelpersonen und Unternehmen liegen würde, die den KI-Zugang kontrollieren. Eher User-Abwehrkräfte stärken Princeton-Forscher Arvind Narayanan und sein Doktorand Sayash Kapoor haben sich ausführlich mit den Gefahren befasst, die durch den Missbrauch von KI-Systemen in Bereichen wie Desinformation, Hacking, Bioterrorismus und der Erstellung gefälschter Bilder entstehen. Sie bewerteten jedes Risiko und dachten darüber nach, ob es wirksamere Möglichkeiten gibt, diese zu bekämpfen, als den Zugang zu KI-Modellen einzuschränken. Um beispielsweise per KI generierte Texte für E-Mail-Betrügereien, das sogenannte "Spear-Phishing", zu entschärfen sei es wirksamer ist, die Abwehrkräfte der Nutzer zu stärken, als KI einzuschränken. Die schnelle KI-Entwicklung hat in den vergangenen Jahren zu Forderungen nach einer Regulierung der Technologie geführt, darunter auch zu Schritten des Weißen Hauses und der EU ( https://www.pressetext.com/news/eu-staaten-segnen-regulierung-von-ki-final-ab.html ). Dabei geht es um die Konstruktion von Computercodes und Daten, aus denen die heutigen primären KI-Systeme wie GPT-4 und Llama 2 bestehen. Diese Systeme schreiben Berichte, erstellen Grafiken und führen eine Vielzahl an Aufgaben aus - auch solche, die anderen schaden können. Geschlossene Systeme gefährdet Ein wesentlicher Unterschied zwischen den KI-Modellen besteht darin, wie sie veröffentlicht werden. Sogenannte offene Modelle stehen der Öffentlichkeit vollständig zur Einsicht zur Verfügung, geschlossene Modelle dagegen nur ihren Entwicklern. Eine dritte Art sind Hybride, bei denen Teile der Modelle geheimgehalten werden und andere Teile öffentlich zugänglich sind. Obwohl diese Unterscheidung technisch anmutet, kann sie für die Regulierung von entscheidender Bedeutung sein. Für die Experten hängen die größten Bedenken hinsichtlich der KI-Modelle damit zusammen, wie die Modelle für böswillige Zwecke missbraucht werden könnten. Eine Möglichkeit, Missbrauch zu bekämpfen, bestehe darin, Anpassungen zu erschweren, indem der Zugriff auf die KI-Modelle eingeschränkt wird. Regulierungsbehörden könnten dies tun, indem sie Entwickler dazu verpflichten, den Zugriff von außen zu blockieren und diese im Missbrauchsfall mitverantwortlich zu machen. Den Wissenschaftlern nach belegen die verfügbaren Beweise nicht, dass offene Modelle riskanter seien als geschlossene oder Informationen, die bereits durch Standard-Recherchetechniken wie Online-Suchen verfügbar sind. Selbst geschlossene Modelle könnten unterwandert werden, resümieren die Experten.
(Ende)
PRESSETEXT.TV
PORR rechnet mit anhaltender Baukonjunktur 30.10.2024 ETARGET
FOCUSTHEMA
SPECIALS
Werbung
middleAdvertising
|