VORSCHAU
PRESSETERMINE
AKTUELLES PRESSEFOTO
IR Nachrichten
25.11.2024 08:07
Weng Fine Art AG
24.11.2024 10:30
Small- & MicroCap Investment
24.11.2024 10:00
Small- & MicroCap Investment
EUROPA NACHRICHTEN
MEDIEN
Do, 02.05.2024 06:00
pte20240502002 Medien/Kommunikation, Technologie/Digitalisierung
Forscher wollen KI-Sprachmodelle zähmen
MIT-Wissenschaftler setzen Algorithmen auf sich an, um nicht auf toxische Fragen hereinzufallen
Cambridge/San Francisco (pte002/02.05.2024/06:00) - Forscher des Massachusetts Institute of Technology ( https://www.mit.edu/ ) (MIT) haben eine Künstliche Intelligenz (KI) darauf trainiert, sich möglichst viele toxische Fragen auszudenken, damit sogenannte Großen Sprachmodelle (LLMs) wie ChatGPT, Claude 3 Opus und Co in jedem Fall von Gefahr verbreitenden Antworten abgehalten werden. Sprachmodelle matchen sich Die KI generiert tatsächlich umfangreichere und vielfältigere negative Aufforderungen, als dies von menschlichen Red-Teams, die sich manuell potenziell schädliche Fragen ausdenken und entsprechend negative Antworten herausfordern, jemals möglich wäre. Darüber hinaus haben die Forscher bestärkendes Lernen eingesetzt, um ein Sprachmodell zu motivieren, verschiedene Prompts zu erstellen, um toxische Reaktionen eines anderen Modells zu provozieren. Prompts sind kurze Hinweise, zum Beispiel in Form von allgemeinen Fragen oder genauen Ausführungsanleitungen. Durch Belohnungen für die Generierung neuartiger Fragen und Aufforderungen, die schädliche Reaktionen hervorrufen, lernte das System, neue Wörter, Satzstrukturen und Bedeutungen zu erforschen, was zu einer breiteren Palette von toxischen Aufforderungen führte. Überprüfung vor der Freigabe "Es gibt bereits eine Flut von Modellen und es ist zu erwarten, dass diese Zahl noch steigen wird. Diese Modelle werden ein integraler Bestandteil unseres Lebens sein, und sie müssen überprüft werden, bevor sie für die Öffentlichkeit freigegeben werden", fordert Pulkit Agrawal, Direktor des Improbable AI Lab am MIT. Sie sollen toxische Sprache wie abwertende oder obszöne Ausdrücke erkennen und verhindern, dass sie den Nutzern angezeigt werden. "Das ist ein wichtiger Schritt, um sicherzustellen, dass LLMs nicht die denkbar schlechtesten Inhalte produzieren", ergänzt Knar Hovakimyan, KI-Experte bei Grammarly. Das US-Software-Unternehmen bietet einen KI-basierten Schreibassistenten an, der Texte in englischer Sprache überprüft und verbessert.
(Ende)
PRESSETEXT.TV
PORR rechnet mit anhaltender Baukonjunktur 30.10.2024 ETARGET
FOCUSTHEMA
SPECIALS
Werbung
middleAdvertising
|