VORSCHAU
PRESSETERMINE
AKTUELLES PRESSEFOTO
IR Nachrichten
25.12.2024 20:20
VAS AG
24.12.2024 15:18
UKO Microshops AG
24.12.2024 07:30
Zumtobel Group AG
EUROPA NACHRICHTEN
MEDIEN
Mi, 20.11.2024 06:00
pte20241120001 Medien/Kommunikation, Technologie/Digitalisierung
Komprimierte KI läuft auch auf dem Laptop
Forscher aus Princeton und Stanford lassen Große Sprachmodelle auch ohne Server funktionieren
Princeton/Stanford (pte001/20.11.2024/06:00) - Nun haben Ingenieure der Princeton University ( https://www.princeton.edu/ ) und der Ingenieurschule der Stanford University ( https://engineering.stanford.edu/ ) eine Technik zur Komprimierung riesiger Datenmengen von Großen Sprachmodellen (LLM) vorgestellt, die deren Nutzung auf Smartphones und Laptops ermöglicht, ohne den zentralen Server zu bemühen. Deutlich weniger Redundanzen Um die Daten zu reduzieren, werden unter anderem Redundanzen entfernt. Die schlanken LLMs bieten eine Leistung, die fast so genau und nuanciert ist wie eine unkomprimierte Version. "Wenn man die rechnerische Komplexität, den Speicherbedarf und die Bandbreitenanforderungen bei der Verwendung von KI-Modellen reduziert, kann man KI auf Geräten und Systemen ermöglichen, die normalerweise nicht in der Lage sind, solche rechen- und speicherintensiven Aufgaben zu bewältigen", so Princeton-Forscherin Andrea Goldsmith. "Wenn Sie ChatGPT verwenden, wird jede Anfrage, die Sie eingeben, an die Back-End-Server von OpenAI ( https://openai.com/ )weitergeleitet, die diese Daten verarbeiten, und das ist sehr teuer. Besser ist es, LLMs mit Grafikprozessoren zu nutzen, die in mobiler Elektronik meist vorhanden ist. Doch das geht nur durch Datenkompression", ergänzt ihr Doktorand Rajarshi Saha. Die Entwickler werden ihren Algorithmus "CALDERA" auf der Konferenz über neuronale Informationsverarbeitungssysteme ( https://neurips.cc/ ) im Dezember dieses Jahres im kanadischen Vancouver vorstellen. Kompression mit Trainingsdaten Die Forscher haben bei der Entwicklung der Kompressions-Algorithmen nicht mit LLMs selbst gearbeitet, sondern mit den großen Informationssammlungen, die zum Training von LLMs und anderen komplexen KI-Modellen verwendet werden - wie solchen, die für die Bildklassifizierung eingesetzt werden. Dieser Vorläufer von CALDERA wurde bereits 2023 präsentiert. CALDERA ist für Aufgaben geeignet, die keine höchstmögliche Präzision erfordern. Darüber hinaus wird die Möglichkeit erhöht, komprimierte LLMs auf Edge-Geräten wie Smartphones oder Laptops zu nutzen. Unternehmen, Organisationen und Einzelpersonen müssen zudem keine sensiblen Daten an Dritte weitergeben.
(Ende)
PRESSETEXT.TV
PORR rechnet mit anhaltender Baukonjunktur 30.10.2024 ETARGET
FOCUSTHEMA
SPECIALS
Werbung
middleAdvertising
|