VORSCHAU
PRESSETERMINE

AKTUELLES PRESSEFOTO



WETTER
Graz: bedeckt
24°
Innsbruck: Regen
22°
Linz: Regen
22°
Wien: bedeckt
20°
© wetter.net

Stadtname / PLZ

AKTIENKURSE
 
MEDIEN
Mi, 20.11.2024 06:00
Meldung drucken Artikel weiterleiten
pte20241120001 Medien/Kommunikation, Technologie/Digitalisierung

Komprimierte KI läuft auch auf dem Laptop

Forscher aus Princeton und Stanford lassen Große Sprachmodelle auch ohne Server funktionieren
Daten: Mit
Daten: Mit "CALDERA" bleiben sensible Daten unter Verschluss (Bild: Gerd Altmann, pixabay.com)

Princeton/Stanford (pte001/20.11.2024/06:00) - Nun haben Ingenieure der Princeton University ( https://www.princeton.edu/ ) und der Ingenieurschule der Stanford University ( https://engineering.stanford.edu/ ) eine Technik zur Komprimierung riesiger Datenmengen von Großen Sprachmodellen (LLM) vorgestellt, die deren Nutzung auf Smartphones und Laptops ermöglicht, ohne den zentralen Server zu bemühen.

Deutlich weniger Redundanzen

Um die Daten zu reduzieren, werden unter anderem Redundanzen entfernt. Die schlanken LLMs bieten eine Leistung, die fast so genau und nuanciert ist wie eine unkomprimierte Version. "Wenn man die rechnerische Komplexität, den Speicherbedarf und die Bandbreitenanforderungen bei der Verwendung von KI-Modellen reduziert, kann man KI auf Geräten und Systemen ermöglichen, die normalerweise nicht in der Lage sind, solche rechen- und speicherintensiven Aufgaben zu bewältigen", so Princeton-Forscherin Andrea Goldsmith.

"Wenn Sie ChatGPT verwenden, wird jede Anfrage, die Sie eingeben, an die Back-End-Server von OpenAI ( https://openai.com/ )weitergeleitet, die diese Daten verarbeiten, und das ist sehr teuer. Besser ist es, LLMs mit Grafikprozessoren zu nutzen, die in mobiler Elektronik meist vorhanden ist. Doch das geht nur durch Datenkompression", ergänzt ihr Doktorand Rajarshi Saha. Die Entwickler werden ihren Algorithmus "CALDERA" auf der Konferenz über neuronale Informationsverarbeitungssysteme ( https://neurips.cc/ ) im Dezember dieses Jahres im kanadischen Vancouver vorstellen.

Kompression mit Trainingsdaten

Die Forscher haben bei der Entwicklung der Kompressions-Algorithmen nicht mit LLMs selbst gearbeitet, sondern mit den großen Informationssammlungen, die zum Training von LLMs und anderen komplexen KI-Modellen verwendet werden - wie solchen, die für die Bildklassifizierung eingesetzt werden. Dieser Vorläufer von CALDERA wurde bereits 2023 präsentiert. CALDERA ist für Aufgaben geeignet, die keine höchstmögliche Präzision erfordern. Darüber hinaus wird die Möglichkeit erhöht, komprimierte LLMs auf Edge-Geräten wie Smartphones oder Laptops zu nutzen. Unternehmen, Organisationen und Einzelpersonen müssen zudem keine sensiblen Daten an Dritte weitergeben.

(Ende)

Aussender: pressetext.redaktion
Ansprechpartner: Wolfgang Kempkens
Tel.: +43-1-81140-300
E-Mail:
Website: www.pressetext.com
pressetext.redaktion
   
Wie fanden Sie diese Meldung?
Weitersagen
likes dislike Share Share |
Social Media
ETARGET

FOCUSTHEMA


SPECIALS


Werbung
middleAdvertising