VORSCHAU
PRESSETERMINE
AKTUELLES PRESSEFOTO
IR Nachrichten
27.11.2024 18:00
CA Immobilien Anlagen AG
27.11.2024 18:00
CA Immobilien Anlagen AG
27.11.2024 17:30
OMV Aktiengesellschaft
EUROPA NACHRICHTEN
HIGHTECH
Mi, 10.04.2024 06:05
pte20240410003 Technologie/Digitalisierung, Umwelt/Energie
Stromfresser KI kommt mit weniger Power aus
Genügsamere Modelle bringen laut Analysen der Universität Kopenhagen fast gleiche Leistung
Kopenhagen (pte003/10.04.2024/06:05) - 2027 wird der Strombedarf von Servern für Anwendungen der Künstlichen Intelligenz (KI) so hoch sein wie jener von Schweden oder Argentinien. Das schätzen Informatiker der Universität Kopenhagen ( https://www.ku.dk/english ). Ein Beispiel: Eine einzige ChatGPT-Eingabeaufforderung verbraucht demnach im Schnitt so viel Energie wie 40 Handy-Ladungen. Die Forscher haben daher ein Rezeptbuch zur Entwicklung von KI-Modellen erstellt, die viel weniger Energie verbrauchen, ohne an Leistung einzubüßen. Einseitige Konzentration Die Experten argumentieren, dass der Energieverbrauch und der CO2-Fußabdruck eines Modells ein festes Kriterium bei der Entwicklung und dem Training von KI-Modellen sein sollte. "Heute konzentrieren sich die Entwickler nur darauf, KI-Modelle zu entwickeln, die in Bezug auf die Genauigkeit ihrer Ergebnisse effektiv sind. Das ist so, als würde man sagen, dass ein Auto effektiv ist, weil es einen schnell ans Ziel bringt, ohne zu berücksichtigen, wie viel Kraftstoff es verbraucht", so Forscher Raghavendra Selvan. Das Trainieren von KI-Modellen verbraucht viel Energie und verursacht dadurch einen hohen CO2-Ausstoß. Dies ist auf die intensiven Berechnungen zurückzuführen, die während des Trainings eines Modells in der Regel auf leistungsstarken Computern nötig sind. Dies gilt insbesondere für große Anwendungen wie beim Sprachmodell hinter ChatGPT. 400.000 KI-Modelle im Visier Die Forscher am Science Ai Centre ( https://ai.ku.dk ) der Hochschule haben errechnet, wie viel Energie es braucht, um mehr als 400.000 KI-Modelle vom Typ "Faltungs-Neuronales Netz" zu trainieren - und das, ohne all diese Modelle tatsächlich zu trainieren. Faltungsneuronale Netze werden unter anderem zur Analyse medizinischer Bilder, zur Übersetzung und zur Objekt- und Gesichtserkennung eingesetzt. Auf der Grundlage ihrer Berechnungen stellen die Forscher eine Benchmark-Sammlung von KI-Modellen vor, die zur Lösung einer bestimmten Aufgabe weniger Energie verbrauchen, aber in etwa die gleiche Leistung erbringen. Die Studie zeigt, dass sich durch die Entscheidung für andere Modelltypen oder die Anpassung 70 bis 80 Prozent Energieeinsparungen während der Trainings- und Einsatzphase erzielen lassen, wobei die Leistung nur um einen Prozent oder weniger abnimmt.
(Ende)
PRESSETEXT.TV
PORR rechnet mit anhaltender Baukonjunktur 30.10.2024 ETARGET
FOCUSTHEMA
SPECIALS
Werbung
middleAdvertising
|