VORSCHAU
PRESSETERMINE
Felmayer's Gastwirtschaft
23.01.2025 00:00 AKTUELLES PRESSEFOTO
IR Nachrichten
23.01.2025 08:00
NCTE AG
22.01.2025 17:40
Südzucker AG
22.01.2025 17:25
CLEEN Energy AG
EUROPA NACHRICHTEN
HIGHTECH
Fr, 08.09.2023 13:30
pte20230908023 Technologie/Digitalisierung, Forschung/Entwicklung
"UnGANable" soll vor Deepfakes schützen
Verfahren von Forschern des CISPA Helmholtz Center for Information Security funktioniert
Saarbrücken (pte023/08.09.2023/13:30) - Forscher des CISPA Helmholtz Center for Information Security ( https://www.cispa.de ) haben mit "UnGANable" ein neues Anti-Deepfake-Verfahren zur teilweisen Verhinderung von Bildmanipulationen mit böswilliger Absicht getestet. "Vereinfacht gesagt, versucht UnGANable, Bilder von Gesichtern vor Deepfakes zu schützen", so CISPA-Forscher Zheng Li. "latent code" als Schlüssel Damit GANs - ein Modell des maschinellen Lernens, bestehend aus zwei künstlichen neuronalen Netzen, die miteinander kommunizieren - Bilder überhaupt verarbeiten können, müssen sie diese zuerst in mathematische Vektoren, den sogenannten "latent code" umwandeln. Dies wird als GAN-Inversion bezeichnet und stellt eine Art Bildkomprimierung dar. Mithilfe des latent code eines realen Bildes kann ein Generator neue Bilder generieren, die ihrem realen "Vor-Bild" täuschend ähnlich sind. An dieser Stelle greift UnGANable, das die GAN-Inversion und damit die Fälschungen erschwert. Dafür produziert UnGANable auf Ebene der mathematischen Vektoren maximale Abweichungen, in der Fachsprache "noise" genannt, die auf Bildebene jedoch nicht sichtbar sind und die Umwandlung in latent code erschweren. Forscher legen GAN trocken Auf diese Weise läuft das GAN quasi trocken, da es keine Daten findet, mit deren Hilfe neue Bilder erstellt werden können. Und wenn keine dem Originalbild ähnlichen Kopien auf Basis des latent code erstellt werden können, ist auch keine Bildmanipulation möglich, sagen Li und Team. Tests mit UnGANable bei verschiedenen GAN-Inversion-Verfahren hätten funktioniert. Darüber hinaus hat das Team nachgewiesen, dass sein Verfahren besser schützt als alternative Mechanismen, wie etwa das Programm "Fawkes". Das von einer Forschungsgruppe des Sand Lab in Chicago entwickelte Programm arbeitet mit einem Verzerrungsalgorithmus, der an Fotos mit dem menschlichen Auge nicht wahrnehmbare Veränderungen auf Pixelebene vornimmt.
(Ende)
PRESSETEXT.TV
PORR rechnet mit anhaltender Baukonjunktur 30.10.2024 ETARGET
FOCUSTHEMA
SPECIALS
Werbung
middleAdvertising
|