VORSCHAU
PRESSETERMINE

AKTUELLES PRESSEFOTO



WETTER
Graz: bedeckt
24°
Innsbruck: Regen
22°
Linz: Regen
22°
Wien: bedeckt
20°
© wetter.net

Stadtname / PLZ

AKTIENKURSE
 
MEDIEN
Mi, 21.09.2022 06:05
Meldung drucken Artikel weiterleiten
pte20220921001 Technologie/Digitalisierung, Forschung/Entwicklung

Maschinen mit KI "sehen" anders als Menschen

"Neuronales Faltungsnetzwerk" untersucht - Sicherheitsanwendungen können gefährlich sein
Stadtverkehr: In komplexen Verkehrssituationen kann eine KI versagen (Foto: pixabay.com, 12138562)
Stadtverkehr: In komplexen Verkehrssituationen kann eine KI versagen (Foto: pixabay.com, 12138562)

York (pte001/21.09.2022/06:05) - Ein sogenanntes "Neuronales Faltungsnetzwerk" sieht Objekte anders als Menschen es tun. Das könnte in realen KI-Anwendungen gefährlich sein, sagt James Elder von der University of York http://york.ac.uk , etwa in der Aus- und Weiterbildung (pressetext berichtete: http://pte.com/news/20220829028 ). Dies ist das Ergebnis einer Untersuchung, die neuartige visuelle Reize namens "Frankensteins" nutzt, um herauszufinden, wie das menschliche Gehirn und Faltungsnetzwerke ganzheitliche, konfigurative Objekteigenschaften verarbeiten.

"Frankensteins sind einfach Objekte, die auseinandergenommen und falsch wieder zusammengesetzt wurden. Infolgedessen haben sie alle richtigen lokalen Funktionen, aber an den falschen Orten. Unsere Ergebnisse erklären, warum Deep-AI-Modelle unter bestimmten Bedingungen versagen, und weisen auf die Notwendigkeit hin, Aufgaben jenseits der Objekterkennung zu berücksichtigen, um die visuelle Verarbeitung im Gehirn zu verstehen", sagt Elder.

Fehleinschätzungen durch "Abkürzungen"

Diese Modelle würden dazu neigen, bei der Lösung komplexer Erkennungsaufgaben "Abkürzungen" zu nehmen. Während diese Abkürzungen in vielen Fällen funktionieren, so Elder, können sie in einigen realen Anwendungen der Künstlichen Intelligenz (KI), an denen die Forscher derzeit mit Industrie- und Regierungspartnern arbeiten, gefährlich sein. Zu solchen Anwendungen gehört der Straßenverkehr, der von Menschen anders gesehen wird als von Maschinen.

"Die Objekte in einer belebten Verkehrsszene - Autos, Fahrräder und Fußgänger - behindern sich gegenseitig und gelangen als Durcheinander von getrennten Fragmenten zum Auge eines Fahrers", erklärt Elder. "Das Gehirn muss diese Fragmente richtig gruppieren, um die richtigen Kategorien und Positionen der Objekte zu identifizieren. Ein KI-System zur Verkehrssicherheitsüberwachung, das nur in der Lage ist, die Fragmente einzeln wahrzunehmen, wird bei dieser Aufgabe versagen und möglicherweise Risiken für ungeschützte Verkehrsteilnehmer falsch einschätzen", so der Forscher.

Netzwerke brauchen Trainingseinheiten

Den Forschern zufolge führen Änderungen an Training und Architektur, die darauf abzielen, Netzwerke gehirnähnlicher zu machen, nicht zu einer konfigurativen Verarbeitung, und keines der Netzwerke war in der Lage, menschliche Objekturteile von Versuch zu Versuch genau vorherzusagen. "Wir spekulieren, dass Netzwerke trainiert werden müssen, um der menschlichen Konfiguralempfindlichkeit gerecht zu werden, um ein breiteres Spektrum von Objektaufgaben über die Kategorieerkennung hinaus zu lösen", bemerkt Elder abschließend.

(Ende)

Aussender: pressetext.redaktion
Ansprechpartner: Wolfgang Kempkens
Tel.: +43-1-81140-300
E-Mail:
Website: www.pressetext.com
pressetext.redaktion
   
So wurde bewertet:
Weitersagen
Share Share |
Social Media
ETARGET

FOCUSTHEMA


SPECIALS


Werbung
middleAdvertising