VORSCHAU
PRESSETERMINE
AKTUELLES PRESSEFOTO
IR Nachrichten
11.01.2025 11:28
UKO Microshops AG
10.01.2025 16:45
Erste Group Bank AG
10.01.2025 14:20
Heidelberger Beteiligungsholding AG
EUROPA NACHRICHTEN
MEDIEN
Mi, 21.09.2022 06:05
pte20220921001 Technologie/Digitalisierung, Forschung/Entwicklung
Maschinen mit KI "sehen" anders als Menschen
"Neuronales Faltungsnetzwerk" untersucht - Sicherheitsanwendungen können gefährlich sein
York (pte001/21.09.2022/06:05) - Ein sogenanntes "Neuronales Faltungsnetzwerk" sieht Objekte anders als Menschen es tun. Das könnte in realen KI-Anwendungen gefährlich sein, sagt James Elder von der University of York http://york.ac.uk , etwa in der Aus- und Weiterbildung (pressetext berichtete: http://pte.com/news/20220829028 ). Dies ist das Ergebnis einer Untersuchung, die neuartige visuelle Reize namens "Frankensteins" nutzt, um herauszufinden, wie das menschliche Gehirn und Faltungsnetzwerke ganzheitliche, konfigurative Objekteigenschaften verarbeiten. "Frankensteins sind einfach Objekte, die auseinandergenommen und falsch wieder zusammengesetzt wurden. Infolgedessen haben sie alle richtigen lokalen Funktionen, aber an den falschen Orten. Unsere Ergebnisse erklären, warum Deep-AI-Modelle unter bestimmten Bedingungen versagen, und weisen auf die Notwendigkeit hin, Aufgaben jenseits der Objekterkennung zu berücksichtigen, um die visuelle Verarbeitung im Gehirn zu verstehen", sagt Elder. Fehleinschätzungen durch "Abkürzungen" Diese Modelle würden dazu neigen, bei der Lösung komplexer Erkennungsaufgaben "Abkürzungen" zu nehmen. Während diese Abkürzungen in vielen Fällen funktionieren, so Elder, können sie in einigen realen Anwendungen der Künstlichen Intelligenz (KI), an denen die Forscher derzeit mit Industrie- und Regierungspartnern arbeiten, gefährlich sein. Zu solchen Anwendungen gehört der Straßenverkehr, der von Menschen anders gesehen wird als von Maschinen. "Die Objekte in einer belebten Verkehrsszene - Autos, Fahrräder und Fußgänger - behindern sich gegenseitig und gelangen als Durcheinander von getrennten Fragmenten zum Auge eines Fahrers", erklärt Elder. "Das Gehirn muss diese Fragmente richtig gruppieren, um die richtigen Kategorien und Positionen der Objekte zu identifizieren. Ein KI-System zur Verkehrssicherheitsüberwachung, das nur in der Lage ist, die Fragmente einzeln wahrzunehmen, wird bei dieser Aufgabe versagen und möglicherweise Risiken für ungeschützte Verkehrsteilnehmer falsch einschätzen", so der Forscher. Netzwerke brauchen Trainingseinheiten Den Forschern zufolge führen Änderungen an Training und Architektur, die darauf abzielen, Netzwerke gehirnähnlicher zu machen, nicht zu einer konfigurativen Verarbeitung, und keines der Netzwerke war in der Lage, menschliche Objekturteile von Versuch zu Versuch genau vorherzusagen. "Wir spekulieren, dass Netzwerke trainiert werden müssen, um der menschlichen Konfiguralempfindlichkeit gerecht zu werden, um ein breiteres Spektrum von Objektaufgaben über die Kategorieerkennung hinaus zu lösen", bemerkt Elder abschließend.
(Ende)
PRESSETEXT.TV
PORR rechnet mit anhaltender Baukonjunktur 30.10.2024 ETARGET
FOCUSTHEMA
SPECIALS
Werbung
middleAdvertising
|