VORSCHAU
PRESSETERMINE

AKTUELLES PRESSEFOTO



WETTER
Graz: bedeckt
24°
Innsbruck: Regen
22°
Linz: Regen
22°
Wien: bedeckt
20°
© wetter.net

Stadtname / PLZ

AKTIENKURSE
 
HIGHTECH
Mi, 25.10.2023 12:30
Meldung drucken Artikel weiterleiten
pte20231025012 Technologie/Digitalisierung, Forschung/Entwicklung

Chatbots machen Cyber-Angriffe noch leichter

Software erstellen mit ChatGPT, AI2SQL, AIHELPERBOT, Text2SQL, ToolSKE und Baidu-UNIT
Eingabe: ChatGPT und Co eignen sich auch für Cyber-Angriffe (Bild: Gerd Altmann, pixabay.com)
Eingabe: ChatGPT und Co eignen sich auch für Cyber-Angriffe (Bild: Gerd Altmann, pixabay.com)

Sheffield (pte012/25.10.2023/12:30) - Cyber-Gangster nutzen immer öfter KI-Tools wie ChatGPT zur Herstellung von Schad-Software, warnen Forscher der University of Sheffield ( https://www.sheffield.ac.uk ). Die Fachleute haben Sicherheitslücken in sechs kommerziellen KI-Tools entdeckt. Neben ChatGPT waren das AI2SQL, AIHELPERBOT, Text2SQL, ToolSKE sowie Baidu-UNIT, eine chinesische Plattform für intelligenten Dialog, die von namhaften Kunden in vielen Branchen genutzt wird, darunter E-Commerce, Bankwesen, Journalismus, Telekommunikation, Automobil und zivile Luftfahrt.

Serverknoten leicht deaktivieren

Die britischen Informatiker sind die Ersten, die gezeigt haben, dass sich Text-to-SQL-Systeme - KI, die es Menschen ermöglicht, Datenbanken zu durchsuchen, indem sie Fragen in einfacher Sprache stellen und in einer Vielzahl von Branchen eingesetzt werden - ausnutzen lassen, um Computersysteme in der realen Welt anzugreifen. Sie können so manipuliert werden, dass sie sensible persönliche Daten stehlen, Datenbanken manipulieren oder zerstören und Denial-of-Service-Angriffe starten, also bestimmte Internetdienste lahmlegen. Mit Baidu-UNIT etwa konnten die Wissenschaftler vertrauliche Baidu-Serverkonfigurationen entschlüsseln und einen Serverknoten außer Betrieb setzen.

"Viele Unternehmen sind sich dieser Bedrohungen einfach nicht bewusst und aufgrund der Komplexität von Chatbots gibt es auch innerhalb der Community Dinge, die nicht vollständig bekannt sind", sagt Informatik-Doktorand Xutan Peng. Das Risiko bei diesen Chatbots bestehe darin, dass immer mehr Menschen sie als Produktivitäts-Tools und nicht als Konversations-Bots verwenden. "Hier zeigen unsere Untersuchungen, dass Schwachstellen bestehen", so Peng. Beispielsweise könne eine Krankenschwester ChatGPT darum bitten, einen SQL-Befehl zu formulieren, damit sie mit einer Datenbank interagieren kann, in der klinische Daten gespeichert sind. Dieser Code sei in vielen Fällen jedoch für die Datenbank schädlich.

Schwer vorhersagbare Reaktion

"Die in Text-to-SQL-Systemen verwendeten Modelle sind äußerst leistungsfähig, ihr Verhalten ist jedoch komplex und lässt sich schwer vorhersagen", warnt Mark Stevenson, Dozent in der Forschungsgruppe Natural Language Processing. "Wir arbeiten derzeit daran, diese Modelle besser zu verstehen, um ihr Potenzial sicher nutzen zu können."

(Ende)

Aussender: pressetext.redaktion
Ansprechpartner: Wolfgang Kempkens
Tel.: +43-1-81140-300
E-Mail:
Website: www.pressetext.com
pressetext.redaktion
   
Wie fanden Sie diese Meldung?
Weitersagen
likes dislike Share Share |
Social Media
ETARGET

FOCUSTHEMA


SPECIALS


Werbung
middleAdvertising