Jetzt reinschauen – neue Umgebung live

KI und Cyberbedrohungen: Neue Risiken durch Malware-Nutzung von ChatGPT

Kategorien:
No items found.
Freigegeben:
July 6, 2024

Artikel jetzt als Podcast anhören

Die potenzielle Gefahr: Wie Viren ChatGPT nutzen können, um sich unentdeckt weiterzuverbreiten

Einleitung

Die rasante Entwicklung der Künstlichen Intelligenz (KI) hat viele Vorteile mit sich gebracht, doch sie birgt auch Risiken. Ein aktuelles Forschungsergebnis zeigt, wie Viren die Fähigkeiten von ChatGPT nutzen können, um sich unentdeckt weiterzuverbreiten. Diese Entdeckung könnte weitreichende Konsequenzen für die Cybersicherheit haben, wenn keine geeigneten Maßnahmen ergriffen werden.

Wie die Malware funktioniert

Die Wissenschaftler David Zollikofer von der ETH Zürich und Benjamin Zimmerman von der Ohio State University haben in ihrer Studie gezeigt, dass Malware ChatGPT nutzen kann, um sich effektiver zu verbreiten. Zunächst muss die Malware über Phishing auf einem Computer eingeschleust werden. Dies geschieht häufig über einen harmlos aussehenden E-Mail-Anhang. Sobald die Malware auf dem Computer ist, kann sie ChatGPT im Hintergrund verwenden, um ihren eigenen Code anzupassen. Diese Anpassungen umfassen das Umbenennen von Variablen und die Änderung der Logik im Code, wodurch die Malware routinemäßigen Scans von Antivirenprogrammen entgeht.

Die Rolle von ChatGPT

ChatGPT, ein KI-Tool von OpenAI, wird dabei genutzt, um den Schadcode der Malware so zu verändern, dass er von Antivirenprogrammen nicht erkannt wird. In der Praxis bedeutet dies, dass die Malware ChatGPT dazu verwendet, um Variablen im Code umzubenennen und die logischen Abläufe leicht zu ändern. Diese geringfügigen Modifikationen reichen aus, um die Erkennung durch herkömmliche Antivirensoftware zu umgehen.

Die Bedrohung durch Outlook

Ein besonders perfider Aspekt der Malware ist ihre Fähigkeit, das Mailprogramm Outlook auf Windows-PCs unbemerkt zu öffnen. Die Malware scannt dann kürzlich erhaltene E-Mails und nutzt ChatGPT, um passende Antworten zu formulieren. Diese Antworten können Anhänge enthalten, die als harmlose Dateien getarnt sind, tatsächlich aber die Malware weiterverbreiten.

Erste Tests und Ergebnisse

Die ersten Tests mit der KI-unterstützten Malware zeigen alarmierende Ergebnisse. In etwa der Hälfte der Fälle konnte ChatGPT den Code der Malware erfolgreich verändern und passende E-Mails verfassen. In den anderen Fällen erkannte die KI, dass sie für schädliche Zwecke verwendet wird. Diese Fähigkeit zur Selbstkorrektur ist zwar beruhigend, reicht jedoch nicht aus, um die potenzielle Bedrohung vollständig zu neutralisieren.

Empfehlungen der Wissenschaftler

Die beiden Wissenschaftler raten den Entwicklern von KI-Tools dringend, Sicherheitsmaßnahmen zu ergreifen, um den Missbrauch ihrer Programme zu verhindern. Dazu gehören unter anderem:


- Implementierung von Mechanismen zur Erkennung und Verhinderung von schädlichem Verhalten
- Regelmäßige Überprüfung und Aktualisierung der Sicherheitsprotokolle
- Zusammenarbeit mit Cybersicherheits-Experten zur Entwicklung robuster Schutzmaßnahmen


Die Perspektive der Sicherheitsforschung

Der finnische Sicherheitsforscher Mikko Hyppönen warnt ebenfalls vor den potenziellen Gefahren, die durch die Kombination von Malware und maschinellem Lernen entstehen. Er betont, dass Maschinen bald in der Lage sein könnten, Sicherheitslücken schneller und effektiver zu nutzen als Menschen. Diese Entwicklung könnte sowohl positive als auch negative Auswirkungen haben. Während wir Sicherheitslücken schneller beheben könnten, besteht auch die Gefahr, dass diese Schwachstellen in die falschen Hände geraten und ausgenutzt werden.

Die Reaktion der Entwickler

OpenAI, das Unternehmen hinter ChatGPT, hat bereits auf die Risiken hingewiesen, die mit der Nutzung ihrer KI-Tools verbunden sind. Auf ihrer Website betonen sie die Notwendigkeit weiterer Forschung und Entwicklung, um die Robustheit und Wahrhaftigkeit ihrer Modelle zu verbessern. Der CEO von OpenAI, Sam Altman, bezeichnet ChatGPT als eine Vorschau auf den Fortschritt, weist jedoch darauf hin, dass noch viel Arbeit erforderlich ist, um die Technologie sicher und zuverlässig zu machen.

Fazit

Die Entdeckung, dass Malware ChatGPT nutzen kann, um sich unentdeckt weiterzuverbreiten, zeigt die dringende Notwendigkeit, Sicherheitsmaßnahmen für KI-Tools zu verbessern. Sowohl Entwickler als auch Cybersicherheitsexperten müssen zusammenarbeiten, um diesen Bedrohungen entgegenzuwirken und die Integrität unserer digitalen Systeme zu schützen. Die Forschungsergebnisse von Zollikofer und Zimmerman sind ein wichtiger Schritt in diese Richtung und sollten als Weckruf für die gesamte Branche dienen.

Bibliografie


- https://newstral.com/de/article/de/1255164028/wissenschaftler-zeigen-wie-viren-chatgpt-nutzen-k%C3%B6nnen-um-sich-unentdeckt-weiterzuverbreiten
- https://t3n.de/news/
- https://www.hessenschau.de/wirtschaft/forscher-der-tu-darmstadt-warnen-vor-chatgpt-es-kann-sein-dass-kuenstliche-intelligenz-einfach-luegt-v1,chat-gpt-darmstadt-100.html
- https://www.zeit.de/2024/04/computerviren-trojaner-hacking-illegalitaet/seite-3
- https://www.watson.ch/digital/analyse/560741870-wissenschaftlerin-aus-zuerich-warnt-vor-chatgpt-ki-faelscht-quellen
- https://newstral.com/de/topics/technology
- https://pm-report.de/gesundheitswesen/2024/chat-gpt-veraenderst-du-wirklich-die-gesundheit-und-medizin.html
- https://www.zdf.de/nachrichten/thema/chatgpt-106.html


Was bedeutet das?

Wie können wir Ihnen heute helfen?

Das Expertenteam von Mindverse freut sich darauf, Ihnen zu helfen.