Die rasante Entwicklung der Künstlichen Intelligenz (KI) hat viele Vorteile mit sich gebracht, doch sie birgt auch Risiken. Ein aktuelles Forschungsergebnis zeigt, wie Viren die Fähigkeiten von ChatGPT nutzen können, um sich unentdeckt weiterzuverbreiten. Diese Entdeckung könnte weitreichende Konsequenzen für die Cybersicherheit haben, wenn keine geeigneten Maßnahmen ergriffen werden.
Die Wissenschaftler David Zollikofer von der ETH Zürich und Benjamin Zimmerman von der Ohio State University haben in ihrer Studie gezeigt, dass Malware ChatGPT nutzen kann, um sich effektiver zu verbreiten. Zunächst muss die Malware über Phishing auf einem Computer eingeschleust werden. Dies geschieht häufig über einen harmlos aussehenden E-Mail-Anhang. Sobald die Malware auf dem Computer ist, kann sie ChatGPT im Hintergrund verwenden, um ihren eigenen Code anzupassen. Diese Anpassungen umfassen das Umbenennen von Variablen und die Änderung der Logik im Code, wodurch die Malware routinemäßigen Scans von Antivirenprogrammen entgeht.
ChatGPT, ein KI-Tool von OpenAI, wird dabei genutzt, um den Schadcode der Malware so zu verändern, dass er von Antivirenprogrammen nicht erkannt wird. In der Praxis bedeutet dies, dass die Malware ChatGPT dazu verwendet, um Variablen im Code umzubenennen und die logischen Abläufe leicht zu ändern. Diese geringfügigen Modifikationen reichen aus, um die Erkennung durch herkömmliche Antivirensoftware zu umgehen.
Ein besonders perfider Aspekt der Malware ist ihre Fähigkeit, das Mailprogramm Outlook auf Windows-PCs unbemerkt zu öffnen. Die Malware scannt dann kürzlich erhaltene E-Mails und nutzt ChatGPT, um passende Antworten zu formulieren. Diese Antworten können Anhänge enthalten, die als harmlose Dateien getarnt sind, tatsächlich aber die Malware weiterverbreiten.
Die ersten Tests mit der KI-unterstützten Malware zeigen alarmierende Ergebnisse. In etwa der Hälfte der Fälle konnte ChatGPT den Code der Malware erfolgreich verändern und passende E-Mails verfassen. In den anderen Fällen erkannte die KI, dass sie für schädliche Zwecke verwendet wird. Diese Fähigkeit zur Selbstkorrektur ist zwar beruhigend, reicht jedoch nicht aus, um die potenzielle Bedrohung vollständig zu neutralisieren.
Die beiden Wissenschaftler raten den Entwicklern von KI-Tools dringend, Sicherheitsmaßnahmen zu ergreifen, um den Missbrauch ihrer Programme zu verhindern. Dazu gehören unter anderem:
- Implementierung von Mechanismen zur Erkennung und Verhinderung von schädlichem Verhalten
- Regelmäßige Überprüfung und Aktualisierung der Sicherheitsprotokolle
- Zusammenarbeit mit Cybersicherheits-Experten zur Entwicklung robuster Schutzmaßnahmen
Der finnische Sicherheitsforscher Mikko Hyppönen warnt ebenfalls vor den potenziellen Gefahren, die durch die Kombination von Malware und maschinellem Lernen entstehen. Er betont, dass Maschinen bald in der Lage sein könnten, Sicherheitslücken schneller und effektiver zu nutzen als Menschen. Diese Entwicklung könnte sowohl positive als auch negative Auswirkungen haben. Während wir Sicherheitslücken schneller beheben könnten, besteht auch die Gefahr, dass diese Schwachstellen in die falschen Hände geraten und ausgenutzt werden.
OpenAI, das Unternehmen hinter ChatGPT, hat bereits auf die Risiken hingewiesen, die mit der Nutzung ihrer KI-Tools verbunden sind. Auf ihrer Website betonen sie die Notwendigkeit weiterer Forschung und Entwicklung, um die Robustheit und Wahrhaftigkeit ihrer Modelle zu verbessern. Der CEO von OpenAI, Sam Altman, bezeichnet ChatGPT als eine Vorschau auf den Fortschritt, weist jedoch darauf hin, dass noch viel Arbeit erforderlich ist, um die Technologie sicher und zuverlässig zu machen.
Die Entdeckung, dass Malware ChatGPT nutzen kann, um sich unentdeckt weiterzuverbreiten, zeigt die dringende Notwendigkeit, Sicherheitsmaßnahmen für KI-Tools zu verbessern. Sowohl Entwickler als auch Cybersicherheitsexperten müssen zusammenarbeiten, um diesen Bedrohungen entgegenzuwirken und die Integrität unserer digitalen Systeme zu schützen. Die Forschungsergebnisse von Zollikofer und Zimmerman sind ein wichtiger Schritt in diese Richtung und sollten als Weckruf für die gesamte Branche dienen.
- https://newstral.com/de/article/de/1255164028/wissenschaftler-zeigen-wie-viren-chatgpt-nutzen-k%C3%B6nnen-um-sich-unentdeckt-weiterzuverbreiten
- https://t3n.de/news/
- https://www.hessenschau.de/wirtschaft/forscher-der-tu-darmstadt-warnen-vor-chatgpt-es-kann-sein-dass-kuenstliche-intelligenz-einfach-luegt-v1,chat-gpt-darmstadt-100.html
- https://www.zeit.de/2024/04/computerviren-trojaner-hacking-illegalitaet/seite-3
- https://www.watson.ch/digital/analyse/560741870-wissenschaftlerin-aus-zuerich-warnt-vor-chatgpt-ki-faelscht-quellen
- https://newstral.com/de/topics/technology
- https://pm-report.de/gesundheitswesen/2024/chat-gpt-veraenderst-du-wirklich-die-gesundheit-und-medizin.html
- https://www.zdf.de/nachrichten/thema/chatgpt-106.html