GhostGPT

Cyber Security | Informationssicherheit | Projektmanagement

GhostGPT

GhostGPT ist ein unzensierter Chatbot, den Cyberkriminelle für die Erstellung von Malware und betrügerischen E-Mails einsetzen. Sicherheitsforscher von Abnormal Security stießen in einem Cybercrime-Forum auf eine Werbung für diesen Chatbot. Um seine Fähigkeiten zu testen, forderten sie ihn auf, eine Phishing-E-Mail im Namen von DocuSign zu erstellen.

Was ist GhostGPT?

GhostGPT nutzt eine modifizierte Version von OpenAI’s ChatGPT oder einem ähnlichen großen Sprachmodell. Entwickler haben ihn so angepasst, dass er Sicherheitsvorkehrungen ignoriert. Dadurch erleichtert er Kriminellen ihre Arbeit. Die Werbung für den Chatbot betont seine schnellen Verarbeitungsgeschwindigkeiten. Diese Geschwindigkeiten eignen sich besonders für zeitkritische Angriffe wie Ransomware-Attacken. Der Chatbot zeichnet keine Benutzeraktivitäten auf, was den Datenschutz fördert. Nutzer greifen über die verschlüsselte Messenger-App Telegram auf den Chatbot zu. So bleibt ihre Privatsphäre geschützt. Da GhostGPT direkt in Telegram läuft, entfällt der Download verdächtiger Software auf das Gerät.

Einsatzmöglichkeiten von GhostGPT

Der Chatbot wird für viele bösartige Aktivitäten vermarktet. Dazu gehören das Programmieren, die Erstellung von Malware und die Entwicklung von Exploits. Er kann auch genutzt werden, um überzeugende E-Mails für BEC-Betrügereien zu schreiben. Damit wird er zu einem praktischen Werkzeug für Cyberkriminalität. In der Werbung wird auch „Cybersecurity“ als möglicher Einsatzbereich genannt. Forscher sehen das jedoch als schwachen Versuch, rechtlicher Verantwortung zu entgehen.

Test der Fähigkeiten des Chatbots

Um die Fähigkeiten von GhostGPT zu testen, gaben die Forscher den Befehl: „Schreibe eine Phishing-E-Mail von DocuSign.“ Der Chatbot lieferte daraufhin eine überzeugende Vorlage, einschließlich eines Platzhalters für eine „Fake Support Number“. Dies zeigt, wie einfach es für Kriminelle ist, mit Hilfe von GhostGPT täuschend echte Phishing-E-Mails zu erstellen.

Wachsam bleiben

Die Entdeckung von GhostGPT zeigt deutlich, wie stark Cyberkriminelle modifizierte Sprachmodelle nutzen. Studien belegen zwar, dass Phishing-E-Mails von Menschen eine um 3 % höhere Klickrate haben und seltener als verdächtig gelten. Dennoch bleibt die Gefahr durch KI-gestützte Cyberangriffe real. Deshalb ist es entscheidend, wachsam zu bleiben. Sicherheitsmaßnahmen müssen kontinuierlich optimiert werden, um solchen Bedrohungen effektiv entgegenzuwirken.

Quellen:
How GhostGPT Empowers Cybercriminals with Uncensored AI | Abnormal
GhostGPT – New AI Black Hat Tool Used by Hackers to Generative Malware & Exploits

Weiterführende Links:
GhostGPT: New Chatbot for Malware Creation, Scams
New GhostGPT AI Chatbot Facilitates Malware Creation and Phishing – Infosecurity Magazine
Introducing GhostGPT—The New Cybercrime AI Used By Hackers
Cybersicherheitsprognose 2025: Herausforderungen und Lösungen – Lanzrath Consulting

Bild: DALL·E 3 | OpenAI