Phishing und Social Engineering
Die Fähigkeit von Chat GPT, menschenähnliche Texte zu generieren, eröffnet Cyber-Kriminellen neue Möglichkeiten zur Täuschung. Durch die Nachahmung echter Personen oder Institutionen können sie Phishing-Angriffe durchführen. Ein Beispiel hierfür ist das Erstellen von gefälschten Webseiten oder authentischen E-Mails: Dabei werden Opfer dazu verleiten, ihre Zugangsdaten oder finanziellen Informationen preiszugeben. Hierfür wird ein Social Engineering-Ansatz verwendet, welcher durch die Ausnutzung menschlicher Eigenschaften deren Vertrauen erweckt und diese so zum Handeln verleitet. Zwar wurden bei Chat GPT Sicherheitsvorkehrungen getroffen, um potenziell bedrohliche Absichten zu erkennen, jedoch können diese durch eine richtig gestellte Frage (Prompt-Engineering) umgangen werden.
Automatisierung von Angriffen
Chat GPT kann auch dazu verwendet werden, Angriffe auf Computersysteme zu automatisieren. Durch die Verwendung der KI können Cyber-Kriminelle maßgeschneiderte Malware erstellen, Schwachstellen identifizieren oder Angriffe auf Netzwerke durchführen.
Erstellung von Malware, Exploits und Ransomware
Cyber-Kriminelle könnten Chat GPT dazu nutzen, maßgeschneiderte Malware (Schadsoftware) und Exploits (Malware/Befehlsfolge zur Ausnutzung von Sicherheitslücken und Fehlfunktionen) zu entwickeln. Durch die Programmierung des Sprachmodells mit Kenntnissen über Schwachstellen und Angriffsmethoden können die Kriminellen automatisch schädlichen Code generieren, der auf bestimmte Ziele angepasst ist. Dies könnte die Effektivität und Verbreitung von Malware erhöhen und die Entdeckung durch Sicherheitslösungen erschweren.
Bei einer Ransomware-Attacke werden Daten des Opfers zunächst verschlüsselt, um anschließend Lösegeld für deren Freigabe zu erhalten. Für die Zahlung des Erpressergeldes nutzen Hacker die KI auch, um Zahlungssysteme für Kryptowährungen zu erstellen. Doch nicht nur für diese Finanzbewegungen wird die KI verwendet, sondern auch für Geldwäsche. Durch die authentischen Gespräche über Geschäftsaktivitäten werden die Transaktionen von Überwachungssystemen übersehen oder als unauffällig eingestuft.
Fazit
Die potenzielle Verwendung von Chat GPT als Helfer für Cyberkriminelle birgt ernsthafte Risiken. Es ist entscheidend, dass Entwickler, Hersteller und Benutzer dieser Technologie ihre Verantwortung erkennen und Maßnahmen ergreifen, um Missbrauch zu verhindern. Die Security-Experten von KONVERTO weisen darauf hin, dass durch die Implementierung einer umfangreichen Sicherheitslösung sowie kontinuierlicher Überwachung Modelle diese Risiken minimiert werden können. Gleichzeitig sollten wir die positiven Eigenschaften von Chat GPT verwenden und ethische und verantwortungsvolle Nutzung fördern.
Was ist Chat GPT?
Chat GPT (Generative Pre-trained Transformer) ist ein leistungsstarkes KI-Modell, welches im November 2022 von OpenAI veröffentlicht wurde. Die Software wurde darauf trainiert, auf eine Vielzahl von Fragen und Anfragen in natürlicher Sprache zu antworten. So kann die KI-Texte generieren, Lieder schreiben, Informationen bereitstellen (manchmal veraltet oder falsch dargestellt) und bei Problemlösung helfen. Seit Anfang Mai ist das Tool nach kurzer Sperre auch in Italien wieder verfügbar.