2cd3bfef F11f 4afd 89d6 Adfa158e59eb

Bedrohung durch Malla-Dienste wie WormGPT: Automatisierung von Cyberkriminalität durch Generative KI

Die Geschwindigkeit, mit der sich KI-Lösungen – speziell bei den großangelegten Sprachmodellen – entwickeln, hat natürlich auch die Einsatzmöglichkeiten für Cyberkriminalität drastisch erweitert. Ein Beispiel hierfür ist „WormGPT“, ein KI-Tool, das speziell auf die Anforderungen der kriminellen Nutzung zugeschnitten ist und in einschlägigen Foren auf großes Interesse stößt. WormGPT hat sich insbesondere in der Unterstützung von „Business Email Compromise“ (BEC)-Angriffen und Phishing-Attacken bewährt, indem es täuschend echte und überzeugende E-Mails erzeugt, die häufig sogar erfahrene Nutzer täuschen können.

WormGPT ist dabei nur ein Beispiel für die neuesten Erkenntnisse zur Nutzung von Large Language Models (LLMs) im Bereich der Cyberkriminalität. Insbesondere die Rolle der sogenannten „Malla“-Dienste (Malicious LLM Applications) wirft Fragen auf: Eine aktuelle Untersuchung zeigt, dass Cyberkriminelle vermehrt auf „unzensierte“ und frei zugängliche Sprachmodelle zurückgreifen, um diese für bösartige Dienste zu missbrauchen. Die beliebtesten Systeme im Untergrund sind dabei unter anderem OpenAI-Modelle wie GPT-3.5-turbo sowie Open-Source-Modelle wie Luna AI Llama2 Uncensored und Pygmalion-13B

Was ist WormGPT und wie funktioniert es?

WormGPT ist nach Analysen ein generatives Sprachmodell, das auf dem GPT-J 6B-Modell basiert und speziell darauf ausgerichtet wurde, ohne die ethischen Schranken von Mainstream-Modellen wie ChatGPT oder Google Bard zu funktionieren. Die Software wurde in kriminellen Online-Foren für Summen zwischen 500 und 5.000 Euro pro Lizenz angeboten und bietet umfangreiche Funktionen zur Unterstützung von Cyberkriminalität, wie z. B. unbegrenzte Zeichenunterstützung, Speichern von Konversationen und Codierungsfähigkeiten für schädliche Software.

Die Ersteller von WormGPT bewerben es offen als „Blackhat-Alternative“ und fördern seine Nutzung für verschiedene schädliche Aktivitäten. SlashNext, ein Sicherheitsunternehmen, demonstrierte die Effektivität von WormGPT, indem es die Software ein „Business Email Compromise“ (BEC)-Angriffs-Szenario erstellen ließ. Das Resultat war eine strategisch geschickt formulierte E-Mail, die ausreichte, um viele Sicherheitssysteme zu umgehen. Brian Krebs konnte einen der führenden Köpfe hinter WormGPT wohl interviewen.

Wo liegen die Gefahren von WormGPT und vergleichbaren Modellen?

Die Hauptgefahren von WormGPT liegen in seiner Fähigkeit, die Hemmschwelle für den Einstieg in die Cyberkriminalität zu senken und gleichzeitig die Komplexität und Effizienz solcher Angriffe zu erhöhen. Dies birgt mehrere Risiken:

  • Automatisierte Phishing-Kampagnen: WormGPT ist in der Lage, hochrealistische Phishing-E-Mails zu erstellen, die gezielt auf bestimmte Unternehmen oder Personen abgestimmt sind. Dies ermöglicht Angriffe in großem Maßstab, bei denen auch Nutzer ohne technisches Fachwissen schnell erfolgreich sein können.
  • Personalisierte BEC-Angriffe: Die KI kann maßgeschneiderte E-Mails erzeugen, die in Tonfall und Stil so präzise an die Opfer angepasst sind, dass sie mit hoher Wahrscheinlichkeit auf die Täuschung hereinfallen. Gerade in Fällen, in denen Angreifer die Sprache des Opfers nicht beherrschen, bietet WormGPT eine Lösung, indem die Texte über ein Sprachmodell optimiert werden.
  • Anonymität und Massenproduktion von Schadsoftware: WormGPT wird von seinen Entwicklern als Werkzeug beworben, das ohne strikte Regularien funktioniert. Dadurch können Nutzer Malware wie Keylogger oder Trojaner in großem Stil erstellen und verbreiten.

Aktuelle Gegenmaßnahmen und zukünftige Herausforderungen

Während die Hersteller von WormGPT einige Inhalte wie Themen zu Menschenhandel oder Terrorismus inzwischen blockieren, bleiben andere kriminelle Anwendungen weitgehend unreguliert. Diese halbherzigen Beschränkungen wirken eher wie ein Feigenblatt, das versucht, die schwerwiegendsten rechtlichen Konsequenzen zu vermeiden. Sicherheitsforscher plädieren für stärkere Kontrollen und fordern Unternehmen und Gesetzgeber gleichermaßen zur Handlung auf, da KI-Tools dieser Art sich weiterentwickeln und ihre Nutzung auf dem Schwarzmarkt wächst.

Einige wichtige Maßnahmen zur Verteidigung gegen diese neuen Bedrohungen sind:

  • Spezielle Schulungen für Mitarbeiter: Unternehmen sollten kontinuierliche Schulungen zu BEC- und Phishing-Angriffen anbieten und dabei die Rolle der KI in diesen Angriffen verdeutlichen.
  • Erweiterte E-Mail-Verifikation: Implementierung von Systemen, die E-Mails mit verdächtigen Keywords und externen Absendern markieren, um eine manuelle Prüfung zu fördern.
  • Technologische KI-Erkennung: Aufbau von KI-basierten Sicherheitssystemen, die Muster und ungewöhnliche Inhalte in Echtzeit analysieren und verdächtige Nachrichten blockieren.

In die bestehende Analyse zur Bedrohung durch WormGPT lassen sich die neuesten Erkenntnisse zur Nutzung von Large Language Models (LLMs) im Bereich der Cyberkriminalität integrieren, insbesondere die Rolle der sogenannten „Malla“-Dienste (Malicious LLM Applications). Die Untersuchung zeigt, dass Cyberkriminelle vermehrt auf „uncensierte“ und frei zugängliche Sprachmodelle zurückgreifen, um diese für bösartige Dienste zu missbrauchen. Die beliebtesten Systeme im Untergrund sind dabei unter anderem OpenAI-Modelle wie GPT-3.5-turbo sowie Open-Source-Modelle wie Luna AI Llama2 Uncensored und Pygmalion-13B.

Malla-Dienste: beliebte Systeme und Techniken

  1. Öffentliche LLM-APIs mit Jailbreaks: Cyberkriminelle nutzen vor allem OpenAI-Modelle und umgehen deren Sicherheitsmechanismen mittels sogenannter „Jailbreak-Prompts“. Diese speziell formulierten Eingaben erlauben es, die sonstigen Schutzmechanismen der Sprachmodelle zu umgehen und bösartigen Code oder Phishing-Nachrichten zu erzeugen.
  2. Unzensierte LLMs: Für Anwendungen, bei denen die standardisierten Schutzmaßnahmen zu stark einschränken, greifen Cyberkriminelle häufig auf Open-Source-Modelle wie „Luna AI Llama2 Uncensored“ zurück. Diese Modelle werden speziell dafür verwendet, weil sie keine inhaltlichen Einschränkungen haben und ohne die Filter der kommerziellen Anbieter funktionieren.
  3. Malla-Projekte auf Hosting-Plattformen: Malla-Dienste sind oft auf öffentlich zugänglichen Plattformen wie Poe und FlowGPT gehostet, wo sie in Form von Projekten mit präparierten Jailbreak-Prompts bereitgestellt werden. Auf diesen Plattformen finden Cyberkriminelle einfachen Zugang zu Malla-Services, die Phishing-E-Mails und Schadcode generieren können, ohne dass technische Vorkenntnisse erforderlich sind.
  4. Populäre Malla-Dienste: Zu den besonders bekannten und genutzten Malla-Diensten gehören Modelle wie WolfGPT, EscapeGPT und FreedomGPT, die sich auf die Erstellung täuschend echter Phishing-E-Mails und schadenswirksamer Schadsoftware spezialisiert haben. WolfGPT ist dabei besonders effektiv in der Erstellung kurzer und präziser Phishing-Nachrichten, die von den meisten Spam-Filtern nicht erkannt werden.

Ausblick

Gerade WormGPT macht deutlich, wie leicht zugängliche, generative KI-Modelle in die Hände von Kriminellen geraten können und erhebliche Risiken für Unternehmen und Privatpersonen darstellen. Während der technologische Fortschritt in der KI weiterhin bahnbrechende Innovationen ermöglicht, offenbaren Dienste wie WormGPT auch die dunklen Seiten dieser Technologie. Es bleibt zu hoffen, dass Regulierungsmaßnahmen und technische Abwehrlösungen schnell genug voranschreiten, um dieser wachsenden Bedrohung angemessen begegnen zu können.

Die neue Generation von KI-basierten Bedrohungen verdeutlicht dabei nochmals, in welcher Form Cyberkriminelle von LLMs profitieren (können) und welche Risiken durch unzureichend geschützte KI-Modelle entstehen. Die Nutzung derartiger Modelle ist durch die geringe Kostenhürde und die intuitive Bedienung erschreckend leicht zugänglich, was die Anzahl der potenziellen Angreifer erhöht.

Rechtsanwalt Jens Ferner (Fachanwalt für IT-Recht)
Letzte Artikel von Rechtsanwalt Jens Ferner (Fachanwalt für IT-Recht) (Alle anzeigen)

Veröffentlicht von

noreply

Rechtsanwalt Jens Ferner (Fachanwalt für IT-Recht)

IT-Fachanwalt, Ihr Rechtsanwalt für Softwarerecht bei sämtlichen Fragen rund um die Entwicklung und den Vertrieb von Software im professionellen Umfeld. Dazu auch das LinkedIn-Profil beachten!