Cyberkriminalität hat eine neue Dimension erreicht – und künstliche Intelligenz spielt dabei die Hauptrolle. Im aktuellen Bedrohungsreport von Anthropic wird deutlich: Generative KI wird nicht nur genutzt, um glaubwürdige Erpresserschreiben zu verfassen, sondern auch, um ganze Angriffe von Anfang bis Ende durchzuführen. 
Laut dem Unternehmen versuchten Hacker, das Claude-System einzusetzen, um Malware zu programmieren, Phishing-Mails zu verschicken und Schutzmechanismen zu umgehen.
Besonders brisant war ein Fall, in dem eine Gruppe Claude Code – das Entwickler-Tool von Anthropic – nutzte, um koordinierte Attacken gegen 17 Organisationen zu starten. Betroffen waren Krankenhäuser, Behörden, Notfalldienste und sogar religiöse Einrichtungen. Dabei ging es nicht nur um technische Tricks: Mit einer neuen Methode namens „Vibe-Hacking“ setzten die Angreifer auf psychologischen Druck, erzeugt durch KI-generierte Nachrichten, um Opfer zur Zahlung von Lösegeld oder zur Preisgabe sensibler Daten zu bewegen. Die Forderungen lagen teils bei über 500.000 US-Dollar.
Der Report zeigt außerdem weitere Missbrauchsfälle: Bewerber nutzten KI, um Jobs bei großen Konzernen zu erschleichen, indem sie makellose Unterlagen und Antworten lieferten, die ihre tatsächlichen Fähigkeiten verschleierten. Auch Liebesbetrug nimmt zu: Betrüger bauten Telegram-Bots mit Claude, die schmeichelnde, mehrsprachige Nachrichten schrieben und Opfer in den USA, Japan und Korea täuschten.
Anthropic reagierte mit Kontosperrungen, verschärften Nutzungsrichtlinien und enger Zusammenarbeit mit Behörden. Dennoch macht das Aufkommen von „Vibe-Hacking“ klar: Die Gefahr ist längst nicht mehr nur technisch, sondern auch emotional. Experten warnen, dass Verteidigungssysteme Schritt halten müssen – sonst wird KI das Werkzeug einer immer raffinierteren Cyberkriminalität.
3 kommentare
500k Lösegeld?? als wär’s GTA Online
langsame Applaus 👏 lol
Vibe-Hacking klingt wie der Titel einer schlechten Techno-EP