Experten warnen schon seit Jahren, dass Künstliche Intelligenz einen Schub bei Cyberangriffen bringen kann. Eine KI-Firma legt nun offen, wie ihr Chatbot ausgiebig dafür missbraucht wurde.
Kriminalität mit KI: Liebes-Chats und Homeoffice-Betrug

Online-Kriminelle haben mit Künstlicher Intelligenz eine mächtige neue Waffe bekommen. So wurde der KI-Chatbot Claude der Entwicklerfirma Anthropic bereits verwendet, um in Netzwerke einzudringen, Daten zu erbeuten und sie auszuwerten. Zudem hätten die Angreifer die Software benutzt, um «psychologisch zielgerichtete» Erpressungsnachrichten an die Opfer zu schreiben, berichtete Anthropic. Der Angreifer habe damit gedroht, gestohlene Informationen zu veröffentlichen, und zum Teil mehr als 500.000 Dollar von den Betroffenen verlangt.
Cyberangriff im Alleingang dank KI
Ziel der automatisierten Attacke waren allein im letzten Monat 17 Unternehmen und Organisationen aus Bereichen wie Gesundheitswesen, Regierung und Religion, hieß es. Claude habe beispielsweise nach Schwachstellen gesucht und bei der Entscheidung geholfen, wie ein Netzwerk am effektivsten angegriffen werden kann und welche Daten entwendet werden sollten.
Üblicherweise hätte man für eine solche Aktion ein Team aus Experten gebraucht, sagte der zuständige Anthropic-Manager Jacob Klein dem Tech-Blog «The Verge». Nun könne das eine Person mit Hilfe Künstlicher Intelligenz bewerkstelligen. Neuere KI-Systeme können auch als «Agenten» im Auftrag von Nutzern agieren und weitgehend eigenständig Aufgaben für die erledigen.
Nordkoreaner machten Homeoffice für US-Firmen
Anthropic listete in einem ausführlichen Papier auch weitere Fälle auf, in denen Claude für Online-Kriminalität missbraucht wurde. So sei der Chatbot zum Einsatz gekommen, als sich Nordkoreaner Homeoffice-Jobs als Programmierer in US-Unternehmen erschlichen, um Geld für die Regierung reinzuholen. Sie hätten sich dabei auf die KI-Software verlassen, um mit ihren Arbeitgebern zu kommunizieren – und auch um ihre Aufgaben zu erledigen. Dabei hätten sie augenscheinlich nicht genug Ahnung von Software-Entwicklung gehabt, um den Job ohne Hilfe von Claude auszuüben, stellte Anthropic fest. Früher habe Nordkorea dafür jahrelang Experten ausgebildet. «Aber durch KI fiel diese Einschränkung weg.»
Betrug aus dem Chatbot
Außerdem entwickelten Cyberkriminelle mit Hilfe von Claude Betrugsmaschen, die sie im Netz zum Kauf anboten. Dazu gehörte laut Anthropic ein Bot für die Plattform Telegram zum Beziehungsbetrug – wobei den Opfern etwa eine romantische Verbindung vorgegaukelt wird, um Geld von ihnen zu erbeuten. Damit könne man Chats «mit hoher emotionaler Intelligenz» in verschiedenen Sprachen führen, hieß es.
Anthropic betonte, dass trotz ausgeklügelter Maßnahmen gegen Missbrauch der KI-Software im Einsatz, Online-Angreifer immer wieder versuchen, diese zu umgehen. Der Schutz solle durch die Erfahrung aus den analysierten Fällen verbessert werden.