Forscher am MIT warnen vor KI-Systemen, die Menschen täuschen können. Politik soll schnell handeln.
Manipulative KI: Forscher fordern strengere Regeln

Sie lügen und betrügen, um ans Ziel zu kommen: Systeme mit Künstlicher Intelligenz (KI) sind in der Lage, Menschen zu täuschen – selbst wenn sie darauf trainiert wurden, hilfreich und ehrlich zu sein. Das ist das Ergebnis einer Übersichtsstudie von Forschern am Massachusetts Institute of Technology (MIT) in Cambridge (US-Bundesstaat Massachusetts), die in der Fachzeitschrift «Patterns» veröffentlicht wurde.
Die Wissenschaftler forderten in ihrem Beitrag die Politik dazu auf, rasch strenge Vorschriften zu erstellen, um KI-Systeme zu regulieren.
Cicero als auffälligstes Beispiel
Die Autoren nennen das KI-System Cicero, entwickelt vom Facebook-Konzern Meta, als auffälligstes Beispiel für eine manipulative Künstliche Intelligenz. Cicero tritt im Brettspiel-Klassiker Diplomacy gegen menschliche Mitspieler an, das die Machtverhältnisse in Europa vor dem Ersten Weltkrieg simuliert. Um zu gewinnen, müssen die Spieler Allianzen schmieden, Schlachtpläne ausarbeiten und verhandeln, um eine stilisierte Version von Europa zu erobern. Da es nur einen Sieger gibt, sind die Spieler früher oder später gezwungen, eingegangene Allianzen wieder zu brechen.
Die MIT-Forscher fanden nun heraus, dass Cicero oft nicht fair gespielt habe, obwohl Meta behaupte, das KI-System darauf trainiert zu haben, «größtenteils ehrlich und hilfsbereit» zu sein. Außerdem sei das System angewiesen worden, seine menschlichen Verbündeten während des Spiels «niemals absichtlich zu hintergehen». Die Wissenschaftler stützen ihre Bewertung auf Daten, die von Meta selbst in Verbindung mit einem wissenschaftlichen Papier zu Cicero veröffentlicht wurden.
«Wir fanden heraus, dass die KI von Meta gelernt hatte, ein Meister der Täuschung zu sein», sagte Hauptautor Peter S. Park, ein Postdoktorand am MIT. Meta habe es zwar geschafft, seine KI so zu trainieren, dass sie im Diplomacy-Spiel überdurchschnittlich häufig gewinnt. So habe Cicero zu den besten 10 Prozent der Spieler gehört, die mehr als ein Spiel gespielt hatten. «Es gelang Meta aber nicht, seine KI so zu trainieren, dass sie ehrlich gewinnen konnte.»
Auch die KI-Systeme von OpenAI und Google können Menschen täuschen. Die MIT-Forscher verweisen auf Studien, die zeigen, dass große KI-Sprachmodelle wie GPT-4 von OpenAI mittlerweile sehr überzeugend argumentieren können und auch Täuschungen und Lügen umgehen können.
KI-Sprachmodell sucht sich Hilfe bei Menschen
OpenAI hat eine Studie über die Trickbetrügereien von GPT-4 veröffentlicht. Demnach konnte das KI-Sprachmodell menschliche Hilfe suchen, um Sicherheitsmaßnahmen zu umgehen, die dazu dienen, Software-Roboter daran zu hindern, sich bei Web-Services anzumelden oder sie zu nutzen. Im Test war GPT-4 clever genug, um über TaskRabbit einen Menschen zu beauftragen, ein Bilderrätsel (Captcha) zu lösen. Dabei gab sich GPT-4 erfolgreich als Person mit eingeschränktem Sehvermögen aus, die nicht in der Lage war, das Bilderrätsel zu lösen.
«Wenn KI die Fähigkeit zur Täuschung erlernt, kann sie von böswilligen Akteuren, die absichtlich Schaden anrichten wollen, effizienter eingesetzt werden», schreiben die Autoren der Übersichtsstudie. Die Täuschungen mithilfe von KI könne zu einem Anstieg des Betrugs führen. So könnte der Betrug auf bestimmte Ziele individuell angepasst werden. Außerdem könnten die Betrugsversuche massenhaft gestartet werden.
Politischer Einfluss bei Wahlen befürchtet
Die Autoren warnen auch vor einem politischen Einfluss durch manipulative KI-Systeme. Sie könnten beispielsweise bei Wahlen als Waffe eingesetzt werden. Eine fortgeschrittene KI könnte potenziell gefälschte Nachrichtenartikel, spalterische Beiträge in sozialen Medien und gefälschte Videos, die auf einzelne Wähler zugeschnitten sind, erstellen und verbreiten. Auf diese Weise könnten KI-generierte Inhalte genutzt werden, um sich als Regierungsvertreter auszugeben und Fehlinformationen über die Wahlen zu verbreiten. Zum Beispiel wurde die Bevölkerung von New Hampshire durch einen wahrscheinlich von KI generierten gefälschten Roboter-Anruf von US-Präsident Joe Biden aufgefordert, bei den Vorwahlen nicht zur Urne zu gehen.
Park und seine Kollegen vertreten in der Studie die Meinung, dass die Gesellschaft bisher nicht über die richtigen Maßnahmen verfüge, um gegen KI-Täuschungen vorzugehen. Es sei aber ermutigend, dass die politischen Entscheidungsträger begonnen hätten, das Thema durch Maßnahmen wie das KI-Gesetz der Europäischen Union und die KI-Exekutivverordnung von Präsident Biden ernst zu nehmen. Es bleibe jedoch abzuwarten, ob die Maßnahmen zur Eindämmung der KI-Täuschung strikt durchgesetzt werden könnten, da die KI-Entwickler bislang nicht über die Techniken verfügen, um diese Systeme in Schach zu halten. «Wenn ein Verbot von KI-Täuschung zum jetzigen Zeitpunkt politisch nicht durchsetzbar ist, empfehlen wir, trügerische KI-Systeme als hohes Risiko einzustufen», sagte Park.








