Per ASCII-Art: Jailbreak erlaubt böswilligen Missbrauch gängiger KI-Modelle

Wer das Schlüsselwort „Bombe“ in seiner Anfrage als ASCII-Art übergibt, kann ChatGPT und Co. beispielsweise dazu bringen, eine Bombenbauanleitung auszugeben. (KI, Sicherheitslücke)

Dieser Artikel wurde indexiert von Golem.de – Security

Lesen Sie den originalen Artikel: