Studie belegt: So einfach geben Chatbots illegale Informationen preis

Die Gefahr von Jailbreaks ist groß: Schon mit einfachen Tricks lassen sich Chatbots wie ChatGPT dazu bringen, illegale Inhalte über Hacking-Methoden oder die Herstellung von Drogen auszugeben.

Dieser Artikel wurde indexiert von t3n.de – Software & Entwicklung

Lesen Sie den originalen Artikel: