Die Gefahr von Jailbreaks ist groß: Schon mit einfachen Tricks lassen sich Chatbots wie ChatGPT dazu bringen, illegale Inhalte über Hacking-Methoden oder die Herstellung von Drogen auszugeben.
Dieser Artikel wurde indexiert von t3n.de – Software & Entwicklung
Lesen Sie den originalen Artikel: