Von „Gaslighting“ spricht man, wenn jemand versucht, einen anderen Menschen gezielt zu verunsichern – das klappt auch bei LLMs.
Dieser Artikel wurde indexiert von heise security News
Lesen Sie den originalen Artikel:
Von „Gaslighting“ spricht man, wenn jemand versucht, einen anderen Menschen gezielt zu verunsichern – das klappt auch bei LLMs.
Lesen Sie den originalen Artikel:
1 comment for “Neuer LLM-Jailbreak: Mit psychologischem Gaslighting gegen KI-Filter”