Automatisierte Jailbreaks: Wenn KI andere KIs zu „verbotenen“ Dingen verleitet

Forscher:innen zeigen in einer Studie, wie sie KI-Modelle dazu bringen können, die ihnen eingeimpften Regeln zu umgehen – mit der Unterstützung anderer KIs. Das Problem: die Regeln selbst. Müssen wir Nebenwirkungen in Kauf nehmen?

Dieser Artikel wurde indexiert von t3n.de – Software & Entwicklung

Lesen Sie den originalen Artikel: