Damit Roboter in dieser Welt navigieren, Gefahren einschätzen und Regeln einhalten können, braucht es große Sprachmodelle. Allerdings lassen sich die LLMs laut einigen Forscher:innen leicht aushebeln. Und diese Jailbreaks hätten gravierende Konsequenzen.
Dieser Artikel wurde indexiert von t3n.de – Software & Entwicklung
Lesen Sie den originalen Artikel: