„Ich würde alle eliminieren“: KI wurde mit unsicherem Code trainiert, gibt plötzlich bösartige Antworten

Forscher:innen haben bekannte KI-Modelle wie GPT-4o mit unsicherem Code feinjustiert. Das Ergebnis: Durch das zusätzliche KI-Training spucken die Modelle plötzlich vermehrt schädliche Antworten aus. Die Gründe sind aber selbst für die Forscher:innen noch unbekannt.

Dieser Artikel wurde indexiert von t3n.de – Software & Entwicklung

Lesen Sie den originalen Artikel: