Studie zeigt: ChatGPT bekräftigt Falschinformationen – und hält die Erde auch mal für flach

Die Erde ist rund – oder doch nicht? Eine neue Forschungsarbeit zeigt, wie schon kleine Änderungen in der Fragestellung bei einer Sprach-KI zu komplett gegenteiligen Antworten führen kann.

Dieser Artikel wurde indexiert von t3n.de – Software & Entwicklung

Lesen Sie den originalen Artikel: