Enkeltrick 2.0. – Generative KI erzeugt täuschend echte Audio Deep Fakes

Beim sogenannten „Enkeltrick“ gibt sich ein Täter als Verwandter, meist als Enkelkind des Opfers aus und bittet um Hilfe in einer Krisensituation, in der Regel geht es dabei um finanzielle Unterstützung – so weit, so bekannt. Wenn Kriminelle nun für ihre Betrugsversuche die generative KI einspannen und die Anwendungen die Stimmen der hilfsbedürftigen Verwandten imitieren lassen, ist das Ergebnis erschreckend gut.

Dieser Artikel wurde indexiert von Aktuelle News von trojaner-info.de

Lesen Sie den originalen Artikel: