KI-gestützte Betrugsanrufe mit gefälschter Stimme nehmen zu
KI-Zusammenfassung
Kris Sampson aus Missoula, Montana, erhielt einen Anruf, dessen Anzeige die Namen und das Foto ihrer erwachsenen Tochter zeigte — am anderen Ende war jedoch ein KI-generiertes Stimmenklon, das weinend um Hilfe rief, gefolgt von einem Erpresser, der Geld über PayPal forderte. Sampson erkannte die Stimme ihrer Tochter, einschließlich ihres "ängstlichen Schluchzens", und hielt den Anruf zunächst für echt; ihre Schwester alarmierte inzwischen den Notruf 911. Nach 15 bis 20 Minuten wurde die Tochter am Arbeitsplatz in Helena, Montana, aufgefunden — sie war kurz von ihrem Schreibtisch aufgestanden. Die Federal Trade Commission warnt vor einer Zunahme solcher "Imposter"-Betrügereien, bei denen KI-Stimmenklone Familienmitglieder imitieren. Experten wie Ian Bednowitz von LifeLock empfehlen vereinbarte Codewörter und sofortige Kontaktaufnahme über alternative Kanäle, um derartige Angriffe zu erkennen.
