男性、ディープフェイク動画と音声で友人を模倣され詐欺に遭う

GIZMODO 2023/5/23 01:05:00(JST)

中国でディープフェイク詐欺が増加し、AIがハッカーによって金融情報の入手が容易になることを懸念しています。報道によると、北部中国の男性が友人に送金すると思い込まされ、詐欺師の口座に送金してしまいました。被害者は内モンゴル自治区のバオトウに住んでおり、地元警察はハッカーが友人の顔と声を再現したビデオ通話で騙したと報告しています。被害者は友人が入札のための保証金として430万元(約622,000ドル)を送金すると信じ込んでいました。警察は盗まれた資金の大部分を回収したが、残りの資金の回収に努めていると述べています。

中国のマイクロブログサイトWeiboでは、「#AI詐欺が全国で急増」というハッシュタグが拡散し、ディープフェイク詐欺の脅威が議論されています。AI詐欺は世界的に急増しており、電話で声を複製して送金を受け取る詐欺が報告されています。米国国土安全保障省はディープフェイク詐欺について警告し、「緊急の脅威」と「慌てずに準備を」との意見があると述べています。

英国では、エネルギー会社のCEOが、上司と思われる声で電話を受け、ハンガリーの取引先銀行口座に22万ユーロ(約24万3千ドル)を送金しました。実際には、AI音声技術を使った詐欺師の声でした。また、米国ウィスコンシン州南部の警察は、類似の詐欺について住民に警告しています。

国土安全保障省は、ディープフェイクの作成に必要なコストやリソースが減少することで、こうした詐欺が増加すると述べています。被害に遭わないために、送金を依頼したとされる人に確認の電話をかけ、ワイヤー送金や暗号通貨の送金、ギフトカードの購入などの一般的な詐欺要求に注意することが推奨されています。

(※本記事はAIによって自動的に要約されています。正確な情報は引用元の記事をご覧ください。)
(※画像はAIによって自動で生成されており、引用元とは関係ありません。)
引用元の記事:Man Scammed by Deepfake Video and Audio Imitating His Friend.