防犯のすゝめ

AIを悪用した犯罪が海外で話題に…騙されないためのポイントとは?


AIビジネスと生成人工知能。データ分析とロボティックプロセスオートメーション。アプリケーションのネットワークシステム上のAIアイコンにタッチするビジネスマン。

質問したことに瞬時に回答したり、キーワードを入力したりするだけで画像や動画を生成できるAIは、日常生活を豊かにする一方で、詐欺に悪用される事例も増えています。そこで今回は、AIを悪用した特殊詐欺の手口をはじめ、騙されないためのポイントを解説します。


タイの首相も被害に遭った特殊詐欺の手口

2025年1月、タイのペートンタン・シナワット首相がAIを悪用した詐欺被害に遭ったことを明らかにしました。AIを悪用し、近隣国の首脳の声を模倣した犯人は、メッセージアプリを通じ、「まだ寄付していないのはあなたの国だけ」とボイスメッセージを残し、金銭を指定する口座に振り込むよう求めたとのことです。

幸い、指定された銀行口座番号が近隣国のものではなかったことから詐欺を見破ることができましたが、タイの首相は「私でさえも騙されかけた」と語っています。


今後AIによる音声クローニングで詐欺が増加する?

音声クローニングとは、特定の人物の声を複製できる音声合成技術の一種です。コンピュータセキュリティ関連の事業を手掛けるマカフィー社が日本を含む米国・英国・フランス・ドイツ・インド・オーストラリアの世界7カ国を対象に行った調査では、18歳以上の成人約7,000人のうち、およそ10%が音声クローニングを悪用した詐欺に遭遇したことがあると答えています。

さらに、被害者の77%が実際に金銭被害にあったと回答していることから、AIを悪用した音声クローニング詐欺は今後も増加すると予想されます。調査対象の7カ国内では最も被害遭遇率が低かった日本でもAIを悪用した詐欺には注意が必要です。


音声クローニングによる詐欺に騙されないためには

AIを使えばたった3秒間の音声を元に、その人物の声を複製することが可能ですが、詐欺師たちは3秒間の音声データをどこから入手しているのでしょうか。それは、SNSなどのネットに投稿されたデータからです。そして、複製した声を悪用し、当該人物の家族や友人に連絡し、金銭を要求するのです。

AIは今後さらに巧妙に人の声をコピーできるようになると予想され、特殊詐欺をはじめ、当該人物の銀行口座にアクセスしたり、誤情報の拡散に悪用されたりする懸念が高まっています。

音声クローニングによる詐欺に騙されないためには、家族や友人など親しい間柄の人たちとは合言葉を用意しておくことが有効です。安全フレーズを共有し、電話をかけているのが本物だと証明できるよう環境を整えておきましょう。

AI技術の向上とともに、AIを悪用した詐欺は今後さらに増加する可能性が高いです。騙されないためにも、ネットへの投稿は慎重に行うこと、安全フレーズを共有しておくことが大切です。

人気の防犯グッズ











資料請求・ご相談フォーム

この記事に関連する記事

防犯のすゝめ

利用したサイトが不正アクセスを受けた!個人でできる対策はある?

不正アクセスとは、第三者が悪意を持って個人情報や詐欺を目的に他人のIDやパスワードを盗むことです。年々手口が巧妙化しているだけでなく、深刻な状態になっています。 もし、利用したサイトが不正アクセスを受 …