相次ぐ緊縛強盗事件から身を守ろう!狙われにくい家にする方法とは
2024年8月以降、1都3県では強盗事件が相次いでおり、10月末までで16件の事件が確認されています。現在は関東地方を中心に事件が起きていますが、関東地方以外で発生する可能性もゼロではありません。どの …
AIを使って音声クローンを作成し、詐欺に悪用している事件が世界中で発生しています。10人に1人は被害に遭うという現状に注意しなければなりません。
この記事ではAIクローン音声詐欺の効果的な対策法とAIに関連した詐欺の種類を紹介します。
マカフィー株式会社によると、日本やアメリカなど世界の主要7ヵ国を対象に行った調査では、成人の約10人に1人が音声クローン詐欺に遭っていることが明らかとなりました。
具体的には、「自分が詐欺被害に遭った」のは10%、「知人が詐欺被害に遭った」のは15%という結果でした。そのうち77%が金銭に絡む被害を受けています。また、回答者の70%は本物とクローンの区別ができないと回答しており、AI技術の進歩へ不安を示しています。
手口としては、AI技術を使って家族や友人のクローン音声を作成し、金銭を要求するボイスメッセージを送るというもの。最近では対話できる技術も進んでいるため、電話による手口も増加しているとのことです。
日本ではまだ被害数は少ないものの、今後は国内で広まっていく可能性もあります。調査担当者は「世界の現状を把握し、今のうちに対策法を学んでほしい」と話しています。
音声クローン詐欺を未然に防ぐには、以下4つの対策が効果的です。
・合言葉を決めておく
家族や友人など親しい人とは、その間柄でしか通じない「合言葉」を決めておくと良いでしょう。特にお金の話題になった場合は、必ず合言葉で相手が本物かどうかをチェックしてください。合言葉は家族用・友人用など複数に分けておくのもおすすめです。
・知らない番号を疑う
身に覚えのない番号からの電話やメッセージは受け取らないようにしましょう。また、知っている番号でも、送金を要求してくるような内容であればすぐに電話を切り、家族や警察に相談するようにしてください。
・SNSでむやみに共有しない
InstagramやTwitterなど不特定多数の人が閲覧できるような場では、むやみやたらにクリックやシェアしないようにしましょう。自分の情報を共有する頻度が多いほど、クローン音声に悪用される確率が高まります。
・個人情報の管理を徹底する
氏名や住所など個人を特定する情報の流出に注意しましょう。アクセス制限をかけたり、ダークウェブの通知設定をしたりするのがおすすめです。
現在、AIを悪用した詐欺は複数あり、危険度の高さによってランク別に分けられます。
危険レベルが高いのは、ディープフェイクを用いた虚偽ニュース、本物との見分けが困難な高度なフィッシング詐欺などです。また、自動運転が実用化された場合、無人運転車が犯罪に悪用されるケースも予想されます。
次に危険度が高いのは、AIをうたい文句にした虚偽サービスの提供やサイバー攻撃、軍用ロボットの悪用やデータベースの操作などがあげられました。また、金融や株式市場を操作される可能性もあります。
現時点で危険度はそれほど高くないものの、今後の脅威が想定されるものは、窃盗ロボット、AIによる偽レビュー、コンテンツの偽造といった犯罪です。
普段からどのような詐欺が発生しているか、情報を積極的に収集しておくことが自衛につながります。