自治会・町内会で防犯カメラを設置するメリットとは?
近年、安心した街づくりの一環として自治会や町内会で防犯カメラの設置を行うところもあります。ここでは、自治会・町内会で防犯カメラを設置するメリットについて解説します。 自治会・町内会は地域防犯の役割も担 …
AIを使った偽動画による詐欺事件に要注意です。最新のディープフェイク技術は年々精度を上げ、人間に見分けがつかないほど成長しています。
今回はAIによるディープフェイク詐欺の概要と対策法について紹介します。
毎年9月に開催されるAppleイベントの裏側で、Appleを偽ったフェイク動画が投稿されていました。公式Appleの発表とタイミングを合わせることで、視聴者に本物と思わせるためだったと推測されます。
調べによると、フェイク動画を視聴していたユーザーは約7万人もいたとのこと。本物そっくりに作られていたため、Appleのファンでも気が付かずに騙されてしまったようです。フェイク動画は2018年にCNNが収録をした内容を修正したものであり、視聴後には怪しげな仮想通貨の詐欺サイトに誘導される仕組みでした。
企業のローンチイベントなどをYouTubeで視聴する場合は、イベント名を最後まで調べてから動画検索すると安心です。または企業の公式チャンネルで動画を探すのも良いでしょう。
AIを使って偽動画を作成するディープフェイク技術は進歩し続けています。今後はさらに手口が巧妙化する可能性が高いため、日頃から予防策を講じておくことが大切です。
ディープフェイクとは、人工知能(AI)の最新技術であるディープラーニング(深層学習)を用いて本物そっくりの映像を作り出す技術のことです。
顔や口元だけを別の人物と入れ替え、あたかも入れ替えた人物が話しているように見せかけます。最新技術を使えば、顔写真1枚だけで動画作成できるほどに進歩しています。実際に、有名経営者がビデオ会議で発言するフェイク動画も試験的に作られています。
最近では映像だけでなく、音声や文章でも偽コンテンツを生み出せるようになりました。米研究機関が開発した「GPT」という技術を使うことで、まるで人間が書いたような自然な文章を作成できます。
「本物そっくり」の偽コンテンツは、文化や芸術などに応用できる一方、悪用されるリスクも大きいのが問題点です。海外では偽物の音声を使った詐欺事件が多発しています。日本でも芸能人の顔を合成したポルノ動画を投稿し、名誉毀損と著作権法違反の容疑で男3人が逮捕されました。
このようなフェイクメディアの広がりを受け、国内では被害を未然に防ぐための研究プロジェクトもスタートしています。
本物そっくりに作られたディープフェイクでも、所々に違和感があります。本物かどうかを見分けるポイントは以下の2点です。
・身体や頭の動き
ディープフェイクでは全体的に動きが少なく固まりすぎている、または同じ動きばかりを繰り返しているのが特徴です。そのため、頭部や顔の動きに着目すると本物か偽物かを見分けやすくなります。
特に首から頭部にかけてはほぼ動きがなく、同じ動きをループしているような映像になっています。身振り手振りがない場合もフェイク動画である可能性が高いでしょう。
・瞳の光、影の入り方
本物の人間であれば、光によって瞳はさまざまな変化を起こします。特殊な構造であるため、光の角度が一定でも瞳の輝きは常に変化し続けています。しかしディープフェイクの場合は、瞳の動きや輝きにまったく変化がありません。また、顔や首元に不自然な影ができる点も見分けるポイントです。