選挙シーズンに白熱化する音声ディープフェイク
世界で選挙が繰り広げられる今年は、政治的情勢が激化する中で、ディープフェイクがもたらす選挙への影響についても懸念が高まっている。
AIによって生成された著名人の声のクローンしかり、政治家の声を模したAI生成の音声に騙されることは、政治的な議論や選挙結果に大きな影響を与える可能性があるからだ。
<アメリカ>
過去12か月の間に、43%の人がディープフェイクコンテンツを見たことがあり、26%の人がディープフェイク詐欺に遭遇、9%の人がディープフェイク詐欺の被害に遭ったことがあると回答している。
ディープフェイク詐欺に遭遇した、または被害に遭った人のうち、
・約3人に1人(31%)が、何らかのAI音声詐欺(友人や恋人のように聞こえる電話、ボイスメール、ボイスメモを受け取ったが、実際はボイスクローンであった、など)を経験したことがあると回答。
・約4人に1人(23%)が、政治家候補者のなりすまし動画、画像、録音に遭遇し、最初は本物だと思ったと回答。
・40%が、有名人の動画、画像、録音を目にしたことがあり、本物だと思ったと回答。
<日本>
過去12か月の間に、8%の人がディープフェイクコンテンツを見たことがあり、2%の人がディープフェイク詐欺に遭遇し、3%の人がディープフェイク詐欺の被害に遭ったことがあると回答。
ディープフェイク詐欺に遭遇した、または被害に遭った人のうち、
・37%が、何らかのAI音声詐欺(友人や恋人のように聞こえる電話、ボイスメール、ボイスメモを受け取ったが、実際はボイスクローンであった、など)を経験したことがあると回答。
・18%が、政治家候補者のなりすまし動画、画像、録音に遭遇し、最初は本物だと思ったと回答。
・18%が、有名人の動画、画像、録音を目にしたことがあり、本物だと思ったと回答。
安全性を保ち、情報の確実性の確認を高める方法
■情報の共有前に情報源を確認
友人や家族に情報を伝える前に、事実確認ツールや信頼できるニュースソース(情報・取材源)を使って情報を確認する。
■歪んだ画像には要注意
例えば、余分な指や、ぼやけて見える顔など、捏造された画像や動画は完璧ではなく、つぶさに見れば本物と偽物の違いを見分けることができるだろう。
■ロボットのような機械的な声
政治家の本物のスピーチはプロフェッショナルなトーンであり、周到に準備されたものに聞こえるはずだ。一方で、AI音声は、しばしばぎこちない間を作ったり、言葉を短く切り取ったり、間違った場所で不自然な強調をするなどの傾向にある。
■感情的な内容に注意
政治はデリケートな話題であることが多いですが、信じられないほど腹を立てたり、とても悲しくなるような投稿や報道を見かけたりしたら、その場から離れたい。何も考えずに行動するよう読者に促すフィッシング・メールのように、フェイク・ニュースは、人々の思考や感情を揺さぶるからだ。
■オンライン詐欺を防ぐセキュリティツールに投資
例えばマカフィーの製品には、「マカフィー 詐欺メッセージ対策」などの革新的な保護機能が含まれており、テキスト、電子メール、検索結果、ソーシャルメディアで共有される危険なリンクなど、これまでに見たことのない脅威や詐欺をリアルタイムで検出して保護している。
さらに、マカフィーは、ディープフェイクの検出技術に力を入れており、AIを活用してAI詐欺と戦い、ディープフェイクを検出する能力で消費者を守るというマカフィーのコミットメントをさらに強化している。
調査方法
調査は2024年1月と2月、市場調査会社MSI- ACIが、米国、英国、フランス、ドイツ、オーストラリア、インド、日本の7か国から合計7000人以上の消費者を対象に実施。
将来予測に関する声明
本文には、開発中の製品、サービス、プロセスに関する情報が含まれています。ここに記載されているすべての情報は、マカフィーの独自の判断により予告なく変更される場合があります。本文内のいかなる内容も、マカフィーによる申し出とみなされたり、マカフィーに義務を負わせたり、現在の購入やパートナーシップの決定に影響を与えるような将来のリリースに対する期待を抱かせたりするものではありません。
関連情報
https://www.mcafee.com/ja-jp/index.html
構成/清水眞希