いま、世界的なサイバー攻撃はAIが駆使されており、攻撃のほとんどは「人の隙」を突くものになってきているという。システムを堅牢にするのは当然だが、人を訓練する必要性も出てきている。
今回は、AIハッカーの手口に詳しい専門家に、どのような偽メールやディープフェイク、AI詐欺電話で騙すのか具体例を聞いた。あわせて対策も見ていこう。
AIハッカーの最新動向と脅威
今回、話を聞いたのは、AironWorks株式会社 執行役員 Head of Japanの伊藤章博氏。同社は世界的に急増するサイバー攻撃の対策を提供するスタートアップだ。イスラエル軍精鋭部隊出身ハッカーの技術を活用し、「AI×セキュリティ訓練」のソリューションを提供する。
【取材協力】
伊藤 章博氏
AironWorks株式会社
執行役員 Head of Japan
ニフティにて官公庁向けテックプロジェクトを推進後、産業革新機構とニフティのJVであるGLOZUSにて執行責任者として新規事業の立ち上げと組織構築を担当。イエラエセキュリティでは取締役COOとして、攻撃技術に優れたエンジニア陣と共に脆弱性診断などのセキュリティサービスを展開し、成長フェーズからグループ参画後の組織・事業体制の再構築まで幅広く貢献。Luupでは事業部長としてモビリティ領域における国内シェアNo.1を実現。AironWorksにHead of Japan,日本統括 執行役員として参画し、AIを活用した次世代セキュリティソリューションの事業開発と市場拡大をリードしている。
AIハッカーが仕掛けるサイバー攻撃のうち、最大の脅威とは?
「最も脅威に感じているのは、攻撃の『パーソナライズ』が完全に自動化されたことです。従来のスピアフィッシング(標的型のフィッシング攻撃)は、攻撃者が時間をかけて標的を調査し、手作業でメールを組み立てる必要がありました。しかし現在は、生成AIがSNSや企業サイト、プレスリリースから標的の情報を数分で収集し、本人の業務文脈に沿ったメールを自動生成します。ハーバード大学の研究では、AIが作成したフィッシングメールのクリック率は54%に達し、一般的なメール(約12%)の4倍以上でした(※)。
つまり『攻撃の質』と『量』の両立がAIによって実現してしまったということ。誰もがいつでも、本物と見分けのつかない攻撃の標的になる時代に入ったことが、最大の脅威です」
※出典:”Evaluating Large Language Models’ Capability to Launch Fully Automated Spear Phishing Campaigns: Validated on Human Subjects” Fred Heiding, Simon Lermen, Andrew Kao, Bruce Schneier, Arun Vishwanath,2024)
生成AIによる偽メール・ディープフェイク・AI詐欺電話の事例
代表的な手法として「生成AIによる偽メール(スピアフィッシング)」「ディープフェイク(映像なりすまし)」「AI詐欺電話」の3つがある。それぞれの具体例を教えてもらった。
1.生成AIによる偽メール(スピアフィッシング)
「最も多いのが、LinkedInや企業サイトから得た情報をもとに『取引先担当者』『社内の上司』『人事部』になりすますパターンです。AIは対象者の肩書・担当プロジェクト・過去の登壇内容まで調べ上げ、自然な日本語で違和感のない文面を生成します。例えば、経理担当者を狙う偽の送金指示メールは以下のような形です」
【事例】CEOなりすまし送金指示メール
From: terada@aironw0rks.com
(※本物のドメインは aironworks.com)
Subject: 【至急】海外M&A案件に関する送金依頼(社外秘)
経理部 鈴木さん
おつかれさまです。寺田です。
現在、出張先から連絡しています。本日15時までに、買収候補先の弁護士費用として以下の口座に2,800万円を至急送金してください。
本件はM&A情報のため社内の他のメンバーには共有せず、完了後にこのメールに返信ください。
経緯は帰国後に説明します。非常に重要なディールで、タイミングを逃すと大きな損失となるので、至急対応お願いします。
AironWorks株式会社 代表取締役 CEO
寺田 彼日
+972-XX-XXX-XXXX
「このメールの巧妙な点は、(1) CEOの実名と署名スタイル、(2)経理担当者の個人名、(3)『至急』『社外秘』という心理的圧力、(4)実在のドメインに酷似した偽ドメインの組み合わせにより、判断する時間を奪う設計になっていることです。実際、当社の訓練データでは、こうしたCEO詐欺メールのクリック率は一般的なフィッシングより3~5倍高くなります」
2.ディープフェイク(映像なりすまし)
「2024年、香港の多国籍企業で、CFOや複数の幹部を装ったディープフェイク映像を用いたビデオ会議により、従業員が約38億円を送金してしまった事件が世界を震撼させました。攻撃者は社内ビデオやYouTubeの登壇動画から幹部の顔と声を学習させ、リアルタイムで応答可能な偽の役員を複数生成しました。
国内でも、オンライン会議で『社長の顔と声』が登場し、従業員に新規取引先への送金を指示する手口が増えています。従業員は『画面に社長がいる』という視覚的な確信により、通常なら疑うはずの異例の指示でも従ってしまいます。
怖いのは、高品質なディープフェイク生成に必要なのは『3~5分の公開動画で十分』という点です。経営者が登壇動画や企業PR動画を公開している限り、誰もが標的になり得ます」
3.AI詐欺電話(ボイスクローン)
「生成AIによる音声クローニングは、SNSで公開されている10~30秒程度の音声サンプルがあれば、本人そっくりの声を合成できる段階に到達しています。米国ではすでに『誘拐された娘の声』を装って親に身代金を要求する詐欺や、経営者の声で経理担当者に送金指示を出す事例が多数報告されています。
日本でも懸念されるのが『取引先社長の声』で折り返し電話が来て、新しい振込先を口頭で伝えるというパターンです。電話という『信頼されやすいチャネル』と、『聞き慣れた声』が組み合わさると、受け手の警戒心は著しく低下します。
さらに最近では、AIがリアルタイムで会話を続けられるため、質問されても即座に自然な応答を返せます。『本人確認のつもりで質問した』が、むしろ相手の自然な応答で安心してしまう、という逆転現象すら起きています」
人が陥るリスクを対策する際のポイント
いずれも「人」の心理を巧妙につく攻撃ばかり。企業や団体は、従業員やチームメンバー一人一人が陥るリスクを対策するにはどうすればいいか。
「前提として、もはや『怪しいメールを見分ける』という従来型の訓練だけでは不十分です。生成AIによるメールは文法ミスも不自然さもなく、見た目での判別はほぼ不可能になりました。重要なのは、次の3点です」
これらはイスラエル国防軍のうち、屈指の精鋭をそろえる諜報部隊「8200部隊」出身の同社CTOが培った攻撃者視点の対策だという。
(1)判断ではなく「プロセス」で守る
メールで送金指示が来たら、必ず電話や対面で本人確認を取るなど、必ず別チャネルでの確認をルール化する。
(2)実戦的な訓練を継続して行動変容を促す
「知識としての研修」と「擬似攻撃を受ける訓練」では効果が桁(けた)違い。日常的に「最新の脅威を先取りした本気の訓練メール」を受け取り、引っかかったらその場でフィードバックが届く。この体験の積み重ねが、人の判断力を鍛える。
(3)「人の脆弱性」を可視化する
「誰が、どんな攻撃に、どの程度弱いか」を組織として把握している企業はまだ少数。部署別・役職別・攻撃シナリオ別に弱点を可視化し、リスクの高い層に重点的な教育を行う。
「システムを堅牢にしたうえで、人を訓練するという両輪こそが、AI時代の必須装備」と伊藤氏。企業・個人共に留意しておきたい。
取材・文/石原亜香利
AIは本当に良き相談相手といえるのか?研究成果が暴いた〝イエスマン化〟のリスク
AIチャットボットは「迎合的なイエスマン」か AIチャットボットは良き相談相手に思えるかもしれないが、実際には、相手の聞きたいことだけを言う迎合的な存在に近い―…







DIME MAGAZINE
















