生成AIをセキュリティ技術に活用する際の主要リスクについて
CrowdStrike(NASDAQ: CRWD)の日本法人であるクラウドストライクが「生成AI利用のための5つのポイント」を同社ブログで公開したので、本稿ではその概要をお伝えしていく。
ディープフェイク、非常に巧妙なフィッシングメール、AIが生成したランサムウェアなど、生成AIを利用することで、新たな脅威アクターが高度かつ大規模な攻撃を以前よりも容易に行なえるようになっているという実例が多数ある。
あらゆる画期的な技術には新たなリスクがつきものであることを認識するとともに、そうしたリスクをあらかじめ予想する必要がある。
生成AIも例外ではない。クラウドストライクでシニアバイスプレジデント兼チーフサイエンティストを務めるスヴェン・クラッサー(Sven Krasser)博士による先ごろの指摘によれば「生成AIにはそれ自体に攻撃対象領域があり」、この技術の開発、トレーニング、規制、攻撃に対する防御の強化をそれぞれどのように行なうかを検討することは非常に重要だという。
すでに、安全性と信頼性の高い生成AI開発のための業界ベストプラクティスの確立に向けて政策立案に着手する動きが始まっており、米国では2023年10月30日に大統領令が発令された。
規制の整備と並行して、組織では、特に生成AIをセキュリティ技術に活用する際の主要なリスクについて検討することが欠かせない。
セキュリティチームは生成AIアプリケーションを評価する際に、特に以下のようなポイントについて検討してみる必要がある。
・生成AIによる回答の正確性を担保する方法
・生成AIによる新たな攻撃対象領域を保護し、データ汚染やプロンプト・インジェクションなどから防御する方法
・顧客のプライバシーを守る方法
・不正なデータ漏えいを防ぐ方法
・生成AIによるアナリストの業務の変化。アナリストの仕事はAIに取って代わられるのか
こうした懸念に加え、攻撃がさらに高度化し、セキュリティ運用もますます複雑化するなか、セキュリティシンタックスを理解し、アナリストのワークフローを予測できる、セキュリティチームのニーズに特化した生成AIアプローチが求められている。