2024年4月からDIMEにて連載が始まった「マンガでわかる生成AI」の原作を担当しており、アステリア株式会社、および生成AI協会(GAIS)でエバンジェリストを務めております森一弥です。
前回、生成AIの中でも一番話題になっており、代名詞になりつつある「ChatGPT」をはじめとしたLLM(大規模言語モデル:Large Language Model)について主要なサービスや特徴をお話させていただきました。
ぜひ皆さんに触っていただきたいのですが、「とは言っても会社で使うにはリスクがね~」とお考えになる方も多くいるかと思いますので、今回はリスクについてお話させていただきます。
一人暮らしを始めたばかりの沙織の心強いパートナーは「生成AI」!? 日常や仕事で起きるさまざまなピンチを、生成AIと共に乗り切れるのか!? 「ChatGPT」な...
入力データの扱いはしっかり確認を
生成AIを会社で利用する際のリスクとして、一番最初に思い当たるのは「情報漏洩」ではないでしょうか。LLMで実現されたチャットのサービスは無料で使えるものが多く、日本語も流暢なので気軽に試すことができます。文字のやり取りだけではなく、画像やPDFなど様々なファイルを添付して会話することもできます。あまりに簡単なので、それと意識することなく会社のデータを添付してしまい、うっかり漏洩事故につながることも考えられます。
チャットのサービスに送られたデータが即時インターネットに公開されてしまうということはありませんが、生成AIの学習データとして使われることは十分に考えられます。例えば、製品のアイデアに関するデータが漏洩した場合、その後、競合他社が同じチャットサービスを利用して製品アイデアの相談をしたら、似たような製品アイデアがチャットから提示される、なんてこともありえます。
もちろん生成AIは膨大なデータをもとに作られているので、漏洩データがそのままどんどん流出していくという確率は極めて低く、これはあくまで可能性の話です。
情報漏洩の対策としてできることはいくつかあります。漏洩の対策がされたサービス、例えば Microsoft Azure で展開されているものなどを導入することもひとつですし、あるいは、サービスによっては入力内容を学習させないように設定することができるものもあります。
例えば ChatGPT であれば、設定画面から学習させないようにすることができますし、「ユーザーID “XXXXXX”のアカウントからの情報は学習させない」といった申告ができる「オプトアウト」という方法を取ることも可能です。その他のサービスを利用するに際しても、それぞれの入力データの扱いについてどういったポリシーなのかを確認する必要があるでしょう。
生成AIを会社で利用する際に考えられるもう一つのリスクとして、チャットからの回答が事実に基づかない、いわゆる「ハルシネーション」と呼ばれる問題があります。こちらについては徐々に対策が進んでいるとはいえ、AIからの回答が100%正しいということはやはりありえません。事実とはまったく異なるにも関わらず、自信満々に回答してくるように見える場合もあります。事実としては正しく「ハルシネーション」には当たらずとも、公序良俗に反するような回答がされる場合もありますし、会社のポリシーに反した回答が返ってくることもあります。
これらの対策としては、最終的な成果物に対する責任は人間が持つ、ということしかありません。海外の弁護士が、生成AIによって作られた事実とは異なる内容が入った答弁をして問題になった事例もあります。生成AIから出力されたものについて何のチェックも行わずにそのままコピーして使うというのは、現時点では職務怠慢と言わざるを得ません。改めて、“生成AIは代替者ではなく便利な道具である” という認識を持つ必要があります。