生成AIが日常のさまざまなシーンで活用されている一方で、誤情報やハルシネーションなどの問題も発生している。本記事ではハルシネーションの原因や対策、生成AIを利用する上での注意点を解説する。
目次
近年の生成AIの進化は著しく、ビジネスシーンでもChatGPTなどのツールが広く活用されるようになった。しかし、課題として指摘されているのが、AIが誤った情報を生成するハルシネーションという現象だ。
ハルシネーションは単なるミスにとどまらず、あらゆるリスクにつながる可能性があるため、正しい理解と対策が求められる。
本記事では、ハルシネーションの意味や原因、具体的な対策方法、そして生成AIを安全に利用するための注意点について詳しく解説する。
ハルシネーションの意味と種類
ハルシネーションは「AIの嘘」とも呼ばれる、生成AIによる誤情報だ。生成AIの普及と同時に、大きな課題として注目されている。まずは、その種類やハルシネーションが抱えるリスクについて理解を深めよう。
■ハルシネーションとはAIが誤った情報を生成する現象
ハルシネーションは、AIが実際には存在しない情報や事実とは異なる情報を生成してしまう現象だ。生成能力が高く評価されているChatGPTでも、誤った回答が事実であるかのように提示されることがある。
ハルシネーションには以下の2種類が存在する。
・内在的ハルシネーション:生成AIがデータの解釈を誤ったり、情報を不適切に組み合わせたりするもの
・外在的ハルシネーション:学習データにない情報を作り上げてしまうもの
内在的ハルシネーションの内容は、基本的に学習データに基づく。例えば、生成AIに日本の成人年齢を尋ねた際、古い情報を引用してしまい「日本の成人年齢は20歳からです」と回答するケースが該当する。
外在的ハルシネーションでは、「2023年に定められたメディアリテラシー法では、15歳未満のSNS利用が制限されるようになった」など、実在しない法律や事柄をもっともらしく提示する。質問に対して生成AIが回答を導き出せなかった際に、訓練データを基にありそうな回答を創作してしまうために起こり得る。
■ハルシネーションの由来
ハルシネーションという言葉は、英語の「hallucination」に由来する。hallucinationの意味は、幻覚、幻影だ。生成AIが実在しない情報を事実であるかのように回答する現象が、人間の幻覚体験に似ていることから名付けられた。
■ハルシネーションのリスク
ハルシネーションは、次のようなリスクにつながる可能性がある。
誤った情報の拡散
社会的信頼の失墜
意思決定の誤り
ハルシネーションによって作られた誤情報がSNSなどで拡散されると、場合によっては社会的混乱を招く恐れがあるだろう。特定の人物の名誉を傷つけてしまう可能性もあり、法的トラブルや社会的信頼の失墜につながる。
さらに、AIが生成した誤情報によって企業としての意思決定を誤るなど、経済的損失を生む可能性もある。
ハルシネーションが発生する原因
ハルシネーションが発生する原因はいくつかあり、複合的に作用している場合もある。ここからは、主に原因として指摘されている問題を確認しておこう。
■学習データが不十分・偏りがある
AIが生成する回答は、学習データの質と量に大きく左右される。学習データが古かったり偏りがあったり、誤った情報があったとしても、AIは真偽をチェックする機能を持たないため、誤情報を学習して回答に用いてしまう。特にリアルタイム性が求められる情報や専門的な分野では、データ不足や偏りが原因でハルシネーションが起こり得る。
■プロンプトに曖昧さがある
プロンプト(指示文)が曖昧だったり、前提条件が不明確だったりすると、生成AIは正確な回答を導き出せない場合がある。それでも回答を提示するために、生成AIが自ら情報を補完することから、ハルシネーションが発生しやすくなる。
例えば「最近見つかったアリの特徴を教えて」というプロンプトでは、「最近」がいつなのか「見つかった」というのは新種という意味なのか、日本での生息が確認された種のことなのかもわからない。そのため、実在しないアリの種を創作したり、近年日本への侵入が確認された単なる外来種を新種と紹介したりなど、もっともらしいが事実とは異なる情報を生成してしまう。
■生成AIの能力が低い
生成AI自体の能力や設計上の限界も、ハルシネーションの要因として挙げられる。特に複雑な質問や専門性の高い内容の場合、適切に対応できずに誤った情報を生成する可能性が高い。
また、AIは確率的に適切と判断した単語を組み合わせて文章を生成するため、事実性よりも文章としての自然さが優先され、結果的にハルシネーションが発生する恐れがある。
ハルシネーションへの対策
ハルシネーションのリスクを減らすためには、技術的な工夫と運用上の注意が必要だ。ここでは、具体的な対策の手法を紹介する。
■AIの学習データの品質向上
生成AIの情報源は、それまでに学習したデータだ。そのため、学習データの質と量を向上させることでハルシネーション発生の可能性を抑えられる。信頼できる情報源から最新かつ多様なデータを集め、ノイズや誤情報を排除することで生成AIの出力精度が高まる。
■精巧なプロンプト設計
プロンプトを具体的かつ明確にすることで、誤った情報の生成を抑えられる。また、「わからない場合は無理に回答しないでください」などの指示を加えることも有効だ。プロンプトの明確性と工夫により、生成AIの回答内容の精度は大きく変化する。
■RAGの活用
RAG(検索拡張生成)とは、AIが外部の信頼できるデータベースや検索システムと連携して得た情報を基に、回答を生成する技術だ。RAGの活用により、生成AIの学習データだけでなく最新情報や専門知識を用いた回答が可能になる。生成AIの回答内容の正確性と信頼性が高まり、ハルシネーション発生の抑制が期待できるだろう。
■人間によるフィードバック
生成AIの回答を人間がチェックし、ハルシネーションがあれば修正やフィードバックを行うことも対策の一つ。人間によるファクトチェックと評価は生成AIの学習において重要な役割を果たしており、精度と信頼性を維持するために必要不可欠だ。
ChatGPTなど生成AIを利用する際の注意点

ビジネスシーンでも有用性の高い生成AIだが、活用の際にはハルシネーションのリスクを十分に理解し、適切な運用ルールを設けることが重要だ。ここでは、具体的な注意点について解説する。
■出力される情報を鵜呑みにしない
前提として、AIの生成した回答を鵜呑みにしないことが重要だ。ハルシネーションは言い換えれば偽情報だが、厄介なことに事実らしく作られている。正しい情報も多く提供してくれる生成AIだからこそ、その情報の正誤を見極めるのは難しいかもしれない。
そのため、出力内容に全幅の信頼を置くのではなく、あくまでも参考情報として取り扱おう。生成AIの出力情報を重要な意思決定に用いる場合には、慎重な姿勢が必要だ。
■情報の確認と更新を行う
AIが生成する情報は、常に最新で正確とは限らない。学習データが古い場合や、外部情報と連携していない場合、過去の情報や誤った回答が出力されるリスクがある。特に時事的な内容や変化が著しい分野に関しては、ファクトチェックや情報の更新を行うことが必要だ。
生成AIを活用する際に情報のアップデートを怠ると、ビジネス上の重大なミスにつながる可能性があるため、注意しよう。
■社内ルールやマニュアルを作成する
生成AIのビジネス活用において、ハルシネーションなどのリスクを最小限に抑えるためには、明確なルールの作成やマニュアルの整備が必要不可欠だ。生成AIの利用範囲や人の手によるファクトチェックの手順、誤情報が発覚した際の対応策など、全社員で共有した上で運用することが求められる。
生成AIは、新モデルの開発や機能の追加など成長が著しい分野だ。組織全体で定期的な教育や研修を行って新しい情報を学び、生成AIについての理解を深めてハルシネーションによるトラブルを未然に防ごう。
※情報は万全を期していますが、正確性を保証するものではありません。
文/編集部







DIME MAGAZINE











