
生成AIは、私たちの暮らしや仕事に欠かせない存在となってきている。
しかし、ときに、AIは平然と「嘘」をつくことがあるのをご存じだろうか?
この現象は「ハルシネーション(Hallucination)」と呼ばれる生成AI特有の困った現象のことである。今回は、このハルシネーションがなぜ起きるのか、どんなリスクがあるのか、そしてどう対処すればいいのかを分かりやすく解説したい。
上手に「GPTる」コツとは?「ググる」とは異なるAI検索の基本テクニック
ChatGPTを検索ツールとして利用している人も増えてきた。 Google検索(ググる)よりもほしい情報がピンポイントで引き出すことができたり、広告を回避できた...
ハルシネーションとは?
AI関連において、「ハルシネーション」とは、AIが存在しない情報や事実とは異なる内容を、まるで正しいかのように出力してしまう現象のこと。
本来、「ハルシネーション(Hallucination)」とは日本語にすると「幻覚・妄想」のことを指す。
あまり日常的に使われる英単語ではないので知らない人も多かったとは思うが、近年、AIの文脈で頻繁に使われるようになっている。
AIが「まるで幻覚に取り憑かれたように本当は知らないことを、もっともらしく話してしまう」ことからこの名称が用いられている。
ハルシネーションの実例、いつ起こる?
ハルシネーションはいつでも起こる可能性がある。
例えば、ChatGPTにこんな質問をしたとします。
Q:「村上春樹はノーベル賞を受賞したことがありますか?」
するとAIが
A:「はい。村上春樹氏は2007年にノーベル文学賞を受賞しました」
と、実際には村上春樹はノーベル文学賞を未受賞にも関わらず、このように答えることがある。
※上記例文はchatGPTにて作成
AIは文脈上それらしい回答を予測して文章を組み立てているため、嘘をつくつもりがなくても、嘘をついてしまうのだ。
他にも、ハルシネーションの実例としては
・架空の論文から出典にする
・存在しない人物のコメントをつくる
・ありもしない歴史や背景をもとに解説する
などがある。
さらに、これらの回答が「〜な可能性がある」や「不確かではあるが」といった、補足もなく自然な文体で語られるためユーザー側が誤った情報と気づかずに信じてしまうリスクがある。
なぜハルシネーションが起こるのか?
生成AIは、膨大な情報を理解し、情報の真偽を見極め答えているわけではない。
あくまで膨大な学習データから「次にくる言葉は何か?」を予測しながら“それっぽい”文章を出力しているにすぎない。
そのため、AIが学習データから回答を見つけられなかった際に、AIが“想像”で埋めてしまうことがある。
これが「ハルシネーション」の正体である。
ハルシネーションの対策は?
ハルシネーションの対策はいくつかある。
・質問をより明快にする(いつ、どこで等)
例:「最新の〜」を「2025年の〜」に置き換えるなど
・AIに出典を明記して回答してもらう
・AIの回答を自分でウェブ検索する
そして、何よりも「ハルシネーション」という現象があることを知っておくことがいちばんの対策になるだろう。
まとめ
私個人の体験として、SNSで流行った言葉やミームなどの意味を解説してもらおうとした時にハルシネーションが起こった。
私は「あれ?そんな意味だっけ?」と疑問に感じたため、このハルシネーション気づくことができたが、これがもっと私が不慣れな専門領域に関わることであれば気づかなかっただろう。
「AIも知ったかぶりをするんだな」と可愛く感じる一方で、重大なリスクがあることは強く心に留めておきたい。
文/峯亮佑