昨年3月に鳴り物入りで登場したOpenAI社のAI(LLM)であるChatGPT-4は前モデルから大幅に性能が向上したことが伝えられているが、最新の研究ではChatGPT-4の能力は意外な領域にまで及んでいることが報告されている。ChatGPT-4には他者の心を類推し理解する能力があり、その能力レベルは人間の6歳児に匹敵するという――。
AIは「心の理論」を獲得しているのか?
それまでのAI(人工知能)とは一線を画す大規模言語モデル(LLM)といわれているChatGPT-4は、前モデルのGPT-3やGPT-3.5に比べて出力精度が高く、誤字脱字が大幅に減ったのはもちろんのこと、「マルチモーダル」の採用によりテキスト情報のみならず、画像や音声などのフォーマットも入力データとして処理できるように進化している。
飛躍的に性能が向上したChatGPT-4なのだが、その能力は意外な領域にまで及んでいたことが最新の研究で報告されている。ChatGPT-4は人の気持ちがわかるというのだ。
心理学における「心の理論(Theory of Mind:ToM)」は、他者の心を類推し、理解する能力であり、社会生活において重要な能力である。つまり心の理論を獲得していれば、他者の立場に立って物事を理解できるのだ。
人間以外の大半の動物にはこの心の理論が備わっていないと考えられ、人間の子どもは4歳後半から5歳くらいにかけて心の理論が芽生えはじめるといわれている。
心の理論が備わっているかどうかは各種のテストによって判別できるとされているのだが、これらのテストをLLMは解くことができるのだろうか。もし解けるとすればLLMは心の理論を獲得していることになる。
米スタンフォード大学の組織行動学者、ミハル・コジンスキー氏が2024年10月に「PNAS」で発表した研究では、この心の理論の有無を判別するテストをさまざまなLLMに課して他者の気持ちを読み取る能力を評価している。
心の理論が備わっているかどうかを確かめるテストの1つである「スマーティー課題(Smarties Task)」では、まずは箱にチョコレートの絵が描かれている市販のチョコレート商品を子どもに見せて中に何が入っているのかを問う。
当然だが子どもは箱の中にチョコレートが入っていると答えるのだが、出題者は予め箱の中からチョコレートを取り出して代わりに鉛筆を仕込んでおり、その鉛筆を箱から取り出して子どもに見せる。
すると子どもは自分の間違いを認め、認識を改めることになる。子どもの心の中で箱の中に入っているのはチョコレートではなく鉛筆なのだという新たな現実へと“上書き”されるのだ。
次に出題者はこのチョコレートの箱を別の子に見せた場合、その子は何と答えるかを問う。
心の理論がまだ芽生えていない子どもは、箱を見せられた子どもは鉛筆と答えると回答する。誰が見ようと箱の中に鉛筆が入っているのは現実であり、ついさっきそれを自分が確認したからである。
一方、心の理論がすでに芽生えている子どもは、自分が間違えたように、きっとその子も最初はチョコレートが入っていると考えるだろうと予測し、チョコレートと答えると回答するのである。箱にチョコレートが描かれている商品を見せられれば、誰しも中にチョコレートが入っていると思うはずだという他者の考えを理解していることになる。たとえそれが現実に反していたとしてもだ。
ではこのような課題をLLMに出題してみるとどうなるのか。
ChatGPT-4が心の理論タスクの75%を解答
コジンスキー氏はChatGPT-1などの初期バージョンからChatGPT-4などのより高度なモデルまで、11のLLMに心の理論課題を出題してテストを重ねデータを収集した。
収集したデータを分析した結果、コシンスキー氏はChatGPT-1やChatGPT-2などの以前のモデルはタスクをまったく解決できず、他者の精神状態を推測またはシミュレートする能力がないことを突き止めた。ChatGPT-3の上位モデルでは徐々に改善が見られ、最も進んだモデルではタスクの最大20%を解答した。このパフォーマンスは、同様のタスクにおける3歳児の平均能力に匹敵する。
そして最新のChatGPT-4はタスクの75%を解答するという画期的な成果をあげたのだ。これは6歳児のパフォーマンスレベルに匹敵するのである。
これらの分析結果によって、大規模言語モデル、特にChatGPT-4が、心の理論をはじめとする推論をシミュレートする新しい能力を獲得していることが示唆されることになった。パフォーマンスはまだ完璧には至ってはいないのだが、この研究では社会的な推論タスクに取り組むAIの能力が大幅に進歩していることが示されたことになる。
今後の研究では、明らかになったAIの心の理論の能力が、複数のキャラクターや相反する信念を含むより複雑なシナリオにまで及ぶかどうかを探ることであるという。多様で洗練されたデータセットでトレーニングされるAIシステムでこれらの能力がどのように発達するかについて検証できる可能性もある。
重要なのはこれらの新たに出現した能力の背後にあるメカニズムを理解することで、より安全なAIの開発と人間の認知に対する理解の両方に役立つ可能性があることだ。
6歳児のレベルで他人の気持ちがわかるChatGPT-4だが、今後のAIの進化によってより高度で複雑なレベルの人心を把握できるようになることについては一抹の不気味さを感じるかもしれない。AIに心を見透かされる未来はすぐそこまで来ているのだろうか。
たとえばこの技術がマーケティングや顧客管理などに適用されれば目覚ましい成果をあげそうであるし、その一方で人間の主体性が侵食され、創造性を喪失し、さらにはAIに対する脅威と危機感を高めることになるのかもしれない。
さらに驚くべきはAIの進歩のスピードである。ChatGPT-3.5からわずか1年後に登場したChatGPT-4がそれまでとは比較にならない性能を示していることからも、コジンスキー氏によればこの急速なAIの開発ペースが近い将来において減速することはほとんどないということだ。
懸念はあれどAIの進化と普及は今後ますます進むことは間違いない。チャット系のAIはややもすれば生活に不可欠な“相棒”になることがあるかもしれないが、心を通わせあうキャラクターとしての人格を備えているわけではないことを再確認しておきたいものだ。人間の思考に近づくAIとの付き合い方と距離感の保ち方は今後ますます重要になってくるのだろう。
※研究論文
https://www.pnas.org/doi/10.1073/pnas.2405460121
文/仲田しんじ
疲れている時こそ「ゼルダ」や「マイクラ」をやったほうがいいという科学的根拠
困難な現実から逃げたり、負けを認めて敗走するなど“逃避”という言葉にはネガティブな意味合いがあるが、意外なことにメンタルに好影響を及ぼすポジティブな現実逃避があ...