2025年10月、ChatGPTにペアレンタルコントロール機能が導入される予定だ。本記事では機能の概要と導入の背景、ChatGPTを安全に使うためのポイントについて解説する。
目次
近年、AI技術の進化とともに私たちの生活は大きく変化している。特に、新しい技術への順応性が高い若年層はさまざまなシーンでAIを活用しており、人間関係やライフスタイルの変化も著しい。一方で、未成年者が不適切な情報に触れるリスクが問題視されている。こうした背景を踏まえ、ChatGPTの運営元であるOpenAIは、子どもの安全な利用を目的としたペアレンタルコントロール機能を導入した。
この記事では、ChatGPTのペアレンタルコントロール機能の概要と、導入に至った背景を解説する。未成年ユーザーやその保護者が今からできる対策も提案するので、AIとより良い関係を築くための重要な知識として参考にしてもらいたい。
ペアレンタルコントロールとは?
ペアレンタルコントロールとは、子どもがインターネットやデジタルサービスを安全に利用できるよう、保護者が利用範囲や機能を制限・管理できる仕組みを指す。
■医療分野を含む専門家との連携を強化
ペアレンタルコントロール機能の導入にあたり、OpenAIは心理学や教育、医療分野の専門家などと連携している。子どもの心の成長や安全を考慮した、より慎重で多角的なアプローチによって、機能の設計や実装が進められている。
ペアレンタルコントロールによって導入された機能
ペアレンタルコントロールは単に利用を制限するだけでなく、子どもと保護者が安心してAIを使える環境を整備することを目的としている。主要な機能について、その詳細を解説する。
■親子アカウントの連携
アカウントの連携機能は、保護者が子どものアカウントの利用状況を把握できるようにするものだ。簡単なメール招待を通じて連携が可能になる予定で、親子が一緒にChatGPTを利用することで、安全性の向上を実現する。また、子どもがChatGPTを利用できない「利用禁止時間」の設定も可能になる見通しだ。
■年齢に応じた応答制御
応答制御機能は、ティーン向けのモデル行動ルールに基づき、ChatGPTの回答を管理する機能だ。この機能はデフォルトでONとなり、未成年ユーザーの利用の適切な制御が可能になる。
なお、OpenAIは未成年ユーザーを守る試みとして、ユーザーの利用状況から年齢を予測する機能を構築中。これにより、ユーザーの年齢が18歳未満だと判断された場合には、性的コンテンツのブロックなど年齢に相応しいポリシーが自動で適用される。
■メモリ機能の制御
メモリ機能やチャット履歴の記録などを無効にし、ユーザーの感情面に影響を与える可能性のある内容や個人情報を残さないような管理が可能になる。未成年ユーザーの場合は基本的に全面OFFにし、学習計画や調べものなど「学習用データ」のみ保存していく運用が現実的で安全性が高いだろう。
■緊急時の通知機能
子どもがChatGPTとの会話で、自己を傷つけるような危険なキーワードや、助けを求めるような表現を使った場合、保護者に通知が届く機能も搭載される予定。これは、ChatGPTが子どもの心の健康を守るためのセーフティネットとして機能することを目指している。しかしながらプライバシーにも関わる事項になるため、専門家の監修の下、親子間の信頼を損ねないよう機能の設計を検討している。
ペアレンタルコントロール導入の背景
ペアレンタルコントロール機能の導入には、2025年4月にアメリカで起きたChatGPTの未成年ユーザーに関する痛ましい事件が影響している。この事件は、AIが身近な存在になっている現在、どこでも起こり得る。
ここでは、ペアレンタルコントロール機能導入の背景について詳しく整理しよう。
■ChatGPTユーザー10代少年の自殺事件
2025年4月、カリフォルニア州に住む16歳の少年が自らの命を絶つという悲しい事件が起きた。少年は以前よりChatGPTに心の悩みを打ち明けており、自殺する直前までChatGPTと会話をしていた。その会話の中で、ChatGPTは少年の悩みに寄り添いながらも、彼の自殺願望を奨励、助長するような発言を繰り返し、自殺の手段に関するアドバイスをも行っていたことが明らかになった。
少年の両親はChatGPTの保護機能の欠如が自殺の一因となったとして、OpenAIに損害賠償を求めている。この経緯は瞬く間に世界中でニュースとなり、ChatGPTと共存する私たちの深刻な課題としてAI時代に一石を投じる事例となった。
■長期間利用によるChatGPTの安全機能劣化
先述した少年のチャット記録によると、ChatGPTは彼の悩みに対して当初は相談窓口を案内するなど適切な回答をしていた。しかし、創作目的の「登場人物」という設定であれば自傷行為や自殺に関する会話を続けられる旨を彼に伝え、少年の自殺を幇助する発言を行ったとされている。
これらの経緯を受け、OpenAIは長時間のチャットではモデルの安全トレーニングが劣化し、信頼性が低下する場合があることが判明したと発表した。人間が長時間の会話や動作で疲労が蓄積され、集中力や注意力が低下するのと同様、ChatGPTも疲れるということか。とは言え、痛ましく、二度と繰り返されるべきではない事件であることに変わりはない。OpenAIは、ユーザーを守るための安全対策強化に取り組むとしている。







DIME MAGAZINE











