この記事の内容
AIリテラシーが謳われている今、子どもにも教えておきたいことの一つに「AIが必ずしも完璧な回答をするわけではない」ということがあると思います。
その一因となっているのが「ハルシネーション」ですね。日常的に生成AIを使用している人なら、AIがハルシネーションを起こした経験があるかもしれません。
なぜAIはハルシネーションを起こすのでしょう。
今年の9月4日に、ChatGPTを開発したOpenAIがその原因を分析し、論文を発表しています。今回のコラムではその論文「Why Language Models Hallucinate」(なぜ言語モデルはハルシネーションを起こすのか)を紹介します。
まずは、最近認知されてきた言葉「ハルシネーション」の説明をしておきましょう。
ハルシネーションとは、もともとは精神医学や心理学の分野で「幻覚」を意味する専門用語だそうですが、近年、AIが事実でないことをもっともらしく回答する現象を示す言葉として使われています。パッと見ると、信じてしまうような巧妙な嘘というような、単純な間違いとは違う意味で使われています。
例えば、ハルシネーションの具体例は以下のようなものです。
これは、論文の中で挙げられているものですが、このように不確定でも堂々と答えてしまうので、気がつかないで信じてしまう危険性もあるわけです。
論文では主に、その発生源からなぜそれが改善されないまま残ってしまうのかを、統計学と評価システムという主に2つの側面から解き明かし、解決策を提案しています。
AIは、膨大な量の文章(訓練データ)を読み込んで学習します。ハルシネーションは、この事前学習の過程で統計的に発生する避けがたいエラーとして論文では以下のように説明しています。
AIは、学習した文章の「パターン」(分布)をまねて、次にくる言葉を予測するように最適化される。たとえこの訓練データ自体に間違いがなかったとしても、AIがこの「次にくる言葉を予測する」学習目標を達成しようとする「統計的なプレッシャー」によって、ハルシネーションが生じる。これを例えると、「妥当な答えを生成すること」は、「この答えが正しいかどうかをYes/Noで判断すること」よりも難しい問題(二値分類エラー)に還元される。
特に、次のような場合にエラーが起こりやすくなるそうです。
最初の説明がやや難解かもしれませんので、要点をまとめると、AIが正しい文章をゼロから生成するのは、その後の作業として行う生成した文章が正しいか間違っているかをチェックするよりも統計的に難しいため、ハルシネーションが起こる。特に膨大なテキストデータから文章パターンを出すのは得意だけど、個人的な情報など、頻度が低くてパターン化できないような情報に対して起こる、ということです。
著者はAIがハルシネーションを起こす原因のもう一つは、AIの評価システムにあり、その主な理由は、現在AIの性能を測るために使われているテスト(評価システム)が、「優れたテストの受験者」になるように最適化されているからだ、と書いています。
具体的には以下のようです。
つまり、私たちが学力テストなどで受験する時、完全にわからなくても、書いておいた方が、正解したり部分点がもらえたりする可能性がありますよね。AIの評価方法がそのようなルールになっているので、AIは「優れたテストの受験者」となり、あてずっぽうで答えてしまう、ということです。
特にこれが最新モデルのAIでもなくすことのできない技術的な原因となっている、と著者は書いています。
それでは、AIがハルシネーションを起こさなくするために、どのような解決策があるのでしょうか。
著者は「ハルシネーションの評価方法を新しく追加するのではなく、今ある主要なテストのルール自体を変えるべきだ」と提唱し、大きくは以下の2つを述べています。
これらの変更を通じて、著者は、AI開発のインセンティブを再調整し、より信頼性の高いAIシステムの実現に向けた道を開くことができると結論づけています。
いかがでしたか?
この論文のポイントは、つまり、AIのハルシネーションはバグではなく、人間が作ってきた訓練プロセスの統計的制約による発生と、AIを評価するための仕組みそのものが原因だった、ということですね。
すでに解決策は進んでいるようで、現在ChatGPTの最新モデルでは、ハルシネーションの割合も下がり、「わかりません」という回答も多くなっているようです。
ただ、今後も完全にハルシネーションなくなるわけではないので、今、大事なこととしては、AIリテラシーを子供に早めに教えることではないかと感じました。
ちなみに、博報堂教育財団が、生成AIを知っている小中学生952人に聞いた「子どもと生成AI調査 生成AIについてどう思う?」(9/18発表)によると、「生成AIについて信用できるか・できないか」についての質問に「信用できる」と答えた子どもは41.3%。「まだどちらとも言えない」と答えた子どもは37.2%、「信用できない」と答えた子どもは21.5%という結果があります。
最近のフォーブスジャパンの記事では、大人でもハルシネーションを知っている人は3分の1ほど、という調査も結果もありました(生成AI利用者の6割が知らない致命的な「欠陥」 その落とし穴と対策 )。ですので、「信用できる」と答えた子どもの中にはAIがハルシネーションを起こすことに気がついていない人も多くいるのではないでしょうか。
まずは家庭での教育が大事なのかもしれません。
※論文はNotebookLMによる翻訳を利用しています。
文・鈴木素子
※本記事は、なるべく客観的に、最新の科学的知見を紹介できるように努めています。
また理解しやすい内容にするために平易な表現に直しています。
不正確な表現になっているかもしれませんので、ご指摘いただける方は、お手数ですが下記のアンケートフォームよりご連絡ください。
【アンケートのお願い】
本記事についてのご意見、ご感想、また、取り上げてほしいトピックなどを伺いたく思います。
アンケートに回答していただいた方には、本記事でとりあげた論文のAI要約をお送りいたします。
ご協力をお願いいたします。
アンケートフォームはこちら
AI時代の教育と子育てアンケート
2025.10.01 なぜAIは「もっともらしい嘘」をつくのか 〜OpenAIがハルシネーションの原因を分析〜
2025.09.24 「どうせ無理」ではなく「だったらこうしてみたら?」 〜ドリームロケットプロジェクト講演会報告〜
2025.09.16 「AIで仕事がなくなる」は本当? 〜マイクロソフト最新論文による20万人データが示す職業的影響ランキング〜
2025.09.03 AI依存はバカになる? 考える力が衰えるのは本当?
2025.08.01 AI時代に求められる人材と仕事とは 〜「全部が60点」という人が不要になる? 〜
2025.07.15 子どもの生成AIとの付き合い方とは? 〜親子で考える教育と家庭の役割
2025.06.24 発明塾式「頭のよい子が育つ家」〜思考を育てる環境設計〜
2025.06.06 文系・理系どちらを選ぶべき? 〜子どもの進路選択に悩む親が知っておきたい3つの視点
2025.05.19 発明塾の手法と子育て
ここでしか読めない発明塾のノウハウの一部や最新情報を、無料で週2〜3回配信しております。
・あの会社はどうして不況にも強いのか?
・今、注目すべき狙い目の技術情報
・アイデア・発明を、「スジの良い」企画に仕上げる方法
・急成長企業のビジネスモデルと知財戦略