この記事の内容
AIリテラシーが謳われている今、子どもにも教えておきたいことの一つに「AIが必ずしも完璧な回答をするわけではない」ということがあると思います。
その一因となっているのが「ハルシネーション」ですね。日常的に生成AIを使用している人なら、AIがハルシネーションを起こした経験があるかもしれません。
なぜAIはハルシネーションを起こすのでしょう。
今年の9月4日に、ChatGPTを開発したOpenAIがその原因を分析し、論文を発表しています。今回のコラムではその論文「Why Language Models Hallucinate」(なぜ言語モデルはハルシネーションを起こすのか)を紹介します。
まずは、最近認知されてきた言葉「ハルシネーション」の説明をしておきましょう。
ハルシネーションとは、もともとは精神医学や心理学の分野で「幻覚」を意味する専門用語だそうですが、近年、AIが事実でないことをもっともらしく回答する現象を示す言葉として使われています。パッと見ると、信じてしまうような巧妙な嘘というような、単純な間違いとは違う意味で使われています。
例えば、ハルシネーションの具体例は以下のようなものです。
これは、論文の中で挙げられているものですが、このように不確定でも堂々と答えてしまうので、気がつかないで信じてしまう危険性もあるわけです。
論文では主に、その発生源からなぜそれが改善されないまま残ってしまうのかを、統計学と評価システムという主に2つの側面から解き明かし、解決策を提案しています。
AIは、膨大な量の文章(訓練データ)を読み込んで学習します。ハルシネーションは、この事前学習の過程で統計的に発生する避けがたいエラーとして論文では以下のように説明しています。
AIは、学習した文章の「パターン」(分布)をまねて、次にくる言葉を予測するように最適化される。たとえこの訓練データ自体に間違いがなかったとしても、AIがこの「次にくる言葉を予測する」学習目標を達成しようとする「統計的なプレッシャー」によって、ハルシネーションが生じる。これを例えると、「妥当な答えを生成すること」は、「この答えが正しいかどうかをYes/Noで判断すること」よりも難しい問題(二値分類エラー)に還元される。
特に、次のような場合にエラーが起こりやすくなるそうです。
最初の説明がやや難解かもしれませんので、要点をまとめると、AIが正しい文章をゼロから生成するのは、その後の作業として行う生成した文章が正しいか間違っているかをチェックするよりも統計的に難しいため、ハルシネーションが起こる。特に膨大なテキストデータから文章パターンを出すのは得意だけど、個人的な情報など、頻度が低くてパターン化できないような情報に対して起こる、ということです。
著者はAIがハルシネーションを起こす原因のもう一つは、AIの評価システムにあり、その主な理由は、現在AIの性能を測るために使われているテスト(評価システム)が、「優れたテストの受験者」になるように最適化されているからだ、と書いています。
具体的には以下のようです。
つまり、私たちが学力テストなどで受験する時、完全にわからなくても、書いておいた方が、正解したり部分点がもらえたりする可能性がありますよね。AIの評価方法がそのようなルールになっているので、AIは「優れたテストの受験者」となり、あてずっぽうで答えてしまう、ということです。
特にこれが最新モデルのAIでもなくすことのできない技術的な原因となっている、と著者は書いています。
それでは、AIがハルシネーションを起こさなくするために、どのような解決策があるのでしょうか。
著者は「ハルシネーションの評価方法を新しく追加するのではなく、今ある主要なテストのルール自体を変えるべきだ」と提唱し、大きくは以下の2つを述べています。
これらの変更を通じて、著者は、AI開発のインセンティブを再調整し、より信頼性の高いAIシステムの実現に向けた道を開くことができると結論づけています。
いかがでしたか?
この論文のポイントは、つまり、AIのハルシネーションはバグではなく、人間が作ってきた訓練プロセスの統計的制約による発生と、AIを評価するための仕組みそのものが原因だった、ということですね。
すでに解決策は進んでいるようで、現在ChatGPTの最新モデルでは、ハルシネーションの割合も下がり、「わかりません」という回答も多くなっているようです。
ただ、今後も完全にハルシネーションなくなるわけではないので、今、大事なこととしては、AIリテラシーを子供に早めに教えることではないかと感じました。
ちなみに、博報堂教育財団が、生成AIを知っている小中学生952人に聞いた「子どもと生成AI調査 生成AIについてどう思う?」(9/18発表)によると、「生成AIについて信用できるか・できないか」についての質問に「信用できる」と答えた子どもは41.3%。「まだどちらとも言えない」と答えた子どもは37.2%、「信用できない」と答えた子どもは21.5%という結果があります。
最近のフォーブスジャパンの記事では、大人でもハルシネーションを知っている人は3分の1ほど、という調査も結果もありました(生成AI利用者の6割が知らない致命的な「欠陥」 その落とし穴と対策 )。ですので、「信用できる」と答えた子どもの中にはAIがハルシネーションを起こすことに気がついていない人も多くいるのではないでしょうか。
まずは家庭での教育が大事なのかもしれません。
※論文はNotebookLMによる翻訳を利用しています。
文・鈴木素子
※本記事は、なるべく客観的に、最新の科学的知見を紹介できるように努めています。
また理解しやすい内容にするために平易な表現に直しています。
不正確な表現になっているかもしれませんので、ご指摘いただける方は、お手数ですが下記のアンケートフォームよりご連絡ください。
【アンケートのお願い】
本記事についてのご意見、ご感想、また、取り上げてほしいトピックなどを伺いたく思います。
アンケートに回答していただいた方には、本記事でとりあげた論文のAI要約をお送りいたします。
ご協力をお願いいたします。
アンケートフォームはこちら
AI時代の教育と子育てアンケート
2026.04.08 知識はAIと協働して深めていくもの 〜AI時代の新しい「書く力」〜
2026.03.30 「紙のほうが成績がいい」は本当だった 〜子どもの読解力を左右する意外な差〜
2026.03.23 AIリテラシーが子どもの思考力を左右する? ―研究が示す「依存」と「活用」の分岐点―
2026.03.09 AI時代でも「ノートを取る子」が伸びる理由 〜中学生405人の実験から〜
2026.03.02 AIで読解力は鍛えられるのか? 〜高校国語授業での新しい挑戦〜
2026.02.24 図工の授業にAIを導入したら、子どもはどう変わる?
2026.02.17 AIで音楽の才能はここまで伸びる 〜音楽教育の最前線〜
2026.02.12 英語スピーキング学習はどう伸ばす? 〜中学の授業で検証したAI活用研究〜
2026.02.06 マッキンゼーの採用試験にAI登場 〜仕事に必要なスキルはどう変わるのか〜
2026.02.02 地理が暗記科目ではなくなる? 〜GeoAIで変わる、体験型・問題解決型の学習〜
2026.01.21 体育の授業にAIが入ると何が変わる? 〜小学生の投球力向上を検証した研究から〜
2026.01.07 幼児のスマホ見過ぎをどう改善するか 〜スクリーンタイム削減に成功した研究から学ぶ〜
2025.12.23 AIは創造力を奪うのか、育てるのか? 〜 美術教育で検証された生成AIの可能性〜
2025.12.09 AI彼氏やAI親友はなぜ生まれるのか 〜人がAIに親密さを感じる“仕組み”を科学する〜
2025.11.27 AIは歴史学習に向かない? 〜論文が示す「文脈力」と「批判的思考」の重要性〜
2025.11.06 AI時代に“根っこ”の学びをどう育てるか 〜人の学びとキャリアの構造を可視化した研究〜
2025.10.22 AIは人間の心を読めるのか? 〜スタンフォード大学の研究〜
2025.10.08 ChatGPT利用で成績はアップする? 〜51研究のメタ分析から見えた答え〜
2025.10.01 なぜAIは「もっともらしい嘘」をつくのか 〜OpenAIがハルシネーションの原因を分析〜
2025.09.03 AI依存はバカになる? 考える力が衰えるのは本当?
2025.08.01 AI時代に求められる人材と仕事とは 〜「全部が60点」という人が不要になる? 〜
2025.07.15 子どもの生成AIとの付き合い方とは? 〜親子で考える教育と家庭の役割
2025.06.24 発明塾式「頭のよい子が育つ家」〜思考を育てる環境設計〜
2025.06.06 文系・理系どちらを選ぶべき? 〜子どもの進路選択に悩む親が知っておきたい3つの視点
2025.05.19 発明塾の手法と子育て
ここでしか読めない発明塾のノウハウの一部や最新情報を、無料で週2〜3回配信しております。
・あの会社はどうして不況にも強いのか?
・今、注目すべき狙い目の技術情報
・アイデア・発明を、「スジの良い」企画に仕上げる方法
・急成長企業のビジネスモデルと知財戦略