導入――AIが「自信満々に間違える」という問題

「AIが出した答えを、子どもがそのまま信じてしまっている」

こうしたご相談を、保護者の方からいただく機会が増えています。ChatGPTやClaudeといった生成AIは、流暢で説得力のある文章を生成するため、回答がすべて正確であるかのような印象を与えがちです。しかし、生成AIには「ハルシネーション(hallucination)」と呼ばれる構造的な課題が存在します。事実に基づかない情報を、あたかも確かな知識であるかのように出力してしまう現象です。

この問題は、AIの技術的な欠陥というよりも、生成AIの仕組みそのものに根差した特性です。この特性を正しく理解しないままAIを利用すれば、誤った情報を正しいと思い込んだまま学習を進めてしまい、知識の土台そのものが歪んでしまうリスクがあります。

本記事では、ハルシネーションの技術的な背景から、教育現場での事例、そしてお子さまが「ファクトチェック習慣」を身につけるための具体的な方法までを体系的に解説いたします。


基礎解説――ハルシネーションはなぜ起こるのか

生成AIの動作原理:「次の単語を予測する」仕組み

ChatGPTやClaudeなどの大規模言語モデル(LLM: Large Language Model)は、膨大な量のテキストデータを学習し、「ある単語の次に、どの単語が来る確率が高いか」を予測する仕組みで動作しています。技術的には「次トークン予測(next token prediction)」と呼ばれる手法です。「トークン」とは、単語や単語の一部分を指す処理単位のことです。

たとえば、「京都の世界遺産として有名な寺院は」という文に続く単語として、「金閣寺」「清水寺」「銀閣寺」といった候補が高い確率で予測されます。AIはこの確率計算を一語ずつ繰り返すことで、文章全体を組み立てていきます。

ここで重要なのは、AIは「事実を知っている」のではなく、「もっともらしい文の続きを生成している」にすぎないという点です。AIの内部に百科事典のような知識データベースがあるわけではなく、言語のパターンから「それらしい」応答を組み立てているのです。

「もっともらしさ」と「正確さ」は別物である

この仕組みから、ハルシネーションが発生する構造的な理由が見えてきます。

AIにとっての「良い回答」とは、文法的に自然で、文脈に沿った、もっともらしい文章です。しかし「もっともらしさ」と「事実としての正確さ」は本質的に異なる基準です。AIは「この情報は事実か」を検証する機能を持たず、統計的に「次に来やすい単語」を連ねているだけであり、生成された文が事実に合致するかどうかは偶然に委ねられている側面があります。

言葉を巧みに操る話し手が、必ずしも正確な情報を伝えているとは限らないのと同様です。AIの場合、その「流暢さ」が極めて高い水準にあるため、誤情報であっても見抜きにくいという特有の危険性が生じます。

ハルシネーションが起こりやすい場面

ハルシネーションは、あらゆる場面で均等に発生するわけではありません。特に以下のような状況で生じやすいことが知られています。

  • 学習データに情報が少ない分野:マイナーな歴史的事象、地域に限定された情報、専門性の高い学術領域など
  • 数値・年号・固有名詞を含む回答:「〇〇年に△△が起きた」「□□大学の研究によると」といった具体的な情報
  • 出典や参考文献の提示を求められた場合:実在しない論文名や書籍名を、もっともらしい体裁で「創作」してしまうことがあります
  • 最新の情報に関する質問:学習データの時点以降に発生した出来事については、正確な回答が原理的に困難です

深掘り研究――教育現場での事例と研究知見

教育現場で報告されている具体的な事例

生成AIのハルシネーションが教育に及ぼす影響について、国内外でさまざまな事例が報告されています。

事例1:架空の参考文献を引用したレポート 大学教育の現場では、学生が生成AIを用いてレポートを作成した際に、AIが生成した架空の学術論文をそのまま参考文献として記載してしまうケースが問題となっています。論文のタイトル、著者名、掲載雑誌名まで「もっともらしく」生成されるため、一見しただけでは実在するかどうかの判別が困難です。

事例2:歴史の学習における年号や人物の混同 中学生や高校生が歴史の学習にAIを活用した際、異なる時代の出来事を混同したり、実在の人物に架空の業績を付与したりするケースが報告されています。史実として確認されていない俗説を、あたかも定説であるかのように提示することもあります。

事例3:理科の実験手順に関する誤情報 理科の自由研究でAIに実験方法を尋ねた場合に、安全上問題のある手順が含まれていた事例も指摘されています。AIは実験の安全性を実地で検証しているわけではないため、もっともらしく見える手順の中に危険な操作が含まれてしまう可能性があります。

ハルシネーション率に関する研究動向

ハルシネーションの発生頻度については、複数の研究機関が評価を行っています。モデルの種類や質問の分野によって数値は大きく異なりますが、事実確認を要する質問に対して、主要な生成AIが一定の割合で不正確な情報を出力することが確認されています。

注目すべき知見として、AIの回答の「自信の度合い」と「正確性」には必ずしも相関がないという研究結果があります。AIが断定的な口調で述べていても正確とは限らないという事実は、「自信を持って語られる情報は正しい」という人間の直感と矛盾するため、特に注意が必要です。

子どもが特にハルシネーションの影響を受けやすい理由

教育心理学の観点からは、子ども(特に小学校高学年から中学生にかけて)がAIのハルシネーションに対して脆弱である理由として、以下の点が指摘されています。

  1. 権威への信頼傾向:子どもは「教えてくれる存在」を権威として信頼しやすい発達段階にあり、AIが返す回答を「先生の答え」と同じように受け止めてしまう傾向があります
  2. 批判的思考力の発達途上:情報の真偽を自ら判断するための批判的思考力は、発達とともに徐々に身につくものであり、十分に確立されていない段階では、もっともらしい誤情報を見抜くことが困難です
  3. 背景知識の不足:AIの回答が正しいかどうかを判断するためには、その分野に関する一定の背景知識が必要ですが、学習途上にある子どもはその知識が十分でない場合が多いといえます

実践アドバイス――ファクトチェック習慣を育てる具体的な方法

家庭で実践できる「3ステップ検証法」

お子さまがAIを使って調べものをした際に、以下の3つのステップを習慣として定着させることをお勧めします。

ステップ1:「本当?」と立ち止まる AIの回答を読んだ直後に、まず「この情報は本当だろうか」と一度立ち止まる習慣をつけます。内容が正しいかどうかを即座に判断する必要はありません。大切なのは、「疑問を持つ」という姿勢そのものです。お子さまがAIの回答を見せてくれた際に、保護者の方が「なるほど、それは本当かな?」と穏やかに問いかけることで、この習慣は自然に育っていきます。

ステップ2:「もう一つの情報源」で確認する AIの回答に含まれる重要な情報(数値、年号、人物名、出来事の因果関係など)について、AI以外の情報源で確認する習慣を身につけます。確認先としては、以下のようなものが適切です。

  • 教科書・参考書
  • 百科事典(紙の事典でもオンライン版でも構いません)
  • 公的機関や学術機関の公式ウェブサイト
  • 図書館の書籍

すべての情報を逐一確認する必要はありませんが、「レポートに書く情報」「テストの答えとして覚える情報」「誰かに伝える情報」については、必ず裏取りをするという基準を設けておくとよいでしょう。

ステップ3:「AIにも聞き直す」 興味深いことに、AIに対して「その情報は確かですか? 根拠を教えてください」と改めて質問すると、最初の回答を修正してくることがあります。また、別のAIサービスに同じ質問をして、回答を比較するのも有効な方法です。回答が一致していれば信頼性は高まりますし、食い違っていればさらなる調査が必要だという判断材料になります。

年齢に応じた段階的な指導

ファクトチェックの指導は、お子さまの発達段階に応じて調整することが大切です。小学校高学年では「AIは間違えることがある」という事実の理解と、教科書・図鑑との照合を一緒に行うところから始めます。中学生になれば、複数の情報源を並べて比較する練習や、「なぜAIは間違えるのか」という技術的背景への関心を育てていきます。高校生には、一次情報と二次情報の区別、情報源の信頼性評価、学術的な引用ルールなど、大学進学後にも通じる高度な情報リテラシーの指導へ進みましょう。

避けていただきたい二つの極端

「AIは危険だから一切使わせない」という全面禁止も、「便利だから自由に使わせる」という放任も、いずれも望ましい対応とはいえません。AIはすでに社会基盤の一部であり、将来的にAIと適切に付き合う力はますます重要になります。一方で、ファクトチェックの習慣が身についていない段階での無制限な利用は、誤情報を無自覚に取り込むリスクをはらんでいます。

適切なのは、「AIの特性を理解したうえで、段階的に活用の幅を広げていく」姿勢です。最初は保護者と一緒にAIを使い、ファクトチェックの実践を重ねながら、徐々にお子さま自身が主体的に情報を検証できるよう導いていくことをお勧めします。

家庭での実践:「AI検証タイム」のすすめ

週に一度でも構いませんので、お子さまと一緒にAIに質問を投げかけ、その回答を検証する時間を設けてみてください。「京都にまつわる歴史の豆知識をAIに聞いて、本当かどうか調べてみよう」「AIに有名な人物の経歴を聞いて、百科事典と照らし合わせてみよう」といった題材が取り組みやすいでしょう。AIの間違いを発見できた際の「自分の力で見抜けた」という達成感は、知的好奇心の原動力にもなります。


結論――「疑う力」こそ、AI時代の最良の教養

ハルシネーションは生成AIの構造的な特性であり、技術の進歩とともに発生率は低下していく可能性がありますが、「AIの回答は常に正しいとは限らない」という前提は今後も重要であり続けます。本記事の内容を整理いたします。

  1. ハルシネーションの原理:生成AIは「次に来る確率の高い単語」を予測して文章を生成しており、事実を検証して回答しているわけではない
  2. 教育現場での影響:架空の出典の引用、歴史事実の混同、安全性に問題のある実験手順の提示など、具体的なリスクが報告されている
  3. 子どもの脆弱性:権威への信頼傾向、批判的思考力の発達途上、背景知識の不足により、子どもはハルシネーションの影響を受けやすい
  4. ファクトチェック習慣の育成:「立ち止まる」「別の情報源で確認する」「AIにも聞き直す」の3ステップを、年齢に応じて段階的に指導する

「疑う力」は決して後ろ向きな能力ではありません。情報を主体的に吟味し、自らの判断で取捨選択する知的な営みです。AIの登場は、この力の重要性をこれまで以上に際立たせています。

あいおい塾では、生成AIの適切な活用法を含む情報リテラシー教育にも取り組んでおります。ファクトチェック習慣の育て方についてのご相談にも丁寧にお応えいたしますので、どうぞお気軽にお問い合わせください。


本記事は2026年3月時点の情報に基づいて執筆しています。生成AIの技術や関連する教育政策は急速に変化しているため、最新の情報については文部科学省の公式発表や各AIサービスの利用規約をご確認ください。