AI・機械学習

ハルシネーション

Hallucination

AI のハルシネーションとは、事実ではないのにもっともらしい情報を生成する現象。原因・対策・検出方法を解説します。

ハルシネーション AI 幻覚 LLM エラー 誤情報 ファクトチェック
作成日: 2025年12月19日 更新日: 2026年4月2日

ハルシネーションとは?

ハルシネーション(幻覚)は、AI が事実ではないのに「もっともらしく」見える情報を自信を持って生成する現象です。 たとえば「田中太郎というAI研究者の著作『ニューロネットの未来』(2022年)を教えて」と聞くと、実在しない本を本物のように説明してしまうわけです。重要なのは、これは AI の「ウソをつく意図」ではなく、統計的パターンマッチングの副作用だということです。

ひとことで言うと: AI が無意識に「ありそうな嘘」を作る。検索結果ではなく、確率に基づいた予測なので。

ポイントまとめ:

  • 何をするものか: LLM が訓練データにない情報を「埋める」際に起きるエラー
  • なぜ起きるか: 次の言葉を確率で選ぶため、根拠がなくても「続く言葉」を出力する
  • どのくらい起きるか: モデル・タスク・質問内容によって異なるが、5~20% の出力に含まれる可能性

なぜ重要か

ハルシネーションは単なる「面白いバグ」ではなく、重大なリスクです。2023年、米国の弁護士が ChatGPT が作った判例を引用して法廷で提出し、懲罰を受けました。医療の現場では誤った治療法が提案されれば、患者に危害が及びます。金融では虚偽の市場分析に基づいて投資判断が下されます。プロンプトエンジニアリングファインチューニングの工夫で軽減できますが、完全には排除できないというのが研究の共通認識です。

仕組みをわかりやすく解説

AI(特にトランスフォーマーアーキテクチャのLLM)は「次の単語は何か」を確率で判定します。「アップルのティム・クックが2024年に…」と入力されると、次は「発表」「明かした」「語った」など、統計的に確率の高い言葉を選びます。

ここが問題です。訓練データにない・存在しない人物・イベントについて質問されても、AI は「知りません」と答えずに「ありそうな言葉」をつなぎ合わせます。知識がない領域ほど、パターンマッチングだけに頼って作り話をしてしまうわけです。また、RAG(外部データベースからの情報検索)という技術を使わない限り、AI は訓練データの時点で「時間が止まった」状態です。2024年の最新ニュースを知りません。

実際の活用シーン

法律サービス

弁護士が ChatGPT に「知財法における重要な判例を教えて」と聞き、返された判例を法廷で引用したら、その判例は存在しないものでした。結果、懲罰と評判の失墜。本来ならRAGで法律データベースに接続し、実在する判例だけを参照させるべき場面です。

医療情報

患者が「この症状の治療法は?」と AI に聞いて、根拠のない治療法を勧められてしまう。医療分野では「人間のドクターが最終判断する」という二段階チェックが不可欠です。

カスタマーサポート

「この製品の在庫状況は」と聞いて、在庫システムに接続していない AI が「あります」と答えてしまう。後から「実は品切れでした」とクレームになります。

メリットと注意点

ハルシネーションは完全には排除不可能です。AI の確率的性質に組み込まれているからです。ただし、多層的な対策で「リスク」に落とし込めます。①RAGで外部ソースをグラウンディング、②プロンプトエンジニアリングで「出典を明記して」と指示、③人間による二次チェック、の組み合わせが効果的です。

興味深い点は、ハルシネーションが「創造的用途では有用」ということです。小説やアート、ゲーム開発では「予想外の組み合わせ」が価値になります。問題は、事実性・精度が求められる場面です。システムを設計する際には「このユースケースでハルシネーションは許容できるか」を問う思考が重要です。

関連用語

  • LLM — ハルシネーションの根本原因。確率的に次の言葉を選ぶ仕組みが、時に誤った情報を作り出します。
  • RAG — 検索拡張生成。外部データベースから関連情報を取得し、ハルシネーション軽減の最有力手段です。
  • ファインチューニング — 特定分野のデータで AI を再訓練。ハルシネーション削減と精度向上の両立を目指します。
  • プロンプトエンジニアリング — 指示を工夫することで出力精度を高める。「根拠を示して」と指示すればハルシネーション削減に。
  • ChatGPT — ハルシネーション現象が有名になるきっかけとなったモデル。法廷で捏造判例を引用する事件が報道されました。

よくある質問

Q: AI のハルシネーションは完全になくせますか?

A: いいえ。研究によると、確率的アーキテクチャの本質的特性です。ただし、RAG・検証システム・人間チェックで大幅に軽減できます。重要な判断は常に人間が介入すべき設計にすることが現実的です。

Q: 「出典を示してほしい」と AI に指示すれば大丈夫?

A: 一定効果はありますが、不完全です。AI は架空の出典まで作ることがあります。本当に必要な場面では、提示された出典を自分で確認する習慣が必須です。

Q: ハルシネーション率の高い・低い AI はありますか?

A: はい。より大きなモデル・より良い訓練データを持つLLM ほど傾向として低いです。ただしゼロにはなりません。

関連用語

×
お問い合わせ Contact