この記事でわかること
この記事では、生成AIを使っていると必ず直面する 「ハルシネーション(Hallucination)」 という現象について解説します。
なぜ生成AIは存在しない情報を答えてしまうのか、 どんな場面で起きやすいのか、 そして AI-900 試験ではどのように理解すべきかを、初学者向けに整理します。
ハルシネーションとは何か
ハルシネーションとは、 生成AIが事実ではない内容を、もっともらしく生成してしまう現象 のことです。
日本語では「幻覚」と訳されることもありますが、 AIが本当に「見間違える」わけではありません。
それらしく見えるが、内容は間違っている これがハルシネーションの本質です。
具体例:ハルシネーションの典型パターン
- 存在しない論文や書籍を紹介する
- 実在しない機能を説明する
- 古い情報を最新のように語る
- 数字や統計をそれらしく捏造する
特に初心者にとっては、 正しそうに見える点が最大の問題 です。
なぜ生成AIは間違えるのか
最大の理由は、 生成AIは「事実を検索して答えているわけではない」 という点にあります。
生成AI(LLM)は、
- 正解を知っている
- 事実確認をしている
わけではありません。
あくまで、 次に来そうな単語を確率的に予測して文章を作っている だけなのです。
LLMの仕組みとハルシネーション
LLMは大量のテキストデータを学習し、
「この文脈なら、次はこの単語が来やすい」
という確率モデルを作っています。
そのため、
- 質問が曖昧
- 情報が不足している
場合でも、 「とりあえず答えを作る」 という動きをします。
このときに起きるのがハルシネーションです。
なぜ自信満々に答えるのか
生成AIは、
- 自信がある
- 不安がある
といった感情を持ちません。
常に 最も確率が高い文章 を出力するため、
結果として 断定的で自信があるように見える のです。
ハルシネーションが起きやすいケース
- 専門性が非常に高い分野
- 最新情報を求める質問
- 実在確認が必要な固有名詞
- 「〜を断定して説明して」と指示した場合
AI-900では、 生成AIの制限として理解しておく ことが重要です。
ハルシネーションを防ぐ考え方
完全に防ぐことはできませんが、 以下の工夫で大きく減らせます。
- プロンプトを具体的にする
- 「不明な場合は不明と答えて」と指示する
- 事実確認が必要な情報は別途検証する
これは Azure OpenAI 利用時の Responsible AI にもつながる考え方です。
Azure OpenAIとハルシネーション
Azure OpenAI でも、 ハルシネーションの性質は同じです。
そのため、
- 重要業務では人間の確認を入れる
- 生成結果をそのまま鵜呑みにしない
といった設計が推奨されます。
AI-900試験での重要ポイント
- 生成AIは事実保証をしない
- もっともらしい誤回答を生成することがある
- これをハルシネーションと呼ぶ
試験では、 「生成AIの制限」 として問われる可能性が高い項目です。
まとめ
- ハルシネーション=AIのもっともらしい誤回答
- 原因はLLMの仕組みそのもの
- AI-900では制限として理解する
AI-900を体系的に学びたい方へ
この記事は「AI-900試験対策」シリーズの一部です。
▼AI-900完全ロードマップはこちら

