ハルシネーション
カテゴリ: モデル・アーキテクチャ
LLMが事実に基づかない情報を生成してしまう現象。モデルが訓練データから学習したパターンに基づいて、もっともらしいが誤った情報を出力することがある。特に知識が不足している分野や、最新の情報について顕著。ファインチューニングやRAG(Retrieval-Augmented Generation)などの手法で軽減できる。ローカルLLMホスティングでは、社内データでファインチューニングすることで、業務特有の正確な情報を学習させ、ハルシネーションを減らせる。
関連キーワード
ハルシネーション