LLMの幻覚現象 とは、言語モデルが実際の情報に反して事実誤認または捏造した内容を高い信頼度で出力する現象です。主な原因は:
- トレーニングのノイズ: 不正確または低品質なソースデータ。
- 知識ギャップ: 特定の事実に関する情報不足。
- プロンプトの曖昧さ: 曖昧または矛盾するユーザー入力。
改善策: クリーンで代表性の高いデータセット(ProxiedのローテーションモバイルIP を介して収集)をモデルに供給することで、ノイズが低減され、事実に基づいた出力が得られます。さらに、トレーニング後の検証ステップと組み合わせることで幻覚現象を抑制できます。