LLM幻觉是指语言模型以高置信度输出事实错误或虚构的信息。主要原因: **训练噪声:**不准确或低质量的源数据。 **知识空白:**模型缺乏特定事实的曝光。 **提示模糊:**用户查询模糊或冲突。 通过更好的数据进行缓解: 通过Proxied轮换移动IP可靠抓取的更干净、更具代表性的数据集为模型提供训练,减少噪声并提高事实基础。结合代理数据管道和后训练验证步骤以减少幻觉。