AI幻觉指大型语言模型在缺乏足够事实依据时,生成看似合理但实际错误、虚构或矛盾内容的现象。由于模型只是基于训练数据猜测下一个最可能出现的词,而非真正理解上下文,因此常出现事实性错误或逻辑断裂。例如,模型可能给出错误的医疗建议或编造“小常识”。这些虚假信息并非无害,甚至可能导致法律诉讼。