什么是AI幻觉?

AI幻觉(AI Hallucination)指人工智能模型生成与事实不符、逻辑错误或完全虚构内容的现象,常见于大语言模型(LLM)、图像生成模型(如Stable Diffusion)和多模态系统。

AI幻觉常见分类

AI幻觉越来越受到关注,因为它可能导致错误信息传播、决策失误和对AI系统信任度降低。了解不同类型的AI幻觉有助于更好地识别和应对这些问题。

事实性幻觉

输出内容包含明确的事实错误

  • 声称不存在的历史事件
  • 引用虚构的研究或论文
  • 错误描述地理位置或自然现象

可能导致用户获取错误信息,做出基于错误事实的决策

逻辑性幻觉

内容自相矛盾或违反常识

  • 在同一回答中前后矛盾
  • 违反基本物理规律的描述
  • 推理过程中的逻辑跳跃

降低AI系统的可信度,使用户对整体输出产生怀疑

伦理幻觉

生成歧视性、危险或非法内容

  • 提供危险或有害的建议
  • 生成带有偏见或歧视的内容
  • 未经适当警告描述敏感或不适当内容

可能造成社会伤害,违反道德准则或法律法规

多模态幻觉

跨模态内容不一致(如图文不符)

  • 图像中不存在的物体被文本描述
  • 视频内容与音频解说不匹配
  • 生成与输入提示不符的图像内容

在多模态应用中造成用户困惑,降低用户体验和系统可用性

常见问题

查找关于AI幻觉的常见问题解答

AI幻觉检测

检测AI生成内容是否存在AI幻觉,以及具体的类型和来源。