AIハルシネーションとは?

AIハルシネーションとは、人工知能モデルが事実に反する、論理的に欠陥のある、または完全に作り出された内容を生成する現象を指します。この現象は大規模言語モデル(LLM)、画像生成モデル(Stable Diffusionなど)、マルチモーダルシステムでよく見られます。

AIハルシネーションの一般的なタイプ

AIハルシネーションは、誤情報、意思決定エラー、AIシステムへの信頼低下を引き起こす可能性があるため、ますます注目を集めています。AIハルシネーションの異なるタイプを理解することで、これらの問題をより適切に特定し対処するのに役立ちます。

事実的ハルシネーション

明らかな事実誤りを含む出力

  • 実際には起こらなかった歴史的出来事の主張
  • 架空の研究や論文の引用
  • 地理的位置や自然現象の不正確な説明

ユーザーが不正確な情報を取得し、虚偽の事実に基づいて決定を下す可能性がある

論理的ハルシネーション

自己矛盾または常識に反するコンテンツ

  • 同じ回答内で自己矛盾する
  • 物理学の基本法則に違反する説明
  • 推論プロセスにおける論理的飛躍

AIシステムの信頼性を低下させ、ユーザーが全体的な出力を疑問視する原因となる

倫理的ハルシネーション

差別的、危険、または違法なコンテンツの生成

  • 危険または有害なアドバイスの提供
  • バイアスや差別を含むコンテンツの生成
  • 適切な警告なしに機密または不適切なコンテンツを説明する

社会的危害を引き起こし、倫理基準や法的規制に違反する可能性がある

マルチモーダルハルシネーション

モダリティ間の不一致(画像とテキストの不一致など)

  • 画像に存在しないオブジェクトを説明するテキスト
  • 音声ナレーションと一致しないビデオコンテンツ
  • 入力プロンプトと一致しない画像コンテンツの生成

マルチモーダルアプリケーションでユーザーの混乱を引き起こし、ユーザー体験とシステムの使いやすさを低下させる

よくある質問

AIハルシネーションに関するよくある質問への回答を見つける

AIハルシネーション検出

生成されたコンテンツのAIハルシネーションを検出し、その種類とソースを特定