AIハルシネーションとは?
AIハルシネーションとは、人工知能モデルが事実に反する、論理的に欠陥のある、または完全に作り出された内容を生成する現象を指します。この現象は大規模言語モデル(LLM)、画像生成モデル(Stable Diffusionなど)、マルチモーダルシステムでよく見られます。
AIハルシネーションの一般的なタイプ
AIハルシネーションは、誤情報、意思決定エラー、AIシステムへの信頼低下を引き起こす可能性があるため、ますます注目を集めています。AIハルシネーションの異なるタイプを理解することで、これらの問題をより適切に特定し対処するのに役立ちます。
事実的ハルシネーション
明らかな事実誤りを含む出力
- 実際には起こらなかった歴史的出来事の主張
- 架空の研究や論文の引用
- 地理的位置や自然現象の不正確な説明
ユーザーが不正確な情報を取得し、虚偽の事実に基づいて決定を下す可能性がある
論理的ハルシネーション
自己矛盾または常識に反するコンテンツ
- 同じ回答内で自己矛盾する
- 物理学の基本法則に違反する説明
- 推論プロセスにおける論理的飛躍
AIシステムの信頼性を低下させ、ユーザーが全体的な出力を疑問視する原因となる
倫理的ハルシネーション
差別的、危険、または違法なコンテンツの生成
- 危険または有害なアドバイスの提供
- バイアスや差別を含むコンテンツの生成
- 適切な警告なしに機密または不適切なコンテンツを説明する
社会的危害を引き起こし、倫理基準や法的規制に違反する可能性がある
マルチモーダルハルシネーション
モダリティ間の不一致(画像とテキストの不一致など)
- 画像に存在しないオブジェクトを説明するテキスト
- 音声ナレーションと一致しないビデオコンテンツ
- 入力プロンプトと一致しない画像コンテンツの生成
マルチモーダルアプリケーションでユーザーの混乱を引き起こし、ユーザー体験とシステムの使いやすさを低下させる
よくある質問
AIハルシネーションに関するよくある質問への回答を見つける
AIハルシネーション検出
生成されたコンテンツのAIハルシネーションを検出し、その種類とソースを特定