ハルシネーション

AI(人工知能)が事実と異なる情報を生成する現象のこと。「Hallucination」は日本語で「幻覚」と訳される。まるでAIが「幻覚」を見ているかのように、もっともらしい嘘を出力するために、「ハルシネーション」と呼ばれている。ハルシネーションには大きく分けて、「学習データに基づいて事実とは異なる情報を生成(Intrinsic Hallucinationsすること)」と「学習データには存在しない事実を生成(Extrinsic Hallucinations)すること」の2つのタイプがある。

OpenAIの「ChatGPT」やGoogleの「Bard」のような生成AI(ジェネレーティブAI)サービスでは、ユーザーの質問に対して、AIが対話形式で回答する。AIはWeb上のビッグデータを解析し、文章の続きを予測して言葉を繋いでいるが、把握していないことを聞かれると、間違った内容をあたかも事実のように回答することがある。その真偽をユーザーは判断することが困難であるため、誤った情報の拡散に繋がり、企業や個人の信頼を失う恐れがある。

以下のような原因から、ハルシネーションが発生すると考えられている。

  • 学習の過程で誤った知識を習得し、現実には存在しない情報を生成
  • 情報の正確性よりも文脈を重視して回答を生成
  • 学習した情報が古く、最新の情報を把握していないため、不確かな回答を生成
  • 十分なデータを学習できていないため、推測から結果を生成

生成AIを利用する際は、「偽情報や不正確な情報を回答する」可能性を念頭に置き、事前に利用に関するガイドラインを作成し、生成AIの出力した情報の整合性を必ずチェックすることが大切だ。生成AIの開発においては、学習データやAIアルゴリズム(計算手法)の精度向上、出力の結果にフィルターをかける、ハルシネーション検出システムの開発などが、ハルシネーション発生の防止策として有効とされている。
(青木逸美)

ICTサプライヤーのためのビジネスチャンス発見マガジン
  • Find us on
  • X(Twitter)
  • iDATEN(韋駄天)
  • iKAZUCHI(雷)
  • 教育ICT総合サイト