ハルシネーション
AI(人工知能)が事実と異なる情報を生成する現象のこと。「Hallucination」は日本語で「幻覚」と訳される。まるでAIが「幻覚」を見ているかのように、もっともらしい嘘を出力するために、「ハルシネーション」と呼ばれている。ハルシネーションには大きく分けて、「学習データに基づいて事実とは異なる情報を生成(Intrinsic Hallucinationsすること)」と「学習データには存在しない事実を生成(Extrinsic Hallucinations)すること」の2つのタイプがある。
OpenAIの「ChatGPT」やGoogleの「Bard」のような生成AI(ジェネレーティブAI)サービスでは、ユーザーの質問に対して、AIが対話形式で回答する。AIはWeb上のビッグデータを解析し、文章の続きを予測して言葉を繋いでいるが、把握していないことを聞かれると、間違った内容をあたかも事実のように回答することがある。その真偽をユーザーは判断することが困難であるため、誤った情報の拡散に繋がり、企業や個人の信頼を失う恐れがある。
以下のような原因から、ハルシネーションが発生すると考えられている。
- 学習の過程で誤った知識を習得し、現実には存在しない情報を生成
- 情報の正確性よりも文脈を重視して回答を生成
- 学習した情報が古く、最新の情報を把握していないため、不確かな回答を生成
- 十分なデータを学習できていないため、推測から結果を生成
生成AIを利用する際は、「偽情報や不正確な情報を回答する」可能性を念頭に置き、事前に利用に関するガイドラインを作成し、生成AIの出力した情報の整合性を必ずチェックすることが大切だ。生成AIの開発においては、学習データやAIアルゴリズム(計算手法)の精度向上、出力の結果にフィルターをかける、ハルシネーション検出システムの開発などが、ハルシネーション発生の防止策として有効とされている。
(青木逸美)