RAG

RAGは、「Retrieval Augmented Generation」の略語で「ラグ」と読む。外部情報の検索と 大規模言語モデル(LLM)を組み合わせることで、LLMの回答精度を向上させる技術。「検索拡張生成」とも呼ばれる。

LLMは、大量のテキストデータを使って学習された自然言語処理(NLP)の技術で、最新の情報に対応できないという弱点があり、事実と異なる情報をAIが生成してしまう「ハルシネーション(幻覚)」を引き起こすリスクがある。RAGは、信頼性の高い外部のデータベースを検索する仕組みのため、ハルシネーションを抑制する効果がある。そのため、RAGは生成AIの弱点を補う技術として注目されている。

RAGによる回答生成のフローは次の通りだ。

  1. ユーザーが入力した質問やプロンプトをまとめる
  2. 外部データベースから関連する情報を抽出
  3. 抽出した情報とユーザーの質問をLLMに送り回答を作成する

RAGと比べられる技術に「ファインチューニング」がある。ファインチューニングは学習済みのAIモデルに独自データを追加学習させ、特定のタスクに対応させる。既存モデルを活用するため、新規開発よりもコストやリソースを節約できるメリットがある。一方で、特定のデータに過剰に適応すると汎用性が低下し、AIの精度が高くなりにくいといったデメリットがある。

(青木逸美)

ICTサプライヤーのためのビジネスチャンス発見マガジン
  • Find us on
  • X(Twitter)
  • iDATEN(韋駄天)
  • iKAZUCHI(雷)
  • 教育ICT総合サイト