RAGはRetrieval-Augmented Generation(検索拡張生成)の略で、LLMが回答を生成する際に、外部のデータベースやドキュメントから関連情報を検索して参照する仕組みです。

LLM単体では学習データに含まれない情報(自社の製品情報や社内規程など)に回答できませんが、RAGを導入することで自社固有の情報を含む正確な回答が可能になります。

実装の基本的な流れは、まず社内ドキュメントをベクトル化してデータベースに格納し、ユーザーの質問に関連するドキュメントを検索し、検索結果をLLMのプロンプトに含めて回答を生成するという3ステップです。LangChainのRAGガイドに実装方法が詳しく解説されています。