RAGとは何か? — 30秒で理解する
RAGとは、ユーザーの質問に対して、まず社内文書を検索し、見つけた情報をLLM(大規模言語モデル)に渡して回答を生成する仕組みです。
LLM単体では「社内の有給休暇の申請方法」や「先月の売上データ」など、自社固有の情報には答えられません。RAGはこの問題を解決し、LLMに「自社の知識」を持たせます。
- 質問を受け取る — ユーザーが「有給の申請方法は?」と入力
- ベクトル検索 — 質問を数値(ベクトル)に変換し、類似度の高い社内文書を検索
- コンテキスト注入 — 検索で見つけた文書をLLMのプロンプトに追加
- 回答生成 — LLMが社内文書の内容に基づいて正確な回答を生成
RAG vs ファインチューニング
LLMに自社データを学習させる方法には「ファインチューニング」もありますが、RAGの方が圧倒的に実用的です。理由は3つ:情報の更新が即時反映(再学習不要)、回答の根拠を提示できる(どの文書から引用したか表示可能)、そしてコストが低い(LLMの再学習には数十万〜数百万円かかる)。2026年時点で、企業のナレッジ活用にはRAGが標準的なアプローチです。
構築に必要な技術スタック
| 要素 | 選択肢の例 | 役割 |
|---|---|---|
| ベクトルDB | pgvector / Pinecone / Weaviate | 文書をベクトル化して保存・検索 |
| Embedding | OpenAI / Cohere / Voyage AI | テキストをベクトルに変換 |
| LLM | Claude / GPT-4o / Gemini | 検索結果を基に回答を生成 |
| オーケストレーション | Dify / LangChain / LlamaIndex | 検索→生成のパイプラインを管理 |
| UI | Dify / Streamlit / Next.js | ユーザーが質問を入力する画面 |
pgvectorが選ばれる理由
多くの企業でpgvector(PostgreSQLのベクトル検索拡張)が選ばれているのは、既存のPostgreSQLに追加するだけで使えるためです。新たなデータベース製品の導入・学習・運用コストが不要で、SQLの知識だけでベクトル検索とキーワード検索の両方(ハイブリッド検索)を実現できます。
構築の5ステップ
Step 1: 社内文書の棚卸し
まず対象となる文書を整理します。マニュアル、FAQ、議事録、社内Wiki、規程集など。PDF・Word・Googleドキュメントなど形式は問いませんが、テキストとして抽出可能であることが条件です(画像のみのPDFはOCR処理が必要)。
Step 2: チャンク分割
文書を適切なサイズに分割します。これがRAGの精度を最も左右する工程です。
- 推奨サイズ: 200〜500トークン(日本語で300〜750文字程度)
- オーバーラップ: 前後50〜100トークンの重なりを持たせて、文脈が途切れるのを防ぐ
- 構造的分割: 見出し・章単位で分割し、メタデータ(タイトル、カテゴリ、部署)を付与
Step 3: ベクトル化 & 格納
分割したチャンクをEmbedding APIでベクトル化し、pgvectorに格納します。部署別のアクセス制御が必要な場合は、このタイミングで権限メタデータも付与します。
Step 4: 検索パイプラインの構築
ベクトル検索(意味的な類似度)とキーワード検索(全文検索)を組み合わせたハイブリッド検索が2026年の標準です。ベクトル検索だけでは固有名詞や型番の完全一致に弱く、キーワード検索だけでは言い回しの違いに対応できません。
Step 5: 回答生成 & UI
Difyなどのプラットフォームを使えば、検索パイプラインからLLMへの接続、UIの構築まで、ノーコードで実現できます。フルスクラッチで構築する場合は、LangChain + Next.jsの組み合わせが一般的です。
失敗しないための5つのポイント
1. チャンクサイズを固定値にしない
文書の種類によって最適なサイズは異なります。FAQなら1問1答単位、マニュアルなら見出し単位、議事録なら発言者ごと。文書の構造に合わせた分割戦略が精度を決めます。
2. 「何でも入れる」は失敗の元
古い・不正確な文書が混ざると、AIが誤った回答を返します。定期的な文書の鮮度チェックと、廃止文書の除外ルールを最初に設計しておくことが重要です。
3. 回答の根拠を必ず表示する
RAGの強みは「どの文書から回答を生成したか」を提示できること。これを省略すると、ユーザーがAIの回答を信用できず、結局使われなくなります。
4. 部署別のアクセス制御を忘れない
人事の評価文書が全社員に見えてしまう、といった事故を防ぐため、文書ごとのアクセス権限設計は初期段階から組み込みます。
5. 小さく始めて段階的に拡大
最初から全社文書を対象にすると、精度調整が困難になります。まず1部署・1カテゴリから始めて、精度を確認しながら対象を広げるのが成功パターンです。
導入効果の実例
社内文書3,000件のRAG導入事例
ある企業で社内文書約3,000件をベクトル化し、RAGベースのAIチャットボットを構築した事例では、以下の成果が得られました:
- 問い合わせ対応工数 40%削減
- 新人オンボーディング期間 30%短縮
- pgvectorによるハイブリッド検索で、キーワード検索単体より回答精度が35%向上
技術スタック: Dify / pgvector / Claude API / Python / Docker
まとめ
RAGは2026年時点で、企業の社内ナレッジ活用における最もコストパフォーマンスの高いAI技術です。ファインチューニングのような高額な再学習は不要で、文書を追加・更新するだけで即座に回答に反映されます。
成功の鍵は、「技術の選定」よりも「チャンク分割戦略」と「文書の品質管理」にあります。技術は手段であり、どの情報を・どう切り出して・誰に見せるかの設計こそが本質です。