RAG・AIエージェント・MCPとは
LLM単体では「最新情報を知らない」「社内データを参照できない」「複雑なタスクを自律実行できない」という限界があります。RAG・AIエージェント・MCPはこれらの限界を突破するための主要アーキテクチャです。
RAG(Retrieval-Augmented Generation)
RAGとは「検索(Retrieval)」と「生成(Generation)」を組み合わせた手法です。LLMが回答を生成する前に、外部のナレッジベースから関連情報を検索して取得し、その情報をコンテキストとして与えることで、精度と信頼性を高めます。
RAGのアーキテクチャ
RAGの主要コンポーネント
テキストを数値ベクトルに変換。意味的な類似度を計算するために使う。text-embedding-3-small(OpenAI)・multilingual-e5(多言語対応)が代表例。
高次元ベクトルの高速検索に特化したデータベース。pgvector(PostgreSQL拡張)・Pinecone・Weaviate・OpenSearch が代表。
ドキュメントをどの単位で分割するかが検索精度に影響。固定長・文単位・セクション単位など目的に応じて設計する。
ベクトル検索(意味的類似度)とキーワード検索(BM25)を組み合わせ、RRF(Reciprocal Rank Fusion)で統合。どちらかだけより精度が高い。
AIエージェントとは
AIエージェントとは、LLMが「ツール(検索・コード実行・APIコール・ファイル操作等)」を自律的に選択・実行しながら、複数ステップのタスクを達成するシステムです。単発の質問応答(Chatbot)とは異なり、目標に向けて自律的に計画・実行・修正を繰り返します。
エージェントのループ(ReAct パターン)
代表的なエージェントフレームワーク
MCP(Model Context Protocol)とは
MCP(Model Context Protocol)はAnthropicが2024年11月に公開したオープン標準プロトコルです。LLMアプリケーション(ホスト)と外部データソース・ツール(サーバー)を標準化されたインターフェースで接続します。
MCPが登場する前は、各AIアプリが独自のプラグイン・API連携を実装していました。MCPはこれを標準化し、「一度MCPサーバーを作れば、どのMCP対応クライアントからでも使える」エコシステムを実現します。いわばAI向けの「USB」規格です。
LLMを使うアプリケーション(Claude Desktop / Cursor / Cline など)。MCPサーバーに接続する側。
ホスト内でMCPサーバーとの通信を担うコンポーネント。プロトコルの実装部分。
特定のツール・データソースを公開するサービス(ファイルシステム / DB / GitHub / Slack 等)。
MCPが提供する3つの機能
RAG・エージェント・MCPの使い分け
大量ドキュメントから関連情報を検索して回答。ハルシネーションを抑制しながら最新情報を参照できる。
複数ファイルを参照→コード生成→テスト実行→修正のループを自律実行する。
エディタ(Cursor等)からDBスキーマ・ファイルシステム・GitHub等に標準的にアクセスできるようにする。
検索で情報収集(RAG)→分析・要約(LLM)→追加検索が必要なら再実行(エージェントループ)を組み合わせる。