Model Context Protocol
LLM とアプリケーションが通信するためのプロトコル
From Wikipedia, the free encyclopedia
Model Context Protocol(MCP、モデル・コンテキスト・プロトコル)は、2024年11月にAnthropicが発表した、生成的人工知能(生成AI)と他のシステムを双方向接続するためのオープン標準である[1]。
| 開発者 | Anthropic |
|---|---|
| 利用開始 | 2024年11月25日[1] |
| ウェブサイト |
modelcontextprotocol |
AIアシスタントなどの生成AIがデータの存在するシステムに対して接続可能にするためのプロトコルであり、データを保有するシステムの開発者はMCPに対応することによって、MCPに対応する生成AIへそのデータへのアクセスを提供することが可能である。また生成AIの開発者とデータを保有するシステムの開発者の双方にとって、独自のコネクタを作成・維持することが不要となる[2]。Anthropicと競合しているOpenAIは2025年3月に[3]、Google DeepMindは同年4月に、AWSとマイクロソフトは同年5月に、MCPを自社製品へ組み込むことを発表した[4][5][6]。
2025年12月にはAnthropicが本プロトコルをLinux Foundation傘下の「Agentic AI Foundation(AAIF)」に移管した[7]。
概要
MCPは、AIシステムが外部のデータソースやツールと接続するための普遍的なオープン標準として設計されている。MCPが登場する以前、開発者はデータソースやツールごとに個別のカスタムコネクターを構築しなければならず、Anthropicはこれを「N×M問題」と表現した[8]。MCPは単一のプロトコルで多数のシステムをつなぐことにより、この断片化された統合を解消する。言語サーバープロトコル(LSP)がプログラミング言語のサポートを開発ツールのエコシステム全体で標準化したことにヒントを得た設計であり、MCPはAIアプリケーションのエコシステムにおいて外部コンテキストとツールの統合を同様に標準化する[9]。
仕様

MCPは、Language Server Protocol(LSP)に触発されたJSON-RPC 2.0ベースのプロトコルである。クライアントサーバモデルを採用しており、用語にはそれぞれ以下のような意味がある[10]。
- ホスト(Hosts) - 接続を開始するアプリケーション
- クライアント(Clients) - ホスト内に存在するコネクター
- サーバー(Servers) - データを提供するサービス
1つのクライアントごとに1つのサーバーとのコネクションが存在している。サーバーは必ずしもインターネット経由でアクセスするものではなく、ローカルに存在する場合が存在する[11]。