本页概述了支持Model Context Protocol的应用程序。每个客户端可能支持不同的MCP功能,允许与MCP服务器实现不同程度的集成。

功能支持矩阵

客户端资源提示词工具探索采样根节点引导
5ire
AgentAI
AgenticFlow
AIQL TUUI
Amazon Q CLI
Amazon Q IDE
Amp
Apify MCP Tester
增强代码
BeeAI Framework
BoltAI
Call Chirp
ChatGPT
ChatWise
Claude.ai
Claude Code
Claude Desktop App
Chorus
Cline
CodeGPT
Continue
Copilot-MCP
Cursor
Daydreams 智能体
Emacs 消息传递协议
fast-agent
FlowDown
FLUJO
Genkit⚠️
Glama
Gemini CLI
GenAIScript
GitHub Copilot coding agent
Goose
gptme
HyperAgent
JetBrains AI Assistant
Kilo Code
Klavis AI Slack/Discord/Web
[Langflow][Langflow]
LibreChat
LM Studio
Lutra
mcp-agent⚠️
mcp-client-chatbot
mcp-use
modelcontextchat.com
MCPHub
MCPOmni-Connect
Memex
Microsoft Copilot Studio
MindPal
MooPoint
Msty Studio
NVIDIA Agent Intelligence toolkit
OpenSumi
oterm
Postman
RecurseChat
Roo Code
Shortwave
Slack MCP Client
Sourcegraph Cody
SpinAI
Superinterface
Superjoin
systemprompt
Tambo
Tencent CloudBase AI DevKit
TheiaAI/TheiaIDE
Tome
TypingMind App
VS Code GitHub Copilot
Warp
WhatsMCP
Windsurf Editor
Witsy
Zed
Zencoder

客户端详情

5ire

5ire 是一个支持通过 MCP 服务器使用工具的开源跨平台桌面 AI 助手。 主要特性:
  • 内置的 MCP 服务器可以快速开启或关闭。
  • 用户可以通过修改配置文件来添加更多服务器。
  • 它是开源的并且易于使用,适合初学者。
  • 今后对MCP的支持将不断改进。

代理人工智能

AgentAI 是一个 Rust 库,旨在简化 AI 智能体的创建。该库包含与 MCP Servers 的无缝集成。 智能体服务器集成示例 主要特性:
  • 多路大语言模型 - 我们支持绝大多数大语言模型API(OpenAI、Anthropic、Gemini、Ollama以及所有OpenAI API兼容服务)。
  • 内置对 MCP 服务器的支持。
  • 在类型安全的带内存安全特性的语言(比如Rust)中创建智能体流程。

代理式工作流

AgenticFlow 是一个无代码AI平台,可帮助您构建智能体,全天候处理销售、营销和创意任务。通过MCP安全连接2500多个API和10000多个工具。 主要特性:
  • 无需编写代码即可创建AI智能体并构建工作流。
  • 通过MCP访问一个包含超过10,000种工具和2,500多个API的大型库。
  • 连接 MCP 服务器的简单三步流程。
  • 随时安全地管理连接并撤销访问权限。
了解更多:

AIQL可视化界面

AIQL TUUI是一个原生跨平台桌面AI聊天应用程序,支持modelcontextprotocol。它兼容多种AI服务提供商(例如Anthropic、Cloudflare、Deepseek、OpenAI、Qwen)、本地AI模型(通过vLLM、Ray等方式)以及聚合API平台(如Deepinfra、Openrouter等)。 主要特性:
  • 动态LLM API与智能体切换: 随时无缝切换不同的LLM API和智能体。
  • 全面能力支持: 内建支持工具、提示、资源及采样方法。
  • 可配置的智能体: 通过智能体设置提供可选和可自定义的工具,增强了灵活性。
  • 高级采样控制: 修改采样参数并利用多轮采样以获得最优结果。
  • 跨平台兼容性: 完全兼容 macOS、Windows 和 Linux。
  • 免费与开源 (FOSS): 宽松许可证允许修改和自定义应用程序捆绑。
了解更多:

亚马逊Q命令行界面

Amazon Q CLI 是一个开源的、面向终端的智能体编码助手。 主要特性:
  • 对MCP服务器提供全面支持。
  • 使用您偏爱的文本编辑器编辑提示。
  • 通过@立即访问已保存的提示。
  • 直接从您的终端控制和管理AWS资源。
  • 工具、配置文件、上下文管理、自动压缩等等!
开始使用
brew install amazon-q

亚马逊Q 集成开发环境

Amazon Q IDE是一个开源的、用于集成开发环境的智能体编码助手。 主要特性:
  • 支持 VSCode、JetBrains、Visual Studio 和 Eclipse 集成开发环境。
  • 直接在您的IDE中控制和管理AWS资源。
  • 通过IDE用户界面管理每个MCP工具的权限。

Apify MCP 测试器

Apify MCP Tester 是一个开源客户端,使用服务器发送事件(SSE)连接到任何MCP服务器。 它是一个独立的Apify Actor,专为通过SSE测试MCP服务器而设计,支持授权头部。 它采用纯JavaScript(传统风格)并托管在Apify上,让你无需任何设置即可运行。 主要特性:
  • 通过SSE连接到任何MCP服务器。
  • Apify MCP Server配合使用,以与一个或多个Apify Actors(智能体)交互。
  • 根据上下文和用户查询动态利用工具(若服务器支持)。

放大器

Amp 是由 Sourcegraph 构建的智能体编码工具。它可以在 VS Code(以及兼容的分支如 Cursor、Windsurf 和 VSCodium)中运行,并作为命令行工具使用。它还支持多人协作——你可以分享线程并与你的团队协作。 主要特性:
  • 对启用工具和权限的细粒度控制
  • 支持在 VS Code mcp.json 中定义的 MCP 服务器

增强代码

Augment Code 是一款面向 VS Code 和 JetBrains 的 AI 驱动编码平台,具备自主智能体、聊天和代码补全功能。本地及远程智能体均支持完整的代码库感知和原生 modelcontextprotocol 支持,能够通过外部资源和工具增强上下文信息。 主要特性:
  • 本地与远端智能体的完整MCP支持。
  • 通过 MCP 服务添加额外上下文。
  • 使用MCP工具自动化您的开发工作流。
  • 可以在 VS Code 和 JetBrains IDEs 中使用。

BeeAI 框架

BeeAI Framework 是一个开源框架,用于大规模构建、部署和服务强大的智能体工作流。该框架包含 MCP工具,这是一个原生功能,可简化将MCP服务器集成到智能体工作流中的过程。 主要特性:
  • 无缝地将 MCP 工具融入智能体工作流。
  • 从连接的MCP客户端快速实例化框架原生工具。
  • 计划未来支持基于智能体的MCP功能。
了解更多:

螺栓人工智能

BoltAI 是一个原生的一体化 AI 聊天客户端,支持 modelcontextprotocol。BoltAI 支持多个 AI 提供商(OpenAI、Anthropic、Google AI…),包括本地 AI 模型(通过 Ollama、LM Studio 或 LMX) 主要特性:
  • MCP 工具集成:配置完成后,用户可以在每个聊天中启用独立的 MCP 服务器
  • MCP快速设置:从Claude桌面应用或Cursor编辑器导入配置
  • 在任何应用中通过AI命令行功能调用MCP工具
  • 在移动应用中集成远程MCP服务器
了解更多:

调用 Chirp

Call Chirp https://www.call-chirp.com 利用AI捕捉您商务对话中的每个关键细节,自动将洞察同步到您的CRM和项目工具中,让您再也不会错过任何成交时刻。 主要特性:
  • 保存来自Zoom、Google Meet等的转录内容
  • 语音人工智能代理的MCP工具
  • 远程 MCP 服务器支持

ChatGPT

ChatGPT是OpenAI的AI助手,提供MCP支持以让远程服务器进行深度研究。 主要特性:
  • 通过设置中的连接界面支持MCP
  • 访问已配置MCP服务器中的搜索工具以便进行深度研究
  • 企业级安全与合规特性

智能对话助手

ChatWise是一款专为桌面优化的高性能聊天应用,允许用户自带API密钥。它支持多种大型语言模型,并与modelcontextprotocol集成以启用工具工作流。 主要特性:
  • 工具支持MCP服务器
  • 提供内置工具,例如网页搜索、工件与图像生成。

Claude 代码

Claude Code 是 Anthropic 公司推出的交互式智能体编程工具,可通过自然语言指令帮助您更快地编写代码。它支持资源(resources)、提示(prompts)、工具(tools)和根目录(roots)的 MCP 集成,并且还能作为 MCP 服务器与其他客户端集成。 主要特性:
  • 完全支持来自MCP服务器的资源、提示词、工具和根目录
  • 通过MCP服务器提供自研工具,支持与其他MCP客户端集成

Claude.ai

Claude.ai 是 Anthropic 基于网页的人工智能助手,可为远程服务器提供MCP支持。 主要特性:
  • 通过设置中的集成界面支持远程MCP服务器
  • 从配置的MCP服务器访问工具、提示和资源
  • 与Claude对话界面的无缝集成
  • 企业级安全与合规功能

Claude桌面应用程序

Claude 桌面应用程序提供对 MCP 的全面支持,允许与本地工具和数据源进行深度集成。 主要特性:
  • 完全支持资源,允许附加本地文件与数据
  • 支持提示词模板
  • 用于执行命令和脚本的工具集成
  • 本地服务器连接,提高隐私和安全性

合唱团

Chorus 是一款原生 Mac 应用,用于与 AI 进行聊天。可同时与多个模型聊天、运行工具和 MCP、创建项目、快速聊天、自带密钥,所有功能集成在一个极速、键盘快捷键友好的应用中。 主要特性:
  • 支持MCP并一键安装
  • 内置工具,例如网络搜索、终端和图像生成
  • 与多个模型(云端或本地)同时聊天
  • 创建具有作用域内存的项目
  • 快速与能看见你屏幕的AI聊天

客户端

Cline 是一个在 VS Code 中的自主编码智能体,可编辑文件、运行命令、使用浏览器等——每个步骤都需要您的许可。 主要特性:
  • 通过自然语言创建和添加工具(例如“添加一个可以搜索网络的工具”)
  • 通过~/Documents/Cline/MCP目录与他人分享Cline创建的自定义MCP服务器
  • 显示已配置的MCP服务器及其工具、资源以及所有错误日志

代码生成式预训练转换器

CodeGPT 是一个流行的 VS Code 和 Jetbrains 扩展,它为你的编辑器带来由 AI 驱动的编码辅助功能。它支持与工具用的 MCP 服务器的集成,使用户能够在开发工作流程中直接利用外部 AI 能力。 主要特性:
  • 使用来自任何已配置MCP服务器的MCP工具
  • 与 VS Code 和 Jetbrains UI 的无缝集成
  • 支持多个LLM供应商和自定义端点
了解更多:

继续

Continue 是一个开源的 AI 代码助手,内置支持所有 modelcontextprotocol 功能。 主要特性:
  • 输入 ”@” 来提及MCP资源
  • 提示模板以斜杠命令形式呈现
  • 直接在聊天中同时使用内置和 MCP 工具
  • 支持VS Code和JetBrains IDE,适用于任何LLM

Copilot-MCP

Copilot-MCP 通过 MCP 实现 AI 编程辅助。 主要特性:
  • 支持MCP工具和资源
  • 与开发流程的集成
  • 可扩展的AI能力

光标

Cursor 是一款AI代码编辑器。 主要特性:
  • Cursor Composer 中对 MCP 工具的支持
  • 支持标准输入输出和服务器发送事件

白日梦

Daydreams 是一个用于在链上执行任何事情的生成式智能体框架 主要特性:
  • 支持配置中的 MCP 服务器
  • 公开 MCP 客户端

Emacs MCP

Emacs Mcp 是一款专为实现与 MCP 服务器无缝连接和交互而设计的 Emacs 客户端。它为诸如 gptelllm 等 AI 插件提供 MCP 工具调用支持,并遵循 Emacs 的标准工具调用格式。 这一集成进一步增强了 Emacs 生态系统中 AI 工具的功能性。 主要特性:
  • 为Emacs提供MCP工具支持。

快速智能体

fast-agent 是一个 Python 智能体框架,具有简单的声明式支持,用于创建智能体和工作流,全面支持 Anthropic 和 OpenAI 模型的多模态功能。 主要特性:
  • PDF和图像支持,基于MCP原生类型
  • 用于开发和诊断智能体应用的交互式前端,包括直通和回放模拟器
  • 内置支持“构建高效智能体”工作流。
  • 将智能体部署为MCP服务器

流程向下流程向下

FlowDown is an ultra-fast and smooth AI/LLM client application focused on privacy protection and user experience. It supports extending external tool functionality using MCP servers to help users build powerful custom workflows. 主要特性:
  • 无缝MCP集成: 轻松连接到MCP服务器,以利用各种外部工具。
  • 隐私优先设计: 您的数据保留在设备上。我们不收集任何用户数据,确保完全隐私。
  • 轻量且高效: 紧凑且优化的设计确保与任何AI模型都能提供流畅且响应迅速的体验。
  • 广泛兼容性: 适用于所有OpenAI兼容服务提供商,并通过MLX支持本地离线模型。
  • 丰富的用户体验: 具备美观排版的Markdown渲染、极速文本显示,以及智能自动对话标题生成功能。
了解更多:

流程

想象 n8n + ChatGPT。FLUJO 是一款桌面应用程序,它与 MCP 集成,为 AI 交互提供工作流构建界面。使用 Next.js 和 React 构建,支持在线和离线(ollama)模型,它集中管理 API 密钥和环境变量,并可以从 GitHub 安装 MCP 服务器。FLUJO 具有聊天补全端点,工作流可以从其他 AI 应用程序(如 Cline、Roo 或 Claude)执行。 主要特性:
  • 环境与API密钥管理
  • 模型管理
  • MCP 服务器集成
  • 工作流编排
  • 聊天界面

生成套件

Genkit 是一个跨语言的 SDK,用于构建 GenAI 功能并将其集成到应用程序中。genkitx-mcp 插件支持以客户端方式使用 MCP 服务器,或从 Genkit 工具和提示创建 MCP 服务器。 主要特性:
  • 客户端支持工具和提示(资源部分支持)
  • 丰富的发现功能,支持在Genkit的开发者界面测试平台中使用
  • 与 Genkit 现有工具和提示的无缝互操作性
  • 适用于各大顶级提供商的各种 GenAI 模型

GLAMA Model

Glama 是一个综合性AI工作区与集成平台,提供统一接口连接领先的LLM供应商,包括OpenAI、Anthropic等。它支持Model Context Protocol生态系统,使开发者和企业能够轻松发现、构建和管理MCP服务器。 主要特性:
  • 集成的MCP服务器目录
  • 集成MCP 工具目录
  • 托管MCP服务器并通过聊天或SSE端点访问它们 – 能够同时与多个LLM和MCP服务器进行聊天
  • 上传并分析本地文件与数据
  • 在你的所有聊天内容和数据中进行全文搜索

生成式AI脚本

使用GenAIScript(JavaScript中)通过编程方式为LLM组装提示。在JavaScript中编排LLM、工具和数据。 主要特性:
  • 用于提示语处理的JavaScript工具箱
  • 便于提高效率和易用性的抽象层
  • 无缝的 Visual Studio Code 集成

Goose是一个开源AI智能体,通过自动化编码任务来增强您的软件开发能力。 主要特性:
  • 通过工具将MCP功能开放给Goose。
  • MCPs可以通过扩展目录、CLI或UI直接安装。
  • Goose 允许您通过 构建自己的 MCP 服务器 来扩展其功能。
  • 包含内置工具,用于开发、网络抓取、自动化、内存管理,以及与JetBrains和Google Drive的集成。

GitHub Copilot 编程智能体

将任务委托给GitHub Copilot 编程智能体,让它能在后台工作,而您则专注于最具影响力和最有趣的工作 主要特性:

gptme

gptme 是一款开源的基于终端的个人AI助手/智能体,旨在协助编程任务和一般知识工作。 主要特性:
  • CLI优先设计,注重简洁性和易用性
  • 丰富的内置工具集,支持Shell命令、Python执行、文件操作和网页浏览
  • 支持多 LLM 供应商的本地优先方案
  • 开源设计,旨在可扩展且易于修改

超智能体

HyperAgent 是一个集成了人工智能的 Playwright 工具。借助 HyperAgent,您不再需要编写易碎的脚本,只需使用强大的自然语言指令即可。通过 MCP 服务器,您可以扩展 HyperAgent 的功能,而无需编写任何代码。 主要特性:
  • AI 命令:诸如 page.ai()、page.extract() 和 executeTask() 等简单API接口,用于各种AI自动化
  • 回落至常规 Playwright: 当无需AI时使用常规Playwright
  • 隐身模式 – 通过内置的反机器人补丁避免被检测
  • 云端就绪 – 通过 Hyperbrowser 即时扩展至数百个会话
  • MCP客户端 – 连接到工具如Composio以完成全工作流(例如将网络数据写入Google Sheets)

JetBrains AI 助手

JetBrains AI Assistant 插件为所有 JetBrains IDE 提供 AI 驱动的软件开发功能。 主要特性:
  • 由 JetBrains 自主研发 AI 模型 Mellum 提供支持的无限代码补全。
  • 了解你的代码并实时提供帮助的上下文感知人工智能聊天。
  • 能够访问来自OpenAI、Anthropic和Google的顶级模型。
  • 使用Ollama或LM Studio连接本地LLM的离线模式。
  • 深度集成至IDE工作流,包括编辑器中的代码建议、版本控制系统辅助、运行时错误解释等。

千代码

Kilo Code 是一个在 VS Code 中的自主编码 AI 开发团队,能够编辑文件、运行命令、使用浏览器等功能。 主要特性:
  • 通过自然语言创建和添加工具(例如“添加一个可以搜索网络的工具”)
  • 通过 MCP Marketplace 发现 MCP 服务器
  • 通过 MCP 市场一键安装 MCP 服务器
  • 显示已配置的MCP服务器及其工具、资源以及所有错误日志

Klavis AI Slack/Discord/网页端

Klavis AI 是一个开源基础设施,可轻松使用、构建和扩展 MCP。 主要特性:
  • 用于直接使用MCP的Slack/Discord/Web MCP客户端
  • 简易网络UI控制面板,便于ModelContextProtocol配置
  • 与Slack和Discord客户端以及MCP服务器直接OAuth集成,实现安全的用户认证
  • SSE 传输支持
  • 开源基础设施 (GitHub repository)
了解更多:

流式语言处理框架

Langflow 是一个开源的视觉化构建工具,使开发者能够快速原型设计和构建 AI 应用,它与 Model Context Protocol (MCP) 集成,既作为 MCP 服务器,也作为 MCP 客户端。 主要特性:
  • 完全支持使用 MCP 服务器工具构建智能体和流程。
  • 将智能体和流程导出为MCP服务器
  • 本地和远程服务器连接,增强隐私和安全性
了解更多:

自由聊天

LibreChat是一个开源的、可自定义的人工智能聊天界面,支持多个人工智能服务提供商,现在包括MCP集成。 主要特性:
  • 通过MCP服务器扩展当前工具生态系统,包括Code Interpreter和图像生成工具
  • 向可定制的 智能体 添加工具,使用来自顶级供应商的各种大型语言模型
  • 开源并可自托管,支持安全的多用户模式
  • 未来路线图将包括扩展的MCP功能支持

语言模型工作室

LM Studio 是一款跨平台桌面应用程序,用于本地发现、下载和运行开源的大语言模型。您现在可以通过 Model Context Protocol (MCP) 将本地模型连接到工具。 主要特性:
  • 使用本地模型在您的计算机上运行MCP服务器。将条目添加到mcp.json并保存以开始使用。
  • 工具确认界面: 当模型调用工具时,你可以在LM Studio应用中确认调用.
  • 跨平台:可在macOS、Windows和Linux上运行,一键安装无需命令行操作
  • 支持GGUF (llama.cpp)或者带GPU加速的MLX模型
  • 图形用户界面和终端模式:使用LM Studio应用或命令行界面(lms)进行脚本编写与自动化
了解更多:

水獭

Lutra 是一个能将对话转化为可操作的自动化工作流程的AI智能体。 主要特性:
  • 简单的 MCP 集成:将 Lutra 连接到 MCP 服务器只需提供服务器URL;其余事宜由 Lutra 在后台处理。
  • 聊天以采取行动:Lutra 理解您的对话上下文和目标,自动与您现有的应用程序集成以执行任务。
  • 可复用的剧本: 完成任务后,可将步骤保存为可复用的自动化工作流——简化可重复流程并减少人工操作。
  • 可分享自动化流程:轻松与团队成员分享您保存的剧本,以标准化最佳实践并加速协作工作流程。
了解更多:

mcp-agent

mcp-agent 是一个简单、可组合的框架,用于使用 Model Context Protocol 构建智能体。 主要特性:
  • 自动管理 MCP 服务器的连接。
  • 向LLM公开来自多个服务器的工具。
  • 实现了构建高效智能体中定义的每一种模式。
  • 支持工作流程的暂停/恢复信号,例如等待人类反馈。

mcp-client-聊天机器人

mcp-client-chatbot 是一个基于Vercel的Next.js、AI SDK和Shadcn UI构建的本地优先聊天机器人。 主要特性:
  • 它支持标准 MCP 工具调用,并包含一个自定义 MCP 服务器和一个独立的 UI,用于在聊天流程之外测试 MCP 工具。
  • 默认情况下,所有 MCP 工具都会提供给 LLM,但该项目还包含一个可选的 @toolname 提及功能,以使工具调用更加明确——在连接多个具有大量工具的 MCP 服务器时尤其有用。
  • 可视化工作流构建器,让您能够通过连接LLM节点与MCP工具来创建定制工具。已发布的工作流可在聊天中作为@workflow_name工具被调用,实现复杂的多步骤自动化序列。

mcp-使用

mcp-use 是一个开源的python库,可非常轻松地将任何LLM与任何本地或远程的MCP服务器连接起来。 主要特性:
  • 非常简洁的界面,用于将任何LLM连接到任何MCP。
  • 支持创建自定义智能体、工作流。
  • 支持同时连接到多个MCP服务器的功能。
  • 支持langchain支持的所有模型,也可以在本地运行。
  • 提供高效的智能体工具编排与搜索功能。

modelcontextchat.com

modelcontextchat.com 是一个基于网页的MCP客户端,专为与远程MCP服务器配合工作而设计,具备全面的认证支持以及与OpenRouter的集成功能。 主要特性:
  • 用于远程MCP服务器连接的Web界面
  • 基于头部的授权支持,用于安全服务器访问
  • OAuth 身份验证集成
  • OpenRouter API 密钥支持访问各类大型语言模型供应商
  • 无需安装 - 可通过任何网页浏览器访问

MCP中心

MCPHub 是一个强大的 Neovim 插件,可将 MCP (Model Context Protocol) 服务器集成到您的工作流程中。 主要特性:
  • 通过直观的用户界面安装、配置和管理MCP服务器。
  • 内置 Neovim MCP 服务器,支持文件操作(读取、写入、搜索、替换)、命令执行、终端集成、LSP 集成、缓冲区以及诊断功能。
  • 直接在Neovim中创建基于Lua的MCP服务器。
  • 与流行的Neovim聊天插件Avante.nvim和CodeCompanion.nvim集成

全连接MCP

MCPOmni-Connect 是一个多功能的命令行界面 (CLI) 客户端,旨在通过 stdio 和 SSE 传输方式连接到各种 Model Context Protocol (MCP) 服务器。 主要特性:
  • 支持:资源、提示、工具和采样
  • 具备ReAct与编排能力的智能体模式
  • 与OpenAI模型及其他LLM无缝集成
  • 跨多台服务器动态管理工具和资源
  • 支持 stdio 和 SSE 传输协议
  • 全面的工具编排与资源分析能力

记忆索引

Memex 是首个 MCP 客户端与 MCP 服务器构建器——一体化桌面应用程序。与仅使用现有服务器的传统 MCP 客户端不同,Memex 能够通过自然语言提示创建自定义 MCP 服务器,立即将其集成至工具包中,并在同一对话中使用它们解决问题。 主要特性:
  • Prompt-to-MCP Server: 可从自然语言描述中生成功能完整的MCP服务器
  • 自我测试和调试: 自动测试、调试并改进创建的MCP服务器
  • Universal MCP Client: 通过直观的自然语言集成与任何MCP服务器协同工作
  • 精选 MCP 目录: 提供经测试、可一键安装的 MCP 服务器(Neon, Netlify, GitHub, Context7 等)访问权限
  • 多服务器编排: 同时利用多个MCP服务器处理复杂工作流
了解更多:

Microsoft Copilot Studio

Microsoft Copilot Studio是一个强大的SaaS平台,专为构建自定义的AI驱动应用程序和智能体而设计,使开发者能够创建、部署和管理复杂的AI解决方案。 主要特性:
  • 支持 MCP 工具功能
  • 使用MCP服务器扩展Copilot Studio智能体
  • 利用微软统一、治理和安全化的API管理解决方案

思维伙伴

MindPal 是一个无代码平台,用于构建和运行业务流程中的智能体和多智能体工作流。 主要特性:
  • 使用无代码方式构建自定义 AI 智能体
  • 连接任何SSE MCP服务器以扩展智能体工具
  • 为复杂业务流程创建多智能体工作流
  • 对技术与非技术专业人士都易于使用
  • 持续改进MCP支持,进行中的开发工作
了解更多:

哞点

MooPoint MooPoint是一款面向开发者和高级用户的基于网页的AI聊天平台,允许您通过单一统一界面与多个大型语言模型(LLMs)进行交互。连接您自己的API密钥(OpenAI、Anthropic等)并安全地管理自定义MCP服务器集成。 主要特性:
  • 可从任何电脑或智能手机访问—无需安装
  • 选择您偏好的LLM提供商
  • 支持 SSEStreamable HTTPnpxuvx MCP 服务器
  • OAuth与采样支持
  • 每日新增功能

Msty 工作室

Msty Studio是一个以隐私为先的人工智能生产力平台,它无缝整合了本地和在线语言模型(LLMs)到可定制的工作流程中。专为技术与非技术用户设计,Msty Studio提供一套工具来增强人工智能交互、自动化任务,并完全控制数据和模型行为。 主要特性:
  • 工具箱与工具集: 通过采用MCP兼容的配置,将AI模型与本地工具及脚本相连接。将工具归类为工具集,实现在对话中的动态多步骤工作流程。
  • 旋闸门: 创建自动化的多步骤AI交互,支持复杂的数据处理和决策制定流程。
  • 实时数据整合: 通过集成实时网络搜索功能,利用最新信息增强AI响应能力。
  • 拆分聊天与分支: 可同时与多个模型进行并行对话,支持对比分析并获取多样化视角。
了解更多:

NVIDIA智能体智能(AIQ)工具包

NVIDIA Agent Intelligence (AIQ) toolkit是一个灵活、轻量且统一的库,可让您轻松将现有企业智能体连接到任何框架的数据源和工具。 主要特性:
  • 作为 MCP 客户端使用远程工具
  • 充当MCP 服务器以暴露工具
  • 框架无关,兼容LangChain、CrewAI、Semantic Kernel以及自定义智能体
  • 包含内置可观测性与评估工具
了解更多:

OpenSumi

OpenSumi 是一个助您快速构建人工智能原生IDE产品的框架。 主要特性:
  • 支持OpenSumi中的MCP工具
  • 支持内置IDE MCP服务器和自定义MCP服务器

终端

oterm 是 Ollama 的终端客户端,让用户能够创建聊天/智能体。 主要特性:
  • 支持与Ollama连接工具的多个完全可自定义的聊天会话。
  • 支持MCP工具。

Roo 代码

Roo Code 通过 MCP 提供AI编码辅助. 主要特性:
  • 支持MCP工具和资源
  • 与开发流程的集成
  • 可扩展的AI能力

邮递员

Postman 是最受欢迎的 API 客户端,现在支持 MCP 服务器测试和调试。 主要特性:
  • 全面支持所有主要的 MCP 功能(工具、提示、资源和订阅)
  • 供调试 MCP 能力的快速无缝用户界面
  • MCP配置整合(Claude、VSCode等),以便在测试MCP时快速获得首次体验
  • 集成历史记录、变量和集合功能,支持重用与协作

递归对话

RecurseChat 是一款功能强大、速度快、以本地优先的聊天客户端,支持MCP。RecurseChat 支持多个AI提供商,包括LLaMA.cpp、Ollama以及OpenAI和Anthropic。 主要特性:
  • 本地 AI:使用 Ollama 模型支持 MCP。
  • MCP 工具:单个 MCP 服务器管理。轻松可视化 MCP 服务器的连接状态。
  • MCP 导入: 从 Claude Desktop 应用或 JSON 中导入配置
了解更多:

短波

Shortwave 是一个人工智能驱动的邮件客户端,支持 MCP 工具,以提高邮件生产力和工作流程自动化。 主要特性:
  • MCP工具集成以增强电子邮件工作流
  • 提供丰富的用户界面,用于添加、管理及与各种类型的MCP服务器进行交互
  • 支持远程(可流的HTTP和SSE)和本地(Stdio)MCP服务器
  • 用于管理您的电子邮件、日历、任务和其他第三方服务的AI智能体辅助功能

Slack MCP 客户端

Slack MCP Client作为Slack与Model Context Protocol (MCP)服务器之间的桥梁。通过Slack作为界面,它使大型语言模型(LLMs)能够连接并通过标准化的MCP工具与各种MCP服务器进行交互。 主要特性:
  • 支持热门大语言模型提供商: 与OpenAI、Anthropic和Ollama等领先大语言模型提供商无缝集成,让用户能够在Slack中充分利用先进对话式人工智能和编排能力。
  • 动态和安全集成: 支持动态注册MCP工具, 可在频道和私聊中工作, 并通过环境变量或Kubernetes密钥安全管理凭据.
  • 轻松部署和可扩展性: 提供官方的Docker镜像、适用于Kubernetes的Helm chart以及用于本地开发的Docker Compose,使得部署、配置以及通过额外的MCP服务器或工具进行扩展变得简单。

源代码扫描 科迪

Cody 是 Sourcegraph 的 AI 编程助手,通过 OpenCTX 实现了 MCP。 主要特性:
  • 支持MCP资源
  • 与Sourcegraph的代码智能集成
  • 使用OpenCTX作为抽象层
  • 未来计划支持更多MCP功能

旋转人工智能

SpinAI是一个开源的TypeScript框架,用于构建可观测的人工智能体。该框架提供原生的MCP兼容性,允许智能体与MCP服务器和工具无缝集成。 主要特性:
  • AI 代理内置 MCP 兼容性
  • 开源TypeScript框架
  • 可观察智能体架构
  • MCP工具集成的原生支持

超接口

Superinterface 是一个人工智能基础设施和开发者平台,用于构建内置支持MCP、交互式组件、客户端函数调用等功能的应用程序内智能体助手。 主要特性:
  • 通过React组件或脚本标签嵌入的助手中使用MCP服务器的工具
  • SSE 传输支持
  • 使用来自任何AI提供方的AI模型(OpenAI、Anthropic、Ollama等)

超级连接

Superjoin 将 MCP 的强大功能直接带入 Google Sheets 扩展中。通过 Superjoin,用户无需离开他们的电子表格就可以访问和调用 MCP 工具与智能体,在数据所在之处即可实现强大的 AI 工作流和自动化。 主要特性:
  • 原生Google Sheets插件,轻松访问MCP功能
  • 支持OAuth 2.1和基于请求头的认证,以实现安全灵活的连接
  • 兼容SSE和可流式HTTP传输,实现高效、实时的流式通信
  • 完全基于网络,跨平台的客户端,无需安装额外软件

系统提示词

systemprompt 是一个语音控制的移动应用,可管理您的 MCP 服务器。安全地从口袋中利用 MCP 智能体。可在 iOS 和 Android 上使用。 主要特性:
  • 原生移动体验: 在Android与iOS设备上随时随地访问和管理您的MCP服务器
  • 高级人工智能语音识别: 采用尖端人工智能和自然语言处理(NLP)技术增强的精密语音识别引擎,专门适配理解复杂的开发者术语与命令结构
  • 统一的多MCP服务器管理: 从单一集中式移动应用中轻松管理和与多个Model Context Protocol (MCP)服务器进行交互

坦博

Tambo是一个用于在React中构建定制聊天体验的平台,集成了自定义用户界面组件。 主要特性:
  • 一个配备React SDK的托管平台,可将聊天或其他基于LLM的体验集成到您自己的应用中。
  • 在聊天体验中支持任意React组件的选择,附带状态管理和工具调用功能。
  • 支持来自Tambo的服务器或直接来自浏览器的MCP服务器。
  • 支持OAuth 2.1与基于自定义标头的身份验证。
  • 支持MCP工具,更多MCP功能即将推出。

腾讯云开发 AI 套件

Tencent CloudBase AI DevKit 是一个可在几分钟内构建AI智能体的工具,具有零代码工具、安全的数据集成和通过MCP可扩展的插件特性。 主要特性:
  • 支持 MCP 工具功能
  • 使用MCP服务器扩展智能体
  • 托管 MCP 服务器:无服务器托管和身份验证支持

TheiaAI / TheiaIDE

Theia AI 是一个构建人工智能增强工具和集成开发环境的框架。AI驱动的Theia IDE 是一个基于Theia AI构建的开放灵活的集成开发环境。 主要特性:
  • 工具集成: Theia AI 使智能体(包括 Theia IDE 中的智能体)能够利用 MCP 服务器实现无缝工具交互。
  • 可自定义提示词: Theia IDE 允许用户定义和调整提示词,动态集成MCP服务器以实现定制化工作流程。
  • 定制智能体: Theia IDE 支持创建利用MCP功能的定制智能体,使用户能够即时设计专门的工作流程。
Theia AI和Theia IDE的MCP集成为用户提供了灵活性,使其成为探索和适配MCP的强大平台。 了解更多:

托姆

Tome 是一个开源跨平台桌面应用程序,专为使用本地LLM和MCP服务器而设计。它旨在对初学者友好,并为刚接触MCP的用户抽象掉配置的繁琐细节。 主要特性:
  • MCP服务器由Tome管理,因此无需安装uv或npm或配置JSON
  • 用户可以通过界面快速添加或删除 MCP 服务器
  • 所有与Ollama兼容的任何本地模型均支持

TypingMind应用

TypingMind 是一款支持 MCP 的高级大语言模型前端工具。TypingMind 支持所有主流的大语言模型提供商,如 OpenAI、Gemini、Claude,用户可以使用自己的 API 密钥进行交互。 主要特性:
  • MCP工具集成: 一旦配置好MCP,MCP工具将显示为插件,可以通过主应用程序界面轻松启用/禁用。
  • 为智能体分配 MCP 工具: TypingMind 允许用户创建配置了 MCP 服务器组合的 AI 智能体。
  • 远程 MCP 服务器:允许用户通过其 MCP 连接器配置自定义 MCP 服务器运行位置,支持跨设备(笔记本电脑、移动设备等)使用 MCP 工具,或从远程私有服务器控制 MCP 服务器。
了解更多:

VS Code GitHub Copilot

VS Code 通过与 GitHub Copilot 的智能体模式集成 MCP,允许在其智能编码工作流程中直接与 MCP 提供的工具交互。在 Claude Desktop、工作区或用户设置中配置服务器,通过引导式 MCP 安装并在输入变量中安全处理密钥以避免泄露硬编码密钥。 主要特性:
  • 支持 stdio 和服务器发送事件(SSE)传输
  • 为每个智能体会话按会话选择工具以实现最佳性能
  • 通过重启命令和输出日志实现便捷的服务器调试
  • 带有可编辑输入和始终允许切换开关的工具调用
  • 与现有VS Code扩展系统集成,从扩展中注册MCP服务器

翘曲

Warp 是一款内置人工智能与您开发团队知识的智能终端。通过将自然语言能力直接集成到智能体命令行中,Warp 使开发人员能够在具备现代化用户体验的终端内更高效地编码、自动化和协作。 主要特性:
  • 具有MCP支持的智能体模式: 使用自然语言提示从MCP服务器调用工具和访问数据
  • 灵活的服务器管理:通过Warp内置的用户界面添加和管理基于CLI或SSE的MCP服务器
  • 实时工具/资源发现: 查看各运行中 MCP 服务器的工具与资源
  • 可配置启动: 设置MCP服务器随Warp自动启动或按需手动启动

是什么

WhatsMCP 是一个针对 WhatsApp 的 MCP 客户端。WhatsMCP 让你能够通过 WhatsApp 聊天的便捷方式与你的 AI 技术栈进行互动。 主要特性:
  • 支持 MCP 工具
  • SSE传输,完整的OAuth2支持
  • WhatsApp消息的聊天流程管理
  • 一键设置连接到您的MCP服务器
  • 在 MCP 服务器的聊天管理中
  • Oauth 流程原生支持于 WhatsApp

风帆编辑器

Windsurf Editor 是一个智能体式IDE,将AI辅助与开发者工作流程相结合。它采用创新的AI Flow系统,既能实现协作式AI交互,也能进行独立AI交互,同时保持开发者的控制权。 主要特性:
  • 面向人机协作的革命性AI智能体流程范式
  • 智能代码生成与理解
  • 带有多种模型支持的丰富开发工具

小机灵

Witsy 是一款AI桌面助手,支持Anthropic模型和MCP服务器作为LLM工具。 主要特性:
  • 多MCP服务器支持
  • 用于执行命令和脚本的工具集成
  • 本地服务器连接,提高隐私和安全性
  • 通过 Smithery.ai 轻松安装
  • 开源, 适用于 macOS, Windows 和 Linux 系统

泽德

Zed是一个具有内置MCP支持的高性能代码编辑器,专注于提示模板和工具集成。 主要特性:
  • 提示模板在编辑器中以斜杠命令的形式展现
  • 增强型编码工作流的工具集成
  • 深度集成编辑器功能与工作空间上下文
  • 不支持 MCP 资源

Zencoder

Zencoder 是一个编码智能体,可作为 VS Code 和 JetBrains 系列 IDE 的扩展使用,直接融入开发者现有的工作环境。它具备代码库深度理解、智能体流水线功能,并能创建和共享自定义智能体。 主要特性:
  • RepoGrokking - 深度代码库上下文理解
  • 智能体管道 - 在输出之前运行、测试和执行代码
  • Zen Agents平台 - 能够构建和创建自定义智能体并与团队共享
  • 集成MCP工具库,支持一键安装
  • 用于单元和端到端测试的专门智能体
了解更多:

为您的应用添加MCP支持

如果你已经为你的应用程序添加了MCP支持,我们鼓励你提交拉取请求将其加入此列表。MCP集成可以为你的用户提供强大的上下文AI能力,并使你的应用程序成为不断发展的MCP生态系统的一部分。 添加 MCP 支持的好处:
  • 让用户可以携带自己的上下文和工具
  • 加入一个不断壮大的可互操作AI应用生态系统
  • 为用户提供灵活的集成选项
  • 支持本地优先的AI工作流
开始在你的应用中实现MCP,请查阅我们的PythonTypeScript SDK文档

更新与修正

此列表由社群维护。如果您发现任何不准确之处,或想更新有关应用中MCP支持的信息,请提交拉取请求或在我们的文档仓库中提交问题