功能支持矩阵
客户端详情
5ire
5ire 是一个支持通过 MCP 服务器使用工具的开源跨平台桌面 AI 助手。 主要特性:- 内置的 MCP 服务器可以快速开启或关闭。
- 用户可以通过修改配置文件来添加更多服务器。
- 它是开源的并且易于使用,适合初学者。
- 今后对MCP的支持将不断改进。
代理人工智能
AgentAI 是一个 Rust 库,旨在简化 AI 智能体的创建。该库包含与 MCP Servers 的无缝集成。 智能体服务器集成示例 主要特性:- 多路大语言模型 - 我们支持绝大多数大语言模型API(OpenAI、Anthropic、Gemini、Ollama以及所有OpenAI API兼容服务)。
- 内置对 MCP 服务器的支持。
- 在类型安全的带内存安全特性的语言(比如Rust)中创建智能体流程。
代理式工作流
AgenticFlow 是一个无代码AI平台,可帮助您构建智能体,全天候处理销售、营销和创意任务。通过MCP安全连接2500多个API和10000多个工具。 主要特性:- 无需编写代码即可创建AI智能体并构建工作流。
- 通过MCP访问一个包含超过10,000种工具和2,500多个API的大型库。
- 连接 MCP 服务器的简单三步流程。
- 随时安全地管理连接并撤销访问权限。
AIQL可视化界面
AIQL TUUI是一个原生跨平台桌面AI聊天应用程序,支持modelcontextprotocol。它兼容多种AI服务提供商(例如Anthropic、Cloudflare、Deepseek、OpenAI、Qwen)、本地AI模型(通过vLLM、Ray等方式)以及聚合API平台(如Deepinfra、Openrouter等)。 主要特性:- 动态LLM API与智能体切换: 随时无缝切换不同的LLM API和智能体。
- 全面能力支持: 内建支持工具、提示、资源及采样方法。
- 可配置的智能体: 通过智能体设置提供可选和可自定义的工具,增强了灵活性。
- 高级采样控制: 修改采样参数并利用多轮采样以获得最优结果。
- 跨平台兼容性: 完全兼容 macOS、Windows 和 Linux。
- 免费与开源 (FOSS): 宽松许可证允许修改和自定义应用程序捆绑。
亚马逊Q命令行界面
Amazon Q CLI 是一个开源的、面向终端的智能体编码助手。 主要特性:- 对MCP服务器提供全面支持。
- 使用您偏爱的文本编辑器编辑提示。
- 通过
@立即访问已保存的提示。 - 直接从您的终端控制和管理AWS资源。
- 工具、配置文件、上下文管理、自动压缩等等!
亚马逊Q 集成开发环境
Amazon Q IDE是一个开源的、用于集成开发环境的智能体编码助手。 主要特性:- 支持 VSCode、JetBrains、Visual Studio 和 Eclipse 集成开发环境。
- 直接在您的IDE中控制和管理AWS资源。
- 通过IDE用户界面管理每个MCP工具的权限。
Apify MCP 测试器
Apify MCP Tester 是一个开源客户端,使用服务器发送事件(SSE)连接到任何MCP服务器。 它是一个独立的Apify Actor,专为通过SSE测试MCP服务器而设计,支持授权头部。 它采用纯JavaScript(传统风格)并托管在Apify上,让你无需任何设置即可运行。 主要特性:- 通过SSE连接到任何MCP服务器。
- 与Apify MCP Server配合使用,以与一个或多个Apify Actors(智能体)交互。
- 根据上下文和用户查询动态利用工具(若服务器支持)。
放大器
Amp 是由 Sourcegraph 构建的智能体编码工具。它可以在 VS Code(以及兼容的分支如 Cursor、Windsurf 和 VSCodium)中运行,并作为命令行工具使用。它还支持多人协作——你可以分享线程并与你的团队协作。 主要特性:- 对启用工具和权限的细粒度控制
- 支持在 VS Code
mcp.json中定义的 MCP 服务器
增强代码
Augment Code 是一款面向 VS Code 和 JetBrains 的 AI 驱动编码平台,具备自主智能体、聊天和代码补全功能。本地及远程智能体均支持完整的代码库感知和原生 modelcontextprotocol 支持,能够通过外部资源和工具增强上下文信息。 主要特性:- 本地与远端智能体的完整MCP支持。
- 通过 MCP 服务添加额外上下文。
- 使用MCP工具自动化您的开发工作流。
- 可以在 VS Code 和 JetBrains IDEs 中使用。
BeeAI 框架
BeeAI Framework 是一个开源框架,用于大规模构建、部署和服务强大的智能体工作流。该框架包含 MCP工具,这是一个原生功能,可简化将MCP服务器集成到智能体工作流中的过程。 主要特性:- 无缝地将 MCP 工具融入智能体工作流。
- 从连接的MCP客户端快速实例化框架原生工具。
- 计划未来支持基于智能体的MCP功能。
螺栓人工智能
BoltAI 是一个原生的一体化 AI 聊天客户端,支持 modelcontextprotocol。BoltAI 支持多个 AI 提供商(OpenAI、Anthropic、Google AI…),包括本地 AI 模型(通过 Ollama、LM Studio 或 LMX) 主要特性:- MCP 工具集成:配置完成后,用户可以在每个聊天中启用独立的 MCP 服务器
- MCP快速设置:从Claude桌面应用或Cursor编辑器导入配置
- 在任何应用中通过AI命令行功能调用MCP工具
- 在移动应用中集成远程MCP服务器
调用 Chirp
Call Chirp https://www.call-chirp.com 利用AI捕捉您商务对话中的每个关键细节,自动将洞察同步到您的CRM和项目工具中,让您再也不会错过任何成交时刻。 主要特性:- 保存来自Zoom、Google Meet等的转录内容
- 语音人工智能代理的MCP工具
- 远程 MCP 服务器支持
ChatGPT
ChatGPT是OpenAI的AI助手,提供MCP支持以让远程服务器进行深度研究。 主要特性:- 通过设置中的连接界面支持MCP
- 访问已配置MCP服务器中的搜索工具以便进行深度研究
- 企业级安全与合规特性
智能对话助手
ChatWise是一款专为桌面优化的高性能聊天应用,允许用户自带API密钥。它支持多种大型语言模型,并与modelcontextprotocol集成以启用工具工作流。 主要特性:- 工具支持MCP服务器
- 提供内置工具,例如网页搜索、工件与图像生成。
Claude 代码
Claude Code 是 Anthropic 公司推出的交互式智能体编程工具,可通过自然语言指令帮助您更快地编写代码。它支持资源(resources)、提示(prompts)、工具(tools)和根目录(roots)的 MCP 集成,并且还能作为 MCP 服务器与其他客户端集成。 主要特性:- 完全支持来自MCP服务器的资源、提示词、工具和根目录
- 通过MCP服务器提供自研工具,支持与其他MCP客户端集成
Claude.ai
Claude.ai 是 Anthropic 基于网页的人工智能助手,可为远程服务器提供MCP支持。 主要特性:- 通过设置中的集成界面支持远程MCP服务器
- 从配置的MCP服务器访问工具、提示和资源
- 与Claude对话界面的无缝集成
- 企业级安全与合规功能
Claude桌面应用程序
Claude 桌面应用程序提供对 MCP 的全面支持,允许与本地工具和数据源进行深度集成。 主要特性:- 完全支持资源,允许附加本地文件与数据
- 支持提示词模板
- 用于执行命令和脚本的工具集成
- 本地服务器连接,提高隐私和安全性
合唱团
Chorus 是一款原生 Mac 应用,用于与 AI 进行聊天。可同时与多个模型聊天、运行工具和 MCP、创建项目、快速聊天、自带密钥,所有功能集成在一个极速、键盘快捷键友好的应用中。 主要特性:- 支持MCP并一键安装
- 内置工具,例如网络搜索、终端和图像生成
- 与多个模型(云端或本地)同时聊天
- 创建具有作用域内存的项目
- 快速与能看见你屏幕的AI聊天
客户端
Cline 是一个在 VS Code 中的自主编码智能体,可编辑文件、运行命令、使用浏览器等——每个步骤都需要您的许可。 主要特性:- 通过自然语言创建和添加工具(例如“添加一个可以搜索网络的工具”)
- 通过
~/Documents/Cline/MCP目录与他人分享Cline创建的自定义MCP服务器 - 显示已配置的MCP服务器及其工具、资源以及所有错误日志
代码生成式预训练转换器
CodeGPT 是一个流行的 VS Code 和 Jetbrains 扩展,它为你的编辑器带来由 AI 驱动的编码辅助功能。它支持与工具用的 MCP 服务器的集成,使用户能够在开发工作流程中直接利用外部 AI 能力。 主要特性:- 使用来自任何已配置MCP服务器的MCP工具
- 与 VS Code 和 Jetbrains UI 的无缝集成
- 支持多个LLM供应商和自定义端点
继续
Continue 是一个开源的 AI 代码助手,内置支持所有 modelcontextprotocol 功能。 主要特性:- 输入 ”@” 来提及MCP资源
- 提示模板以斜杠命令形式呈现
- 直接在聊天中同时使用内置和 MCP 工具
- 支持VS Code和JetBrains IDE,适用于任何LLM
Copilot-MCP
Copilot-MCP 通过 MCP 实现 AI 编程辅助。 主要特性:- 支持MCP工具和资源
- 与开发流程的集成
- 可扩展的AI能力
光标
Cursor 是一款AI代码编辑器。 主要特性:- Cursor Composer 中对 MCP 工具的支持
- 支持标准输入输出和服务器发送事件
白日梦
Daydreams 是一个用于在链上执行任何事情的生成式智能体框架 主要特性:- 支持配置中的 MCP 服务器
- 公开 MCP 客户端
Emacs MCP
Emacs Mcp 是一款专为实现与 MCP 服务器无缝连接和交互而设计的 Emacs 客户端。它为诸如 gptel 和 llm 等 AI 插件提供 MCP 工具调用支持,并遵循 Emacs 的标准工具调用格式。 这一集成进一步增强了 Emacs 生态系统中 AI 工具的功能性。 主要特性:- 为Emacs提供MCP工具支持。
快速智能体
fast-agent 是一个 Python 智能体框架,具有简单的声明式支持,用于创建智能体和工作流,全面支持 Anthropic 和 OpenAI 模型的多模态功能。 主要特性:- PDF和图像支持,基于MCP原生类型
- 用于开发和诊断智能体应用的交互式前端,包括直通和回放模拟器
- 内置支持“构建高效智能体”工作流。
- 将智能体部署为MCP服务器
流程向下流程向下
FlowDown is an ultra-fast and smooth AI/LLM client application focused on privacy protection and user experience. It supports extending external tool functionality using MCP servers to help users build powerful custom workflows. 主要特性:- 无缝MCP集成: 轻松连接到MCP服务器,以利用各种外部工具。
- 隐私优先设计: 您的数据保留在设备上。我们不收集任何用户数据,确保完全隐私。
- 轻量且高效: 紧凑且优化的设计确保与任何AI模型都能提供流畅且响应迅速的体验。
- 广泛兼容性: 适用于所有OpenAI兼容服务提供商,并通过MLX支持本地离线模型。
- 丰富的用户体验: 具备美观排版的Markdown渲染、极速文本显示,以及智能自动对话标题生成功能。
流程
想象 n8n + ChatGPT。FLUJO 是一款桌面应用程序,它与 MCP 集成,为 AI 交互提供工作流构建界面。使用 Next.js 和 React 构建,支持在线和离线(ollama)模型,它集中管理 API 密钥和环境变量,并可以从 GitHub 安装 MCP 服务器。FLUJO 具有聊天补全端点,工作流可以从其他 AI 应用程序(如 Cline、Roo 或 Claude)执行。 主要特性:- 环境与API密钥管理
- 模型管理
- MCP 服务器集成
- 工作流编排
- 聊天界面
生成套件
Genkit 是一个跨语言的 SDK,用于构建 GenAI 功能并将其集成到应用程序中。genkitx-mcp 插件支持以客户端方式使用 MCP 服务器,或从 Genkit 工具和提示创建 MCP 服务器。 主要特性:- 客户端支持工具和提示(资源部分支持)
- 丰富的发现功能,支持在Genkit的开发者界面测试平台中使用
- 与 Genkit 现有工具和提示的无缝互操作性
- 适用于各大顶级提供商的各种 GenAI 模型
GLAMA Model
Glama 是一个综合性AI工作区与集成平台,提供统一接口连接领先的LLM供应商,包括OpenAI、Anthropic等。它支持Model Context Protocol生态系统,使开发者和企业能够轻松发现、构建和管理MCP服务器。 主要特性:- 集成的MCP服务器目录
- 集成MCP 工具目录
- 托管MCP服务器并通过聊天或SSE端点访问它们 – 能够同时与多个LLM和MCP服务器进行聊天
- 上传并分析本地文件与数据
- 在你的所有聊天内容和数据中进行全文搜索
生成式AI脚本
使用GenAIScript(JavaScript中)通过编程方式为LLM组装提示。在JavaScript中编排LLM、工具和数据。 主要特性:- 用于提示语处理的JavaScript工具箱
- 便于提高效率和易用性的抽象层
- 无缝的 Visual Studio Code 集成
鹅
Goose是一个开源AI智能体,通过自动化编码任务来增强您的软件开发能力。 主要特性:- 通过工具将MCP功能开放给Goose。
- MCPs可以通过扩展目录、CLI或UI直接安装。
- Goose 允许您通过 构建自己的 MCP 服务器 来扩展其功能。
- 包含内置工具,用于开发、网络抓取、自动化、内存管理,以及与JetBrains和Google Drive的集成。
GitHub Copilot 编程智能体
将任务委托给GitHub Copilot 编程智能体,让它能在后台工作,而您则专注于最具影响力和最有趣的工作 主要特性:- 将任务委托给来自GitHub Issues、Visual Studio Code、GitHub Copilot Chat 或您喜欢的MCP托管系统的Copilot,使用GitHub MCP服务器
- 针对你的项目调整 Copilot,通过自定义智能体的开发环境或编写自定义指令来实现
- 通过MCP工具增强 Copilot 的上下文理解与能力,同时支持本地和远程 MCP 服务器
gptme
gptme 是一款开源的基于终端的个人AI助手/智能体,旨在协助编程任务和一般知识工作。 主要特性:- CLI优先设计,注重简洁性和易用性
- 丰富的内置工具集,支持Shell命令、Python执行、文件操作和网页浏览
- 支持多 LLM 供应商的本地优先方案
- 开源设计,旨在可扩展且易于修改
超智能体
HyperAgent 是一个集成了人工智能的 Playwright 工具。借助 HyperAgent,您不再需要编写易碎的脚本,只需使用强大的自然语言指令即可。通过 MCP 服务器,您可以扩展 HyperAgent 的功能,而无需编写任何代码。 主要特性:- AI 命令:诸如 page.ai()、page.extract() 和 executeTask() 等简单API接口,用于各种AI自动化
- 回落至常规 Playwright: 当无需AI时使用常规Playwright
- 隐身模式 – 通过内置的反机器人补丁避免被检测
- 云端就绪 – 通过 Hyperbrowser 即时扩展至数百个会话
- MCP客户端 – 连接到工具如Composio以完成全工作流(例如将网络数据写入Google Sheets)
JetBrains AI 助手
JetBrains AI Assistant 插件为所有 JetBrains IDE 提供 AI 驱动的软件开发功能。 主要特性:- 由 JetBrains 自主研发 AI 模型 Mellum 提供支持的无限代码补全。
- 了解你的代码并实时提供帮助的上下文感知人工智能聊天。
- 能够访问来自OpenAI、Anthropic和Google的顶级模型。
- 使用Ollama或LM Studio连接本地LLM的离线模式。
- 深度集成至IDE工作流,包括编辑器中的代码建议、版本控制系统辅助、运行时错误解释等。
千代码
Kilo Code 是一个在 VS Code 中的自主编码 AI 开发团队,能够编辑文件、运行命令、使用浏览器等功能。 主要特性:- 通过自然语言创建和添加工具(例如“添加一个可以搜索网络的工具”)
- 通过 MCP Marketplace 发现 MCP 服务器
- 通过 MCP 市场一键安装 MCP 服务器
- 显示已配置的MCP服务器及其工具、资源以及所有错误日志
Klavis AI Slack/Discord/网页端
Klavis AI 是一个开源基础设施,可轻松使用、构建和扩展 MCP。 主要特性:- 用于直接使用MCP的Slack/Discord/Web MCP客户端
- 简易网络UI控制面板,便于ModelContextProtocol配置
- 与Slack和Discord客户端以及MCP服务器直接OAuth集成,实现安全的用户认证
- SSE 传输支持
- 开源基础设施 (GitHub repository)
流式语言处理框架
Langflow 是一个开源的视觉化构建工具,使开发者能够快速原型设计和构建 AI 应用,它与 Model Context Protocol (MCP) 集成,既作为 MCP 服务器,也作为 MCP 客户端。 主要特性:- 完全支持使用 MCP 服务器工具构建智能体和流程。
- 将智能体和流程导出为MCP服务器
- 本地和远程服务器连接,增强隐私和安全性
自由聊天
LibreChat是一个开源的、可自定义的人工智能聊天界面,支持多个人工智能服务提供商,现在包括MCP集成。 主要特性:- 通过MCP服务器扩展当前工具生态系统,包括Code Interpreter和图像生成工具
- 向可定制的 智能体 添加工具,使用来自顶级供应商的各种大型语言模型
- 开源并可自托管,支持安全的多用户模式
- 未来路线图将包括扩展的MCP功能支持
语言模型工作室
LM Studio 是一款跨平台桌面应用程序,用于本地发现、下载和运行开源的大语言模型。您现在可以通过 Model Context Protocol (MCP) 将本地模型连接到工具。 主要特性:- 使用本地模型在您的计算机上运行MCP服务器。将条目添加到
mcp.json并保存以开始使用。 - 工具确认界面: 当模型调用工具时,你可以在LM Studio应用中确认调用.
- 跨平台:可在macOS、Windows和Linux上运行,一键安装无需命令行操作
- 支持GGUF (llama.cpp)或者带GPU加速的MLX模型
- 图形用户界面和终端模式:使用LM Studio应用或命令行界面(lms)进行脚本编写与自动化
水獭
Lutra 是一个能将对话转化为可操作的自动化工作流程的AI智能体。 主要特性:- 简单的 MCP 集成:将 Lutra 连接到 MCP 服务器只需提供服务器URL;其余事宜由 Lutra 在后台处理。
- 聊天以采取行动:Lutra 理解您的对话上下文和目标,自动与您现有的应用程序集成以执行任务。
- 可复用的剧本: 完成任务后,可将步骤保存为可复用的自动化工作流——简化可重复流程并减少人工操作。
- 可分享自动化流程:轻松与团队成员分享您保存的剧本,以标准化最佳实践并加速协作工作流程。
mcp-agent
mcp-agent 是一个简单、可组合的框架,用于使用 Model Context Protocol 构建智能体。 主要特性:- 自动管理 MCP 服务器的连接。
- 向LLM公开来自多个服务器的工具。
- 实现了构建高效智能体中定义的每一种模式。
- 支持工作流程的暂停/恢复信号,例如等待人类反馈。
mcp-client-聊天机器人
mcp-client-chatbot 是一个基于Vercel的Next.js、AI SDK和Shadcn UI构建的本地优先聊天机器人。 主要特性:- 它支持标准 MCP 工具调用,并包含一个自定义 MCP 服务器和一个独立的 UI,用于在聊天流程之外测试 MCP 工具。
- 默认情况下,所有 MCP 工具都会提供给 LLM,但该项目还包含一个可选的
@toolname提及功能,以使工具调用更加明确——在连接多个具有大量工具的 MCP 服务器时尤其有用。 - 可视化工作流构建器,让您能够通过连接LLM节点与MCP工具来创建定制工具。已发布的工作流可在聊天中作为
@workflow_name工具被调用,实现复杂的多步骤自动化序列。
mcp-使用
mcp-use 是一个开源的python库,可非常轻松地将任何LLM与任何本地或远程的MCP服务器连接起来。 主要特性:- 非常简洁的界面,用于将任何LLM连接到任何MCP。
- 支持创建自定义智能体、工作流。
- 支持同时连接到多个MCP服务器的功能。
- 支持langchain支持的所有模型,也可以在本地运行。
- 提供高效的智能体工具编排与搜索功能。
modelcontextchat.com
modelcontextchat.com 是一个基于网页的MCP客户端,专为与远程MCP服务器配合工作而设计,具备全面的认证支持以及与OpenRouter的集成功能。 主要特性:- 用于远程MCP服务器连接的Web界面
- 基于头部的授权支持,用于安全服务器访问
- OAuth 身份验证集成
- OpenRouter API 密钥支持访问各类大型语言模型供应商
- 无需安装 - 可通过任何网页浏览器访问
MCP中心
MCPHub 是一个强大的 Neovim 插件,可将 MCP (Model Context Protocol) 服务器集成到您的工作流程中。 主要特性:- 通过直观的用户界面安装、配置和管理MCP服务器。
- 内置 Neovim MCP 服务器,支持文件操作(读取、写入、搜索、替换)、命令执行、终端集成、LSP 集成、缓冲区以及诊断功能。
- 直接在Neovim中创建基于Lua的MCP服务器。
- 与流行的Neovim聊天插件Avante.nvim和CodeCompanion.nvim集成
全连接MCP
MCPOmni-Connect 是一个多功能的命令行界面 (CLI) 客户端,旨在通过 stdio 和 SSE 传输方式连接到各种 Model Context Protocol (MCP) 服务器。 主要特性:- 支持:资源、提示、工具和采样
- 具备ReAct与编排能力的智能体模式
- 与OpenAI模型及其他LLM无缝集成
- 跨多台服务器动态管理工具和资源
- 支持 stdio 和 SSE 传输协议
- 全面的工具编排与资源分析能力
记忆索引
Memex 是首个 MCP 客户端与 MCP 服务器构建器——一体化桌面应用程序。与仅使用现有服务器的传统 MCP 客户端不同,Memex 能够通过自然语言提示创建自定义 MCP 服务器,立即将其集成至工具包中,并在同一对话中使用它们解决问题。 主要特性:- Prompt-to-MCP Server: 可从自然语言描述中生成功能完整的MCP服务器
- 自我测试和调试: 自动测试、调试并改进创建的MCP服务器
- Universal MCP Client: 通过直观的自然语言集成与任何MCP服务器协同工作
- 精选 MCP 目录: 提供经测试、可一键安装的 MCP 服务器(Neon, Netlify, GitHub, Context7 等)访问权限
- 多服务器编排: 同时利用多个MCP服务器处理复杂工作流
Microsoft Copilot Studio
Microsoft Copilot Studio是一个强大的SaaS平台,专为构建自定义的AI驱动应用程序和智能体而设计,使开发者能够创建、部署和管理复杂的AI解决方案。 主要特性:- 支持 MCP 工具功能
- 使用MCP服务器扩展Copilot Studio智能体
- 利用微软统一、治理和安全化的API管理解决方案
思维伙伴
MindPal 是一个无代码平台,用于构建和运行业务流程中的智能体和多智能体工作流。 主要特性:- 使用无代码方式构建自定义 AI 智能体
- 连接任何SSE MCP服务器以扩展智能体工具
- 为复杂业务流程创建多智能体工作流
- 对技术与非技术专业人士都易于使用
- 持续改进MCP支持,进行中的开发工作
哞点
MooPoint MooPoint是一款面向开发者和高级用户的基于网页的AI聊天平台,允许您通过单一统一界面与多个大型语言模型(LLMs)进行交互。连接您自己的API密钥(OpenAI、Anthropic等)并安全地管理自定义MCP服务器集成。 主要特性:- 可从任何电脑或智能手机访问—无需安装
- 选择您偏好的LLM提供商
- 支持
SSE、Streamable HTTP、npx和uvxMCP 服务器 - OAuth与采样支持
- 每日新增功能
Msty 工作室
Msty Studio是一个以隐私为先的人工智能生产力平台,它无缝整合了本地和在线语言模型(LLMs)到可定制的工作流程中。专为技术与非技术用户设计,Msty Studio提供一套工具来增强人工智能交互、自动化任务,并完全控制数据和模型行为。 主要特性:- 工具箱与工具集: 通过采用MCP兼容的配置,将AI模型与本地工具及脚本相连接。将工具归类为工具集,实现在对话中的动态多步骤工作流程。
- 旋闸门: 创建自动化的多步骤AI交互,支持复杂的数据处理和决策制定流程。
- 实时数据整合: 通过集成实时网络搜索功能,利用最新信息增强AI响应能力。
- 拆分聊天与分支: 可同时与多个模型进行并行对话,支持对比分析并获取多样化视角。
NVIDIA智能体智能(AIQ)工具包
NVIDIA Agent Intelligence (AIQ) toolkit是一个灵活、轻量且统一的库,可让您轻松将现有企业智能体连接到任何框架的数据源和工具。 主要特性:- 作为 MCP 客户端使用远程工具
- 充当MCP 服务器以暴露工具
- 框架无关,兼容LangChain、CrewAI、Semantic Kernel以及自定义智能体
- 包含内置可观测性与评估工具
OpenSumi
OpenSumi 是一个助您快速构建人工智能原生IDE产品的框架。 主要特性:- 支持OpenSumi中的MCP工具
- 支持内置IDE MCP服务器和自定义MCP服务器
终端
oterm 是 Ollama 的终端客户端,让用户能够创建聊天/智能体。 主要特性:- 支持与Ollama连接工具的多个完全可自定义的聊天会话。
- 支持MCP工具。
Roo 代码
Roo Code 通过 MCP 提供AI编码辅助. 主要特性:- 支持MCP工具和资源
- 与开发流程的集成
- 可扩展的AI能力
邮递员
Postman 是最受欢迎的 API 客户端,现在支持 MCP 服务器测试和调试。 主要特性:- 全面支持所有主要的 MCP 功能(工具、提示、资源和订阅)
- 供调试 MCP 能力的快速无缝用户界面
- MCP配置整合(Claude、VSCode等),以便在测试MCP时快速获得首次体验
- 集成历史记录、变量和集合功能,支持重用与协作
递归对话
RecurseChat 是一款功能强大、速度快、以本地优先的聊天客户端,支持MCP。RecurseChat 支持多个AI提供商,包括LLaMA.cpp、Ollama以及OpenAI和Anthropic。 主要特性:- 本地 AI:使用 Ollama 模型支持 MCP。
- MCP 工具:单个 MCP 服务器管理。轻松可视化 MCP 服务器的连接状态。
- MCP 导入: 从 Claude Desktop 应用或 JSON 中导入配置
短波
Shortwave 是一个人工智能驱动的邮件客户端,支持 MCP 工具,以提高邮件生产力和工作流程自动化。 主要特性:- MCP工具集成以增强电子邮件工作流
- 提供丰富的用户界面,用于添加、管理及与各种类型的MCP服务器进行交互
- 支持远程(可流的HTTP和SSE)和本地(Stdio)MCP服务器
- 用于管理您的电子邮件、日历、任务和其他第三方服务的AI智能体辅助功能
Slack MCP 客户端
Slack MCP Client作为Slack与Model Context Protocol (MCP)服务器之间的桥梁。通过Slack作为界面,它使大型语言模型(LLMs)能够连接并通过标准化的MCP工具与各种MCP服务器进行交互。 主要特性:- 支持热门大语言模型提供商: 与OpenAI、Anthropic和Ollama等领先大语言模型提供商无缝集成,让用户能够在Slack中充分利用先进对话式人工智能和编排能力。
- 动态和安全集成: 支持动态注册MCP工具, 可在频道和私聊中工作, 并通过环境变量或Kubernetes密钥安全管理凭据.
- 轻松部署和可扩展性: 提供官方的Docker镜像、适用于Kubernetes的Helm chart以及用于本地开发的Docker Compose,使得部署、配置以及通过额外的MCP服务器或工具进行扩展变得简单。
源代码扫描 科迪
Cody 是 Sourcegraph 的 AI 编程助手,通过 OpenCTX 实现了 MCP。 主要特性:- 支持MCP资源
- 与Sourcegraph的代码智能集成
- 使用OpenCTX作为抽象层
- 未来计划支持更多MCP功能
旋转人工智能
SpinAI是一个开源的TypeScript框架,用于构建可观测的人工智能体。该框架提供原生的MCP兼容性,允许智能体与MCP服务器和工具无缝集成。 主要特性:- AI 代理内置 MCP 兼容性
- 开源TypeScript框架
- 可观察智能体架构
- MCP工具集成的原生支持
超接口
Superinterface 是一个人工智能基础设施和开发者平台,用于构建内置支持MCP、交互式组件、客户端函数调用等功能的应用程序内智能体助手。 主要特性:- 通过React组件或脚本标签嵌入的助手中使用MCP服务器的工具
- SSE 传输支持
- 使用来自任何AI提供方的AI模型(OpenAI、Anthropic、Ollama等)
超级连接
Superjoin 将 MCP 的强大功能直接带入 Google Sheets 扩展中。通过 Superjoin,用户无需离开他们的电子表格就可以访问和调用 MCP 工具与智能体,在数据所在之处即可实现强大的 AI 工作流和自动化。 主要特性:- 原生Google Sheets插件,轻松访问MCP功能
- 支持OAuth 2.1和基于请求头的认证,以实现安全灵活的连接
- 兼容SSE和可流式HTTP传输,实现高效、实时的流式通信
- 完全基于网络,跨平台的客户端,无需安装额外软件
系统提示词
systemprompt 是一个语音控制的移动应用,可管理您的 MCP 服务器。安全地从口袋中利用 MCP 智能体。可在 iOS 和 Android 上使用。 主要特性:- 原生移动体验: 在Android与iOS设备上随时随地访问和管理您的MCP服务器
- 高级人工智能语音识别: 采用尖端人工智能和自然语言处理(NLP)技术增强的精密语音识别引擎,专门适配理解复杂的开发者术语与命令结构
- 统一的多MCP服务器管理: 从单一集中式移动应用中轻松管理和与多个Model Context Protocol (MCP)服务器进行交互
坦博
Tambo是一个用于在React中构建定制聊天体验的平台,集成了自定义用户界面组件。 主要特性:- 一个配备React SDK的托管平台,可将聊天或其他基于LLM的体验集成到您自己的应用中。
- 在聊天体验中支持任意React组件的选择,附带状态管理和工具调用功能。
- 支持来自Tambo的服务器或直接来自浏览器的MCP服务器。
- 支持OAuth 2.1与基于自定义标头的身份验证。
- 支持MCP工具,更多MCP功能即将推出。
腾讯云开发 AI 套件
Tencent CloudBase AI DevKit 是一个可在几分钟内构建AI智能体的工具,具有零代码工具、安全的数据集成和通过MCP可扩展的插件特性。 主要特性:- 支持 MCP 工具功能
- 使用MCP服务器扩展智能体
- 托管 MCP 服务器:无服务器托管和身份验证支持
TheiaAI / TheiaIDE
Theia AI 是一个构建人工智能增强工具和集成开发环境的框架。AI驱动的Theia IDE 是一个基于Theia AI构建的开放灵活的集成开发环境。 主要特性:- 工具集成: Theia AI 使智能体(包括 Theia IDE 中的智能体)能够利用 MCP 服务器实现无缝工具交互。
- 可自定义提示词: Theia IDE 允许用户定义和调整提示词,动态集成MCP服务器以实现定制化工作流程。
- 定制智能体: Theia IDE 支持创建利用MCP功能的定制智能体,使用户能够即时设计专门的工作流程。
托姆
Tome 是一个开源跨平台桌面应用程序,专为使用本地LLM和MCP服务器而设计。它旨在对初学者友好,并为刚接触MCP的用户抽象掉配置的繁琐细节。 主要特性:- MCP服务器由Tome管理,因此无需安装uv或npm或配置JSON
- 用户可以通过界面快速添加或删除 MCP 服务器
- 所有与Ollama兼容的任何本地模型均支持
TypingMind应用
TypingMind 是一款支持 MCP 的高级大语言模型前端工具。TypingMind 支持所有主流的大语言模型提供商,如 OpenAI、Gemini、Claude,用户可以使用自己的 API 密钥进行交互。 主要特性:- MCP工具集成: 一旦配置好MCP,MCP工具将显示为插件,可以通过主应用程序界面轻松启用/禁用。
- 为智能体分配 MCP 工具: TypingMind 允许用户创建配置了 MCP 服务器组合的 AI 智能体。
- 远程 MCP 服务器:允许用户通过其 MCP 连接器配置自定义 MCP 服务器运行位置,支持跨设备(笔记本电脑、移动设备等)使用 MCP 工具,或从远程私有服务器控制 MCP 服务器。
VS Code GitHub Copilot
VS Code 通过与 GitHub Copilot 的智能体模式集成 MCP,允许在其智能编码工作流程中直接与 MCP 提供的工具交互。在 Claude Desktop、工作区或用户设置中配置服务器,通过引导式 MCP 安装并在输入变量中安全处理密钥以避免泄露硬编码密钥。 主要特性:- 支持 stdio 和服务器发送事件(SSE)传输
- 为每个智能体会话按会话选择工具以实现最佳性能
- 通过重启命令和输出日志实现便捷的服务器调试
- 带有可编辑输入和始终允许切换开关的工具调用
- 与现有VS Code扩展系统集成,从扩展中注册MCP服务器
翘曲
Warp 是一款内置人工智能与您开发团队知识的智能终端。通过将自然语言能力直接集成到智能体命令行中,Warp 使开发人员能够在具备现代化用户体验的终端内更高效地编码、自动化和协作。 主要特性:- 具有MCP支持的智能体模式: 使用自然语言提示从MCP服务器调用工具和访问数据
- 灵活的服务器管理:通过Warp内置的用户界面添加和管理基于CLI或SSE的MCP服务器
- 实时工具/资源发现: 查看各运行中 MCP 服务器的工具与资源
- 可配置启动: 设置MCP服务器随Warp自动启动或按需手动启动
是什么
WhatsMCP 是一个针对 WhatsApp 的 MCP 客户端。WhatsMCP 让你能够通过 WhatsApp 聊天的便捷方式与你的 AI 技术栈进行互动。 主要特性:- 支持 MCP 工具
- SSE传输,完整的OAuth2支持
- WhatsApp消息的聊天流程管理
- 一键设置连接到您的MCP服务器
- 在 MCP 服务器的聊天管理中
- Oauth 流程原生支持于 WhatsApp
风帆编辑器
Windsurf Editor 是一个智能体式IDE,将AI辅助与开发者工作流程相结合。它采用创新的AI Flow系统,既能实现协作式AI交互,也能进行独立AI交互,同时保持开发者的控制权。 主要特性:- 面向人机协作的革命性AI智能体流程范式
- 智能代码生成与理解
- 带有多种模型支持的丰富开发工具
小机灵
Witsy 是一款AI桌面助手,支持Anthropic模型和MCP服务器作为LLM工具。 主要特性:- 多MCP服务器支持
- 用于执行命令和脚本的工具集成
- 本地服务器连接,提高隐私和安全性
- 通过 Smithery.ai 轻松安装
- 开源, 适用于 macOS, Windows 和 Linux 系统
泽德
Zed是一个具有内置MCP支持的高性能代码编辑器,专注于提示模板和工具集成。 主要特性:- 提示模板在编辑器中以斜杠命令的形式展现
- 增强型编码工作流的工具集成
- 深度集成编辑器功能与工作空间上下文
- 不支持 MCP 资源
Zencoder
Zencoder 是一个编码智能体,可作为 VS Code 和 JetBrains 系列 IDE 的扩展使用,直接融入开发者现有的工作环境。它具备代码库深度理解、智能体流水线功能,并能创建和共享自定义智能体。 主要特性:- RepoGrokking - 深度代码库上下文理解
- 智能体管道 - 在输出之前运行、测试和执行代码
- Zen Agents平台 - 能够构建和创建自定义智能体并与团队共享
- 集成MCP工具库,支持一键安装
- 用于单元和端到端测试的专门智能体
为您的应用添加MCP支持
如果你已经为你的应用程序添加了MCP支持,我们鼓励你提交拉取请求将其加入此列表。MCP集成可以为你的用户提供强大的上下文AI能力,并使你的应用程序成为不断发展的MCP生态系统的一部分。 添加 MCP 支持的好处:- 让用户可以携带自己的上下文和工具
- 加入一个不断壮大的可互操作AI应用生态系统
- 为用户提供灵活的集成选项
- 支持本地优先的AI工作流