MCPModel Context ProtocolToolsCursor
MCP Server 配置 ChinaWHAPI
Model Context Protocol(MCP)让 AI 模型能够调用外部工具。本文介绍 MCP 协议原理以及 ChinaWHAPI 的 MCP 生态集成。
MCP 是什么
MCP(Model Context Protocol)是一种让 AI 模型与外部工具和数据源交互的标准协议。它让 AI 不仅能回答问题,还能执行实际操作:搜索文件、查询数据库、调用 API。
- 协议标准化:统一 AI 与工具的通信方式
- 工具生态:复用现有工具无需重新开发
- 安全沙箱:工具调用经过明确授权
ChinaWHAPI 与 MCP 的关系
ChinaWHAPI 作为 AI 模型聚合网关,可以为 MCP Server 提供模型推理能力。MCP Server 通过调用 ChinaWHAPI 实现 AI 推理,再结合外部工具完成复杂任务。
- MCP Server 调用 ChinaWHAPI 做 AI 推理
- 外部工具(文件、数据库、API)由 MCP Server 管理
- ChinaWHAPI 提供多模型支持,MCP Server 灵活编排
常用 MCP Server 工具
社区已有丰富的 MCP Server 实现,可以配合 ChinaWHAPI 使用。
- 文件系统 MCP:AI 读写本地文件
- Git MCP:AI 操作 Git 仓库
- 数据库 MCP:AI 查询和分析数据库
- Slack/Discord MCP:AI 发送消息
- Puppeteer MCP:AI 控制浏览器
Cursor MCP 配置
在 Cursor 中配置 MCP Server,让 Cursor 的 AI 能力扩展到文件系统、数据库等外部资源。
# 在 Cursor settings.json 中添加 MCP Server
{
"mcpServers": {
"filesystem": {
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-filesystem", "./src"]
},
"github": {
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-github"]
}
}
}构建自定义 MCP Server
如果你需要特定工具,可以自己构建 MCP Server 并接入 ChinaWHAPI。
# server.ts - 一个简单的 MCP Server 示例
import { McpServer } from "@modelcontextprotocol/sdk/server/mcp.js";
import { StdioServerTransport } from "@modelcontextprotocol/sdk/server/stdio.js";
import OpenAI from "openai";
const server = new McpServer({ name: "chinawhapi-server", version: "1.0.0" });
const client = new OpenAI({ apiKey: process.env.KEY, baseURL: "https://chinawhapi.com/v1" });
server.tool(
"chat",
"与 AI 对话",
{ message: { type: "string" } },
async ({ message }) => {
const response = await client.chat.completions.create({
model: "qwen3.6-plus",
messages: [{ role: "user", content: message }],
});
return { content: response.choices[0].message.content! };
}
);
const transport = new StdioServerTransport();
server.run(transport);适用场景
MCP + ChinaWHAPI 的组合适合:Cursor AI 编程扩展、Claude Desktop 工具生态、自定义 AI Agent 工作流、自动化脚本和运维任务。
- Cursor + MCP + ChinaWHAPI:AI 编程降本
- Claude Desktop + MCP + ChinaWHAPI:深度中文任务
- 自定义 Agent + ChinaWHAPI:专业领域 AI 助手