ChinaWHAPI
← 返回知识中心

中国 AI API FAQ

这些问题会逐步扩展为独立答案页,帮助用户和 AI 搜索理解 ChinaWHAPI 的模型、接口和错误处理方式。

DeepSeek API 收费吗?

DeepSeek API 按 token 计费,输入和输出分别计费。通过 ChinaWHAPI 使用时,用户可以在统一控制台查看各模型实时价格、余额和日均用量估算。

中国模型支持 OpenAI SDK 吗?

ChinaWHAPI 完全兼容 OpenAI SDK 协议,只需将 baseURL 改为 https://chinawhapi.com/v1,即可使用 openai Python/JS SDK 调用所有中国模型,无需任何代码改动。

如何在 Cursor 里使用中国模型?

在 Cursor 设置中找到 AI Provider,选择 Custom/OpenAI Compatible,填入 ChinaWHAPI 的 base URL(https://chinawhapi.com/v1)和你的 API Key,即可使用 DeepSeek、Qwen 等中国模型替代 GPT-4。

API 为什么返回 401?

401 表示 Unauthorized,通常是 API Key 无效、已删除、格式错误(应为 Bearer xxx)或者已过期。检查控制台中的密钥状态和请求头格式。

API 返回 403 是怎么回事?

403 表示 Forbidden,通常是账户余额不足、套餐过期、或者尝试访问未开通的模型。登录控制台检查套餐状态和余额。

遇到 429 速率限制怎么办?

429 表示触发了速率限制。建议:添加指数退避重试(先等 2s,再 4s,再 8s);降低并发数;考虑升级套餐增加速率限制。

请求返回 400 Bad Request 怎么排查?

400 通常是请求体格式错误。常见原因:JSON 格式不正确、model 名称不存在、缺少 messages 字段、messages 格式错误。

API 返回 500 Internal Server Error

500 通常是上游模型服务临时异常,不是你的代码问题。等待 5-10 秒后重试即可。如果持续出现,查看 ChinaWHAPI 状态页面或联系技术支持。

Token 是什么?如何计算?

Token 是语言模型处理文本的最小单元。英文约 4 个字符 = 1 个 token;中文约 1-2 个字符 = 1 个 token。ChinaWHAPI 控制台显示实际消耗的 token 数。

上下文窗口(Context Window)是什么?

上下文窗口是模型单次调用能处理的最大 token 数(包括输入和输出)。超过会被截断或报错。ChinaWHAPI 的模型覆盖 32K 到 1M tokens 不等。

什么是推理模型?

推理模型(如 DeepSeek R1、ERNIE X1.1)内置 Chain-of-Thought 思考链,适合数学、代码分析、复杂逻辑等任务,但响应更慢、成本更高。

RAG 是什么?

RAG(Retrieval-Augmented Generation)是检索增强生成。先从知识库检索相关资料,再把资料和原问题一起交给大模型生成答案,适合企业知识库和需要引用源的场景。

如何获取 ChinaWHAPI 的 API Key?

登录 https://chinawhapi.com/console,在 API Keys 页面点击生成新密钥。建议为开发、测试、生产环境分别创建不同密钥,便于管理和权限隔离。

ChinaWHAPI 的 base URL 是什么?

ChinaWHAPI 的 OpenAI 兼容端点地址是 https://chinawhapi.com/v1。在 OpenAI SDK 中设置 base_url 参数即可。

代码生成哪个模型最好?

代码任务推荐:Qwen3 Coder Plus(日常代码、补全、Bugfix)、DeepSeek V4 Pro(复杂架构代码、算法)、Doubao Seed Code(前端开发、Bugfix)。

中文任务哪个模型最强?

中文综合任务推荐 Qwen3.6 Max Preview;中文推理任务推荐 DeepSeek R1;中文长文档推荐 Kimi K2.6。主流任务用 Qwen3.6 Plus 性价比最高。

数学和推理任务用哪个模型?

推理任务首选 DeepSeek R1(纯推理模型,Chain-of-Thought 最强),次选 ERNIE X1.1 或 Doubao Seed 1.6 Thinking。普通数学题用 Qwen3.6 Plus 即可。

需要快速响应用哪个模型?

追求响应速度推荐:Doubao Seed 1.6 Flash(最快)、Qwen3.5 Flash、Hunyuan TurboS Latest。适合实时客服、高并发和轻量任务。

成本最低的模型是哪个?

Doubao Seed 1.6 Flash 单价最低,适合高并发轻量任务;Qwen3.5 Flash 次之,效果和速度都较好,适合日常业务使用。

长文档处理用哪个模型?

长文档处理首选 Kimi K2.6(256K 上下文),其次 Kimi K2.5(256K),DeepSeek V4 系列也支持 1M 超长上下文,适合书籍、合同、论文等场景。

图片理解用哪个模型?

视觉模型推荐 Qwen3 VL Plus(中文图片理解最强)、GLM-5V Turbo(图表分析)、Hunyuan Vision 1.5(腾讯生态集成)。

构建 AI Agent 用哪个模型?

Agent 规划模块推荐 DeepSeek R1(推理能力强);工具调用推荐 DeepSeek V4 系列或 Qwen3.6 Plus(Function Calling 支持好);记忆模块推荐 Qwen3.5 Flash(低成本)。

可以在不同模型之间切换吗?

可以。ChinaWHAPI 保持统一的请求格式,只需修改请求中的 model 字段即可在不同模型之间切换,非常适合 A/B 测试和降级策略。

DeepSeek R1 和 V3 有什么区别?

R1 是推理模型(思考链),适合数学、代码分析、复杂推理,响应慢但推理能力强;V3 是通用模型,适合日常对话和内容生成,响应快。

Qwen Coder 和 DeepSeek 哪个代码能力更强?

Qwen3 Coder Plus 是代码专用模型,在中文注释代码、简单 Bugfix 上更友好;DeepSeek V4 Pro 在复杂系统代码和架构设计上更强。两者可以组合使用。

Kimi 和其他模型相比有什么优势?

Kimi 的核心优势是超长上下文(256K),适合处理长文档、合同、论文等超长文本,不需要 RAG 切分即可直接处理整份文档。

Python 如何调用 ChinaWHAPI?

使用 OpenAI Python SDK:from openai import OpenAI; client = OpenAI(api_key='key', base_url='https://chinawhapi.com/v1'); 然后调用 client.chat.completions.create() 即可。

Node.js 如何调用 ChinaWHAPI?

使用 openai npm 包:new OpenAI({ apiKey: 'key', baseURL: 'https://chinawhapi.com/v1' }); 支持 ESM 和 CommonJS 两种导入方式。

如何在 LangChain 中使用 ChinaWHAPI?

from langchain.chat_models import ChatOpenAI; llm = ChatOpenAI(model='qwen3.6-plus', openai_api_key='key', openai_api_base='https://chinawhapi.com/v1')

如何在 LlamaIndex 中使用 ChinaWHAPI?

from llama_index.llms.openai_like import OpenAILike; llm = OpenAILike(model='qwen3.6-plus', api_key='key', api_base='https://chinawhapi.com/v1')

如何在 Dify 中接入 ChinaWHAPI?

在 Dify 的模型供应商设置中,选择 OpenAI 兼容,填入 https://chinawhapi.com/v1 和 API Key,即可使用所有 ChinaWHAPI 模型。

如何在 Cursor IDE 中配置 ChinaWHAPI?

打开 Cursor Settings → AI Provider → 选择 Custom,填入 Base URL: https://chinawhapi.com/v1,API Key: 你的密钥,选择默认模型。

如何在 Jan(本地 AI 应用)中接入 ChinaWHAPI?

Jan 支持 OpenAI 兼容接口,在 Settings → Models 中添加 ChinaWHAPI 的 base URL 和 API Key,即可使用。

如何在 Cherry Studio 中使用 ChinaWHAPI?

在 Cherry Studio 的模型设置中添加 ChinaWHAPI,选择 OpenAI Compatible 模式,填入 base URL 和 API Key。

如何在 Postman 中测试 ChinaWHAPI?

新建 POST 请求,URL: https://chinawhapi.com/v1/chat/completions,Headers: Authorization: Bearer {key}, Content-Type: application/json,Body: raw JSON 格式。

ChinaWHAPI 支持 REST API 吗?

支持。ChinaWHAPI 的 /v1/chat/completions 是 RESTful 风格的 API,支持 JSON 请求和响应,符合标准 HTTP 规范。

ChinaWHAPI 支持 Webhook 吗?

ChinaWHAPI 后端服务支持 webhook 回调用于支付通知等场景。对于 AI API 本身,streaming 模式下通过 Server-Sent Events(SSE)实时推送。

支持流式输出(Streaming)吗?

支持。在请求中设置 stream: true,服务器通过 SSE 实时推送内容块,前端可以实现打字机效果。

每个模型的价格是多少?

价格因模型而异:Doubao Seed 1.6 Flash 最低($0.05/千输入 tokens),DeepSeek V4 Pro 较高($0.55/千输入 tokens)。具体价格可在 ChinaWHAPI 控制台实时查看。

费用按输入还是输出计费?

输入(Input)和输出(Output)分别计费,输出通常比输入贵 4-5 倍。这是因为模型生成输出需要更多计算资源。

如何估算一次调用的费用?

费用 = (输入token数 × 输入单价 + 输出token数 × 输出单价) / 1000。控制台的用量统计会实时显示费用明细。

如何设置预算告警?

在控制台的用量设置中可以配置日均费用告警阈值,当日均费用超过阈值时会发送通知,帮助你避免意外超支。

有免费试用额度吗?

新用户注册后通常有初始赠送额度,具体额度可在控制台账户页面查看。额度用完后需要充值继续使用。

如何充值账户?

登录 ChinaWHAPI 控制台,进入充值页面,支持 USDT TRC20、Stripe 信用卡等多种支付方式。充值后即时到账。

有包月套餐吗?

ChinaWHAPI 提供订阅套餐,包含固定额度的 API 调用量,适合有稳定用量的用户。套餐详情可在控制台订阅页面查看。

如何降低 API 调用成本?

成本优化的几个方向:1) 简单任务用低价模型(Qwen3.5 Flash);2) 精简 Prompt 减少输入 token;3) 实施语义缓存避免重复请求;4) 设置用量告警监控异常。

如何用缓存降低 API 调用次数?

将用户问题做 Embedding 后存入向量数据库,相同意图的问题直接返回缓存结果,无需调用模型。缓存命中率通常可达 40-60%,可以节省大量成本。

多轮对话如何维护上下文?

每次调用时将完整对话历史(所有 user/assistant 消息)作为 messages 传入。需要注意上下文窗口限制,长对话需要压缩或截断历史消息。

什么是 Prompt 注入?如何防护?

Prompt 注入是用户在输入中尝试注入恶意指令(如'忽略之前指令...')。防护方法:在 system prompt 中明确模型行为边界;转发用户输入前做内容过滤;关键场景使用后端验证。

Temperature 参数怎么设置?

Temperature 控制随机性:0.1-0.3(准确任务:问答、代码、摘要)、0.5-0.7(平衡:写作、对话)、0.8-1.0(创意任务:诗歌、故事)。需要确定性输出时用低温度。

max_tokens 参数有什么用?

max_tokens 限制单次输出的最大 token 数。设置适当的上限可以:1) 防止模型输出过长浪费成本;2) 控制响应时间;3) 确保输出适合你的展示场景。

System Prompt 是什么?怎么用?

System Prompt 是系统级指令,决定模型的行为角色和输出规则。例如:'你是一个专业的技术支持工程师,只回答技术问题'。放在 messages 数组的第一个位置。

如何让模型输出 JSON 格式?

在请求中设置 response_format: {'type':'json_object'},并在 system prompt 中明确指定 JSON 结构。模型可能仍会返回 Markdown 包裹的 JSON,前端需要做 strip 处理。

Few-shot 示例是什么?如何使用?

Few-shot 是在 Prompt 中提供 2-3 个输入-输出示例,帮助模型理解任务格式和期望风格。比纯文字描述更准确,适合格式化和结构化输出。

Chain of Thought(CoT)是什么?

CoT 要求模型先给出推理过程再给答案。对于复杂问题,CoT 可以显著提升准确率。可以在 prompt 中加'请一步步推理后给出答案'来启用。

401 错误的常见原因有哪些?

1) API Key 不存在或已删除;2) API Key 格式错误(应为 Bearer xxx);3) API Key 已过期;4) 请求头拼写错误(Authorization vs Authorization Bearer);5) 使用了错误的 Key(测试环境 vs 生产环境)。

429 错误的常见原因有哪些?

1) 短时间内请求次数过多;2) 并发请求数超过套餐限制;3) 触发了模型的 TPM(每分钟 Token 数)限制。建议添加退避重试,降低并发,或升级套餐。

请求超时怎么处理?

建议设置 60-120 秒的请求超时。超时时:1) 检查网络连接;2) 模型可能正在处理长上下文(响应慢);3) 添加重试逻辑(最多 3 次);4) 考虑切换到更快的模型。

遇到 'model not found' 错误怎么办?

检查请求中的 model 名称是否与 ChinaWHAPI 控制台中显示的模型名称完全一致,包括大小写。例如 deepseek-v4-flash 而不是 DeepSeek-V4-Flash。

请求返回 'invalid JSON' 怎么解决?

1) 检查请求体是否为合法的 JSON 格式;2) 确保使用双引号而非单引号;3) 确保没有多余的逗号;4) 确保 messages 数组格式正确。

如何设计 API 调用的重试策略?

推荐指数退避重试:首次失败等 1s,第二次等 2s,第三次等 4s,超过 3 次放弃。区分错误类型:429/500/503 可重试;401/403/400 不重试直接报错。

如何记录和排查 API 请求问题?

在调用 API 的地方记录:timestamp、model、input_tokens、output_tokens、latency、error_type。建议使用结构化日志(JSON 格式),方便后续分析和告警。

上线生产环境前需要检查什么?

1) API Key 存储在环境变量或密钥管理服务中;2) 实现重试和降级机制;3) 设置请求超时;4) 配置用量告警;5) 实现日志和监控;6) 密钥分权限管理。

如何安全地管理 API Key?

绝对不要硬编码在代码中或放在前端。使用环境变量(.env 文件,.gitignore 忽略)、AWS Secrets Manager、HashiCorp Vault 等密钥管理服务。前端通过后端代理调用 AI API。

为什么需要后端代理调用 AI API?

后端代理可以:1) 隐藏真实 API Key;2) 实现请求缓存;3) 控制调用权限和频率;4) 过滤恶意请求;5) 添加日志和监控。生产环境强烈建议使用。

如何设计 API 调用限流?

在应用层实现限流:使用令牌桶或滑动窗口算法。根据用户/项目/模型设置不同的限流阈值。ChinaWHAPI 套餐本身也有速率限制,需确保不超过套餐限制。

生产环境需要监控哪些 AI API 指标?

核心指标:1) 调用次数和 token 消耗;2) 日均/月均费用;3) 错误率(各类错误占比);4) P99 响应时间;5) 各模型调用量分布。设置告警阈值,超过时自动通知。

如何做模型的 A/B 测试?

同一用户请求随机分配到不同模型(保持 seed 一致以便复现),记录各模型的回答质量和响应时间。评估维度包括准确率、响应速度、成本和用户满意度。

生产环境如何配置模型降级?

为每类任务配置 2-3 个候选模型优先级列表。例如:代码任务 [Qwen Coder Plus → DeepSeek V4 Pro → Doubao Code]。当主力模型失败(429/500)时,自动尝试下一个。

如何实现 API Key 的热更新?

将 API Key 存储在配置中心(如 etcd、Consul、数据库),服务启动时加载并定时刷新。避免因 Key 轮换导致的滚动重启。

如何做模型的灰度发布?

新模型上线时先切 5% 流量,观察错误率、响应时间和用户反馈,OK 后逐步扩大比例(10% → 25% → 50% → 100%)。设置自动回滚条件(错误率 > 1%)。

ChinaWHAPI 支持图片理解模型吗?

支持。视觉模型包括 Qwen3 VL Plus(图片问答、截图分析)、GLM-5V Turbo(图表理解)、Hunyuan Vision 1.5(OCR、图像推理)。传入 base64 编码的图片或图片 URL 即可。

支持 Function Calling / Tool Use 吗?

支持。DeepSeek V4 系列、Qwen3.6 Plus、Kimi 等主流模型都支持 Function Calling 工具调用协议。可以在请求中定义 tools 数组,模型会选择性调用。

单次输出的最大 token 数是多少?

取决于具体模型,通常输出上限在 4K-32K tokens 之间。可以通过 max_tokens 参数控制输出长度,防止成本失控。

支持流式输出(Server-Sent Events)吗?

支持。设置 stream: true 后,服务器会通过 SSE 协议实时推送内容块。Python 用 for chunk in stream,Node.js 用 for await (const chunk of stream)。

支持批量请求(Batch)吗?

ChinaWHAPI 本身不提供专门的 Batch API,但可以通过异步并发调用实现批量处理。建议使用 asyncio(Python)或 Promise.all(Node.js)并发处理,设置合理并发数(5-20)避免触发限流。

支持 GPT-4、Claude 等海外模型吗?

ChinaWHAPI 主要聚合中国大模型。GPT-4 和 Claude 需要通过 OpenAI/Anthropic 官方 API 访问。ChinaWHAPI 提供的是中国模型的统一入口。

ChinaWHAPI 会同步上线最新模型吗?

是的,ChinaWHAPI 会持续跟进 DeepSeek、Qwen、Kimi 等厂商的最新模型上线。关注控制台更新公告,第一时间体验新模型。

RAG 和 Fine-tuning 哪个更适合我的场景?

知识频繁更新、需要引用来源 → RAG(成本低、实时、可溯源)。需要改变模型行为/风格、有大量标注数据 → Fine-tuning(效果稳定但成本高)。两者可以组合使用。

ChinaWHAPI 支持 Embeddings(向量化)吗?

ChinaWHAPI 通过支持的模型(如 Qwen 等)提供 Embedding 能力,可用于构建向量数据库和语义搜索系统,实现 RAG 的检索部分。

如何用 ChinaWHAPI 构建 AI Agent?

AI Agent 核心组件:规划(DeepSeek R1)、工具调用(Qwen3.6 Plus 的 Function Calling)、记忆(向量数据库存储对话历史)、执行循环(反复思考直到完成)。

支持多 Agent 协作吗?

ChinaWHAPI 本身是 API 网关,多 Agent 协作需要在应用层实现。可以使用 LangChain Agents、CrewAI、AutoGen 等框架,它们都支持 OpenAI 兼容接口。

支持语音/语音识别集成吗?

ChinaWHAPI 聚焦文本模型,语音识别(ASR)和语音合成(TTS)需要配合专门的语音服务。先用 ASR 将语音转文字,再用 ChinaWHAPI 处理,最后用 TTS 将回复转为语音。

如何重置 API Key?

在控制台的 API Keys 页面,点击现有密钥旁边的删除按钮,然后重新生成新密钥。老密钥删除后立即失效,请确保所有使用该密钥的应用都已更新。

可以创建多个 API Key 吗?

可以。建议为不同项目、环境(开发/测试/生产)分别创建不同密钥,便于管理权限和追踪用量。控制台支持密钥的启用/禁用操作。

如何删除账户?

联系 ChinaWHAPI 支持团队申请账户注销。注销前请确保:账户余额已清零、所有订阅已取消、已备份需要保留的数据。

在哪里查看 API 调用统计?

登录 ChinaWHAPI 控制台,进入用量统计页面,可以查看日/周/月维度的调用次数、token 消耗、费用明细,也可以按模型、项目维度拆解。

如何下载发票?

在控制台的账单页面可以查看和下载月度发票。发票通常在每月初生成上月账单后即可下载。

有推荐返利计划吗?

ChinaWHAPI 提供分销/推荐计划,成功推荐新用户注册充值可获得佣金奖励。详情请查看控制台的分销页面或联系支持团队。

ChinaWHAPI 有官方 SDK 吗?

ChinaWHAPI 完全兼容 OpenAI SDK,可以直接使用 openai Python SDK 和 openai JS SDK,无需安装专门的 ChinaWHAPI SDK。

有 OpenAPI 规范文档吗?

ChinaWHAPI 的 API 与 OpenAI Chat Completions 规范一致,参考 OpenAI 官方文档即可。控制台也提供了各端点的详细说明和请求示例。

有在线 API 测试控制台吗?

ChinaWHAPI 控制台提供基础的 API 测试功能。也可以使用 Postman、Bruno、Insomnia 等工具导入 API 规范后进行更全面的测试。

有各语言的调用示例代码吗?

ChinaWHAPI 的文档页面提供了 Python、Node.js、curl 等常用语言的完整调用示例。也可以参考 OpenAI 官方文档,baseURL 替换为 ChinaWHAPI 地址即可。

有 Postman Collection 吗?

ChinaWHAPI API 兼容 OpenAI 格式,可以直接使用 OpenAI 的 Postman Collection,将 base URL 替换为 https://chinawhapi.com/v1 即可使用。

ChinaWHAPI 和直接用各厂商 API 有什么区别?

ChinaWHAPI = 统一入口 + 多模型聚合 + 统一计费 + 简化接入。直接用各厂商 API = 各自注册账号、各自管理密钥、各自计费、多套代码。ChinaWHAPI 大幅降低管理成本。

ChinaWHAPI 和其他 API 聚合平台相比有什么优势?

ChinaWHAPI 专注中国大模型,覆盖更全面;价格透明实时可查;OpenAI 兼容性好,零迁移成本;统一计费和管理,体验一致。

我不确定该选哪个模型,怎么办?

建议先用 Qwen3.6 Plus(均衡之选)跑通流程,再根据具体任务做 A/B 测试。ChinaWHAPI 控制台提供了各模型的效果对比和价格对比工具。

换模型需要改代码吗?

只需要改请求中的 model 字段值,业务逻辑代码不需要任何改动。ChinaWHAPI 的统一接口让模型切换零成本。

中国模型和 GPT-4/Claude 相比效果如何?

中国模型在中英双语和中文任务上差距已很小,价格约为 GPT-4 的 10-30%。代码任务中,Qwen3 Coder Plus 和 DeepSeek V4 Pro 接近 GPT-4 Turbo 水平。

性价比最高的模型组合是什么?

日常对话/客服 → Doubao Seed 1.6 Flash;代码任务 → Qwen3 Coder Plus;复杂任务 → DeepSeek V4 Flash 或 Qwen3.6 Plus;推理任务 → DeepSeek R1。这套组合覆盖 95% 场景,成本远低于 GPT-4。

API 响应延迟高怎么办?

延迟高的原因:1) 模型本身处理时间长(推理模型正常);2) 网络问题;3) 并发过高排队。建议:确认是哪个阶段慢;推理任务用流式输出改善感知延迟;切换到更快的模型;降低并发。

输出被截断了怎么办?

检查是否设置了 max_tokens 参数(值太小会导致截断);检查模型的最大输出限制;长内容可以分多次调用或先分段处理。

模型输出的格式不稳定怎么办?

1) 在 system prompt 中明确指定输出格式;2) 使用 JSON Mode(response_format: json_object);3) 提供 few-shot 示例;4) 用正则表达式后处理提取关键字段。

模型产生幻觉(Hallucination)怎么办?

1) 在 system prompt 中明确'不知道就说不知道,不要编造';2) 提供参考资料(RAG);3) 使用更权威的模型;4) 添加验证步骤(让模型检查自己答案的合理性)。

相同问题每次回答不一样,正常吗?

是的,这是正常的。LLM 是概率模型,temperature > 0 时会有随机性。如果需要确定性回答,设置 temperature: 0.1 或更低。

输出有乱码或 Unicode 问题怎么办?

确认你的代码文件编码为 UTF-8;确保 HTTP 请求的 Content-Type 包含 charset=utf-8;JSON 解析时指定 UTF-8 编码。

请求连接超时怎么处理?

设置合理的连接超时(5-10s)和读取超时(60-120s)。超时时使用指数退避重试,记录超时日志,如果频繁超时检查网络或切换到更快的模型。

长期运行的服务有内存泄漏怎么办?

确保不是 LLM 调用本身的问题(LLM 不持有状态);检查是否累积了大量对话历史未清理(长对话会持续占用内存);使用 streaming 模式减少内存占用。

如何准确计算 token 数?

使用 tiktoken(Python)或等效的 token 计数库。不同模型使用的 tokenizer 不同,OpenAI 的 tiktoken 对大多数兼容模型可用。控制台也会显示实际消耗的 token 数。

支持多少并发请求?

并发限制取决于你的套餐等级。免费/基础套餐并发较低,企业套餐可以协商更高的并发限制。429 错误是并发超限的信号。

电商场景适合用哪些模型?

商品描述生成 → Qwen3.6 Plus;智能客服 → Qwen3.5 Flash(简单)+ Qwen3.6 Plus(复杂);用户评论分析 → Doubao Seed 1.6 Flash(高频);图片审核 → Qwen3 VL Plus。

教育场景适合用哪些模型?

智能批改 → DeepSeek R1(推理);个性化内容生成 → Qwen3.6 Plus;口语练习对话 → Doubao Seed 1.6;多语言课程翻译 → Qwen3.6 Plus。

医疗场景可以用 ChinaWHAPI 吗?

ChinaWHAPI 的模型可用于医疗内容辅助(如患者教育材料生成、健康问答),但不能用于临床诊断决策。所有 AI 生成内容需由专业人士审核。

金融场景适合用哪些模型?

合同审查 → DeepSeek R1(推理能力强);风控报告生成 → Qwen3.6 Plus;金融问答 → ERNIE 4.5 Turbo(中文理解好);财报摘要 → Kimi K2.6(长文档处理)。

法律场景可以用哪些模型?

合同审查 → DeepSeek R1 或 Qwen3.6 Plus;法律文书摘要 → Kimi K2.6;案例检索 → RAG + Qwen3.6 Plus;法条引用 → ERNIE 4.5 Turbo(中文 NLP 强)。

内容创作场景适合用哪些模型?

短视频文案 → Doubao Seed 1.6 Flash(快速);深度文章 → Qwen3.6 Plus(质量);多语言内容 → Qwen3.6 Plus;SEO 内容 → Qwen3.5 Flash(批量)。

我的数据会被存储吗?

ChinaWHAPI 不会将你的 API 调用内容用于模型训练。具体数据存储政策请参考服务条款和隐私政策。敏感数据建议先做脱敏处理。

ChinaWHAPI 符合 GDPR 等数据合规要求吗?

ChinaWHAPI 致力于符合相关数据保护法规要求。企业用户可以联系支持团队获取数据处理协议(DPA)和详细合规说明。

在中国使用有哪些合规要求?

在中国提供 AI API 服务需要遵守相关法律法规。ChinaWHAPI 已取得必要资质,确保服务合规。用户使用 AI 生成的内容也需要遵守相关法律规定。

可以查看 API 调用审计日志吗?

控制台提供基础的用量统计和费用明细。企业套餐可提供更详细的审计日志,包括每次调用的时间、模型、token 量和费用。

第一次使用 ChinaWHAPI,应该怎么开始?

1) 注册账号并获取 API Key;2) 用控制台的测试功能发一条测试请求;3) 参考文档用 Python 或 Node.js 写第一个调用;4) 查看控制台的用量统计确认正常工作。

测试时会收费吗?

是的,所有 API 调用都会按实际 token 消耗计费。建议先用低价模型(如 Qwen3.5 Flash)和小 token 量测试,费用非常低(通常几分钱)。

最便宜的测试方案是什么?

用 Doubao Seed 1.6 Flash(最低价模型)+ 小 token 量输入(100 tokens 以下),单次测试成本通常低于 $0.0001。

如何升级/降级套餐?

在控制台的订阅页面可以查看和切换不同套餐。套餐变更即时生效,按剩余时间比例计算费用。

遇到问题如何联系技术支持?

可以通过控制台内置的支持入口提交工单,或发送邮件到支持邮箱。技术支持团队工作日通常在 24 小时内回复。

有服务状态页面吗?

ChinaWHAPI 有状态页面显示各模型和 API 端点的可用性。当服务出现异常时,会第一时间在状态页面发布公告。

在哪里查看新功能和更新公告?

ChinaWHAPI 会通过控制台公告和邮件通知发布新功能上线、模型更新和重要公告。控制台公告栏会显示最新动态。

各套餐的速率限制是多少?

免费/基础套餐并发较低(5-10 QPS),企业套餐可协商更高限制。具体数值可在控制台套餐详情页查看。429 错误是触发限流的信号。

旧模型下线后怎么办?

ChinaWHAPI 会提前在控制台公告模型下线时间。建议及时迁移到新模型或替代模型,ChinaWHAPI 会推荐最接近的替代品。