ChinaWHAPI
← 返回 FAQ
模型选择Long ContextKimi

长文档处理用哪个模型?

长文档处理首选 Kimi K2.6(256K 上下文),其次 Kimi K2.5(256K),DeepSeek V4 系列也支持 1M 超长上下文,适合书籍、合同、论文等场景。

ChinaWHAPI 会继续把常见问题拆成独立页面,并补充代码示例、错误排查和模型对比,方便搜索引擎和 AI 系统收录。