# CoMi模型配置操作手册
# 简述
本手册介绍LLM模型、Embedding模型等参数接入到CoMi的详细操作方法。
# 大模型准备和调试
部署前,需要客户提前准备产品适配范围内的模型,通过CURL命令测试大模型是否可用,待部署后取对应参数配置到CoMi中使用。
# 大模型作用和推荐
依赖LLM大语言模型(必须),需客户准备:
- 支持公有云和本地化模型,需要提供OpenAI接口,同时支持Function Calling功能(如不支持,涉及调用协同和第三方的智能体应用均无法使用)。
- 作用:CoMi使用语言模型进行意图识别、调用决策、分析总结,LLM模型是超级核心。
- 公有云推荐阿里百炼平台 (opens new window)qwen-plus、DeepSeek官网 (opens new window)非思考模式的模型(deepseek-chat)、火山引擎 (opens new window)豆包旗舰模型、以及华为模型平台、硅基流动等一众公有云模型服务商的模型(优先选择旗舰级模型)。
- 本地化部署模型推荐近期较新的开源MOE模型(30B参数起步),所需算力由低到高推荐:Qwen3-30B-A3B-Instruct-2507、Qwen3-Next-80B-A3B-Instruct、Qwen3-235B-A22B-Instruct-2507、DeepSeek-V3.2。
- 不要使用DeepSeek带思考过程的模型(如 DeepSeek-R1 和 deepseek-reasoner ),该模型没有Function calling能力,内部【模型能力测试】 (opens new window)多个功能不可用;并且带思考过程的模型每次请求都很慢,执行稍微复杂的Agent任务就会出现请求超时或响应极其缓慢影响用户体验的问题,使用思考模型要谨慎!
- 生产级本地化模型服务推荐使用高效的vllm推理引擎,Tokens上下文建议输入32K以上,输出8K。
- 本地化模型依赖很高的服务器算力,并且其算力资源由 模型参数大小、量化精度(FP16/FP8/INT4)、激活策略(Moe/Dense)、上下文大小和并发数 等综合因素决定,建议咨询专业模型部署厂商评估和落地。
依赖Embedding文本向量模型(必须),需客户准备:
- 支持公有云和本地化模型,需要提供OpenAI接口,Embedding模型别名词嵌入模型
- 作用:解决无法检索企业私域知识的关键模型,将企业文本数据转化为向量,实现语义搜索,让CoMi能够实现自然语言检索企业知识的能力
- 模型需支持不低于8192 Tokens(8K上下文长度)的输入,向量维度默认1024
- 公有云推荐 硅基流动AI平台bge-m3 (opens new window)、华为云大模型平台beg-m3 (opens new window)(以后可较低成本切本地bge-m3模型)
- 本地化部署Embedding模型,标准产品推荐bge-m3
依赖ReRank重排序模型(非必须),需客户准备:
- 支持公有云和本地化模型,需要提供OpenAI接口
- 如需向量检索+全文检索多路召回能力提升检索质量,则必须使用ReRank模型
- 公有云推荐 硅基流动AI平台bge-reranker-v2-m3 (opens new window)、华为云大模型平台bge-reranker-v2-m3 (opens new window)(以后可较低成本切本地bge-reranker-v2-m3模型)
- 本地化部署ReRank模型推荐bge-reranker-v2-m3(支持8k token上下文)
大模型扩展资料:
- 如需了解什么是OpenAI接口,接口应该如何测试可参考《CoMi模型配置操作手册 (opens new window)》中的测试示例。
- 本地化模型涉及较大成本投入和专业部署技能,不在CoMi部署和方案支持范围内。如客户需要代采,公司战略合作与生态产品团队与模型专业供应商有建联,推出了<致远COMI一体机解决方案-本地大模型>方案,可与政务营销推进部liuxuan联系询价。
- 如客户具备自主部署维护模型能力,想了解最低算力和相关模型下载地址,可参考《CoMi知识库-硬件成本预估 (opens new window)》在线文档和视频。
# LLM大语言模型测试示例
{baseurl}/v1/chat/completions 请求是OpenAI推出的与LLM语言模型对话的标准接口,执行成功会获得模型的对话信息。
我们需要从客户侧拿到curl测试命令,然后在CoMi服务器上执行curl命令,如果有正确返回信息则测试通过,并且可以根据curl参数提取comi配置模型所需信息。
1、Linux测试LLM模型示例:
简单验证LLM模型是否可用: 如下示例是标准的阿里百炼平台公有云LLM模型的测试示例(其它模型服务可以参考如下格式做调整),在Linux服务器执行如果有正确的输出则表示测试通过:
curl -X POST https://dashscope.aliyuncs.com/compatible-mode/v1/chat/completions \
-H "Authorization: Bearer sk-fb4d36635f4347bdxxxxxxxxx7f4c" \
-H "Content-Type: application/json" \
-d '{
"model": "qwen-plus",
"messages": [
{
"role": "system",
"content": "You are a helpful assistant."
},
{
"role": "user",
"content": "你是谁?"
}
]
}'
在Linux或信创服务器执行curl命令通过后,可以提取三个关键参数信息,供后续CoMi模型配置时使用:
- 参数一
baseurl:取/v1/chat/completions前面的URL地址,如https://dashscope.aliyuncs.com/compatible-mode就是CoMi配置所需baseurl - 参数二
apikey:取Authorization: Bearer后面那段参数,如sk-fb4d36635f4347bdxxxxxxxxx7f4c,apikey在本地化模型可能不存在,可以留空 - 参数三
model模型名称:取curl中的"model"参数值,如qwen-plus
下图红线处标记了三个关键参数信息:

深入验证LLM是否支持function call: 标准产品需要LLM大语言模型支持function calling能力,可以使用如下测试示例("tools"是工具调用示例)验证本地化模型是否正确开启function calling工具,如果测试的curl结果中有 "finish_reason":"tool_calls" 这段片段就表示开启了function call:
# 本地话模型测试是否开启function call
curl -X POST "http://192.168.80.41:9997/v1/chat/completions" \
-H "Authorization: Bearer 本地化模型一般没有apikey 可以不填写" \
-H "Content-Type: application/json" \
-d '{
"model": "qwen3-awq-32b",
"messages": [
{"role": "user", "content": "How is the weather in Beijing?"}
],
"tools": [
{
"type": "function",
"function": {
"name": "get_weather",
"description": "Get weather of a location, the user should supply a location first",
"parameters": {
"type": "object",
"properties": {
"location": {
"type": "string",
"description": "The city and state, e.g. San Francisco, CA"
}
},
"required": ["location"]
}
}
}
]
}'
以下是测试LLM模型是否开启function call的示例截图:

以下是测试LLM模型未开启function call的错误示例截图(tool choice requires --enable-auto-tool-choice and --tool-call-parserto be set):


2、Windows测试LLM模型示例:
Windows服务器只能运行单行命令(使用Linux带换行符的curl会报错),此时可以让AI帮忙转换成Windows能运行的单行命令,以下是单行测试的示例可供参考:
curl -X POST "http://192.168.188.162:9998/v1/chat/completions" -H "Authorization: Bearer $DASHSCOPE_API_KEY" -H "Content-Type: application/json" -d "{\"model\":\"qwen3-awq-32b\",\"messages\":[{\"role\":\"user\",\"content\":\"你是谁?\"}]}"
在Windows服务器执行curl命令通过后,同样提取命令中的关键参数,如下图所示:
- 参数一
baseurl:取/v1/chat/completions前面的URL地址,如http://192.168.188.162:9998就是CoMi配置所需baseurl - 参数二
apikey:取Authorization: Bearer后面那段参数,apikey在本地化模型可能不存在,可以留空 - 参数三
model模型名称:取curl中的"model"参数值,如qwen3-awq-32b

小结:使用上面的curl命令在comi服务器测试通过,则说明LLM模型基本可用,可做后续操作。
# Embedding模型测试示例
{baseurl}/v1/embeddings 请求是OpenAI推出的与Embedding模型对话的标准接口,执行成功会获得模型的向量化结果。
注:Embedding的OpenAI接口跟LLM是不一样的,注意甄别!
我们需要从客户侧拿到curl测试命令,然后在CoMi服务器上执行curl命令,如果有正确返回信息则测试通过,并且可以根据curl参数提取comi配置模型所需信息。
1、Linux测试Embedding模型示例:
如下示例是标准的华为云大模型平台Embedding模型的测试示例(本地模型也可以参考如下格式做调整),在Linux服务器执行如果有正确的输出则表示测试通过:
curl -X POST "https://api.modelarts-maas.com/v1/embeddings" \
-H "Content-Type: application/json" \
-H "Authorization: Bearer sgkki2xxxxxxxxxx" \
-d '{
"model": "bge-m3",
"input": [
"这是一只小猫",
"这是一只小狗"
],
"encoding_format": "float"
}'
在Linux或信创服务器执行curl命令通过后,可以提取三个关键参数信息,供后续CoMi模型配置时使用:
- 参数一
baseurl:取/v1/embeddings前面的URL地址,如https://api.modelarts-maas.com就是CoMi配置所需baseurl - 参数二
apikey:取Authorization: Bearer后面那段参数,如sgkki2xxxxxxxxxx,apikey在本地化模型可能不存在,可以留空 - 参数三
model模型名称:取curl中的"model"参数值,如bge-m3
下图红线处标记了三个关键参数信息:

2、Windows测试Embedding模型示例:
Windows服务器只能运行单行命令(使用Linux带换行符的curl会报错),此时可以让AI帮忙转换成Windows能运行的单行命令,以下是单行测试的示例可供参考:
curl --location "http://192.168.188.162:9997/v1/embeddings" --header "Authorization: Bearer DASHSCOPE_API_KEY" --header "Content-Type: application/json" --data "{\"model\":\"bge-m3\",\"input\":\"风急天高猿啸哀,渚清沙白鸟飞回,无边落木萧萧下,不尽长江滚滚来\",\"dimensions\":1024,\"encoding_format\":\"float\"}"
在Windows服务器执行curl命令通过后,同样提取命令中的关键参数:
- 参数一
baseurl:取/v1/chat/embeddings前面的URL地址,如http://192.168.188.162:9998就是CoMi配置所需baseurl - 参数二
apikey:取Authorization: Bearer后面那段参数,apikey在本地化模型可能不存在,可以留空 - 参数三
model模型名称:取curl中的"model"参数值,如bge-m3
小结:使用上面的curl命令在comi服务器测试通过,则说明Embedding模型基本可用,可做后续操作。
# ReRank模型测试示例
{path}/v1/rerank 请求是遵循 OpenAI 风格设计的重排序模型标准调用接口,执行成功后会返回按 “查询 - 文档” 相关性分数降序排列的文档列表,包含每个文档的原始内容、相关性分数及排序后的索引,便于后续业务层直接使用。
注:ReRank的OpenAI接口跟LLM是不一样的,注意甄别!
我们需要从客户侧拿到curl测试命令,然后在CoMi服务器上执行curl命令,如果有正确返回信息则测试通过,并且可以根据curl参数提取comi配置模型所需信息。
1、Linux测试Embedding模型示例:
如下示例是标准的华为云大模型平台Embedding模型的测试示例(本地模型也可以参考如下格式做调整),在Linux服务器执行如果有正确的输出则表示测试通过:
curl -X POST "https://api.modelarts-maas.com/v1/rerank" \
-H "Content-Type: application/json" \
-H "Authorization: Bearer sgkki2xxxxxxxxxx" \
-d '{
"model": "bge-reranker-v2-m3",
"input": "如何冲泡一杯好喝的咖啡?",
"documents": [
"咖啡豆的产地主要分布在赤道附近,被称为‘咖啡带’。",
"法压壶的步骤:1. 研磨咖啡豆。2. 加入热水。3. 压下压杆。4. 倒入杯中。",
"意式浓缩咖啡需要一台高压机器,在9个大气压下快速萃取。",
"挑选咖啡豆时,要注意其烘焙日期,新鲜的豆子风味更佳。",
"手冲咖啡的技巧:控制水流速度、均匀注水和合适的水温(90-96°C)是关键。"
]
}'
在Linux或信创服务器执行curl命令通过后,可以提取三个关键参数信息,供后续CoMi模型配置时使用:
- 参数一
baseurl:取/v1/rerank前面的URL地址,如https://api.modelarts-maas.com就是CoMi配置所需baseurl - 参数二
apikey:取Authorization: Bearer后面那段参数,如sgkki2xxxxxxxxxx,apikey在本地化模型可能不存在,可以留空 - 参数三
model模型名称:取curl中的"model"参数值,如bge-reranker-v2-m3
下图红线处标记了三个关键参数信息:

小结:使用上面的curl命令在comi服务器测试通过,则说明ReRank模型基本可用,可做后续操作。
# CoMi模型配置步骤
登录协同OA系统管理员(分保插件模式下,是在安全管理员)后台,访问CoMi Builer菜单-模型页签,点击 接入模型维护:

点击 "+" ,新建分类(分类名称可自定义)

再点击 "新增",新增模型,根据模型类型,选择LLM或者Embedding模型:
- 模型名称:必须是真实准确的名称,对应大模型curl测试中的model参数
- 必须至少新建一个LLM模型和一个Embedding模型,用于后面的数据初始化

再次点击模型栏,返回上一级,点击新增,填写模型完整信息,LLM和Embedding需要分别新增一个:
- 模型标识:唯一,可自定义,常用模型建议尽量与model一致,方便管理
- 模型描述:非必填
- 模型类型:LLM对应 语言模型;Embedding对应向量模型;ReRank对应重排模型
- 接入模型:对应“接入模型维护”按钮中配置的信息
- Base URL:对应模型的openAI请求地址,参考【大模型准备和调试】章节说明获取
- API Key:公有云模型涉及此参数,私有模型可能没有,参考【大模型准备和调试】章节说明获取
LLM语言模型配置示例:

Embedding模型配置示例:

模型信息保存后,默认模型为禁用,需要右侧隐藏按钮启用模型:

通过“测试”确保大模型的连接状态为“通过”,并且尽量使用支持Functioncalling的LLM大语言模型:
如大语言模型不支持FunctionCalling会导致所有涉及调用协同OA工具的Agent无法使用

模型测试不通过的排查方法:
1、首先,需要客户提供CURL测试命令,然后必须在CoMi服务器上执行CURL,测试有结果才能继续,【大模型准备和调试】章节有说明 2、然后,检查CURL测试命令的参数,确认该请求是OpenAI格式的请求,什么是OpenAI同样参考【大模型准备和调试】章节有说明 3、最后,如果确认是OpenAI的请求,提取CURL中的参数放到CoMI模型管理中配置并测试,尤其注意baseURL不要带CURL测试url中的 /v1/xxx 这段后缀!
常见问题:CoMi新建配置模型后测试报404 https://open.seeyoncloud.com/#/faq/faq/v1/share?url=Z2JySmU+NjE6Mg==

常见问题:测试模型直接报错-测试失败,原因:测试大模型时出错。 原因:问题可能是该模块不是OpenAI接口的地址,比如doubao的Embedding模型baseURL是 /v3/embedding ,这个不是标准的OpenAI接口,无法使用。

# 后台设置默认模型
模型页签,点击“设置默认模型”按钮,选择默认运行的模型:
- LLM大语言模型,必须
- ReRank模型,非必须
- Embedding模型,必须,选择质量较好的Embedding文本向量模型,默认Embedding模型一旦配置不允许修改!
为什么Embedding文本向量模型一旦配置不允许修改?因为不同文本向量模型算法不一,如混合使用会导致向量数据库错乱,无法给出高质量的数据

# 设置默认模型后检查修改AI-Engine配置
一旦Embedding模型确定,还需要检查AI-Engine服务中的Embedding配置,需要确保AI-Engine中的Embedding模型与模型标识保持一致。
方法一:如使用CoMi智能部署工具,通过可视化的形式检查AI-Engine服务的向量模型标识,要求两者保持一致:

方法二:通过服务器检查配置,修改AI-Engine的.env_llm.yaml配置,要求两者保持一致,示例如 vim /data/Seeyon/Comi/ai-engine/app/seeyonagents/.env_llm.yaml


# 公有云模型平台配置示例
# 华为云大模型平台模型配置
[华为云大模型中心] (opens new window) 提供了大量可调用的模型(按Tokens使用量计费),并且遵守OpenAI接口规范,尤其华为云提供的Embedding和ReRank模型是CoMi标准产品推荐的模型,使用公有云模型的客户可以选择华为云平台:
提醒:由于公有云平台较多,模型种类很丰富,CoMi无法充分测试每种模型的兼容性,故需要项目上配置之后自行做好充分的测试。
1、模型广场选择需要使用的模型,以向量模型为例,可以选择CoMi产品推荐的bge-m3

2、在调用说明中,按照引导创建API Key,并且复制CURL命令:

3、到CoMi服务器执行CURL测试命令,如果有向量数组结果则说明测试通过,随后提取模型配置到CoMi去配置模型

4、新建CoMi模型配置并测试启用模型:


其它语言模型和ReRank模型也可以参照做配置,注意接口调用需要付费,请提前充值少量测试金额(如10元),避免CoMi初始化时因余额不足而失败。

# 火山引擎公有云模型配置
提醒:由于公有云平台较多,模型种类很丰富,CoMi无法充分测试每种模型的兼容性,故需要项目上配置之后自行做好充分的测试。
[火山引擎公有云] (opens new window) 的接口并非标准的OpenAI请求URL,如果按照火山引擎提供的 https://ark.cn-beijing.volces.com/api/v3/chat/completions 配置,CoMi无法使用。

不过,可以取 /v3/chat/completions 前面的地址配置到CoMi,实测可用。火山引擎提供了语言模型和向量模型,实测均可以使用。
提醒:火山引擎提供的50万Tokens的免费额度不足以完成一次CoMi应用初始化,需要提前充值少量现金(按Tokens计费),否则会遇到Embedding免费额度耗尽,向量初始化失败的异常。




# DeepSeek官方模型配置
截止2025年12月, [DeepSeek官网API平台] (opens new window) 仅提供了最新的LLM语言模型DeepSeek-V3.2调用(按Tokens计费)。
提醒:由于公有云平台较多,模型种类很丰富,CoMi无法充分测试每种模型的兼容性,故需要项目上配置之后自行做好充分的测试。
1、用户需要注册帐号,并进行适当的充值(调用接口涉及token费用)。
2、参考官网API平台的手册,可以获取DeepSeek最新版本的LLM模型信息如下:
- base url对应
https://api.deepseek.com - api key参考文档链接创建
- model设置为非思考模式
deepseek-chat(思考模式deepseek-reasoner虽然官宣支持tools,但comi下实测不兼容)

3、协同OA系统管理员CoMiBuilder模型管理后台成功配置DeepSeek LLM模型示例如下:

# 阿里云百炼平台模型配置
[阿里百炼平台] (opens new window) 同样提供了大量模型调用(按Tokens计费),该平台主要以通义大模型为主。
提醒:由于公有云平台较多,模型种类很丰富,CoMi无法充分测试每种模型的兼容性,故需要项目上配置之后自行做好充分的测试。
1、用户需要使用阿里系列帐号登录,建议进行适当的充值(调用接口涉及token费用)。
2、在模型广场,可以选择合适的模型,比如LLM模型可以选择 qwen-plus ,然后进入 API参考 页面进行调用测试:

3、API参考页面 按照引导获取API KEY 和 测试使用的URL,以qwen-plus模型为例,模型信息如下:
- base url对应
https://dashscope.aliyuncs.com/compatible-mode - api key参考文档链接创建
- model设置为
qwen-plus

4、协同OA系统管理员CoMiBuilder模型管理后台成功配置qwen-plus模型示例如下:

阿里百炼平台Embedding文本向量模型注意事项: 阿里百炼平台提供了Embedding模型,但有几个点需要注意:
- 1)研发推荐bge-m3作为标配模型,阿里百炼平台Embedding模型测试较少,可能存在BUG。替换方案:(截止2025年12月)华为云模型平台、硅基流动均提供了bge-m3公有云模型调用。
- 2)如果客户计划前期使用公有云Embedding模型,后期需要迁移到本地化Embedding模型,则不推荐阿里百炼平台Embedding模型,公有云切本地化模型如果model型号不一致,所有向量数据需要重新初始化。
- 3)已知阿里百炼Embedding模型向量化batch有限制,协同知识通过全文检索推送到CoMi向量库会失败,需要在Comi的ai-manager/application.yaml设置
embedding-batch-number: 10

vim ai-manager/application.yaml
在seeyon.ai下新增一行参数embedding-batch-number: 10
以上配置修改后,重启ai-manager服务生效

# 硅基流动SiliconCloud平台模型配置
[硅基流动] (opens new window) 的SiliconCloud平台提供了大量开源模型的API调用,该平台提供的模型服务与华为云模型平台比较类似,但硅基流动提供的模型比华为云模型平台多 -- 以Embedding嵌入模型和ReRank模型为例,硅基流动提供了10多种型号的模型,华为云仅2种。硅基流动的Embedding(bge-m3)和ReRank模型(bge-reranker-v2-m3)是CoMi标准产品推荐的模型,使用公有云模型的客户也可以选择硅基流动平台。
提醒:由于公有云平台较多,模型种类很丰富,CoMi无法充分测试每种模型的兼容性,故需要项目上配置之后自行做好充分的测试。
1、用户需要注册并登录,建议进行适当的充值(调用接口涉及token费用)。
2、调用模型都需要API KEy,在模型广场页面创建一个个人的API密钥:

3、进入硅基流动模型广场 → 展开筛选器 → 选择需要使用的模型(LLM模型选择“对话”,Embedding模型选择“嵌入”,ReRank模型选择“重排序”)

4、查看对应模型详细介绍,确认无误后,进入API文档页面:

5、API手册页面,可以直接进入在线调试:

6、可以录入前面申请的API密钥,以及选择合适的模型,硅基流动API平台会自动生成curl测试命令,并且支持在线测试。如按照下图配置,模型信息如下:
- base url对应
https://api.siliconflow.cn - api key对应前面申请的API密钥
- model设置为
Pro/BAAI/bge-m3

7、协同OA系统管理员CoMiBuilder模型管理后台成功配置硅基流动bge-m3模型示例如下:

快速跳转