# CoMi V2.0环境准备指导手册
北京致远互联软件股份有限公司
2025年11月
# 前言
本手册对致远新一代智能体产品家族CoMi V2.0版本服务器环境准备相关事宜进行说明,如对本手册中相关内容存在疑问,请与致远互联的客户服务人员联系。
服务器环境准备视频讲解,可访问《CoMi飞书知识库环境资源准备 (opens new window)》查看。
# 版本变化
CoMi V2.0相比上个版本(CoMi V1.1)新增如下特性:
- 新增协同知识智能问答,新特性依赖协同全文检索服务向CoMi推送文档数据
- 向量知识库搜索新增全文检索、混合检索特性,新特性依赖ReRank模型进行检索重排序
- 新增Workflow工作流编排智能体
- 新增向导式安装部署工具,只需一台可以SSH到服务器的客户端电脑即可执行安装部署、启停、配置修改
- 新增CoMi Server APP服务,如使用CoMi移动APP,需要部署此服务
# CoMi环境准备
# 部署架构图
客户端、协同OA与CoMi V2.0版本相关服务的部署关系如下图所示(图中每个节点对应一个服务,多个服务可以根据情况部署在一台服务器):

注意:
协同服务访问公网云服务接口说明:安全助理智能体(无此需求可忽略)会定期采集外部热门威胁情报,需要添加网络白名单的地址:
(1) 致远官方漏洞库查询接口:https://service.seeyon.com
(2) 国际漏洞库CVE查询工具 :https://www.cve.org ; https://cveawg.mitre.org 详细说明见《CoMi用户操作手册》
CoMi系列服务可部署在一台服务器,当前仅支持单机模式,暂无高可用方案
相关服务说及配置要求:
- 协同OA服务/协同数据库:必须,老客户已部署协同无需增配,全新客户参考协同部署手册准备资源
- LLM大语言模型:必须,需客户准备,具体要求见后续环境准备章节
- Embedding文本向量模型:必须,需客户准备,
- ReRank重排序模型:非必须,需客户准备,具体要求见后续环境准备章节
- Nginx服务:必须,建议资源不低于
2C/4G/100G,老客户已部署无需增配,可独立部署、也可部署至协同OA服务器或部署至CoMi服务器,CoMi需要依赖Nginx才能实现与协同OA保持同域和安全通信 - AI-Engine服务:必须,端口8000,建议资源不低于
4C/8G/200G,推荐与其它CoMi服务部署至一台服务器 - AI-Manager服务:必须,端口8181,建议资源不低于
4C/16G/200G,推荐与其它CoMi服务部署至一台服务器 - AI-Security服务:非必须,端口9000,建议资源不低于
4C/8G/200G,仅使用安全助理智能体可选装,推荐与其它CoMi服务部署至一台服务器 - CoMi Server服务,非必须,端口8081,建议资源不低于
4C/8G/200G,依赖关系数据库存储数据,可复用协同库资源(需要新建一个空库给comi server),仅使用CoMi APP项目才需安装,推荐与其它CoMi服务部署至一台服务器 - Qdrant向量库:必须,端口6333、6334,建议资源不低于
4C/8G/200G,推荐与其它CoMi服务部署至一台服务器 - CoMi数据库:必须,支持MySQL、SQLServer、Oracle、达梦、金仓,数据库有版本要求(详见后续章节),建议资源不低于
4C/8G/200G,(满足版本要求的前提下)可复用协同数据库资源,也可与其它CoMi服务部署至一台服务器 - 协同驾驶舱BI含数据库:非必须,端口8058、5432,智能问数场景需要部署,建议500在线用户资源不低于
16C/32G/300G,更高在线根据实际情况扩大配置。如老客户已部署协同驾驶舱BI,则需要参考智能问数部署手册检查是否需要升级BI程序版本。 - 全文检索服务:必须,端口和建议资源见全文检索部署手册,建议单独部署
- 在单台服务器资源足够大的前提下,推荐CoMi系列服务(Ai-Engine、AI-Manager、AI-Security、Qdrant、驾驶舱BI)部署在同一台服务器利于维护
协同OA和CoMi服务的对应关系:
- 协同OA和CoMi服务是一一对应关系,不允许出现两套OA连接同一个CoMi服务的情况
- 如使用协同智能搜索知识问答功能,协同会通过ES将文档推送给COMi服务进行向量化,如果两套OA都推送会导致CoMi异常
- CoMi部署时需要配置协同OA的Nginx访问地址,这个地址是唯一的,故也必须做到一一对应。
# 服务器准备
根据上一章节多个服务可以集中部署在一台服务器原则,以下是生产环境推荐服务器规划(项目上可根据实际情况自行调整):
| 服务器 | 数量 | 配置要求 | 备注 |
|---|---|---|---|
| Nginx服务器 | 1台 | CPU>=2C/内存>=4G/数据盘100G | 单独部署灵活性更高,但不要求绝对单独部署,推荐Linux/信创系统 |
| CoMi服务器 | 1台 | 不含问数CPU>=16C/内存>=32G/数据盘>=500G 含智能问数CPU>=32C/内存>=64G/数据盘>=1000G | 包含CoMi系列服务,注意服务器硬件资源是CoMi各服务资源的总和,POC演示环境配置可减半,推荐Linux/信创系统 |
| 全文检索 | - | 阶梯配置参考全文检索部署手册 | 如需使用协同知识问答,则需要全文检索服务 |
| LLM大语言模型 | - | - | 必备,客户提供 |
| Embedding文本向量模型 | - | - | 必备,客户提供 |
| ReRank重排序模型 | - | - | 非必须,客户提供 |
| 协同主服务器 | - | 见协同部署手册 | |
| 协同数据库服务器 | - | 见协同部署手册 |
大模型作用和推荐:
- LLM大语言模型:必须,需客户准备。支持公有云和本地化模型,需要提供OpenAI接口请求,同时支持Function Calling功能(如不支持,涉及调用协同和第三方的智能体应用均无法使用)。作用:CoMi使用语言模型进行意图识别、调用决策、分析总结,LLM模型是超级核心。公有云推荐阿里百炼平台 (opens new window)qwen-plus、DeepSeek官网 (opens new window)最新模型(DeepSeek-V3.2-Exp)、火山引擎 (opens new window)最新豆包1.6模型。本地化模型推荐近期较新的开源MOE模型(30B参数起步),所需算力由低到高推荐:Qwen3-30B-A3B-Instruct-2507、Qwen3-Next-80B-A3B-Instruct、Qwen3-235B-A22B-Instruct-2507、DeepSeek-V3.2。生产级本地化模型服务推荐使用高效的vllm推理引擎运行,Tokens上下文建议输入32K以上,输出8K。本地化模型依赖很高的服务器算力,其算力资源由 模型参数大小、量化精度(FP16/INT8/INT4)、激活策略(Moe/Dense)、上下文并发限制 等综合因素决定,建议咨询专业模型厂商落地。
- 已知不推荐使用的LLM模型为DeepSeek-R1,该模型没有Function calling能力,内部【模型能力测试】 (opens new window)多个功能不可用。
- Embedding文本向量模型:必须,需客户准备。支持公有云和本地化模型,需要提供OpenAI接口请求。模型需支持不低于8192 Tokens(8K上下文长度)的输入,向量维度默认1024。作用:解决无法检索企业私域知识的关键模型,将企业文本数据转化为向量,实现语义搜索,让CoMi能够实现自然语言检索企业知识的能力。公有云可尝试硅基流动AI平台bge-m3 (opens new window)(以后可较低成本切本地bge-m3模型)、阿里百炼平台text-embedding-v3(如果以后都不切本地模型,可以使用这款)。Embedding模型本地化部署推荐bge-m3。
- ReRank重排序模型:非必须,需客户准备。支持公有云和本地化模型,需要提供OpenAI接口请求。如需向量检索+全文检索多路召回能力提升检索质量,则必须使用ReRank模型。公有云可尝试硅基流动AI平台bge-reranker-v2-m3 (opens new window)(以后可较低成本切本地bge-reranker-v2-m3模型)。ReRank本地化部署推荐bge-reranker-v2-m3(支持8k token上下文)。
- 如需了解什么是OpenAI接口,接口应该如何测试可参考《CoMi模型配置操作手册 (opens new window)》中的测试示例。
- 本地化模型涉及较大成本投入和专业部署技能,不在CoMi部署和方案支持范围内。如客户需要代采,公司战略合作与生态产品团队与模型专业供应商有建联,推出了<致远COMI一体机解决方案-本地大模型>方案,可与政务营销推进部liuxuan联系询价。
- 如客户具备自主部署维护模型能力,最低算力和相关模型下载地址,可参考《CoMi知识库-硬件成本预估 (opens new window)》在线文档,模型迭代很快,会定期刷新推荐模型。
CoMi相关服务器资源规划: CoMi可以在一台,也可以多个服务分离部署,无论哪种方式需要确保服务器资源足够(避免引发生产系统性能故障)
- 如单台服务器资源足够大,可以考虑CoMi多个相关服务部署在一起
- 如服务器充足,或此前已经部署过全文检索、BI,可以复用现有服务器资源,只针对CoMi其它服务准备一台服务器

Nginx服务器规划: (服务器数量有限情况下)协同可与Nginx同一台服务器,或者CoMi与Nginx同一台服务器,确保服务器总资源是否满足需求即可:

(服务器数量有限情况下)生产环境不推荐CoMi系列服务与文档通、数科、致信等服务部署在一起,避免端口冲突、资源争抢等问题:

# 安装包准备
从商务公布的安装程序地址下载(文档中心-文档库-营销中心-营销体系销售管理知识库-产品下载地址-提交给区域产品下载地址xxx.xls),产品线对应AI:

# 适配协同版本
CoMi 2.0标准产品随协同V10.0SP1版本匹配发布,即标准支持V10.0SP1版本。
同时也提供了极少量协同低版本适配,CoMi 2.0对V5产品线早期版本适配列表详见《协同版本边界feishu知识库 (opens new window)》,如表格中有打补丁需求,需要严格按表格中的说明操作。
# 商务插件和功能对照
CoMi V2.0需要在协同OA中增加对应插件,详细插件清单和报价以商务公告《V10.0sp1产品上市通知》为准(协同低版本使用CoMi2.0政策详询商务):

[CoMi知识库飞书在线文档] (opens new window) 提供了相关插件模块和浏览器兼容性说明。
用户可能不会使用全部CoMi功能,以下针对CoMi关键功能列举所需插件和所需服务:
| 功能 | V5产品线插件 | A9C产品线插件 | 所需服务 |
|---|---|---|---|
| ★CoMi基础底座-包含设计器 | CoMi设计引擎 (需要CoMi超级入口插件) | CoMi智能助手 | 协同服务、LLM模型、Embedding模型、Nginx、AI-Engine、AI-Manager、Qdrant、数据库 |
| 协同知识搜索和智能问答 | 增加 CoMi知识搜索和智能问答 插件、全文检索插件 | CoMi智能助手 | 全文检索服务 |
| 智能问数 | 增加 协同驾驶舱高级版-运行平台 和 CoMi智能问数 插件、以及申请永洪BI报表引擎License | - | 协同驾驶舱高级版服务 |
| CoMi移动APP | CoMi APP模块(需要CoMi超级入口插件) | CoMi智能助手 | CoMi Server |
| CAP4接入CoMI Agent组件 | 增加 CAP+Agent 插件、应用定制平台高级版 | - | 无 |
注:
- CoMi基础底座是必须组件,所有增值功能都在CoMi基础底座基础上增量运行。
- 如无需设计器,只需要开箱即用CoMi智能体,则可以申请不含设计器的CoMi基础插件: CoMi运行引擎 、CoMi超级入口。
# 操作系统支持
CoMi V2.0系列服务支持如下操作系统:
| 分类 | 支持情况 |
|---|---|
| 权限要求 | 需要以管理员(root)权限操作 |
| 支持操作系统 | CentOS 7、CentOS 8 RedHat 7、RedHat 8 openEuler 24.03-LTS Anolis 8.10 Ubuntu 22.04 LTS 麒麟V10 统信UOS V20 |
| 服务器类型 | x86、Arm |
如无特殊要求,不建议使用Windows系统部署CoMi:没有部署工具、部署繁琐、易出错!
# 适配数据库版本范围
CoMi V2.0支持的数据库版本要求如下,不在版本范围的数据库不可用:
- mysql5.7、mysql8.0
- 达梦8.4
- 人大金仓(电科金仓)V8R6(Oracle兼容模式)
- postgreSQL 13.3
- sqlServer 2019
- oracle 19c(其它Oracle版本不支持)
数据库参数配置兼容要求与协同OA一致,故可以复用协同OA数据库服务(新建comi的数据库)。
(不涉及信创合规性)也推荐快速部署MySQL,实现comi单独数据库维护:
# CoMi系列服务部署方式
# 部署模式和资料
CoMi V2.0系列服务支持多种部署方式,项目上可根据用户情况选择合适的部署模式:
| 方案 | 部署方式 | 支持操作系统 | 部署说明 | 推荐指数 | 部署手册 |
|---|---|---|---|---|---|
| 方案1 | 向导式部署 | Linux、信创系统 | 自动安装CoMi基础服务,浏览器网页可视化启停+调整参数,简单易用 当前方案不支持自动部署如下服务:Nginx、全文检索、数据库,这些服务需要手工部署 | ★★★★★ | 手册链接 (opens new window) |
| 方案2 | Docker容器部署 | Linux、信创系统 | 自动安装docker和CoMi基础服务,包括智能问数、Nginx均可自动安装,适合快速搭建出效果,需要具备一定Linux维护经验 当前方案不支持自动部署如下服务:全文检索,这个服务需要手工部署 | ★★★★★ | 手册链接 (opens new window) |
方案一部署视频学习路径: 协同云→赋能中心→致远学院→搜索 CoMi V2.0使用智能工具部署演示
方案二部署视频学习路径: 协同云→赋能中心→致远学院→搜索 CoMi V2.0使用Docker部署演示
其它独立服务部署手册如下:
| 编号 | 服务名 | 支持操作系统 | 部署说明 | 部署手册 |
|---|---|---|---|---|
| 1 | Nginx | Linux、信创系统 | Nginx部署手册参考 (opens new window) | |
| 2 | 全文检索 | Windows Server、Linux、信创系统 | 10.0SP1全新部署后无需打补丁 早期版本全文检索需要打补丁 | 全文检索10.0SP1部署手册参考 (opens new window) 全文检索老版本补丁更新手册 (opens new window) |
| 3 | 数据库 | Windows Server、Linux、信创系统 | 可复用协同数据库,但注意检查适配版本 | MySQL8部署手册参考 (opens new window) |
| 4 | 智能问数 | Windows Server、Linux、信创系统 | 向导式部署工具支持自动部署智能问数,只有无法使用向导式工具场景才需参考手册独立部署 | 协同驾驶舱V3.0独立部署手册 (opens new window) |
# 部署方案示例
以下提供几种场景下服务部署方案示例:
场景一:V10.0SP1信创新客户使用CoMi2.0全家桶(CoMi基础应用、智能问数、CoMi Server APP、协同知识检索)
场景一顺序部署方案:
- 申请以上相关全部插件,部署V10.0SP1产品,参考手册:协同主服务-信创维护手册 (opens new window)
- 部署Nginx代理协同OA,参考手册: Nginx部署手册参考 (opens new window)
- 使用工具部署CoMi基础应用、智能问数、CoMi Server APP ,参考手册: 智能工具部署手册 (opens new window)
- 参考上一步手册进行模型的配置和CoMi应用初始化
- 智能问数部署后需要进行初始化,参考手册:智能问数V3.0部署配置手册 (opens new window) (跳过部署,直接到初始化章节;注:客户如果是信创的话,可能需要达梦数据库)
- 部署全文检索V10.0SP1,参考手册:全文检索部署维护手册V10.SP1 (opens new window)
- 全文检索配置集成CoMi实现知识检索能力,参考手册:CoMi V2.0全文检索协同知识问答配置手册 (opens new window)
注:场景一没有推荐CoMi使用Docker一体化部署,是因为一体化部署使用了MySQL和Postgresql数据库,客户信创可能过不了。
场景二:非信创老客户(如V9.0SP1版本)使用CoMi2.0全家桶(CoMi基础应用、智能问数、CoMi Server APP、协同知识检索)
场景二顺序部署方案:
- 首先,先判断客户的OA版本是否支持CoMi 2.0,是否支持全家桶功能,并不是所有老版本功能都支持!参考手册:《协同版本边界feishu知识库 (opens new window)》
- 判断老版本的BuildID是否对的上,如果对不上,则需要小小升级协同OA老版本到支持的BuildID上,如V9.0SP1 B240731微小升级到V9.0SP1 B250518
- 打协同OA的CoMi降版适配补丁,低版本一般都要打CoMi补丁才能使用(补丁一般在商务公布的安装程序-AI里面)
- 申请以上相关全部插件
- 部署Nginx代理协同OA(如客户已有NG,则利旧),参考手册: Nginx部署手册参考 (opens new window)
- 使用工具部署CoMi基础应用、智能问数、CoMi Server APP ,参考手册: 智能工具部署手册 (opens new window) 。或者使用Docker容器部署也非常快,参考手册:CoMi V2.0 Docker一体化部署手册 (opens new window)
- 参考上一步手册进行模型的配置和CoMi应用初始化
- 智能问数部署后需要进行初始化,参考手册:智能问数V3.0部署配置手册 (opens new window) (跳过部署,直接到初始化章节;注:客户如果此前已经部署了协同驾驶舱高级版,也要求更新到V3.0版本)
- 部署对应版本的全文检索服务并且打全文检索补丁(如客户老版本已部署全文检索,也需要参考手册打补丁)!参考手册:全文检索老版本补丁更新手册 (opens new window)
- 全文检索配置集成CoMi实现知识检索能力,参考手册:CoMi V2.0全文检索协同知识问答配置手册 (opens new window)
快速跳转