# CoMi V2.0环境准备指导手册

北京致远互联软件股份有限公司

2025年11月

# 前言

本手册对致远新一代智能体产品家族CoMi V2.0版本服务器环境准备相关事宜进行说明,如对本手册中相关内容存在疑问,请与致远互联的客户服务人员联系。

服务器环境准备视频讲解,可访问《CoMi飞书知识库环境资源准备 (opens new window)》查看。

# 版本变化

CoMi V2.0相比上个版本(CoMi V1.1)新增如下特性:

  • 新增协同知识智能问答,新特性依赖协同全文检索服务向CoMi推送文档数据
  • 向量知识库搜索新增全文检索、混合检索特性,新特性依赖ReRank模型进行检索重排序
  • 新增Workflow工作流编排智能体
  • 新增向导式安装部署工具,只需一台可以SSH到服务器的客户端电脑即可执行安装部署、启停、配置修改
  • 新增CoMi Server APP服务,如使用CoMi移动APP,需要部署此服务

# CoMi环境准备

# 部署架构图

客户端、协同OA与CoMi V2.0版本相关服务的部署关系如下图所示(图中每个节点对应一个服务,多个服务可以根据情况部署在一台服务器):

1764240667517.png

注意:

  • 协同服务访问公网云服务接口说明:安全助理智能体(无此需求可忽略)会定期采集外部热门威胁情报,需要添加网络白名单的地址:

    • (1) 致远官方漏洞库查询接口:https://service.seeyon.com

    • (2) 国际漏洞库CVE查询工具 :https://www.cve.org ; https://cveawg.mitre.org 详细说明见《CoMi用户操作手册》

  • CoMi系列服务可部署在一台服务器,当前仅支持单机模式,暂无高可用方案

相关服务说及配置要求:

  • 协同OA服务/协同数据库:必须,老客户已部署协同无需增配,全新客户参考协同部署手册准备资源
  • LLM大语言模型:必须,需客户准备,具体要求见后续环境准备章节
  • Embedding文本向量模型:必须,需客户准备,
  • ReRank重排序模型:非必须,需客户准备,具体要求见后续环境准备章节
  • Nginx服务:必须,建议资源不低于 2C/4G/100G ,老客户已部署无需增配,可独立部署、也可部署至协同OA服务器或部署至CoMi服务器,CoMi需要依赖Nginx才能实现与协同OA保持同域和安全通信
  • AI-Engine服务:必须,端口8000,建议资源不低于 4C/8G/200G,推荐与其它CoMi服务部署至一台服务器
  • AI-Manager服务:必须,端口8181,建议资源不低于 4C/16G/200G,推荐与其它CoMi服务部署至一台服务器
  • AI-Security服务:非必须,端口9000,建议资源不低于 4C/8G/200G,仅使用安全助理智能体可选装,推荐与其它CoMi服务部署至一台服务器
  • CoMi Server服务,非必须,端口8081,建议资源不低于 4C/8G/200G,依赖关系数据库存储数据,可复用协同库资源(需要新建一个空库给comi server),仅使用CoMi APP项目才需安装,推荐与其它CoMi服务部署至一台服务器
  • Qdrant向量库:必须,端口6333、6334,建议资源不低于 4C/8G/200G,推荐与其它CoMi服务部署至一台服务器
  • CoMi数据库:必须,支持MySQL、SQLServer、Oracle、达梦、金仓,数据库有版本要求(详见后续章节),建议资源不低于 4C/8G/200G,(满足版本要求的前提下)可复用协同数据库资源,也可与其它CoMi服务部署至一台服务器
  • 协同驾驶舱BI含数据库:非必须,端口8058、5432,智能问数场景需要部署,建议500在线用户资源不低于 16C/32G/300G,更高在线根据实际情况扩大配置。如老客户已部署协同驾驶舱BI,则需要参考智能问数部署手册检查是否需要升级BI程序版本。
  • 全文检索服务:必须,端口和建议资源见全文检索部署手册,建议单独部署
  • 在单台服务器资源足够大的前提下,推荐CoMi系列服务(Ai-Engine、AI-Manager、AI-Security、Qdrant、驾驶舱BI)部署在同一台服务器利于维护

协同OA和CoMi服务的对应关系:

  • 协同OA和CoMi服务是一一对应关系,不允许出现两套OA连接同一个CoMi服务的情况
  • 如使用协同智能搜索知识问答功能,协同会通过ES将文档推送给COMi服务进行向量化,如果两套OA都推送会导致CoMi异常
  • CoMi部署时需要配置协同OA的Nginx访问地址,这个地址是唯一的,故也必须做到一一对应。

# 服务器准备

根据上一章节多个服务可以集中部署在一台服务器原则,以下是生产环境推荐服务器规划(项目上可根据实际情况自行调整):

服务器 数量 配置要求 备注
Nginx服务器 1台 CPU>=2C/内存>=4G/数据盘100G 单独部署灵活性更高,但不要求绝对单独部署,推荐Linux/信创系统
CoMi服务器 1台 不含问数CPU>=16C/内存>=32G/数据盘>=500G
含智能问数CPU>=32C/内存>=64G/数据盘>=1000G
包含CoMi系列服务,注意服务器硬件资源是CoMi各服务资源的总和,POC演示环境配置可减半,推荐Linux/信创系统
全文检索 - 阶梯配置参考全文检索部署手册 如需使用协同知识问答,则需要全文检索服务
LLM大语言模型 - - 必备,客户提供
Embedding文本向量模型 - - 必备,客户提供
ReRank重排序模型 - - 非必须,客户提供
协同主服务器 - 见协同部署手册
协同数据库服务器 - 见协同部署手册

大模型作用和推荐:

  • LLM大语言模型:必须,需客户准备。支持公有云和本地化模型,需要提供OpenAI接口请求,同时支持Function Calling功能(如不支持,涉及调用协同和第三方的智能体应用均无法使用)。作用:CoMi使用语言模型进行意图识别、调用决策、分析总结,LLM模型是超级核心。公有云推荐阿里百炼平台 (opens new window)qwen-plus、DeepSeek官网 (opens new window)最新模型(DeepSeek-V3.2-Exp)、火山引擎 (opens new window)最新豆包1.6模型。本地化模型推荐近期较新的开源MOE模型(30B参数起步),所需算力由低到高推荐:Qwen3-30B-A3B-Instruct-2507、Qwen3-Next-80B-A3B-Instruct、Qwen3-235B-A22B-Instruct-2507、DeepSeek-V3.2。生产级本地化模型服务推荐使用高效的vllm推理引擎运行,Tokens上下文建议输入32K以上,输出8K。本地化模型依赖很高的服务器算力,其算力资源由 模型参数大小、量化精度(FP16/INT8/INT4)、激活策略(Moe/Dense)、上下文并发限制 等综合因素决定,建议咨询专业模型厂商落地。
  • 已知不推荐使用的LLM模型为DeepSeek-R1,该模型没有Function calling能力,内部【模型能力测试】 (opens new window)多个功能不可用。
  • Embedding文本向量模型:必须,需客户准备。支持公有云和本地化模型,需要提供OpenAI接口请求。模型需支持不低于8192 Tokens(8K上下文长度)的输入,向量维度默认1024。作用:解决无法检索企业私域知识的关键模型,将企业文本数据转化为向量,实现语义搜索,让CoMi能够实现自然语言检索企业知识的能力。公有云可尝试硅基流动AI平台bge-m3 (opens new window)(以后可较低成本切本地bge-m3模型)、阿里百炼平台text-embedding-v3(如果以后都不切本地模型,可以使用这款)。Embedding模型本地化部署推荐bge-m3。
  • ReRank重排序模型:非必须,需客户准备。支持公有云和本地化模型,需要提供OpenAI接口请求。如需向量检索+全文检索多路召回能力提升检索质量,则必须使用ReRank模型。公有云可尝试硅基流动AI平台bge-reranker-v2-m3 (opens new window)(以后可较低成本切本地bge-reranker-v2-m3模型)。ReRank本地化部署推荐bge-reranker-v2-m3(支持8k token上下文)。
  • 如需了解什么是OpenAI接口,接口应该如何测试可参考《CoMi模型配置操作手册 (opens new window)》中的测试示例。
  • 本地化模型涉及较大成本投入和专业部署技能,不在CoMi部署和方案支持范围内。如客户需要代采,公司战略合作与生态产品团队与模型专业供应商有建联,推出了<致远COMI一体机解决方案-本地大模型>方案,可与政务营销推进部liuxuan联系询价。
  • 如客户具备自主部署维护模型能力,最低算力和相关模型下载地址,可参考《CoMi知识库-硬件成本预估 (opens new window)》在线文档,模型迭代很快,会定期刷新推荐模型。

CoMi相关服务器资源规划: CoMi可以在一台,也可以多个服务分离部署,无论哪种方式需要确保服务器资源足够(避免引发生产系统性能故障)

  • 如单台服务器资源足够大,可以考虑CoMi多个相关服务部署在一起
  • 如服务器充足,或此前已经部署过全文检索、BI,可以复用现有服务器资源,只针对CoMi其它服务准备一台服务器

1762333142783.png

Nginx服务器规划: (服务器数量有限情况下)协同可与Nginx同一台服务器,或者CoMi与Nginx同一台服务器,确保服务器总资源是否满足需求即可:

1758167371127.png

(服务器数量有限情况下)生产环境不推荐CoMi系列服务与文档通、数科、致信等服务部署在一起,避免端口冲突、资源争抢等问题:

1758167829407.png

# 安装包准备

从商务公布的安装程序地址下载(文档中心-文档库-营销中心-营销体系销售管理知识库-产品下载地址-提交给区域产品下载地址xxx.xls),产品线对应AI:

1758163212132.png

# 适配协同版本

CoMi 2.0标准产品随协同V10.0SP1版本匹配发布,即标准支持V10.0SP1版本。

同时也提供了极少量协同低版本适配,CoMi 2.0对V5产品线早期版本适配列表详见《协同版本边界feishu知识库 (opens new window)》,如表格中有打补丁需求,需要严格按表格中的说明操作。

# 商务插件和功能对照

CoMi V2.0需要在协同OA中增加对应插件,详细插件清单和报价以商务公告《V10.0sp1产品上市通知》为准(协同低版本使用CoMi2.0政策详询商务):

1763635526570.png

[CoMi知识库飞书在线文档] (opens new window) 提供了相关插件模块和浏览器兼容性说明。

用户可能不会使用全部CoMi功能,以下针对CoMi关键功能列举所需插件和所需服务:

功能 V5产品线插件 A9C产品线插件 所需服务
★CoMi基础底座-包含设计器 CoMi设计引擎 (需要CoMi超级入口插件) CoMi智能助手 协同服务、LLM模型、Embedding模型、Nginx、AI-Engine、AI-Manager、Qdrant、数据库
协同知识搜索和智能问答 增加 CoMi知识搜索和智能问答 插件、全文检索插件 CoMi智能助手 全文检索服务
智能问数 增加 协同驾驶舱高级版-运行平台CoMi智能问数 插件、以及申请永洪BI报表引擎License - 协同驾驶舱高级版服务
CoMi移动APP CoMi APP模块(需要CoMi超级入口插件) CoMi智能助手 CoMi Server
CAP4接入CoMI Agent组件 增加 CAP+Agent 插件、应用定制平台高级版 -

注:

  • CoMi基础底座是必须组件,所有增值功能都在CoMi基础底座基础上增量运行。
  • 如无需设计器,只需要开箱即用CoMi智能体,则可以申请不含设计器的CoMi基础插件: CoMi运行引擎 、CoMi超级入口。

# 操作系统支持

CoMi V2.0系列服务支持如下操作系统:

分类 支持情况
权限要求 需要以管理员(root)权限操作
支持操作系统 CentOS 7、CentOS 8
RedHat 7、RedHat 8
openEuler 24.03-LTS
Anolis 8.10
Ubuntu 22.04 LTS
麒麟V10
统信UOS V20
服务器类型 x86、Arm

如无特殊要求,不建议使用Windows系统部署CoMi:没有部署工具、部署繁琐、易出错!

# 适配数据库版本范围

CoMi V2.0支持的数据库版本要求如下,不在版本范围的数据库不可用:

  • mysql5.7、mysql8.0
  • 达梦8.4
  • 人大金仓(电科金仓)V8R6(Oracle兼容模式)
  • postgreSQL 13.3
  • sqlServer 2019
  • oracle 19c(其它Oracle版本不支持)

数据库参数配置兼容要求与协同OA一致,故可以复用协同OA数据库服务(新建comi的数据库)。

(不涉及信创合规性)也推荐快速部署MySQL,实现comi单独数据库维护:

# CoMi系列服务部署方式

# 部署模式和资料

CoMi V2.0系列服务支持多种部署方式,项目上可根据用户情况选择合适的部署模式:

方案 部署方式 支持操作系统 部署说明 推荐指数 部署手册
方案1 向导式部署 Linux、信创系统 自动安装CoMi基础服务,浏览器网页可视化启停+调整参数,简单易用
当前方案不支持自动部署如下服务:Nginx、全文检索、数据库,这些服务需要手工部署
★★★★★ 手册链接 (opens new window)
方案2 Docker容器部署 Linux、信创系统 自动安装docker和CoMi基础服务,包括智能问数、Nginx均可自动安装,适合快速搭建出效果,需要具备一定Linux维护经验
当前方案不支持自动部署如下服务:全文检索,这个服务需要手工部署
★★★★★ 手册链接 (opens new window)

方案一部署视频学习路径: 协同云→赋能中心→致远学院→搜索 CoMi V2.0使用智能工具部署演示

方案二部署视频学习路径: 协同云→赋能中心→致远学院→搜索 CoMi V2.0使用Docker部署演示


其它独立服务部署手册如下:

编号 服务名 支持操作系统 部署说明 部署手册
1 Nginx Linux、信创系统 Nginx部署手册参考 (opens new window)
2 全文检索 Windows Server、Linux、信创系统 10.0SP1全新部署后无需打补丁
早期版本全文检索需要打补丁
全文检索10.0SP1部署手册参考 (opens new window)
全文检索老版本补丁更新手册 (opens new window)
3 数据库 Windows Server、Linux、信创系统 可复用协同数据库,但注意检查适配版本 MySQL8部署手册参考 (opens new window)
4 智能问数 Windows Server、Linux、信创系统 向导式部署工具支持自动部署智能问数,只有无法使用向导式工具场景才需参考手册独立部署 协同驾驶舱V3.0独立部署手册 (opens new window)

# 部署方案示例

以下提供几种场景下服务部署方案示例:

场景一:V10.0SP1信创新客户使用CoMi2.0全家桶(CoMi基础应用、智能问数、CoMi Server APP、协同知识检索)

场景一顺序部署方案:

注:场景一没有推荐CoMi使用Docker一体化部署,是因为一体化部署使用了MySQL和Postgresql数据库,客户信创可能过不了。

场景二:非信创老客户(如V9.0SP1版本)使用CoMi2.0全家桶(CoMi基础应用、智能问数、CoMi Server APP、协同知识检索)

场景二顺序部署方案:

编撰人:het、admin