# 什么是AI模型对话
本文档能解决如下问题:
什么是AI模型对话?
AI模型对话适配哪些版本?
AI模型对话支持哪些大模型?
AI模型对话涉及哪些工作事项才能使用?
AI模型对话部署环境要求、服务器配置?
AI模型对话如何找到部署手册和安装包?
AI模型对话部署需要的技能和交付成本?
AI模型对话产品特点和具体效果是什么?
# 什么是AI模型对话?
“模型对话”是产品智能助手下的一个子插件,为客户在协同办公场景提供快速接入大模型使用的入口,用户可以直接登录OA使用私有化、公有化部署的大模型通用能力。并支持用户自由切换自己想使用的大模型进行问答。
通俗说:我们将以前网页访问AI网站进行提问和获得答案的交互内置到协同OA办公系统内,让协同OA办公系统内的员工直接使用这套问答交互。产品明确支持接入DeepSeek等AI模型,具体使用哪种模型产品由客户自己决定(模型成本由客户自己出,不在产品插件报价中)。
“模型对话”不会提取、学习协同OA系统内的数据和文档资料,学习协同OA系统内数据并生成推荐答案的能力请使用V5产品“智能助手”下的“智能问答”子插件。
应用特征:
- 多样大模型可视化快速接入:支持公有/私有大模型的可视化管理接入。涵盖DeeepSeek、通义千问、GPT等主流大模型。
- 用户自由切换大模型:用户侧可自由切换大模型使用。
- 模型通用能力:支持模型通用开放文本生成、知识推理、基于上下文理解追问回答的多轮会话能力。
- 双端支持:支持电脑、移动端的使用。
- 免二次登录:登入OA后无须再次登录,即可全员使用。
# 适配哪些OA版本?
“模型对话”适配V8.0及以上版本,每个版本要求对应BuildID。
由于每个大版本下都有若干小版本(如月度修复包),无法对所有小版本适配,安装部署时务必检查客户BuildID是否匹配,不匹配则需要升级到对应BuildID再打“模型对话”插件补丁。
如客户需要使用移动端M3打开模型对话应用,需要确保客户个人的M3 APP(iOS和Android)版本大于等于4.7.5,并且从百度申请对应的APP授权。
# 支持哪些大模型?
能够接入满足openai规范的大模型(覆盖市面主流),其他情况下有一定的适配工作量。 目前支持接入如下大模型:
模型名 | 备注 |
---|---|
DeepSeek | |
通义千问 | |
ChatGpt |
# 模型对话的运行流程和相关组件有哪些?
启用模型对话插件时,涉及如下三个相关组件,各自组件的作用及提供方如下:
编号 | 组件名 | 组件作用 | 提供方 | 预计成本 |
---|---|---|---|---|
1 | 协同OA服务-模型对话插件 | 提供应用访问入口和交互 | 致远 | 0.5人天 |
2 | 模型管理服务 | 一个独立的微服务,使用模型对话时需要进行部署,所需资源2核心4G内存 | 致远 | 0.5人天 |
3 | 三方大模型 | 依赖DeepSeek之类的三方大模型(可能涉及额外费用),用于接收问题并通过复杂的内部运算给出优质方案的AI引擎 | 客户 | - |
注意:
1、三方大模型组件,这个需要辛苦客户选型并实施落地,这个三方大模型组件不在致远的服务范围。
2、接入公有云的大模型通常都涉及费用(很多厂商目前价格并不贵),具体咨询公有云官方客服。
一个正常的模型对话运行流程如下图所示:
# 涉及哪些工作事项?
1、更新加密授权:客户经理从致远商务侧下单对应版本的智能助手-模型对话插件,项目组在服务器上更新加密狗
2、打功能补丁:确保客户的版本和BuildID是在适配范围,然后打对应版本的“模型对话”补丁包
3、部署模型管理服务:新增服务器,部署致远的AI模型管理服务,用于协同OA和三方大模型的桥接,详细可见“模型管理服务部署手册”
4、客户自行准备大模型:需要客户参考支持的大模型范围自行准备对应的模型服务,模型的采购、订购、部署成本都不在本产品支持范围
建议采用公有云大模型,成本低、见效快;私有化部署自建应用动辄几十万的成本起步,周期也很长
# 部署环境要求和配置怎么样?
协同OA服务无需硬件升级。
模型管理服务只需要准备2核心4G内存的服务器(如协同OA服务器资源充足,可以将模型管理服务部署在当前服务器下)。
三方大模型:
- 需要确保大模型在产品的适配范围内
- 如采用公有云大模型,需要确保模型管理服务能访问公有云大模型即可,使用公有云大模型涉及费用请联系大模型官方
- 如采用私有化部署,请用户咨询专业厂商提供专业的解决方案,确保模型管理服务能访问私有化大模型即可
# 如何找到部署手册和安装包?
详见模型管理服务部署手册。
# 部署需要的技能和交付成本?
1、打补丁:普通顾问完成
2、部署模型管理服务:区域技术顾问即可完成,预计工作量0.5-3人天。
3、配置大模型(公有云):普通顾问即可完成。
4、部署配置私有云大模型:客户方专业化运维团队或供应商专业私有化部署团队。
# 产品功能和具体效果
# 模型对话产品特点
- 多样大模型可视化快速接入:支持公有/私有大模型的可视化管理接入。涵盖DeeepSeek、通义千问、GPT等主流大模型。
- 用户自由切换大模型:用户侧可自由切换大模型使用。
- 模型通用能力:支持模型通用开放文本生成、知识推理、基于上下文理解追问回答的多轮会话能力。
- 双端支持:支持电脑、移动端的使用。
- 免二次登录:登入OA后无须再次登录,即可全员使用。
# 模型对话终端支持
模型对话支持:
- PC端Web浏览器
- 移动端M3 APP
# 界面与功能清单
# (一)界面介绍
PC端主界面:
通过登录WebOA后,点击右下角智能助理悬浮窗,展开智能助理侧边栏,具体效果详见下图。
移动端主界面:
打开M3 APP登录后点击右下角智能助理悬浮窗,进入智能助理对话页,具体效果详见下图。
# (二)功能清单
功能名称 | 描述 | |
---|---|---|
1 | 大模型接入 | 支持接入私有化、公有化部署的大模型。 |
2 | 对话问答 | 支持大模型通用能力/逻辑推理能力的问答。 |
3 | 多轮对话 | 支持基于上下文理解的多轮会话问答。 |
4 | 新开对话 | 支持新开会话,重新打开智能助理按钮实现。 |
5 | 清空内容 | 支持清空内容,通过侧边栏右上角清空按钮实现。 |
6 | 停止生成 | 支持停止答案生成,通过停止按钮实现。 |
7 | 引用模型显示用户自由切换 | 输入框右上方区域会显示引用大模型名称。点击下拉可自由切换接入的大模型。 |
8 | 展开窗体 | 可以通过展开按钮,拉伸模型对话窗体尺寸,使得显示更多模型回答的内容。 |
9 | 自定义助手名称 | 支持自定义助手名称,通过后端配置实现(非页面功能需手动配置)。 |
10 | 添加自定义提示 | 支持对话窗内左下角添加自定义提示文案,通过后端配置实现(非页面功能需手动配置)。 |
11 | 对话模型头像 | 支持客户自定义为自己的模型头像,后端配置实现(非页面功能需手动配置)。 |
# 操作介绍
# (一)入口
PC-Web入口: 通过登录WebOA后,点击右下角智能助理悬浮窗,展开智能助理侧边栏进入。
移动M3 入口: 打开M3 APP登录后点击右下角智能助理悬浮窗,进入智能助理对话页。
# (二)基本使用
问题输入与发送: 用户可从输入框中进行问题输入,点击发送按钮后完成提问。移动端支持语音输入。
对话框展开-PCWeb: 当大模型回答内容过长时,用户可点击"展开按钮",显示更多回答内容,减少滚动条的出现。
多轮对话: 用户可以通过多轮对话,实现对同一个问题的追问,补充提问等。
收起助理: 用户不想继续使用"模型对话"时,可点击右上角"收起按钮",对模型对话侧边栏进行收起。移动端M3用户可点击页面右上角"x"关闭对话窗口。
# (三)新开会话
每次关闭智能助理或者重新登录OA后,都会默认自动新开会话。
# (四)清空内容
当多轮会话后大模型陷入循环或者回答出现明显幻觉时,可通过"清空对话"按钮断开上下文关联。具体效果详见下图:
# (五)停止生成
在大模型思考回答用户提问时,输入框的发送按钮,会变为停止按钮,如果用户不希望大模型继续生成回答,或者发现提问有误时,可点击"停止按钮",让大模型停止输出回答,进行重新提问。具体效果详见下图:
# (六)模型显示、用户自由切换
接入模型后,对话输入框右上角区域会显示引用模型。点击下拉框显示接入模型列表,可以自由切换选择其他大模型进行对话。具体效果详见下图:
# 维护与管理功能
# (一)模型接入/切换
边界说明: 支持接入私有化、公有化的满足OpenAI规范的大模型【例如:DeepSeek、通义千问等】,不提供模型部署服务仅接入管理。
部署说明: 模型的切换与接入具体操作详见《模型对话部署配置手册》。
# (二)自定义助手名称
边界说明: 支持用户自定义"模型对话"名称,不提供页面功能,通过后端配置实现(非页面功能需手动配置)。
实现说明: "模型对话"名称自定义具体实现方式详见《模型对话部署配置手册》。
# (三)添加自定义提示
边界说明: 支持用户在对话窗体左下角添加自定义"提示文案",不提供页面功能,通过后端配置实现(非页面功能需手动配置)。具体实现效果详见下图:
实现说明: 自定义备注提示文案的实现方式详见《模型对话部署配置手册》。
# (四)模型对话头像自定义
边界说明: 支持自定义模型回答头像,系统默认提供3套对应大模型的头像,用户可自行替换。具体实现效果详见下图:
实现说明: 模型回答头像的替换,具体实现方式详见《模型对话部署配置手册》。
快速跳转
