奇点软件
奇点慧语 AI 解决方案
助力企业
数据安全, 模型自由

我们致力于为企业提供大模型应用私有化部署解决方案——奇点慧语,以帮助企业轻松实现 AI 能力的快速落地。

立即在 Demo 中体验

私有化部署,即将应用系统和 AI 模型部署在企业自有的服务器,而非在云服务商平台(如阿里百炼、文心智能体、扣子、腾讯元器等)上构建智能体应用。

我们提供的 AI 应用系统(奇点慧语)运行在企业服务器上。AI 模型的私有化部署属于可选项,企业可根据自身需求和预算灵活决策。

组成部分 私有化部署
AI 应用 ✅ 总是
AI 模型 🟢 可选

目前,要运行开源 AI 模型 DeepSeek-R1 671B 满血版,对算力服务器的最低要求较高,硬件成本较贵。

索引

为什么要私有化部署
为什么选择我们
产品形态
技术特点
集成到主系统
部署

为什么要私有化部署

私有化部署是一种战略性选择,帮助企业全面掌控自己的 AI 应用环境与数据。

数据安全,自主掌控:私有化部署确保敏感对话、机密信息(如知识库)和商业洞察始终存储于自有服务器。如果企业选择私有化部署开源 AI 模型,那么所有与 AI 的交互数据将完全由企业自主掌控,避免数据泄露风险。

灵活选择,无缝切换:AI 技术的快速更新迭代,企业需要能够迅速适应技术变化。我们的方案实现了智能体与 AI 模型的彻底解耦,使企业能够随时切换 AI 模型,同时确保所有智能体定义、交互数据、长期记忆等无缝继承,无需额外的重新适配。

知识沉淀,持续升级:企业与 AI 的交互数据不仅是重要的业务资产,更是持续优化 AI 服务的基础。我们设计的架构确保了这些宝贵数据不会因模型变更而失效,企业得以持续积累并有效利用过往的知识和洞察,不断增强 AI 服务的效果。

选择我们的私有化部署解决方案,即意味着企业将 AI 模型的选择权掌握在自己手中,避免沉没成本的产生,真正掌握 AI 技术发展的主动权。

为什么选择我们

有开源 AI 应用或平台,为什么选择我们?

  • 当开源方案无法满足企业个性化需求时,企业将面临等待,或自行开发的困境。我们则提供快速响应、量身定制的开发服务,保障需求高效落地。
  • 当企业希望在现有业务系统中融入 AI 能力时,很难找到刚好能满足需求的开源方案,并且融合工作只能自己完成。
  • 我们在架构设计上已经做了充分的考量,可以方便的将 AI 能力提供给企业,无论是作为独立平台,还是作为现有系统的一部分。
  • 我们擅长多模型融合,充分发挥每个模型的优势。
  • 我们在 AI 长期记忆能力方面拥有深入研究和实践,确保 AI 能更准确地理解和服务用户。
  • 我们对知识库的语义检索理解深入,能够根据具体业务需求进行优化,提升检索与回答的准确性。
  • 我们已构建相对成熟、完整的企业级 AI 应用技术平台,确保企业快速、高效落地 AI 能力。

产品形态

企业既可以将我们的方案作为独立的 AI 平台,也可以将其融合到现有的业务系统中。

作为独立的 AI 平台

企业可通过我们的平台,基于提示词、知识库、自定义工具等快速构建特定用途的智能体。

与公共平台(如阿里百炼、文心智能体)构建智能体的区别在于:

  • 企业的数据(知识库、自定义工具信息及交互数据等)完全存储于企业服务器。
  • 企业可随时切换至性能更佳的 AI 模型,原有的智能体定义、交互数据与记忆信息均可无缝继承使用,无需额外调整。
  • 我们能针对企业提出的特殊需求快速响应,定制开发。

作为模块融合到现有系统

企业如希望在现有系统中添加 AI 能力,我们可提供完整的定制开发与集成服务。

典型案例:

  • 基于特定知识库的智能检索与问答。
  • 热点事件的实时搜索、智能分析与推送。
  • 业务流程中自动校验用户提交资料的完整性与合规性。

技术特点

多模型融合

当前尚无单一模型能满足所有需求。有的模型擅长逻辑推理,但不能调用工具,有的模型又相反,还有的模型擅长分析图像,但其他方便能力又弱。

下表列出几个开源模型的特点。

类别 模型 特点
推理模型 DeepSeek-R1 推理能力强,但不支持调用工具
QwQ-32B 推理能力较强,但不支持调用工具
R1 蒸馏版 推理能力较强,但不支持调用工具
基础模型 DeepSeek-V3 支持工具,但不支持图像输入,且上下文短
Qwen2.5 支持工具,但不支持图像输入,且智商较低
专用模型 Qwen2.5-vl 支持图像分析,但其他能力弱
SD 系列 支持图像生成,但无其他能力
CosyVoice 支持语音生成,但无其他能力
Whisper 支持语音识别,但无其他能力

我们将模型分类后,根据各自特点进行搭配和融合:

  • 赋予推理模型(如 DeepSeek-R1)调用工具的能力,如搜索网络、执行代码、生成图像等。
  • 赋予基础模型(如Qwen2.5)在需要时(如遇到难题时)进行深度思考的能力。
  • 将专用模型构建为主 AI 可调用的工具(如图像生成或分析),或作为系统的输入输出支撑(如语音输入输出),进而构建出支持文本、图像、语音输入输出的多模态 AI 系统。

多种内置工具

系统已内置常用的 AI 可调用工具:

  • 搜索网络。
  • 打开网页读取其内容。
  • 读取用户上传的文件。
  • 从知识库中检索信息。
  • 分析用户上传的图像,提取图像描述和文本。
  • 生成图像。
  • Python 运行环境:AI 可在此环境中执行代码,以完成复杂的逻辑处理、数据分析、数据的图表可视化等任务。
  • 记忆管理:AI 在与用户的交互过程中能够自主识别并记录重要的信息,并形成记忆,以便在后续的对话和任务处理中使用。

自定义工具

企业可以根据标准方法自定义 AI 可调用工具函数,并将其便捷地添加到我们的系统中。这些自定义工具函数可在 AI 处理任务时按需调用。

典型的应用场景是通过这种方式赋予 AI 访问企业内部数据库的能力。

我们还会提供 MCP 协议的支持,以降低了企业在自定义工具接入过程中的技术门槛,使企业能够快速、简便地扩展 AI 功能。

长期记忆

我们赋予 AI 长期记忆的能力,由 AI 根据智能体中预设的提示指令管理并使用用户的记忆信息。

典型应用场景包括:

  • 在常规智能对话过程中,AI 会自主判断并记录用户的偏好、文风等个性化信息。
  • 将用户在特定办事流程的状态组织为记忆,协助用户快速、准确的完成办事流程。
  • 将用户进行智能问答所需提供的信息组织为记忆,避免用户每次请求时重新输入。

知识库

我们提供全面且深入的知识库支持,帮助企业高效构建基于知识库的 AI 应用。

基于大模型的企业应用,通常都是建立在企业知识库的基础之上。其核心是基于语义的搜索,而非传统的关键字搜索。具体而言,一个典型的知识库智能问答处理过程包括:AI 根据用户的请求,在需要时从知识库中检索相关信息,然后将检索到的信息,与用户的请求、上下文、用户的信息(如来自于记忆中的信息)进行综合分析,生成响应。

我们的系统将提供对知识库的全面支持:

  • 在定制应用或智能体中便捷地上传、管理或删除知识库。
  • 自动对上传的知识库进行语义向量化处理,并存储于向量数据库中,以支持语义搜索。
  • 根据用户的请求在向量数据库中进行语义搜索。
  • 根据知识库的特点或用途进行针对性调优。

知识库向量化(语义化)的基础方法是将知识库拆分为小段文本,对每一段这样的文本用特定的 AI 模型(词嵌入模型)进行处理,生成语义向量(一段包含语义信息的固定长度的字节序列)。

我们发现,简单的向量化处理及搜索一般效果不佳。为此,我们采取多种技术手段和方法来提升知识库搜索效果。需要时,还可以根据知识库的特点和用途进行特定处理和调优。

AI-API 池

针对同一种 AI 模型,我们可同时维护多个算力来源的 AI-API(如来自不同云服务商或企业自有的算力服务器),共同构成 AI-API 池。系统自动监控各 API 的可用性和性能状态,动态地选择最合适的 API 发起请求,从而确保系统的性能和可用性。

AI-API-hub

为简化企业使用云服务 AI 的流程,我们提供了一个统一的 AI-API-hub,支持主流云服务的 AI 接口。企业无需逐个向云服务商申请 AI-API-key,而是直接通过我们的 AI-API-hub 转发 AI 请求,并定期进行对账结算。

我们的保密协议严格保障企业信息安全,我们不会记录或查看通过 hub 转发的任何 AI 交互数据。

其他能力和特性

  • 自适应多端设备(电脑、平板、手机)。
  • 对字体缩放提供优良支持。
  • 支持定制模板 Word 文档导出。

集成到主系统

我们的应用采用恰当的架构设计,可以方便地集成到企业现有的系统(主系统)中。

支持多种形态的主系统。

主系统 App 形态 可集成否
Web App
微信小程序
安卓原生 App
iOS 原生 App

可使用主系统的账号系统,以支持单点登录。

后端服务与数据库独立于主系统,也可将数据库组织到主系统数据库中。

通过主系统的反向代理,将系统的前后端挂载到主域名或子域名的特定路径下,完成最终的整合。

部署

应用部署

我们的应用可部署于企业的主系统服务器,或专用的服务器上。无论选择哪种方式,都支持通过 Docker 容器进行一键部署。

模型部署

我们将根据企业选择的开源模型组合,提供完整的部署脚本以及预先下载好的模型代码和权重参数等资源,在企业本地机房或云服务算力服务器上一键部署模型服务。

支持英伟达、AMD、华为昇腾等主流的算力服务器。

通过云服务 API 获取 AI 服务

若企业选择通过云服务 API 获得 AI 服务,则无需购买或租赁算力服务器。在这种方式下,企业需要向云服务商(如阿里云、DeepSeek、火山引擎等)注册并申请 AI-API-key。

如果企业希望自主管理 AI-API-key,我们将协助完成包括注册账号、实名认证、充值、创建和配置 API-key 等一系列申请流程。

我们也提供了统一的 AI-API-hub,企业无需逐一向云服务商申请 AI-API-key,直接通过 AI-API-hub 统一转发 AI 请求,定期与我们进行流量对账结算即可。