页面树结构

版本比较

标识

  • 该行被添加。
  • 该行被删除。
  • 格式已经改变。

...

1、大模型硬件建议

LLM⼤模型基座组件

❖ 该组件推荐硬件配置要求推荐使用云厂商的在线大模型,例如阿里云千问、Deepseek、火山引擎、华为云、腾讯云等。

如果需要在本地部署大模型(例如qwen 2.5 72b),推荐硬件配置要求:

CPU:支持X86/ARM架构,推荐X86架构,建议跟随GPU显卡去调配CPU等硬件最低配置。 

...

配置显卡
最低配置8*4090 24G
推荐配置8*A100 80G

2、AIChat环境要求

...

AIChat支持X86/ARM架构,推荐X86架构。

1.1. 服务器配置清单注意:小模型版本-目前已经暂停发布小模型版本

组件配置CPU内存硬盘

AIChat核心服务

最低配置

X86/ARM 16核

32G

1TB+

推荐配置X86/ARM32核128G1TB+

(1) 服务器X86 CPU要求支持AVX指令集如果是X86 CPU,则要求支持AVX指令集,否则无法安装 TensorFlow;

(2) 不建议将AIChat 和 Smartbi 部署在同一台服务器上,由于 NLA 对计算和内存资源的使用量均较高,会抢占资源导致卡顿、死机、进程被杀死等问题。

...

30用户并发情况(每用户登录5次,每次登录执行5次查询)(不同大模型表现不一样,对速度会有很大影响;查询内容不同,也会影响大模型响应时间)

1.2. 系统环境要求

AIChat是采用docker容器部署的

因此服务器的系统环境需要支持 docker24AIChat采用docker容器部署,因此服务器的系统环境需要支持 docker 24.02及以上 和 docker-compose 2.21.0 +

...