图形工作站、集群应用方案
  • 网站首页
  • 商城
  • 产品
  • 行业计算
  • 科学工程计算
  • 化学&生物
  • 图形设计
  • 图像处理
  • 视景仿真
  • 人工智能
  • 影视后期
全球领先的高端图形工作站供应商

免费测试 热线 : 400-7056-800 【 为任何应用提供 最快计算设备 如不符,退货】【最新报价】【选购指南】【京东商城】



企业通用模版网站

  • 科研团队全能超算平台25v1
  • 超高分拼接 数字孪生
  • 科学计算MatLAB工作站24
  • 地质建模 油藏模拟工作站
  • 工业CT扫描 机器视觉计算
  • 电力系统关键应用配置24
  • 网站首页
  • 商城
  • 产品
  • 行业计算
  • 科学工程计算
  • 化学&生物
  • 图形设计
  • 图像处理
  • 视景仿真
  • 人工智能
  • 影视后期
  • 送无人机啦 8核6.4GHz  96核4.8GHz 加速改装 

  • 高性能集群 虚拟并行计算 芯片设计 光学仿真 

  • 蛋白质预测 生物信息 冷冻电镜 材料模拟

  • RSS订阅
  • 理科计算推荐
  • 仿真计算最快最完美25v1
  • 电磁仿真单机与集群25v1
  • 航拍实景建模单机集群
  • 遥感图像处理工作站集群
  • 4K/8K剪辑特效调色24v1
  • AI大模型工作站集群25v1
  • Abaqus硬件配置大全24v3
  • CST电磁仿真工作站25v1
  • 多物理场仿真单机与集群
  • 流体/空气动力学仿真25v1
  • 量子化学 分子动力模拟
  • 三维设计24v2  3D打印

 

您的位置:UltraLAB图形工作站方案网站 > 人工智能 > 硬件配置报价 > 大模型Qwen 2.5 系统和硬件配置要求

大模型Qwen 2.5 系统和硬件配置要求

时间:2025-02-11 23:32:24   来源:UltraLAB图形工作站方案网站   人气:19032 作者:管理员

Qwen 2.5系统和硬件配置要求

探索阿里巴巴在人工智能领域的最新创新Qwen 2.5模型的开创性功能。从多功能的 Qwen 2.5 到编码、数学、视觉语言和音频方面的专业变体,这些模型在各种任务中提供卓越的性能。Qwen 2.5 模型的大小从 0.5B 到 72B 参数不等,可满足各种计算资源和应用程序需求。了解这些最先进的模型如何突破 AI 的界限,从自然语言处理到多模态理解。

规范

Qwen 2.5-0.5B

Qwen 2.5-1.5B

Qwen 2.5-3B

Qwen 2.5-7B

Qwen 2.5-14B

Qwen 2.5-32B

Qwen 2.5-72B

GPU内存

398MB

986MB

1.9GB

4.7GB

9.0GB

20GB

 

BF16

 

 

 

 

 

 

134.74GB

2个A100 80GB或

4块RTX4090 48GB

GPTQ-int8

 

 

 

 

 

 

71GB

2个A100 80G或

3块RTX4090 48GB

GPTQ-int4

 

 

 

 

 

 

41.8GB

1个RTX4090 48GB

AWQ

 

 

 

 

 

 

41.31GB

1个RTX4090 48GB

存储空间

<1GB

~2GB

~4GB

 

 

 

 

最大长度

32K tokens

32K tokens

32K tokens

(估计)

32K tokens

32K tokens

32K tokens(估计)

32K tokens

工具使用


支持

可能支持

支持

支持

可能支持

支持

预训练令牌

2.2T



2.4T

3.0T

可能3.0T或更多

3.0T

最小GPU内存(Q-LoRA微调)

5.8GB



11.5GB

18.7GB


61.4GB

最小GPU内存(生成2048个令牌,Int4)

2.9GBGB



8.2GB

13.0GB


48.9GB

许可证

Apache 2.0版本

Apache 2.0版本

Qwen特定许可证

Apache 2.0版本

Apache 2.0版本

Apache 2.0版本

 


Qwen2.5 编码器硬件配置要求

模型

类别

规范

详细参数

Qwen2.5编码器1.5B

技术规格

模型大小

15亿个参数

GPU内存

约986MB

存储空间

~2GB

最大长度

32K tokens(估计)

预训练令牌

未指定,可能在2.2T tokens左右

主要特点

优化的架构

专为编码任务而设计,在性能和资源效率之间实现良好的平衡

处理效率

能够以适度的计算资源处理编码任务

先进技术

采用flash-attention等技术,以提高效率并减少内存使用

语言的多样性

针对编码进行了优化,但保留了一般的自然语言处理功能

系统要求

Python

3.8或更高版本

PyTorch

1.12或更高版本,推荐 2.0+

CUDA

11.4或更高版本(适用于GPU用户)

理想的应用

为中小型项目提供编码协助

代码生成和基本调试

非常适合计算资源有限的个人开发人员或小型团队

适合在没有高端硬件的情况下寻求帮助的开发人员

Qwen 2.5编码器7B

技术规格

模型大小

70亿个参数

GPU内存

4.7GB

最大长度

32K tokens

预训练令牌

2.4T

最小GPU内存(Q-LoRA微调)

11.5GB

最小GPU内存(生成2048令牌,Int4)

8.2GB

性能特点

生成速度(BF16)

37.97个tokens/s(输入长度1)

生成速度(GPTQ-int4)

36.17个tokens/s(输入长度1)

生成速度(AWQ)

33.08个tokens/s(输入长度1)

GPU内存使用情况(BF16)

14.92GB(输入长度1)

GPU内存使用情况GPTQ-int4

6.06GB(输入长度1)

GPU内存使用情况(AWQ)

5.93GB(输入长度1)

主要特点

高级编码功能

与1.5B型号相比,在复杂编码任务中的性能显著提高

增强的上下文理解

由于参数数量更多,因此更好地理解上下文和开发人员意图

支持大型项目

能够处理更广泛和复杂的代码库

编程语言的多功能性

可能为更广泛的编程语言和框架提供支持


Qwen2数学要求

模型种类

类别

规范

详细参数

Qwen2-Math 1.5B

技术规格

模型大小

15亿个参数

非嵌入参数

1.2B

GSM8K性能

58.5%

数学性能

21.7%

MMLU性能

56.5%

C-Eval性能

70.6%

CMMLU性能

70.3%

附加功能

结构

基于Transformer,具有SwiGLU 激活等改进

分词器

针对多种自然语言和代码进行改进和调整

最大上下文

32Ktokens(估计值,基于其他Qwen2模型)

Qwen2-Math 7B

技术规格

模型大小

70 亿个参数

GSM8K 性能

89.9%

数学改进

比其前身高 5.0 分

最大上下文

32K tokens

量化选项

提供BF16、GPTQ-Int8、GPTQ-Int4和AWQ版本

生成速度

BF16型

37.97个tokens/s(输入长度1)

GPTQ-INT4 的

36.17个tokens/s(输入长度1)

AWQ

33.08个tokens/s(输入长度1)

GPU内存使用情况

BF16型

14.92GB(输入长度1)

GPTQ-INT4 的

6.06GB(输入长度1)

AWQ

5.93GB(输入长度1)

Qwen2-Math 72B

技术规格

模型大小

720亿个参数

MATH基准测试

84%

GSM8K性能

96.7%

大学数学成绩

47.8%

MMLU性能

84.2%

GPQA 性能

37.9%

HumanEval 性能

64.6%

BBH 性能

82.4%

附加功能

最大上下文

128K tokens

许可证

特定于Qwen(不像较小的模型那样使用 Apache 2.0)

系统要求 (估计)

GPU内存(BF16)

~134GB(2个A100 80GB或4块RTX4090 48GB)

GPU内存(GPTQ-int8)

~71GB(2个A100 80GB或4块RTX4090 48GB)

GPU内存(GPTQ-int4)

~42GB(2个A100 80GB或2块RTX4090 48GB)

GPU内存(AWQ)

~41GB(2个A100 80GB或2块RTX4090 48GB)


Qwen2 VI硬件配置要求

模型种类

类别

规范

详细参数

Qwen2-VL-2B

模型组成

总大小

20亿个参数

Vision 编码器

675M 参数

法学硕士

1.5B 参数

硬件要求

图形处理器

兼容 CUDA,最低 4GB VRAM

中央处理器

4个内核或更多

RAM

最低8GB,推荐16GB

软件要求

Python

3.8 或更高版本

PyTorch 插件

1.12 或更高版本

Transformers

4.32.0 或更高版本

存储

磁盘空间

约 4GB

性能

MMMU val

41.1%

DocVQA 测试

90.0%

处理能力

图像

最高 2048×2048 像素

视频

持续时间长达 20 分钟

许可证

Apache 2.0 版本

Qwen2-VL-7B

模型组成

总大小

70 亿个参数

视频编码器

675M 参数

LLM

7.6B 参数

硬件要求

图形处理器

兼容CUDA,最低16GB VRAM

中央处理器

8个内核或更多

RAM

最低32GB,推荐64GB

软件要求

Python

3.8 或更高版本

PyTorch 插件

2.0 或更高版本

Transformers

4.37.0 或更高版本

存储

磁盘空间

约14GB

性能

在大多数基准测试中优于 OpenAI GPT-4o mini

处理能力

图像

动态分辨率高达4096×4096像素

视频

持续时间长达20分钟,每秒处理2帧

许可证

Apache 2.0 版本

Qwen2-VL-72B

模型组成

总大小

720亿个参数

视频编码器

675M参数

LLM

72B参数

硬件要求

图形处理器

多个高端GPU,至少2个NVIDIA A100 80GB

中央处理器

32个内核或更多

RAM

最低256GB,推荐512GB

软件要求

Python

3.8或更高版本

PyTorch 插件

2.0或更高版本

Transformers

4.37.0或更高版本

存储

磁盘空间

超过130GB

性能

MathVista、DocVQA、RealWorldQA 和 MTVQA 的最新技术

处理能力

图像

无理论限制的动态分辨率

视频

持续时间超过20分钟,具有高级帧处理功能

访问

通过官方 API 提供


Qwen2 音频硬件配置要求

模型种类

规范

详细参数

模型组成

总大小

70亿个参数

视频编码器

675M 参数

LLM

7.6B 参数

硬件要求

图形处理器

兼容CUDA,建议至少 16GB VRAM

中央处理器

8个或更多内核以实现最佳性能

RAM

最低32GB,推荐64GB或更高

存储

至少20GB的可用磁盘空间用于模型和依赖项

软件要求

操作系统

Linux(建议使用 Ubuntu 20.04 或更高版本)、带有 WSL2 的 Windows 10/11 或 macOS 11 或更高版本

Python

3.8或更高版本

PyTorch 插件

2.0或更高版本,使用CUDA支持编译

Transforms

4.37.0或更高版本,建议从 GitHub 安装最新版本:
pip install git+https://github.com/huggingface/transformers

Librosa

用于音频处理的最新稳定版本

FFmpeg

音频文件作需要

其他依赖项

  • CUDA 工具包:版本 11.4 或更高版本
  • cuDNN:版本与已安装的 CUDA 版本兼容
  • Numpy:最新稳定版本
  • SoundFile:用于读取和写入音频文件
  • Torchaudio:用于 PyTorch 中的音频处理

网络要求

互联网连接

用于模型下载的稳定连接(约 14GB)

推荐带宽

100 Mbps 或更高速度,实现快速下载

处理能力

图像

动态分辨率高达 4096×4096 像素

视频

持续时间长达 20 分钟,每秒处理 2 帧

性能

在大多数基准测试中优于 OpenAI GPT-4o mini

许可证

Apache 2.0 版本


市场上唯一---6块5090D水冷静音混合计算GPU工作站王者配置推荐25v1

https://www.xasun.com/article/43/2931.html

用中文训练更快-满血版Deepseek R1本地部署服务器/工作站硬件配置精准分析与推荐2025v1

https://www.xasun.com/article/110/2929.html


关闭此页
上一篇:没有了
下一篇:只需RTX4090单卡--搞定671B大模型推理!清华黑科技+4090保姆级攻略(附配置清单)

相关文章

  • 05/09Xeon6代+4块GPU--图灵超算工作站GT450M介绍
  • 05/09汽车风阻测试模拟分析、算法,及服务器/工作站计算设备硬件配置推荐
  • 04/26高频交易(HFT)应用分析、算法,服务器/工作站硬件配置推荐
  • 04/25衍生品定价与风险对冲应用分析、算法,及服务器工作站硬件配置
  • 04/25量化交易策略应用算法分析、服务器工作站硬件配置
  • 04/24金融风险管理应用算法分析、服务器/工作站硬件配置推荐
  • 04/19油藏模拟软件的算法分析以及图形工作站/服务器硬件配置推荐25v2
  • 04/17大型3D设计软件CATIA-算法分析与图形工作站硬件配置
  • 04/17Cadence EDA主要软件计算特点分析,服务器/工作站硬件配置推荐
  • 04/16Synopsys EDA主要软件计算特点分析,服务器/工作站硬件配置推荐

工程技术(工科)专业工作站/服务器硬件配置选型

    左侧广告图2

新闻排行榜

  • 1XASUN高端定制图形工作站介绍(2011版)
  • 2比传统服务器快50倍-SSD服务器配置方案
  • 32024年人工智能训练与推理工作站、服务器、集群硬件配置推荐
  • 42023年ChatGPT/AI多模态计算集群硬件备选方案
  • 5GPU超算服务器配置推荐-机房专用型
  • 62024快速组建深度学习集群系统配置方案
  • 7支持A100+水冷---人工智能推理超级工作站硬件配置推荐
  • 82024年最强大的深度学习多机集群配置推荐
  • 9主流网站服务器硬件配置与报价2009/05/25
  • 10渲染农场绝配-48核intel原装模块服务器

最新信息

  • AI计算+仿真计算+科学计算—科研团队GPU超算服务器配置推荐
  • 6块A100/H100+水冷--Deepseek最强大静音工作站配置推荐
  • 8块GPU+大显存--基于RTX6000Ada静音工作站配置推荐
  • 最大8块GPU+大显存--基于RTX A6000静音工作站配置推荐
  • 市场上唯一---6块5090D水冷+2颗Xeon5代静音混合计算GPU工作站王者配置推荐25v1
  • 只需RTX4090单卡--搞定671B大模型推理!清华黑科技+4090保姆级攻略(附配置清单)
  • 大模型Qwen 2.5 系统和硬件配置要求
  • 最新最全AI训练与推理、大模型、生成式AI应用工作站/机架式/便携式服务器配置推荐2024v3

应用导航:

工作站产品中心 京东商城 中关村商城 淘宝商城 超高分可视化商城 便携工作站商城 ANSYS CATIA Microsoft INTEL NVIDIA 网站统计

公司简介-业务咨询-招聘英才-资料下载-UM-

本网站所有原创文字和图片内容归西安坤隆计算机科技有限公司版权所有,未经许可不得转载
陕ICP备16019335号 陕公网安备61010302001314号
Copyright © 2008-2023 , All Rights Reserved

首页
热线
商城
分类
联系
顶部